歐盟達成《人工智能法》協議,為生成式AI設立版權規則_人工智能:ATG

来源:澎湃新闻

记者方晓

图片来源:由无界AI工具生成

·欧盟拟要求开发ChatGPT等生成式人工智能工具的公司披露是否在系统中使用了受版权保护的材料。该协议为世界上第一部综合性人工智能法律《人工智能法》铺平道路,预计将产生全球性影响。

当地时间4月27日,经过几个月的紧张谈判,欧洲议会成员已经弥合分歧,就《人工智能法》提案达成临时协议,要求部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的受版权保护的材料。该协议为世界上第一部综合性人工智能法律铺平道路。

金色晨讯 | 12月26日隔夜重要动态一览:21:00-7:00关键词:Ripple、Zilliqa、比特币创新高

1.北京金融科技创新监管试点第三批应用对外公示;

2.Ripple总法律顾问:SEC精心挑选并删减了事实;

3.仅五只美国股票在2020年的表现优于比特币;

4.Bitstamp将暂停所有美国客户的XRP交易及存款;

5.Zilliqa:已引入临时修复程序 网络恢复正常交易;

6.国家邮政局徐婧:邮政业要积极运用区块链等信息技术;

7.欧盟委员会提议设立规模为50亿欧元的脱欧调整储备金;

8.比特币持续上涨,日内最低报23989.26美元,最高报24777.77美元。[2020/12/26 16:33:30]

在定于5月11日进行的关键委员会投票前,提案文本可能仍需在技术层面上进行细微调整,6月中旬预计将进行全体投票。

金色晨讯 | 6月20日隔夜重要动态一览:21:00-7:00关键词:DeFi、詹克团、港交所、钱包漏洞

1. DeFi代币总市值突破50亿美元。

2. 詹克团:作废公章不能代表比特大陆,非法使用需承担法律责任。

3. 港交所总裁:港交所从来没有要进军数字货币领域。

4. 非洲已成为第二大比特币P2P交易市场。

5. 欧科云链信托注册为信托公司申请获批。

6. 研究人员发现以太坊钱包Argent出现高危漏洞。

7. 青岛工业楼宇重点发展区块链等新兴产业。[2020/6/20]

最后一刻的变化:生成式人工智能监管

《人工智能法》预计将成为欧盟一项具有里程碑意义的立法,已经酝酿了两年多。立法者提议根据他们认为的风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府和公司将根据风险级别承担不同的义务。

金色晨讯 | 1月31日隔夜重要动态一览:21:00-7:00关键词:CME、CFTC、美国众议员、瑞士

1. CME高管:CME比特币期货交易量已超1000亿美元;

2. CFTC主席预计以太坊期货即将推出;

3. 柬埔寨将推出中央银行数字货币付款系统;

4. 瑞士采尔马特镇接受BTC缴税;

5. 奔驰将使用区块链追踪钴供应链的碳排放;

6. 美国众议员:支付系统架构需要改变,代币是很好的方法;

7. 以太经典的FCAS评分再创新高,跃升第4位;

8. 美国众议员:对数字支付创新的批评可能会扼制其进展;

9. V神:DeFi正确的术语应该是债务抵押债券头寸。[2020/1/31]

该法案范围广泛,将管辖所有人工智能产品或服务的提供方,涵盖可以生成内容、预测、建议或影响环境的决策的系统。

除了企业对人工智能的使用外,法案还将研究公共部门和执法部门使用的人工智能,并与《通用数据保护条例》等法律协同工作。与人类互动、用于监视目的或生成“深度伪造”内容的人工智能系统的使用者将面临严格的透明度义务。

直到最后一刻,欧盟立法者还在对提案中一些最具争议的部分进行讨论。

“通用目的人工智能系统”是立法者提出的一个类别,用于解释具有多个应用程序的人工智能工具,例如ChatGPT这样的生成式人工智能模型。如何处理“通用目的人工智能系统”一直是讨论中争论激烈的话题。欧洲议会确认了之前的提案,即对“通用目的人工智能系统”的一个子类别——基础模型施加更严格的要求。根据要求,开发ChatGPT等生成式人工智能工具的公司必须披露他们是否在系统中使用了受版权保护的材料。

协议达成前夕唯一重要的变化就是关于生成式人工智能模型,“这些模型的设计和开发必须符合欧盟法律和基本权利,包括表达自由。”

《人工智能法》还禁止“有目的的”操纵。“有目的的”这个词有争议,因为可能难以证明故意性,但仍被保留下来。

另外,在执法、边境管理、工作场所和教育领域,法案要求禁止使用AI驱动的情绪识别软件。

欧盟立法者对预测性警务的禁令从刑事犯罪扩展到了行政犯罪,其依据是荷兰儿童福利丑闻,该丑闻中成千上万的家庭因有缺陷的算法而被误判为欺诈。

高风险分类变化

许多人工智能工具可能被认为是高风险的,例如用于关键基础设施、执法或教育的工具。它们比“不可接受”低一级,因此不会被完全禁止,但需要在操作中保持高度透明。高风险人工智能的使用者可能需要完成严格的风险评估,记录他们的活动,并向当局提供数据以供审查。这可能会增加公司的合规成本。

最初的提案将某些关键领域和用例的人工智能解决方案自动归类为高风险,这意味着供应商必须遵守更严格的制度,包括对风险管理、透明度和数据治理的要求。欧洲议会引入了一个额外的层次,使这些类别的人工智能模型只有在对健康、安全或基本权利构成重大风险的情况下才会被视为高风险。

重大风险被定义为“由于其严重性、强度、发生的概率和影响的持续时间而具有重大意义的风险,并且能够影响一个人、多个人或一个特定群体”。

根据绿党的要求,用于管理能源网或水系统等关键基础设施的人工智能,如果带来严重的环境风险,也将被归类为高风险。

此外,中左翼立法者还争取到了一个规定:根据《数字服务法》的定义,超大型在线平台的推荐系统将被视为高风险。

欧洲议会议员为高风险人工智能模型的提供者处理敏感数据以检测负面偏见的过程,纳入了额外的保障措施。此外,评估必须发生在受控环境中。敏感数据不能被传输给其他方,并且必须在偏见评估后被删除。提供者还必须记录数据处理发生的原因。

《国家法律评论》4月26日报道称:“《人工智能法案》将产生全球性的影响,因为它将适用于在欧盟提供或使用人工智能系统的组织;以及位于第三国的人工智能系统的提供者或使用者,如果这些人工智能系统产生的输出在欧盟使用。”

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

[0:0ms0-6:765ms