报道称,欧盟委员会(EC)、欧洲议会、欧盟27国代表等三方当天在经过37个多小时的会议后,就《人工智能法案》(The AI Act)达成了协议。协议将AI技术的风险分为4个级别,对违规企业处以罚款。例如,在最高级别的“不可接受(unacceptable)的风险”中,禁止为了构建以政治、宗教信仰、性取向、种族等为标准对人进行分类的人脸识别数据库,在网络或安全视频中收集生物信息的行为。为了避免在采用AI技术的教育机构入学或企业招聘中做出偏向的判断,建立人工监视体制。此外,为了确保透明性,生成的AI制作的图像和视频、文章中必须写明为“源自AI的内容”。
不过,欧盟规定了一些例外条款,包括允许司法当局搜索人口贩卖受害者、预防恐怖威胁、追踪杀人和强奸等犯罪嫌疑人的实时人脸识别。开放AI ChatGPT、谷歌Bard等大型语言模型将受到限制,但用于国家安全和执法的情况被列入了例外条款。
根据这次的协议,计划今后在欧盟开展业务的企业,特别是将推出自动驾驶汽车或医疗设备等高风险技术的企业,必须公开AI相关数据,并经过严格的测试。如果违反规定,最多要缴纳3500万欧元(约500亿韩元)或相当于全球销售额7%的罚款。
此前,欧盟委员会于2021年4月提出了AI监管法案草案。之后随着新的AI技术的出现,对内容进行了修改。早期版本没有提及用于ChatGPT等的通用AI。这次的谈判因为法国、德国、意大利等一些国家以可能对本国企业不利为由而主张放宽规定,遭遇了困难。最终的协议内容尚未公开。美国《纽约时报》(NYT)报道称,有关细节的讨论应该会在幕后继续进行。
法案草案将在欧洲议会和成员国正式批准后生效。日本NHK预测,最早将在2026年彻底适用限制。欧盟还计划创建AI监管机构。
欧盟内部市场专员蒂埃里·布雷顿评价称,这次的协议将在AI创新和个人及企业权利保护之间形成平衡。他在声明中说:“我们在最大限度地利用AI潜力的基础上,保护市民的基本权利,寻求支持执法的平衡方面花了大量时间。我们不希望在欧洲进行‘大规模监视’。”
美国《华盛顿邮报(WP)》预测,这次的行动将加强欧盟对AI技术监管的领导力。美国的AI限制处于初期阶段,而欧洲多年来一直主导制定法律等限制,以消除对数字个人信息保护和社交媒体损害等的担忧。《纽约时报》指出,欧盟的监管方案取得了突破,但对效果尚存疑问。在未来的12-24个月里,不会实施该法案,这是因为开发AI的时间相当长,而且直到谈判的最后,成员国们还在就内容进行争论。