当地时间8月1日,欧盟《人工智能法案》(以下简称《法案》)正式生效。作为全球首部全面监管人工智能的法规,欧盟内部市场委员蒂埃里·布雷东评价其为“一个有效、适度且全球首创的人工智能框架”。
《法案》规定,将以人工智能技术使用方法造成的影响风险为依据,将人工智能技术风险分为四类,风险等级越高,管控越严格。其中,风险最高的情况包括:为唆使犯罪而利用人工智能技术操纵人的潜意识;使用高级监控摄像机等,将人脸识别等生物识别技术实时应用于犯罪搜查等。这些情况是被“禁止”的。第二高风险的情况包括:基于犯罪心理画像的犯罪预测、在入学考试和录用考试测评中应用人工智能。《法案》还提到,人类有义务保存和管理使用人工智能技术的历史记录。
《法案》明确,聊天机器人等人工智能系统必须明确告知用户他们在与机器互动,人工智能技术提供商必须确保合成的音频、视频、文本和图像内容能够被检测为人工智能生成的内容。此外,该法案规定,禁止使用被认为对用户基本权利构成明显威胁的人工智能系统。对涉及“禁止”行为的企业,欧盟将对其处以3500万欧元或全球年营业额7%的罚款,以二者之中的更高金额为准进行处罚;如果没有履行除“禁止”以外的其他风险分类中的义务,则根据业务规模等处以1500万欧元或最高不超过全球年销售总额3%的罚款。
欧盟委员会最早于2021年4月提出《法案》提案的谈判授权草案。去年12月,欧洲议会、欧盟成员国和欧盟委员会三方就《法案》达成协议。今年2月,欧盟27国代表对《法案》的最终协商文本予以确认;今年5月,欧盟理事会对其予以正式批准并成立人工智能办公室。至此,该法案历时3年,终于正式落地。
据悉,欧盟《法案》相关规则将分阶段实施,某些规则将在该法律通过6个月后或12个月后生效,而大部分规则将于2026年8月2日开始生效。欧盟成员国需在2025年8月2日之前指定各自国家市场监督和法案适用的主管部门,而欧盟委员会的人工智能办公室将是该法案在欧盟层面实施的关键机构。