欧盟官方发布的《人工智能法案(Artificial Intelligence Act)》在最终完整版本公布20天后,于当地时间8月1日正式生效,标志着全球首部全面监管人工智能的法规正式落地。该法案旨在确保在欧盟开发和使用的人工智能技术值得信赖,并设立了一系列保障措施以保护人们的基本权利。
欧盟内部市场委员蒂埃里·布雷东评价该法案为“一个有效、适度且全球首创的人工智能框架”,旨在建立一个统一的人工智能内部市场,鼓励技术创新和投资,同时为创新和投资创造一个支持性的环境。
《人工智能法案》对违规行为的处罚力度之大前所未有。对于违反被禁止的人工智能应用程序的企业,欧盟将处以高达全球年营业额7%的罚款;对违反其他义务的罚款最高可达3%,而对提供错误信息的罚款则最高可达1.5%。这一严厉措施无疑将有效震慑潜在的违规行为,促进人工智能技术的健康发展。
法案对人工智能系统进行了前瞻性的分类和定义,根据不同风险等级提出了相应的监管要求。最小风险的人工智能系统,如支持AI的推荐系统和垃圾邮件过滤器,因其对公民权利和安全的风险最小,因此在法案下不承担特定义务,但公司可自愿采用额外的行为准则。
对于具有特定透明度风险的人工智能系统,如聊天机器人,法案要求必须明确告知用户他们正在与机器交互,且人工智能生成的内容(包括深度伪造的内容)需被标记为机器生成,使用生物识别分类或情感识别系统时还需通知用户。此外,提供商需将合成音频、视频、文本和图像内容标记为机器可读格式,并确保其可检测为人工生成或操纵的内容。
高风险的人工智能系统,如用于招聘、贷款评估或运行自主机器人的系统,将被要求遵守严格的规定,包括建立风险缓解系统、使用高质量数据集、保持活动记录、提供详细文档、清晰的用户信息、实施人工监督以及确保高水平的稳健性、准确性和网络安全。监管沙盒机制将促进负责任的创新和合规人工智能系统的开发。
最为严厉的是,对被认为对人们基本权利构成明显威胁的人工智能系统,如操纵人类行为以规避用户自由意志的系统、鼓励未成年人危险行为的玩具、允许“社会评分”的系统以及预测性警务的某些应用,法案将直接予以禁止。同时,对工作场所使用的情绪识别系统以及用于执法目的的实时远程生物识别系统等也设定了严格的限制。
《人工智能法案》的生效标志着欧盟在人工智能监管领域迈出了重要一步,为全球范围内的人工智能治理提供了宝贵的经验和参考。随着该法案的逐步实施,欧盟将致力于构建一个既鼓励创新又保障权益的人工智能生态环境。