2026年2月,欧盟的《人工智能法案》正式进入全面实施阶段,成为全球首个系统性监管人工智能的法律。这部被称为“人工智能治理的里程碑”的法案,不仅对欧盟内部的人工智能开发和应用产生了深远的影响,还通过市场力量辐射到全球,形成了所谓的“布鲁塞尔效应”——任何希望进入欧盟市场的人工智能企业都必须遵循其规定。
· 风险分级:从“不可接受”到“低风险”
《AI法案》的核心是风险分级监管。根据应用场景,AI系统被分为四个等级:不可接受风险、高风险、有限风险、低风险。其中,“不可接受风险”的AI系统被完全禁止,包括潜意识操纵、社会信用评分、公共场所实时远程生物识别(极少数例外)等。
高风险AI系统覆盖了关键基础设施、教育、就业、执法、移民管理等8大领域,必须符合严格的合规要求:建立风险管理体系、使用高质量训练数据、提供技术文档、保持人类监督等。违规企业可能面临高达全球年营业额6%的罚款。
· 生成式AI:透明度义务与版权披露
针对ChatGPT等生成式AI,《AI法案》增设了透明度要求:AI生成的文本、图像、音频、视频必须明确标识,防止深度伪造泛滥。此外,通用AI模型提供商必须公开训练数据的详细摘要,包括数据来源、版权使用情况等,以回应版权方的质疑。
这一条款引发科技巨头强烈反弹。Meta、谷歌、OpenAI等公司批评过高的透明度要求可能泄露商业秘密,增加合规成本。但欧盟坚持认为,缺乏透明度的AI将加剧虚假信息、歧视和侵犯隐私的风险。
· 全球影响:他国竞相效仿
欧盟的立法行动迅速引发其他经济体跟进。美国已启动《人工智能创新与问责法案》立法程序,部分条款借鉴欧盟思路;日本、韩国也在修订本国AI指南;巴西、加拿大等国正制定类似的风险分级框架。中国早在2023年就出台《生成式人工智能服务管理暂行办法》,强调内容安全与算法备案,与欧盟形成两种监管范式。
对于企业而言,合规成本显著上升。一家国际AI公司的合规官表示,为满足欧盟要求,公司不得不增加20%的研发预算用于可解释性、鲁棒性测试和文档准备。但长远看,统一的监管框架有利于建立用户信任,推动AI产业健康发展。
《AI法案》的实施并非一帆风顺。批评者认为,过度监管可能抑制创新,将AI投资推向监管更宽松的地区。欧盟内部也存在执行层面分歧,各国监管机构如何统一标准仍是未知数。
无论如何,欧盟AI法案标志着全球AI治理从“软约束”走向“硬法律”。在技术迭代飞快的AI时代,如何兼顾安全与创新,将是立法者、企业和公众共同面对的长期课题。
