发布时间:2024-12-22 00:53:24 来源: sp20241222
5月21日,欧盟理事会正式批准欧盟《人工智能法案》,标志着全球首部用于人工智能领域监管的法案即将落地生效。该法案不仅适用于所有位于欧盟境内的人工智能使用者,还包括位于欧盟以外的人工智能系统软硬件设备的供应商等,具有广泛的域外适用效力,对欧盟和其地区将产生重要影响。
推动开发可信赖人工智能
欧盟《人工智能法案》于2021年4月由欧盟委员会内部成员递交提案,2023年6月以来,欧盟内部经过多轮会谈达成临时协议。2024年3月13日,欧洲议会以523票赞成、46票反对和49票弃权的结果,表决通过该法案。5月21日,欧盟理事会正式批准该法案。该法案将在欧盟官方公报公布20天后生效,2年后全面实施。
欧盟《人工智能法案》的立法目的,在于保障欧盟公民的基本权利,激励欧洲人工智能的投资与创新,推动开发使用安全且值得信赖的人工智能。当前,在以ChatGPT为代表的人工智能技术迅猛发展和广泛应用的背景下,监管人工智能的必要性日益凸显。人工智能技术创作过程具有不可解释性,输出结果存在极大不确定性和不稳定性,也很难对系统安全性作出有效评估。未经监管的人工智能系统可能带来滥用风险,以及个人隐私泄露、算法歧视等问题。因此,欧盟出于自身发展、安全及争夺国际治理话语权等多重需要,率先制定出台人工智能法案,为全球人工智能行业监管治理提供了样本。
欧盟《人工智能法案》的创新之处在于提出了人工智能风险等级分类方法。该法案基于人工智能系统对用户和社会的潜在影响程度,将风险分为不可接受风险类、高风险类、有限风险类和最小风险类,风险等级越高,相应管控越严格。其中,不可接受风险类主要包括任何试图操纵人类行为、利用人性弱点或支持政府社会评分的人工智能系统,例如为唆使犯罪而操纵人的潜意识等,这些人工智能系统将被严格禁止开发和使用。高风险类主要是被认为对健康、安全、基本权利和法治构成重大威胁的人工智能系统,它们必须遵守更严格的要求。有限风险类主要是不会构成任何严重威胁的人工智能系统,与其相关的风险主要是缺乏透明度,需要根据法案要求履行相应公开义务。最小风险类主要包括人工智能电子游戏或垃圾邮件过滤器等应用,法案允许自由使用最小风险类的人工智能系统。
另外,该法案还规定了通用人工智能模型投放市场的统一规则,以及关于市场监测、市场监督治理和执法规则,提出对于包括初创企业在内的中小企业的支持创新措施。
规范使用面临争议
总体来看,欧盟《人工智能法案》通过规范和监管人工智能系统的使用,意在减少滥用和其他潜在风险,确保人工智能技术发展符合社会整体利益。该法案在规范人工智能监管的同时,鼓励相关技术的创新与发展,对于保持欧洲在人工智能领域的竞争力至关重要。该法案同样注重个人数据隐私和权利的保护,通过对数据收集、处理和使用的规范,确保人工智能系统不会侵犯公民个人权利,保护个人隐私。
欧盟《人工智能法案》也面临着一些争议,该法案假定可以识别出具有不可接受或高风险水平的人工智能系统类别,风险类别由欧盟委员会直接定义,并在法律中予以明确。人工智能系统由于具有无固定任务性、适应性、敏捷性等特点,其危害驱动因素可能是纯技术性的,也可能是社会性的,还可能是人机交互造成的。该法案缺乏可供审查的风险分类标准,执行中可能会陷入过度监管或过度包容的困境。如何在确保监管有效性的同时,避免对创新和发展造成不利影响,是值得深入思考的问题。(张清亮)
(责编:陈羽、刘圆圆)