欧盟发布了关于禁止使用人工智能实践的指南,旨在提供法律上的明确性,确保《欧盟人工智能法案》的有效、一致和统一应用,从而保护欧洲公民的权利和安全。该法案于2024年8月生效,涵盖了在欧盟内开发、市场投放、实施和使用人工智能的法规。
这些指南基于风险评估方法,分为四个风险类别:
委员会旨在澄清《欧盟人工智能法案》第5条,该条规定“禁止在市场上投放、投入使用或运行某些用于操纵、剥削、社会控制或监控实践的人工智能系统,这些系统因其固有性质而违反基本权利和联盟价值观”。
指南指出,推断情绪的人工智能系统通常在工作场所和教育机构中被禁止,除非用于医疗或安全目的,且这些系统必须获得CE认证才能符合《欧盟人工智能法案》的例外情况。
指南承认情感识别AI在医疗保健中的作用,例如检测抑郁症、帮助预防自杀和诊断自闭症。然而,用于监测工作场所员工压力水平的情感识别AI被禁止,不被视为医疗用途。
“另一个例子是用于评估个人是否有资格获得必要的公共援助福利和服务(如医疗服务和社会保障福利)的人工智能系统,这些系统被归类为高风险”,指南指出,这种用途的人工智能是禁止的。
此外,操纵或欺骗弱势患者(如残疾人、老年人或低收入群体)的人工智能也被禁止。同样,仅通过个人资料预测医疗状况而不依赖客观医疗数据的人工智能也是禁止的。
指南还强调,进行实时生物识别(如公共场所的实时面部识别)的人工智能系统被禁止,除非是为了寻找特定失踪人员、防止迫在眉睫的威胁(如恐怖袭击)或寻找严重犯罪的嫌疑人。
委员会澄清说,使用潜意识技术的人工智能系统并不总是有害的。例如,一个引导用户戒烟的治疗聊天机器人可以通过微妙的说服方式被允许,因为长期健康益处超过了暂时的不适。
(全文结束)