陈茂波:对「开源」相当忍手 尽量减低对一般市民及中产人士影响
2024年03月15日 17:43
欧洲议会正式通过《人工智能法案》,是全球目前最全面的人工智能(AI)技术监管立法。新法案要求企业的高风险AI模型需接受评估,并禁止将AI技术用於无目的人脸识别等高危用途。欧盟委员会周四还依照《数码服务法》,谘询包括Facebook(Fb)和Instagram(Ig)在内8间社媒平台,要求其解释正采取哪些措施, 应对AI技术可能影响欧盟成员国选举的风险。据报道,《人工智能法案》引入新的企业透明度评估规则,适用於所有进入欧盟市场的AI产品。法案要求企业若开发具有系统性风险的高级AI模型,必须对其进行最先进的安全评估,违者可被罚款,最高达公司全球收入的7%。
法案规定,各间科企需向欧盟监管机构,提供训练AI模型的技术文案和内容摘要,这些资料是各类专业AI应用程式的基础。一旦AI模型在训练或运行中发生严重事故,企业必须将情况上报。科企也要提供安全网,安排各项降低AI技术使用风险的保护措施。法案还要求科企必须明确标注所有利用AI技术的「深度伪造」(Deepfake)内容,包括图片丶音频和影片等。对於应用於关键基建设施或处理移民问题等高风险领域的AI技术,监管机构会额外进行风险评估。新法案的内容不会即刻生效。报道称其中部分禁令,例如禁止在学校或工作场所使用识别人员情绪的AI系统丶禁止无目的为AI数据库收集人脸识别资料等,将於今年内生效,其它规定预计会在2025年至2027年陆续实施。
欧盟委员会要求Fb丶Ig丶X丶Google丶YouTube丶Snapchat丶Bing和TikTok合共8间社媒平台,提供详细资料解释平台如何降低AI技术泛滥丶生成并扩散虚假讯息的风险,避免在选举期间误导选民。欧盟会审视收集的资料,再决定是否采取更多行动。
来源:大公文汇网