
正式宣布:欧盟关于人工智能应用的风险管理法规自2024年8月1日星期四起生效。
这开始了法律对不同类型的AI开发者和应用程序适用的一系列分阶段合规期限。大多数规定将在2026年中期完全适用。但第一个期限,即对特定情境中少数禁止使用AI的情况实施禁令,比如执法部门在公共场所使用远程生物识别技术,将在六个月内适用。
根据该集团的方法,大多数AI应用被认为是低风险/无风险的,因此根本不适用于法规。
一些潜在的AI使用被分类为高风险,例如生物识别和面部识别,或在教育和就业领域使用的AI。在这些领域使用的系统将必须在欧盟数据库中注册,并且它们的开发者需要确保符合风险和质量管理义务。
另一条重要的法律条款适用于所谓的通用人工智能(GPAI)的开发者。同样,欧盟采取了基于风险的方法,大多数GPAI开发者面临轻微的透明度要求。只有最强大的模型的子集将被要求进行风险评估和缓解措施。
欧洲人工智能办公室在上个月晚些时候发布的关于AI法案的入门指南中写道,OpenAI,ChatGPT背后的GPT大型语言模型的制造商,预计将“与欧盟人工智能办公室和其他相关机构密切合作,随着新法律在未来几个月内的实施。”这包括为其GPAI模型的下游提供商和部署者准备技术文档和其他指导。
“如果您的组织正试图确定如何符合AI法案,您应该首先尝试对适用范围内的任何AI系统进行分类。确定您使用的GPAI和其他AI系统,确定它们的分类,考虑您使用情况下产生的任何义务,”OpenAI补充道,对AI开发者提供了一些建议。“您还应确定您是否是适用范围内任何AI系统的提供商或部署者。这些问题可能很复杂,因此如果有疑问,您应该咨询法律顾问。”