《通用人工智能业务守则(初稿)(2024)(英文版) - 欧盟》是欧盟针对通用人工智能模型制定的业务守则草案,旨在确保人工智能的发展符合欧盟法律原则和价值观,促进人工智能安全生态系统的发展。
目标
帮助通用人工智能模型提供商有效履行义务,明确合规方式,使人工智能办公室能评估其合规性。
确保提供商理解通用人工智能模型,以融入下游产品并履行相关法规义务。
助力提供商遵守欧盟版权及相关法律,特别是在版权政策和文本数据挖掘方面。
指导具有系统风险的通用人工智能模型提供商持续评估和缓解可能的系统风险。
主要内容
1. 通用人工智能模型提供商规则
透明度
提供商需为人工智能办公室和下游提供商编制并更新模型技术文档,包括模型信息、预期任务、使用政策、发布和分发信息、与外部软硬件交互、软件版本、输入输出格式、许可证、集成技术手段、设计规范、训练过程、数据使用、计算资源、能耗、测试过程和结果等内容。鼓励向公众披露部分信息以提高透明度。
版权相关规则
制定版权政策,涵盖整个模型生命周期,明确责任,进行上游和下游版权合规审查,确保文本数据挖掘合法并遵守版权保留规定,同时提高版权合规透明度,指定联系人处理版权投诉。
系统性风险分类
识别系统性风险类型,包括网络攻击、生化核风险、失控、自动化研发风险、劝诱操纵、大规模歧视等,提供商可自行识别其他风险。
考虑风险性质,如起源、驱动因素、意图、新颖性、概率 - 严重性比、风险显现速度、可见性、事件进程等维度。
分析风险来源,包括危险模型能力、模型倾向、模型功能和社会技术背景等因素。
具有系统风险的通用人工智能模型提供商规则
安全与安保框架
采用并实施安全与安保框架,持续识别、分析系统性风险,收集证据,包括确定相关风险、运用分析方法、映射风险指标和严重程度层级、预测风险、进行各类评估、确保评估科学性、引出模型能力、评估模型在系统中的表现、开展多样化评估、进行探索性工作、分享工具和最佳实践、透明分享结果等措施。
风险评估生命周期
在模型开发和部署的全生命周期持续评估风险并收集证据,包括训练前准备、训练中定期收集、部署中定期更新评估、部署后监测等阶段。
技术风险缓解
根据风险指标和严重程度制定安全和安保缓解措施,包括安全和安保缓解措施、评估缓解措施有效性、分析成本效益、详细说明方法、内部或外部审查、确保报告等效性等内容,同时明确开发和部署决策的条件和流程。
治理风险缓解
确保各级组织对系统性风险有足够的所有权,评估安全与安保框架的遵守和充分性,允许独立专家进行风险和缓解评估,及时报告严重事件,实施举报保护,向人工智能办公室通知相关信息,记录证据并提供适当的公共透明度。
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系
欧盟模型人工智能风险提供商发布于:广东省声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。