文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

欧洲人工智能法案即将出台,或影响全球科技监管

2024-12-13 22:25

关注

欧盟委员会(European Commission)在一份有关该法律的官方报告中表示,在广泛的层面上,该法律寻求将欧盟值得信赖的人工智能范式法制化。这一范式“要求人工智能在法律、伦理和技术上强大,同时尊重民主价值观、人权和法治”。

拟议的人工智能监管框架具有以下目标:

1.确保在欧盟市场上部署和使用的人工智能系统是安全的,并尊重现有法律基本权利和欧盟价值观;

2.确保法律确定性,以促进人工智能的投资和创新;

3.加强治理和有效执行有关基本权利和安全的现行法律适用于AI系统;

4.促进合法、安全和值得信赖的人工智能应用的统一市场的发展,防止市场的分化。

虽然新法律的许多细节仍悬而未决,关键是人工智能的定义,但核心因素似乎是它的“产品安全框架”,它将未来的人工智能产品分为四个安全水平类别,适用于所有行业。

根据斯坦福-维也纳跨大西洋技术法律论坛的Maruritz Kop汇编的2021年欧盟委员会关于新法律的报告,“临界金字塔”的底部是风险最小的系统。属于这一类的人工智能应用不需要遵守风险较高的系统必须通过的透明度要求。在“有限风险”类别中,则对人工智能系统有一些透明度要求,比如聊天机器人。

——欧盟新的AI法案将AI程序分为四类,自下而上分别为:低风险、有限风险、高风险和不可接受风险。

在对透明度有严格要求的高风险AI类别中,监管会更加严苛。根据介绍,高风险类别包括AI应用在:

塔尖的第四类是“不可接受风险”的人工智能系统。这些应用基本上是非法的,因为它们带来了太多的风险。这类应用的例子包括操纵行为或人或“特定弱势群体”的系统,社会评分,以及实时和远程生物识别系统。

高风险类别可能是许多公司将努力确保透明度和合规的重点。欧盟的人工智能法案将建议企业在推出属于高风险类别的人工智能产品或服务之前采取四个步骤。

  1. 开发高风险人工智能系统,最好内部首先使用人工智能影响评估和由包容、多学科团队监督的行为准则。
  2. 高风险人工智能系统必须经过合格评定和批准,并持续进行在其生命周期内遵守欧盟AI法案规定要求。某些系统外机构将参与合格评定审核。这个动态的过程确保基准测试、监控和验证。此外,高危AI的动态系统,步骤2必须重复执行。
  3. 独立高风险人工智能系统的注册将在一个专用的欧盟数据库中进行。
  4. 必须签署合格声明,高风险AI系统必须带有CE标记。​
来源:今日头条内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯