安全技术类别(安全技术类别abc是什么意思)

《欧盟人工智能法案》于2021年4月提交欧盟,正在快速推进意见征询期和修订。专家表示,该协议可能于2023年初生效,届时将对全球用户和企业使用人工智能(AI)和

《欧盟人工智能法案》于2021年4月提交欧盟,正在快速推进意见征询期和修订。专家表示,该协议可能于2023年初生效,届时将对全球用户和企业使用人工智能(AI)和机器学习(ML)产生广泛影响。

欧洲人工智能法案即将出台,或影响全球科技监管

《人工智能法案》旨在为人工智能的使用创造一个共同的监管和法律框架,包括它是如何开发的,公司可以用它做什么,以及不遵守的法律后果。该法案可能要求公司在采用人工智能之前,在某些情况下获得批准;并使一些被认为风险太大的人工智能使用成为非法,并创建一个其他高风险人工智能使用的公共列表。

欧盟委员会在一份关于该法律的官方报告中表示,在广泛的层面上,该法律寻求在欧盟将可信的人工智能范式合法化。这种范式“要求人工智能在法律、道德和技术方面强大,同时尊重民主价值观、人权和法治”。

拟议的人工智能监管框架有以下目标:

1.确保在欧盟市场部署和使用的人工智能系统是安全的,并尊重现有法律和欧盟价值观的基本权利;

2.确保法律确定性,以促进人工智能的投资和创新;

3.加强治理,有效执行关于人工智能系统基本权利和安全的现有法律;

4.促进合法、安全、可信的人工智能应用统一市场的发展,防止市场分化。

虽然新法的许多细节仍有待确定,关键是人工智能的定义,但核心因素似乎是其“产品安全框架”,该框架将未来的人工智能产品分为四个安全级别类别,适用于所有行业。

根据斯坦福-维也纳跨大西洋技术法律论坛的Maruritz Kop编写的2021年欧盟委员会关于新法的报告,“关键金字塔”的底部是风险最小的系统。属于这一类的人工智能应用不需要遵守高风险系统必须通过的透明度要求。在“有限风险”类别中,对人工智能系统有一些透明性要求,比如聊天机器人。

欧洲人工智能法案即将出台,或影响全球科技监管

——欧盟新AI法案将AI程序分为四类,从下到上依次为:低风险、有限风险、高风险和不可接受风险(来源:欧盟人工智能法案,Kop)

在对透明度要求严格的高风险AI类别,监管会更加严格。根据介绍,高风险类别包括以下领域的AI应用:

关键基础设施,如交通,可能危及人的生命或健康(如自动驾驶汽车);影响个人教育或职业成就的教育或职业培训(如考试成绩);产品的安全组件(如机器人辅助手术);就业、员工管理、自主创业(如简历、简历分类软件);基本的私人和公共服务(如信用评分);执法用例(如证据评估);移民、边防管理(包括护照真实性评估);公正和民主程序(如将法律适用于一组具体事实);监控系统(如生物特征监测和面部识别)。

spire的第四类是“风险不可接受”的人工智能系统。这些应用基本上是非法的,因为它们带来了太多的风险。这种应用的例子包括用于操纵行为或人或“特定弱势群体”的系统、社会评分以及实时和远程生物识别系统。

高风险类别可能是许多公司努力确保透明度和合规性的重点。欧盟的人工智能法案将建议企业在推出属于高风险类别的人工智能产品或服务之前采取四个步骤。

1.开发高风险的人工智能系统。最好首先在内部使用人工智能的影响评估和由包容性和多学科团队监督的行为准则。

2.高风险人工智能系统必须经过资格认证和批准,并在其生命周期内持续符合欧盟AI法案规定的要求。一些体系外的组织将参与合格评定审核。这一动态过程确保了基准、监测和验证。另外,对于高风险AI的动态系统,必须重复步骤2。

3.独立高风险人工智能系统的注册将在专门的欧盟数据库中进行。

4.必须签署符合性声明,高风险AI系统必须标有CE。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/20692.html

发表回复

登录后才能评论