欧洲对人工智能的看法——欧盟人工智能法案

Learn, share, and connect around europe dataset solutions.
Post Reply
suchona.kani.z
Posts: 272
Joined: Sat Dec 21, 2024 5:42 am

欧洲对人工智能的看法——欧盟人工智能法案

Post by suchona.kani.z »

在银行业使用人工智能时必须考虑到这一点。同样,在“算法公平”的术语下,在基于人工智能的用例中,算法的设计必须确保人和人群受到平等对待。这也是为了通过使用人工智能防止结果的系统性失真,从而最大限度地减少所谓的自动偏差的出现。目的是确保信用检查、申请人筛选和欺诈检测等各种业务流程从道德和法律角度考虑避免任何形式的歧视。


图 1:BaFin 对模型风险管理的要求 - 示例,来源:KI Handelsblatt 会议上的演讲“人工智能和监管 - 监管与创新之间的紧张关系”,Jan Kiefer/BaFin,2024 年 9 月

BaFin 将遵守准则视为治理要求的一个组成部分。因此,治理流程 护理院电子邮件列表 也必须针对人工智能的使用进行调整和补充。通过这种方式,BaFin 可以记录在使用人工智能进行监管时出现的不合理歧视,并要求遵守。银行必须明确、透明地规范其使用人工智能应用程序的责任,并通过培训和提高意识,强化负责开发和使用的员工的风险意识。

2024 年 8 月 1 日,欧洲人工智能法规(AI 法规)生效。它制定了所有欧盟成员国使用人工智能的法律框架。该立法的目的是保护基本权利,为人工智能系统的使用和处理制定统一的安全标准,并建立对新技术的信任。

根据潜在风险对人工智能系统进行分类
该法规的核心要求是根据人工智能系统的潜在风险估计对其进行分类。该法规遵循基于风险的监管方法,并区分四个风险级别:

“不可接受的风险”:此类包括被归类为对公民的基本权利和安全构成不成比例风险的人工智能系统。这意味着禁止具有不可接受风险的人工智能系统,例如社交评分等社会评级系统。
“高风险”:这些人工智能系统是允许的,但受到严格的要求。公司必须由独立机构进行合格评定,以确保这些系统在透明度、公平性和安全性方面符合法律要求。如果人工智能系统满足规定的要求,就会获得批准。
“有限风险”:使用这些人工智能系统,有义务向消费者(最终用户)提供信息。这些应用程序的示例包括用于客户支持的人工智能聊天机器人。
“风险最小”:此类人工智能系统的要求最低。此类人工智能用例的示例包括视频游戏或垃圾邮件过滤器。
Post Reply