议会还通过了一些有关高风险人工智能系统的修改:首先,虽然委员会提议将某些领域或用例的所有系统自动归类为高风险,但议会增加了额外的要求,即这些系统必须构成“重大风险”(第 3 条)才被认定为高风险。其次,,包括对人们的健康、安全、基本权利或环境造成重大危害的人工智能系统,以及有能力影响政治运动和社交媒体平台使用的推荐系统中的选民的人工智能系统。
议会做出的另一项改变涉及对高风险人工智能解决方案的“部署者”(以前称为“用户”,即那些将人工智能系统用于专业目的的人)的新义务。他们必须在投入使用其系统之前进行全面的“基本权利影响评估”(FRIA):目的是确保基本权利 保加利亚号码数据 受到保护,并且 FRIA 应包含的“最低限度”内容在新的第 29(a)条中有广泛的描述。
上述只是议会版《人工智能法案》中提出的主要变化。值得注意的是,这些变化很可能会在三方会谈期间进行进一步修改。然而,即使在现阶段,我们仍然能够分析欧盟在监管方面的方向以及利益相关者和民间社会的反应。
应当指出的是,所有关于禁止系统和高风险系统的修正案并不完全出乎意料:它们是委员会通过文本后在过去一年中出现的各种评论和批评的结果。
事实上,早在2021年,欧洲数据保护委员会(EDPB)和欧洲数据保护监督局(EDPS)就联合表示支持欧盟委员会有关人工智能的提议,但同时也提出了具体的担忧。他们强调需要将“基本权利风险”的概念与《GDPR》中规定的原则相结合,并呼吁全面禁止在公共场所使用人工智能自动识别人体特征,无论在何种情况下。
因此,毫不奇怪,议会做出了类似的改变,禁止使用生物特征识别技术进行实时和事后使用(严重犯罪案件和事前获得司法授权的事后使用除外),而不仅仅是实时使用,正如委员会所提议的那样。