调节AI,通常被视为黑匣子,充其量是非常困难的,最糟糕的是,尤其是我们看到AI的自发发展,就像我们现在几次一样。但是它需要b

科学作者 / 姓名 / 2025-06-29 20:26
"
调节AI,通常被视为黑匣子,充其量是非常困难的,最糟糕的是,尤其是我们看到AI的自发发展,就像我们现在几次一样。但是它需要受

调节AI,通常被视为黑匣子,充其量是非常困难的,最糟糕的是,尤其是我们看到AI的自发发展,就像我们现在几次一样。但是它需要受到监管。

  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。

  没有人喜欢有偏见或流氓AI,虽然您可以重新训练前者,即使Google也没有弄清楚如何杀死后者,即使他们尝试创建AI Kill Switches。现在,尽管欧盟认为它对Rogue AI的答案有答案 - 只需按Delete键 - 他们创建了一个新的监管框架来支持它。

  根据法律专家对该提案的分析,欧盟计划基于风险的监管AI框架包括监督机构订购商业AI系统的权力 - 通过删除商业AI系统的撤销 - 或要求根据法律专家对该提案的分析,并要求将AI模型重新审查。

  这表明,在《人工智能法》(尚未采用)人工智能法案中潜伏的执法火力潜伏 - 假设集团对成员国国家级别的监督当局的拼凑而有效地将其引导到有害算法上,以迫使公平利益和公众利益的产品变化。

  《法案草案》继续面临许多结构性缺陷的批评 - 欧盟立法者为此所宣称的,可能仍然远远远远远远不超过广泛的“值得信赖”和“以人为中心”的AI。但是,至少在纸上,似乎有一些有力的监管权力。

  欧洲委员会在一年多以前就提出了对AI法案的提议,该框架禁止一小部分AI用例列表,例如中国风格的社会信用评分制度,被认为对人们的安全或欧盟公民的基本权利过于危险,不得允许允许其他风险,同时允许其他风险来规范其他风险。监视。

  在《法案草案》中,高风险系统被明确定义为:自然人的生物识别和分类;关键基础设施的管理和运作;教育和职业培训;就业,工人管理和自谋职业;访问和享受基本私人服务以及公共服务和福利;执法;迁移,庇护和边境控制管理;司法和民主进程的管理。

  根据最初的提议,几乎没有什么都没有被完全禁止 - 大多数AI的用例都不会根据该法案构成自愿标准守则和认证方案来识别合规性AI系统的认证方案,因此判断他们会构成“低风险”,因此不会面临严格的监管。

  还有另一种类别的AIS,例如Deepfakes和聊天机器人,这些AIS被认为落在中间,并得到了一些特定的透明度要求,以限制其被滥用的潜力并造成危害。

  该委员会的提议已经引起了很多批评,例如从去年秋天警告的民间社会团体中,该提案远没有保护基本权利免受AI造成的危害,例如扩张歧视和黑盒偏见。

  许多欧盟机构也已明确打电话给远程生物识别,比委员会选择包括在该法案中(仅限于使用和带有警告的执法)。

  尽管如此,在欧盟的共同基本过程的相对较晚阶段,对该提案的重大修改似乎不太可能。但是,理事会和议会仍在辩论他们的立场,并且预计在2023年之前就没有预期的最终协议 - 因此有可能对细节进行一些细节(如果不是整个立法结构)进行调整。

  领先的互联网法学者莉莲·爱德华兹(Lilian Edwards)对总部位于英国的ADA Lovelace Institute的法案进行了分析,她在纽卡斯尔大学担任法律,创新和社会主席,重点介绍了该框架的一些局限性 - 她说,这是锁定在现有的欧盟内部市场法上的限制;而且,具体来说,从决定按照现有欧盟产品法规的方式进行建模的决定。

  她建议,这些特定于欧盟的局限性意味着,当欧盟经常有雄心将其在数字领域的第一个推动者立法者的活动转化为全球标准的角色时,这不一定是其他地区的最佳模板。(欧盟能力的其他局限性意味着该法案根本无法涉及AI的军事用途,例如,您期望的大多数人默认情况下可能会冒险。)

  毫不奇怪,对于任何对机器学习的人来说,对洗衣机和玩具​​等事物的物理产品注册并不能很好地依赖AI的范围 - 鉴于将制造物品放入市场的制造物之间存在很大的差异,而AI系统与AI系统之间的差异可能是基于一个可能由一个实体创建的模型来实现某个实体而受到一定不同用途的模型,并且是针对一种完全不同的使用方式来培训的,并且可能会培训不同的培训。

  尽管如此,《 AI法案》将职责和权利的责任放在了AI系统的最初“提供商”(又称“制造商”)上。

  爱德华兹(Edwards)认为,这是一种监督如何开发和部署AI的方法 - 与其他人一起建议,该ACT的AI类别“用户”类别(仅具有“高度有限”的受监管角色)应更名为“部署者”,并赋予其对AI系统的实际责任的职责,无论该AI系统如何应用,该责任都可以弄清楚,以确定该系统。

  她写道:“将这个复杂的参与者,数据,模型和服务的网络转化为法律制度,将职责和权利赋予某些可识别的参与者非常困难。”“该法案未能承担这项工作,这是很困难的,无法确定在整个AI生命周期中应在上下文上的分配,以保护最终用户最终用户的基本权利,这可以与GDPR案件的最新发展进行比较,而GDPR案件的最新发展,法院试图在各种控制时期分配数据保护责任。

  她在本文中讨论的另一个重大缺口是,该法案中缺乏对实际人类对他们个人(或对一群人的影响)的影响的抱怨,该行为与欧盟现有的数据保护框架GDPR形成鲜明对比,与欧盟现有的数据保护框架形成鲜明对比,这既可以启用个人抱怨,又可以使民间社会赋予民间社会的集体补救,从而促进了对个人的共同点,以促进个人的支持,以促进个人的依据。

  “通过主要来自产品安全而不是其他工具的设计,AI系统的最终用户作为权利主体的作用,不仅是受影响的对象,被掩盖了,其人的尊严与忽视的人的尊严是不兼容的。

  她还批评了委员会所说的“任意”(最有可能在政治上获知)的“任意”列表,而没有证明对少数被禁止的物品提出的解释。

  她说,该法案也不允许更改/增加禁止列表,或者将新的顶级类别的创建添加到高风险区域中,她将其评估为另一个不幸的限制。

  在限制这些禁止和高风险的清单时,该委员会可能会着眼于为市场创造确定性,因为它试图同时鼓励AI“创新”。然而,它围绕该行为的言论多年来一直很沉重,他谈论以反映欧洲价值观的“以人为本”的“以人为中心”的AI进行道德护栏。因此,它的平衡看起来很可疑。

  尽管爱德华兹(Edwards)的论文被批评为批评,但她也对欧盟法案表示赞赏 - 将其描述为“世界上首次全面规范AI的尝试,解决了诸如数据驱动或算法的社会评分,远程生物识别,以及对AI系统在执法,教育,教育和就业中的使用等问题”。

  她还在论文中写道:“ AI行为本身就是整体AI法规的绝佳起点,”在警告警告世界其他地区的其他情况下,她在[EU的新立法框架上的二重性限制中都构成了“雄心勃勃但有缺陷的政权”,并在欧盟的立法基础上均为“ eu lagripational of”(eu law of Eu law of Eu law of Eu law of Eu law''(HECERAINCY)(HECERAICATION of of EU LAR)(HECERAICATION''(HECERAICTION)(HECERAICTION),这是“ HECER”的依据,欧盟以外的政策制定者和世界应在这个关键的监管转折点上拥有。”)。

  她认为,尽管如此,就没有实质性的修正案来解决主要批评 - 她的立法很可能会具有“相对最小的”效果,但她告诉我们,她仍然认为。

  她建议:“以一种有趣的方式,他们将大部分鸡蛋放入了DSA [数字服务法],DMA [数字市场法案]中。”她提到,指的是其他两项欧盟内部的数字立法,重点侧重于更新电子商务规则,并在问她的竞争方式,当她问她如何看待该法案时。“因为如果您看着有高风险的东西,这是另一个明显的观点,但不能说得足够多,那么高风险目前不包括人们每天一生中遇到的大多数人工智能。

  “它不包括搜索,不包括社交网络,也不包括分析 - 除非您基本上是中国国家!它确实专注于已经受到市场已经监管的事物,例如信用评分,在那里,有很长的历史,人们检查算法似乎是公平的,以及这样的国家,并进行了判断,并曾经判断过,至少会遭到责任。等等。

  《 AI法案》是否甚至能够停止在公共部门中受到国家部署算法已经造成的充足危害的事情,还有待观察。尤其是考虑到了解这些AI系统的工作方式以及如何部署它们的部署是多么困难。

  “即使是竞选者是否足够理解这项技术,可以根据《 AI法案》对国家进行反对国家?”想知道爱德华兹。“因此,我想知道它的影响实际上会比人们想象的要少得多。”

  但是,欧盟内部基本权利的捍卫者的一个亮点 - 与该法案第65条所规定的上述权力有关 - 爱德华兹的评估是,它使公众的监督机构能够采取决定性的步骤,以防止高风险AI系统的损害,使他们能够从市场上撤回商业AI系统(她认为这是她认为的(她认为)(她认为这是一个模型)。根据爱德华兹,这些权力还可以让监督当局订购AI模型的重新验证。

  在她看来,这样的力量不是GDPR的给出的,在她看来,个人用户有权要求删除其个人数据,但是尚不清楚DPA监管机构是否能够掌握删除功率。

  在最近在欧盟针对有争议的AI应用程序《 Clearview》中与GDPR相关的投诉中,该公司被命令删除欧洲公民的数据 - 但看似的监管机构似乎都不能下令破坏对所有那些被遗忘的自拍照训练的基本模型。

  去年,意大利DPA对Tiktok采取的紧急程序也存在与儿童安全有关病毒挑战的关注有关的情况,这导致社交网络同意删除数十万个账户,但它不能确认它不属于年龄段的人。

  试想一下,欧盟监管机构是否有权命令Tiktok提取其算法,或者至少(至少 - 重新训练)不再提出特定的儿童安全问题……尽管Tiktok的AI不太可能属于AI AC ACT的高风险范围,但在Clearview的AI下,这是Clearview的AI,这是为执法而出售的。

  爱德华兹说:“在《 AI法案》中,这是令人难以置信的广阔力量。”“It says that the market surveillance authority — which is probably going to be the data protection authority in most EU states — it’s got lots of powers under the market surveillance legislation — but it also explicitly says they will be able to ‘take all appropriate corrective actions to bring the AI system into compliance including withdrawing it from the market, recalling it commensurate with the nature of the risk as it may prescribe’ — it’s incredibly wide! And they can see that ‘all appropriate corrective采取行动等等。

  “因此,我认为这几乎是明确的,而且还有其他地方 - 您可以要求该系统从市场上撤回,这实际上是等效地删除的。但是,我也认为,如果已经有足够的范围来删除该系统,则需要培训数据,如果我认为这很有趣。

  她补充说:“市场监视当局的权力非常广泛。”“显然,这将必须由个人,国家当局解释,但显然这是一项法规,而不是指令,因此不仅仅是成员国。

  “我认为这确实会赋予更广泛的力量。如果您将其视为消费产品(这就是基于的),您有权从市场上召回危险的玩具,或者在某些欧盟国家 /地区,有权销毁危险的玩具。您不仅说您不再说您不再说会进口它们。

  Edwards认为,当前的GDPR权力可能允许用户要求删除其自己的数据,从而从AI模型中删除,甚至可能使监管机构代表其公民要求其删除此类删除,这并不意味着该模型本身会受到影响。因此,她看到AI法案加剧了监管火力。

  她说:“ ​​[使用GDPR]您将可以要求从数据库中删除数据,但这并没有真正改变模型 - 即使您要求将数据从模型中删除,也可能不会改变培训的方式。因此,这些不好的补救措施。”

  “What you actually want is for the model to be either deleted or you want it to be totally retained — perhaps with better data. And that is exactly what the AI Act is about [as regards high risk AI systems]. So then you could argue that the market surveillance authority could say now you are the provider of a new model, a new AI system that falls in high risk you must meet [requirements in the Act, such as around data quality] and therefore you must do it all again — with your new数据。

  “因此,这使您有机会生产更好的产品(一个更公平的产品),而不是仅仅是GDPR下的DPA监管机构的权力。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读