IEEE发布了将道德行为编码为AI的世界第一个框架

游戏作者 / 姓名 / 2025-06-29 22:53
"
IEEE发布了将道德行为编码为AI的世界第一个框架  为什么这很重要  人工智能正在迅速嵌入世界数字结构中,但这些系统越来越多

IEEE发布了将道德行为编码为AI的世界第一个框架

  为什么这很重要

  人工智能正在迅速嵌入世界数字结构中,但这些系统越来越多,是黑匣子,其行为和决策过程甚至是他们的设计师,而且没有道德规范,无法跟随许多人担心这些高级系统可能会对商业,文化和社会产生的负面后果

  人工智能(AI)系统越来越被视为黑匣子,而诸如麻省理工学院等机构正在试图解决问题的同时,还有另一个迫在眉睫的问题……缺乏AI伦理和治理标准。根据世界上最大的技术专业协会的IEEE标准协会的说法,该协会负责设定和管理我们今天使用的许多技术标准,这是建立以道德为中心的人工智能(AI)系统的最大障碍之一,这些障碍将使人类受益,并避免嵌入式算法偏见的陷阱,这是技术行业的嵌入式算法,是对技术行业的缺乏责任,并且是责任的责任和责任。

  几天前,IEEE发表了新框架的初稿,他们希望该框架将有助于指导技术行业,并帮助他们建立道德,仁慈和有益的AI系统。

  该文件称为道德统一的设计,包括一系列详细建议,基于100多名AI和非AI思想领导者在学术界,大型企业和政府工作的投入,并涵盖包括AI道德,法律,哲学和政策在内的领域。IEEE希望,正如他们所说的那样,这份活着的文件将成为AI领域中工作的每个人的Defacto参考 - 无论他们坐在其中的行业,或者他们设计新的AI系统的目的,无论是使用AI来增强自动驾驶汽车,还是使用它是否正在使用它来使用它来优化能量分布。本着合作与合作的精神,该组织还通过其全球倡议的网站截止日期,并在2017年3月6日的截止日期之前邀请反馈,该网站还指出,所有评论都将公开可用。

  随着时间的推移,希望该倡议将享有自己的生活,而感兴趣的各方将基于其道德上一致的设计概念来共同创建,证明和验证一套新的IEEE标准。

  Konstantininos Karachalios表示:“通过为创建与同行驱动的,实用的建议,以创建道德上一致的自主和智能产品,服务和系统,我们可以超越与这些技术相关的恐惧,并为当今的人类和未来带来有价值的好处。”

  The 136-page document is divided into a series of sections, starting with some general principles, such as the need to ensure AI respects human rights, operates transparently and that automated decisions are accountable, before moving onto more specific areas such as how to embed relevant “human norms or values” into systems, and tackle potential biases, achieve trust and enable external evaluating of value alignment.

  同时,另一节认为指导道德研究和设计的方法 - 在这里,科技行业缺乏对道德的所有权或责任,被标记为问题,以及其他问题,例如道德规范不被定期纳入技术学位课程中。IEEE还指出,缺乏一个独立的审查组织来监督算法操作,以及在创建算法中使用“黑框组件”,作为实现道德AI的其他问题。

  IEEE写道,帮助克服技术行业的道德盲点是确保那些建立自主技术的人是“一个多学科和多样化的个人”,以便涵盖所有潜在的道德问题。

  它还主张建立标准,以提供“对智能和自主技术制造过程”的建立,以确保最终用户不会受到自主成果的伤害,并为建立“独立的,国际上协调的身体”的创建来监督产品是否符合符合智能标准 - 是否符合既有符合启动,以及在产品上以及其他产品和其他产品的互动,并与其他产品进行互动,并与其他产品进行互动。

  当建立可能影响人类安全性或福祉的系统时,仅仅假定一个系统就可以工作。工程师必须在可能的情况下承认并评估与黑盒软件相关的道德风险,并在可能的情况下实施缓解策略,” IEEE写道:“技术人员应能够通过跨度或系统的范围来表征其能力,并且可以使您能够进行跨度的范围,从而使您能够进行跨度的范围。在AI系统中,可能需要更具回顾性和缓解为导向。

  “类似于航空领域的飞行数据录音机的想法,这种算法可追溯性可以提供有关哪些计算导致特定结果最终以可疑或危险行为的最终的见解。即使这些过程仍然有些不透明,技术人员也应寻求间接的验证结果和检测危害的手段。”

  最终,它得出结论,工程师应“仅在非凡的谨慎和道德护理中部署黑框软件服务或组件,”鉴于他们的决策过程的不透明度以及检查或验证这些结果的困难。

  该文件的另一部分是关于人工通用智能的安全性和利益,还警告说,随着AI系统变得越来越有能力“意外或意外行为变得越来越有可能和危险”,同时将安全性改造为更具普遍的能力,未来的AI系统可能很困难。

  它建议:“研究人员和开发人员将在开发和部署越来越自主和有能力的AI系统的开发和部署中逐渐复杂的道德和技术安全问题。”

  该文件还涉及对个人个人数据所赋予的不对称性的担忧,这些不对称性是由个人的个人数据馈送的,并触及了以下事实:在许多情况下,无论是在社会上还是区域级别,大多数结果都不是平等分布的,从长远来看,这可能会导致AI“ Haves”和AI“没有”。

  它写道:“人工智能和自主系统(AI/AS)驱动算法经济已广泛获取数据,但我们仍然与从生活中获得的见解中获得的收益保持孤立,”它写道,“解决这种不对称的问题是,人们对个人数据的依赖的个人数据进行了一个独特的信息,这些人是一个独特的信息,这些人是一个独特的份额。数据收集点应取决于有限的数据交换与信息资产的长期牺牲。”

  The issue of AI ethics and accountability has been rising up the social and political agenda this year, fuelled in part by high profile algorithmic failures such as Facebook’s inability to filter out fake news during the recent US election and the White House also commissioned and published its own report into AI which worryingly concluded that trying to estimate the impact of “advanced” and “super” AI’s was just to hard to even begin to address.

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读