
人工智能在细微差别方面存在问题,但这并没有阻止它正确预测大多数情况的结果。
研究人员声称,人工智能系统正确地预测了欧洲人权法院在欧洲人权法院审理的数百起案件的结果,这使公告更加惊人的是,这是正确的79%。
尽管AI越来越多地用于新闻业,法律和会计评论家等领域,但迄今为止,AI没有人能够理解法律案件的细微差别,但是现在,具有讽刺意味的是,似乎他们自己的案件似乎正在受到破坏。
这项研究是由伦敦大学学院的研究人员以及谢菲尔德大学和宾夕法尼亚大学进行的,并没有终结律师 - 但它确实有可能在成为法官,陪审团的道路上为AI设定了AI,您知道。
尼古拉斯·阿特拉斯(Nikolaos Aletras)博士说:“关于人工智能的大肆宣传,但我们看不到它很快就会取代法官或律师。我们认为,他们发现在导致某些结果的情况下快速识别模式很有用。”
“这也可能是强调哪些案件最有可能违反《欧洲人权公约》的宝贵工具。”
他们是怎么做到的
该小组确定了与《人权公约公约》三章有关的584件案件的英语数据集 - 第3条,其中涉及酷刑或退化待遇的案件,第6条,涉及公正审判的权利和第8条,尊重私人生活。之所以选择这些文章,是因为它们代表了有关基本权利的案例,并且因为上面有大量已发表的数据,然后AI算法在文本中寻找模式,并且能够将每个案例标记为“违规”或“非侵犯”。
为了防止偏见和误学习,该团队选择了同等数量的违规和非暴力案件,以供AI学习。
合着者Vasileios Lampos博士说:“理想情况下,我们会使用向法院而不是已发表的判决的申请来测试和完善我们的算法,但是如果没有访问该数据,我们依靠法院发布的摘要。”
当有两个类似的情况时,该算法倾向于判断判断 - 一种违规,另一种是违法的,这表明该平台无法检测到法律的细微之处,因此研究人员的下一个阶段是使用更多数据测试系统。
Aletras博士说:“没有理由不能扩展从证人或律师的笔记中了解证词。”
越来越多的律师事务所,例如登顿,世界上最大的律师事务所以及贝克和宿舍者正在尝试AI - 主要来自Ross Intelligence等公司,以帮助他们涉足大量法律数据。
数据科学咨询公司Tessella的分析师Matt Jones谈到研究项目时说:“在法律案件中,它具有巨大的潜力,可以自动化一些较不有趣的任务并帮助人们就成功机会做出决定。但是,AI是某种方法,可以将其用作提出法律决策的工具。”
他补充说,这样的系统尚未能够“了解细微差别”。
“ AI可以很好地猜测,但如果没有直接对其培训数据和经验之外的更广泛背景的理解,则该猜测可能会广泛地关闭,并且在法律情况下可能对案件危险。”
然而,正如他们在法律界所说的那样,该实验树立了一个有趣的先例。