爱丁堡大学计算法律理论的一位著名教授曾警告律师和技术专家,不要重复历史的错误并设置人工智能(AI)失败,就像20年前的AI陷入“漫长的不满之冬”一样”,因为它无法达到宣传要求。

在广泛的演讲中,他总结了当前AI的一些潜在变革性发展, Burkhard Schafer教授 带回了1980年代在Gleneagles的法律领袖IT论坛(LLIT),当时AI是“新事物”。“突然之间,计算机擅长下象棋。而且,众所周知,下棋是人类智慧的终极巅峰。”他苦苦地说。 “因此,由于计算机可以下象棋,这不可避免地意味着在两三年内,它们还将在其他所有活动中取代人类。那时,人们已经开始写有关法律职业终结的文章,或者至少是它的转变以至于无法引起人们的认可。这还没有发生,这在一定程度上是我们社区的法律和技术上的过错,因为我们当时的目标是机器人裁判。”

在随后的AI冬季,甚至AI的名字也不受欢迎。舍弗教授说:“我们悄悄或多或少地放弃了这个词,因为它是有污染的商品。研究仍在继续,但他们不再称其为AI,而是专注于特定的活动研究-机器学习,信息检索,决策建议系统–仅仅是因为对技术的过度宣传以及所产生的失望情绪,使人们无法投入精力。”

在此期间,法律专业人士几乎没有参与,但一个明显的转折点是由基于法律知识的系统论坛主办的研讨会 朱里克斯 去年12月,一半的演讲者来自法律实践并开发了自己的迷你AI系统。舍弗教授说:“这种兴趣和活动以前从未发生过。

“所以突然之间发生了一个非常显着的变化,我对此感到非常兴奋,但同时也略有警惕,因为我们再次应该从历史中学习。”

那么,AI的技术缺陷是什么?其中之一就是知识获取的瓶颈。 “由于我们试图在上下文中对法律推理进行大量的建模,因此花了非常,非常长的时间才能将员工的知识带入机器中,” Schafer教授说,并补充道,“完成,技术已经发展,或者您已经发展,或者商业环境已经发展。”

早期的系统非常不灵活,缺乏鲁棒性-它们几乎无法应对不可预见的情况或将知识从一个领域转移到另一个领域-今天仍然是一个问题。深蓝会下棋,但只会下棋。 Google的汽车会开车,但只会开车。这是我们的态度和看法的危险。我们了解到,擅长国际象棋的人通常也擅长其他地方的战略思维,并且擅长驾驶,具有手眼协调能力和特殊推理能力,也有助于足球运动。但是我们不能对智能机器做出相同的推论。”

另一个问题是一致性维护。 “我们建立了这些庞大的法律专家系统,这些法律专家系统为很多法律法规建立了模型,然后国会就如此考虑制定新的法规,那么您该怎么办?到那时,我们(学者)已经前进了,该组织中的人们通常甚至都不具备操作该技术的技能,因为该技术是用研究人员可以轻松编写的语言编写的。”

进一步的问题是,早期系统缺乏任何创造力。舍弗尔教授说:“您不想在法律或客户的未来方面太有创造力。” “您不想去找他们说:'看,是的,您有一个非常非常困难的案子,但是我–而且只有我–发现对法律的一种解释是从未有人见过的。规定。前进!冒险吧。这些高等法院法官,我在你后面100%,他们知道什么!”但是,如果您要寻找竞争优势,则需要一点创造力。

这次AI真正的游戏改变者之一是机器学习的发展。关于一致性维护等问题,Schafer教授说:“我们不再依赖于法律系统的静态快照,而是通过机器学习以及所带来的灵活性来升级自身。

“一旦添加了这一点,那么它就真正成为了数据科学,对我而言,它是这些重大改变者之一,因为它处理了灵活性问题,处理了知识获取问题,我们突然可以说我们没有无需事先指定所有内容–这些机器,这些算法,这些AI可以自行学习,自我更新,并且对即将发生的一切都更加灵活。”

有趣的AI项目的示例包括基于法律知识交换框架的Eurobonds交易框架。这是由谢弗教授的硕士生奥兰多·康埃塔(Orlando Conetta)创建的,然后被Pinsent Masons聘用,而他现在是该公司的研发主管。舍弗教授说:“我对奥兰多寄予厚望。我希望他能在接下来的三年中写我的文章,并向我们支付博士生的学费-然后Pinsent Masons给他提供了一份合适的工作,以进一步发展这个想法。

另一个著名的例子是 Lex Machina,它使用机器学习来分析专利法领域的案卷提交,法院判决和其他材料,以便预测结果。 “在这里,我们拥有一种新型的公司,”谢弗教授说。他们不是传统的软件公司。他们不是传统的律师事务所。这是一家真正的跨学科公司,您拥有法律专业知识和计算机专业知识,能够以以前不存在的形式开发服务。我认为,这确实是一个新领域,更令人振奋,这是法律行业和软件行业之间交叉的新机会。而且您确实需要同时获得两者。没有法律专业知识,您就无法做他们正在做的事情。如果没有计算机科学专业知识,您将无法做他们正在做的事情。”

法律和计算机科学交叉的其他示例包括 现在注册商标,它使用机器学习工具来数据挖掘商标文本。虽然自动驾驶汽车通常不会在合法AI的背景下出现,但它们却是法律与技术如何相互交叉的一个例子。 Schafer教授说:“如果要正常工作,那么它不仅需要驾驶员,还需要一名数据保护律师,他会告诉汽车可以向其他汽车披露哪些信息。而且它还需要合同律师–因为汽车会自动支付交通拥堵费等费用。显然,它还需要一位非常了解道路交通法的律师。因此,为了使该机器正常工作,它需要具有法律推理的基本能力。”

从更大的角度来看,人工智能的难题的最后一部分是创造力,同理心和法律推理–能够解释计算机为何采取行动的能力。

法律之外,在艺术界,西蒙·科尔顿(Simon Colton)的项目 绘画傻瓜 向我们展示了可能性。 Burkhard教授说:“这是一个绘画项目,一个程序,它越来越擅长的一件事就是情感识别。” “因此,它意识到,正在做肖像的那个人只是从表情上就生气,不开心,可能很沮丧。系统中没有一个规则,一个预先确定的规则,告诉它,它只是从大量图像中得知,这不是一个快乐的兔子。而且它还了解到,如果人们不满意,鲜艳的色彩和灿烂的笑容将是不合适的选择。然后,它想出了深色,柔和的颜色,某种痛苦的哭泣来表达这种感觉。”

情感识别是AI的重要研究领域之一,包括数据挖掘和预测编码。 “给我所有有人真的非常生气的文件。如果您想表明在大公司中对女性存在敌对的环境,那比寻找特定的关键词更为重要。您想要情感,即表达的原始情感。”谢弗教授说。

在有很多坏消息的时候读过《卫报》,《绘画傻瓜》不仅描绘了一幅悲惨的图画,而且解释了它是如何达到这些选择的。 Schafer教授说:“我们注意到旧的AI不好,但对法律专业知识必不可少的一件事是提供理由解释为什么它做了自己的事情,而不是仅仅做正确的事情。

我认为这就是法律与许多其他学科不同的地方。做正确的事还不够。我们需要能够解释为什么我们做正确的事。原因是正确的原因。

“这是我认为是重大发展的第三大支柱。情感和情感识别,个人风格,个性化的AI会对其外部输入做出反应,从而形成一种身份,但也需要以解释为中心的计算,然后能够说出他们为什么这样做。”

“这来自艺术界,对未来的灿烂愿景,在AI领域真正变革的未来,能够应对人类的情感,能够应对各种解释,有理由并能够个性化您正在做什么,而不是遵循样板。我认为这可能对法律也很重要,而不仅仅是艺术。”

这篇文章首先出现在最新的 法律IT内幕人士。您可以 寄存器 在我们的网站上通过电子邮件接收免费的每月一期。