科罗拉多大学法学院副教授哈里•瑟登(Harry Surden)和玛格特•卡明斯基(Margot Kaminski)是探索人工智能未来的领军人物,他们将于5月3日在科罗拉多州法律大会上组织一个名为“可解释的人工智能:我们能让机器承担责任吗”的会议。我们通过问答方式,了解他们对“可解释的人工智能”的看法,以及人类如何帮助引导计算机更好地服务。
什么是“可解释的人工智能”?
卡明斯基:“可解释的人工智能”是人工智能的一种,它解释了为什么或如何实现决策或输出。然而,它的定义取决于询问的对象是律师还是计算机科学家。这种差异是本次会议的灵感来源之一。与计算机科学家相比,律师可能对不同种类的解释感兴趣,比如对一个决定是否合理、是否合法或是否允许某人以某种方式质疑该决定的解释。
“可解释的人工智能”试图解决什么问题?
卡明斯基:你试图用解释来解决的问题可以真正影响你对它们的看法,或者你认为它们应该采取什么形式。例如,有些人注重解释的工具价值:捕捉和纠正错误、偏见或歧视。另一些则侧重于解释其在维护人类尊严方面的作用,为人们提供了抵制自动决策和保持某种自治能力。
瑟登:存在一些核心的法律价值——公正、公平、平等对待、正当程序。如果人工智能被用于刑事判决等司法决策程序,那么从某种意义上说,法律规范,例如为政府决定辩护或提供合理解释,应该是其中的一部分。
法律学者指出“黑匣子”决策会引发公平、合法性和错误等问题。为什么这让律师、政府、政策制定者以及其他可能在商业实践中使用人工智能的人感到担忧?
卡明斯基:人工智能决策正在整个经济体系和政府部门中得到应用,从雇佣、解雇到福利决策。一方面,这可能是一件好事:在公共政策决策中加入统计分析本身并没有问题,而且可以取代人类的偏见。然而,另一方面,真正的问题是“自动化偏见”,这表明人类更信任机器做出的决策,而不是人类做出的决策。当人们使用人工智能来促进决策或做出决策时,他们依赖的是其他人构建的工具。他们通常没有技术能力或实际能力来决定是否应该优先依赖这些工具。
瑟登:法律体系的合法性部分取决于人们是否相信自己受到了公平、平等的对待,以及政府的决策是否具备正当理由。如果人工智能被用于政府决策,但仍然不透明或难以理解,这可能会破坏人们对法律体系和政府部门的信任。
在最近的一篇文章(Binary Governance: Lessons from the GDPR”s Approach to Algorithmic Accountability)中,卡明斯基教授指出,根据美国法律机器学习算法所做的决定基本上不受监管。有效的监管应该是什么样的呢?
卡明斯基:为了有效地监管人工智能,我们必须弄清楚我们为什么要进行监管。我们需要解决的问题到底是什么?参议员怀登(Wyden)和布克(Booker)刚刚在美国提出一项立法,要求企业进行“算法影响评估”,并围绕人工智能偏见降低风险。如果你唯一关心的是操纵工具的偏见,而不是解决人类尊严或正当理由方面的问题,如果你相信执法力度足够强大,公司能够实现自我监管而不受个人挑战,那就太好了。我对这个问题的简短回答是:我们可能需要同时做这两件事。既需要对人工智能偏见采取一种监管的、系统的、事先的方法,也需要形成某种个人透明度,甚至是可争议性,以便让受影响的个人在适当的时候进行对抗。
有人称,人工智能的智能化和透明度之间经常存在权衡。人工智能需要被解释为合乎伦理吗?
瑟登:我认为,可解释性只是学者们正在寻求的一种途径,以帮助解决使用人工智能引发的一些伦理问题。我认为有几件事我们现在还不知道:首先,我们不知道,作为技术领域的问题,我们是否能够让人工智能系统产生在当前法律环境下有用的和令人满意的解释。在目前的技术状态下,许多人工智能“解释”实际上只是枯燥的数据和算法结构的堆积,而不是许多人听到“解释”这个词时想象的那种正当性叙述。因此,首要问题是,作为技术问题,合适的“解释”能否在短期内实现。更长期的问题是,即使人工智能“解释”在技术上是可行的,我认为我们甚至无法知道它们通常能否解决或者在多大程度上解决当前在人工智能公共使用中看到的伦理问题。结果可能是我们提供了有用的解释,但与围绕人工智能的更大的社会问题相比,“解释”只是其中的一个小问题。完善“解释”只是许多学者正在探索的一个假设。
(供稿者:袁 媛 编辑:袁 媛)
原文地址:
https://www.colorado.edu/law/2019/04/29/explainable-artificial-intelligence-can-we-hold-machines-accountable-qa-professors-surden
声明:本文来自北邮互联网治理与法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表士冗科技立场,转载目的在于传递更多信息。如有侵权,请联系 service@expshell.com。