本文摘要:按 2018年12月18日,欧盟人工智能高级别专家组公布了一份人工智能道德准则草案。
按 2018年12月18日,欧盟人工智能高级别专家组公布了一份人工智能道德准则草案。在许多人忧虑人工智能代替人类、毁坏伦理的大背景下,该草案目的指导人们生产一种“可信赖的人工智能”。如何才能让机器人更加令人信赖?否彰显它们道德修养呢?早已话题,作者专访了美国匹兹堡大学科学哲学和科学史系由卓越教授、西安交通大学长江讲座教授科林·艾伦。
问:什么是人工智能的“道德”?艾伦:人工智能的“道德”,或者说“道德机器”“机器道德”,有很多有所不同的含义。我将这些含义不属于3种。第一种含义中,机器不应具备与人类完全相同的道德能力。第二种含义中,机器不必几乎不具备人类的能力,但它们对道德涉及的事实应当具备敏感性,并且能依据事实展开自律决策。
第三种含义则是说道,机器设计者不会在低于层面上考虑到机器的道德,但是并没彰显机器人注目道德事实并作出决策的能力。就目前而言,第一种含义所设想的机器仍是一个科学幻想。所以,我在《道德机器》一书中跳过了对它的探究,而更加有兴趣探究那些相若第二、第三种意义之间的机器。
当下,我们期望设计者在设计机器人时需要考虑到道德因素。这是因为,在没人类必要监督的情况下,机器人有可能将在公共领域分担更加多的工作。这是我们第一次建构可以无监督地运营的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。
在这样的“无监督”情境中,我们期望机器需要作出更加道德的决策,期望对机器的设计某种程度要侧重安全性,更加要注目人类介意的价值问题。问:如何让人工智能具备道德?艾伦:首先要说的是,人类自己还不是几乎道德的,将一个人培育成有道德的人可不是一件更容易的事。
人类的本质都是出于利己主义行事,而不考虑到他人的市场需求和利益。然而,一个道德的智能体必需学会抗拒自己的性欲以便利他人。我们现在建构的机器人,只不过并不具备自己的性欲,也没自己的动机,因为它们没贪婪的利益。
所以,训练人工智能和训练人的道德是有相当大差异的。对机器的训练问题在于,我们怎样才能彰显机器一种能力,让它脆弱地察觉到哪些对人类的道德价值观而言是最重要的事情。
此外,机器必须认识到它的不道德不会对人类导致伤痛吗?我指出是必须的。我们可以考虑到通过编程,使机器按照这种方式行事,且需要考虑到怎么让机器人优先考虑到他者利益,却是目前的机器还不享有利己的本能。
问:发展人工智能的道德不应使用怎样的模式?艾伦:我们曾在《道德机器》中辩论了机器道德发展模式,指出“自上而下”和“自下而上”互为混合的模式是最佳答案。首先谈一谈“自上而下”和“自下而上”意味著什么。我们以两种有所不同的方式用于这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工演化,而另一个则是伦理学视角。
机器学习和人工演化并不从任何原则开始,它们只是企图使机器合乎特定类型的不道德叙述,并且在等价输出使机器以这种方式行事时,它的不道德需要合乎特定类型,这叫“自下而上”。与之比起,“自上而下”的方法则意味著一个明晰的、将规则彰显决策过程的模式,并且企图写规则来指导机器学习。我们可以说道,在工程领域中,“自下向下”就是指数据当中自学经验,而“自上向上”则是用确认的规则展开实编程。在一些伦理学领域也有这种“上下之别”,比如康德,还有早的功利主义学派,如边乌兰和密尔,他们就更加看起来“自上而下”。
这些学者企图制订规则以及广泛原则,以便通过这些“条条框框”辨别出有一个不道德是不是道德的。这样对康德的道德律令而言,其涵义就包括着多项明确规则,例如“不骗子”。
亚里士多德对于道德持有人非常有所不同的观点。他指出,道德应该是一个人通过训练而习得的。
因此,亚里士多德的观点就更加偏向于一种“自下向下”的方法,这种方法就是一个人通过锻炼显得好、心地善良、勇气。当贯彻道德的时候,我们就称作美德伦理。通过这样做到,一个人会显得极具美德、不会有更佳的不道德。
我指出亚里士多德的观点更加准确。因为人类并不是靠“瞎了摸瞎了撞到”去教导习惯的,也不会对习惯展开思维,并思维必须哪些原则。
亚里士多德注意到,在原则灌输和习惯训练之间不存在着一种相互作用。我们指出,这种途径某种程度也限于于人工道德智能体的建构。
在很多动态决策的情境下,我们并没充足的时间来反省不道德背后的理论或原则含义。但是,我们还可以从错误中自学,因为可以用于这些“自上向上”的原则新的评估我们所做到的事情,之后再行展开调整和新的训练。
这就是混合方法的基本思路,我指出它显然合乎人类的情形。荐个例子,当你还是个孩童时,你对兄弟姐妹做到了什么很差的事情,父母不会说道“如果这种事情再次发生在你身上,你不会有何感觉呢”,是吧?在许多道德传统中都有这样一种原则:“以你自己对待自己的方式,或是你期望被别人对待的方式去对待他人”,有时人们也称之为这一原则为黄金法则。
所以,你某种程度被告诉不要那样做到,也并某种程度因此而罚,实质上你不会被告诉去思维这样做到为何是好的或很差的,这就是“自上而下”与“自下而上”的融合。问:应当容许人工智能的发展吗?艾伦:我指出这各不相同应用领域。
我现在并不担忧机器人或人工智能不会代替人类,如果情况显得危险性,我们是有能力去制止它的。比如说忽然找到机器人可以生产机器人,我们要做到的无非就是截断电源。当然,显然不存在一些应该暂停人工智能应用于的地方,其中一个就是人们于是以致力研发的军事领域。从人类的历史来看,一旦有人设想出有一个武器,那将很难制止另一些人的性欲及其为之努力奋斗的野心。
核武器和无人机就是很好的例子。但是,我不指出应当制止其他形式的人工智能发展。
我们必须思维技术对生活带给了怎样的后果,比如说,自动驾驶汽车不会使行人过马路更加艰难,还是更为更容易呢?自动驾驶汽车面对行人过马路的情形时应可选什么样的权限呢?无人车看见行人能无法安全性停下来,还是说道它像人类司机一样,仍然有可能撞到到行人?这些都是我们必须对人工智能展开思维的问题。无人驾驶汽车不仅不应暂停发展,而是应当投放更加多。问:机器人不会显得更佳还是更加危险性?艾伦:过去10年来,人工智能在某些方面的飞速发展令人吃惊,但算不上失望。
在我看来,未来10年内无人驾驶汽车投入到现实路况中的可能性并不大。苹果公司发售了一个可以聊天的智能体Siri,但以现在的情形来看,Siri很差劲不是吗?所有我用于过的类似于产品,诸如Alexa,Google Talk,都不尽人意。
所以我现在会从伦理的视角对人工智能的发展过分担忧。这些企业竟然知道公布了这些产品,但更加令其我惊讶的是,人们竟然在相当大程度上调整自身不道德以适应环境人工智能,因为你告诉把Siri当作正常人来聊天的话,它总有一天会明白你的意思。人类在作出调整,并非机器,因为机器并不是一个自适应的系统。或者说,它比人类具备要强的适应性。
这是最令其我担忧的。当然,我所担忧的并不是机器做到的事情远超过人类的预期,而是它们有可能转变并容许我们的不道德。AlphaGo输掉了棋士,但未转变我们的日常生活,所以没什么好担忧的。
我担忧人们用愚蠢的方式与机器聊天,以便机器按照我们的点子行事。要告诉,这具备许多潜在的危险性。
它潜移默化转变我们的习惯不道德,使我们对某些类型的错误极具容忍性而对有些错误却更为严苛。人们不会预料到并且能忽视人类所犯的道德错误,但是,人类有可能会忽视这样的错误在机器上再次发生。经过规划考虑到后仍对他人导致损害的要求如果再次发生在机器上,不会比再次发生在人类身上更加无法令人忽视。
在过去10年内,这种转变早已再次发生了。即使软件不会显得更佳,机器也不会显得更佳,但是总有一天都不存在着让人类去适应环境机器而非确实提升人类能力的危险性。
本文来源:Bevictor伟德官网-www.kebakj.com
我要加盟(留言后专人第一时间快速对接)
已有 1826 企业通过我们找到了合作项目