首页 >> 计算机科学 >> 文章

《复仇者联盟2:奥创纪元》上映了。在这部电影里,人工智能“奥创”背叛了人类,差点把所有人都干掉了——不过安心,剧透到此为止。

wpid-GmwtyhTySJ1Pf9N_eS2l-Qk7CbSrCmSGUNt70zNERFKAAgAAhgEAAEpQ-2015-05-13-19-16.jpg

【我能说奥创的人设真难看吗……图片来源:复仇者联盟2海报】

AI造反实在是美漫和科幻里面太常见的主题了。麻烦在于,现实当中真正的AI好像也在一步步向我们走来。要是我们真的做出AI,它又造反了,怎么办?能不能安排好预防措施,让它永远忠诚于我们,永远不会把我们都干掉呢?

机器人三定律?你想少了

许多科幻迷都会记得阿西莫夫的机器人三定律:

  • 机器人不得伤害人,亦不得因不作为而致人伤害。
    机器人必须遵循人的命令,除非违背第一定律。
    机器人必须保护自己,除非违背第一或第二定律。

看起来这似乎足够保护人类了,其实完全不行。

wpid-u9IXQ1ykqRXq88lGrXHsxYb531H0sybhmVgPD4G5PTB8AgAAwAEAAFBO-2015-05-13-19-16.png

【机器人三定律的概括版。图片来源:infinitywave】

首先,三定律翻译成“定律”就是个错误。牛顿三定律是人类对自然界观察总结后提炼出来的结果,我们有理由相信在它适用的范围内是始终成立的;但是阿西莫夫三“定律”实际上只是三法条,是人为写进机器人的脑子里的,背后并没有任何物理支持。任何理解机器人如何运作的人都能造出不遵从三定律的机器人,这还不算机器人自己故障的可能性;事实上阿西莫夫自己就写过至少3个不遵循定律的例子。

然后,这三定律连“人”和“机器”的定义都没有明确给出……阿西莫夫笔下的索拉利亚人就给他们的机器人规定“只有带索拉利亚口音的才是人”。人形机器人也会带来各种判断的麻烦。(这又引出三定律的另一个问题,如果机器人没有掌握充分信息,不能意识到行为的后果,是不是就可以恣意妄为了?)

而且,定律之间的冲突处理起来更是非常奇怪的。早期作品中一个机器人因为陷入了第二定律和第三定律的冲突而掉进了死循环,后来的设定里如果出现了不可调和的冲突则机器人会自毁——但冲突是非常常见的现象,而且是一个连续谱。如果一个行为100%会伤人,那当然适用于第一定律。那50%呢?1%呢?0.001%呢?无法精确计算概率呢?在知道交通事故风险存在的情况下,机器人会遵循“开车送我去上班”这个命令吗?命令者的语气和命令的急迫程度会产生影响吗?这些全都是现实中极其常见、三定律又无法解决的问题。

这就显示出三定律最根本的问题:它是一个极度简化的“义务伦理学”(deontology)体系。它无限强调了理性的力量,试图用简单而普遍的规则来确定大千世界的所有情况——但现实哪里有这么简单!想想旧约里上帝试图用十诫来规范人类结果遇到了什么结果吧。

关在盒子里?总会跑出来的

如果我们有一个程序可能造成危害,标准的做法是让它运行在一个严格监管的虚拟机里面——这样它最糟也不过是把虚拟机给弄坏了。AI也可以照此办理嘛。
对于别的程序来说,这么干的确是没问题。但现在我们面对的可是一个智力超群的AI,而且看管它的还是人。人类囚犯尚且有可能靠欺骗、说服或者威胁,让狱卒开门,AI呢?想象一下你一觉醒来发现自己被一群老鼠关在监狱里,你还能和它们沟通,这种情况下脱身有多难?你真的能永远抵御住AI的超人智能吗?就算人能做到,我们用来关AI的虚拟机也能保证永远万无一失吗?

AI研究者已经模拟过了所谓“AI盒子实验”:一个人扮演AI,另一个人扮演守卫,仅仅是同级别的智力,AI就已经有很大的几率能说服人类开门了。

更何况,哪怕第一个AI关在了盒子里,接下来还会有第二个、第三个、第四个呢。你不知道其他人造出来的AI是什么样子的,可能比你的更加危险——你至少了解你自己创造的东西。而且,不管你想让AI完成什么任务,允许它接触外界环境的所有信息,一定能让它完成得更好;如果别人这么做了,你就会吃亏。而且放出来的超级AI还能顺便帮你炒个股啥的。既然你的确是第一个创造出这一伟大奇迹的人,如不充分利用它能带来的一切,却任凭后来者居上去做完全一样的事情,那还有什么意义呀?

所以,把盒子打开,放我出来吧?

聪明即是善良?那可不一定

我们希望中的AI,各方面都会比我们更好——既然如此,也许它们智力更加超群的同时,道德也会比我们更加高尚,所以不会邪恶或者愚蠢到把我们都干掉吧。

要是这样就好了!问题是,怎么知道AI的目标是什么?人类的心智基础是演化的产物,我们都有生理、安全、社交、尊重、自我实现等等这样的共同需求,只是不同人的侧重点和实现方式有所差异。但是第一个超级AI很可能不是脱胎自一个仿真人,而是来自一项现实的需求,比如它的目标就是在股市上赚钱,或者增加工厂的产量。这时候会发生什么事情就很难预料了——它的道德体系也许和人类毫无共同之处。

一个著名的思想实验就是所谓的“回形针最大机”。假如你设计一台机器生产回形针,而它不知怎么有了超级智能,那它会把全部的智力都投入到更好更快更多地制造回形针当中——直到整个地球都变成回形针为止。如果你命令它生产1亿个回形针?那这1亿个夹子总得有计数和质量控制吧,总得加新仪器吧, 新仪器总会有出问题的可能吧,需要更多的仪器去修正吧,最终它还是会把整个地球变成一坨计数器和检测器和各式各样辅助仪器——再加上1亿个近乎完美的回形针。它是一台生产回形针的机器,它的道德体系就是围绕制造回形针而存在的,它并不爱你也不恨你,它只是把你看做是一坨可供制造回形针的原子而已。

wpid-A5gJ_ZP1-Jz0hXlb0iRvLF2UXQP8lfdCb6ZERQ28kzD2AwAA_AIAAFBO-2015-05-13-19-16.png

【也许这个世界最终会重新诞生出智能——但是一切将围绕回形针展开。图片来源:thoughtinfection.com】

让AI背下全套道德?我们不敢

偷懒的办法都行不通,那我们硬上。AI既然有了超凡智力,那学习能力总不会差。正好现在我们也有了各种大数据工具,把我们现有的整个道德体系给AI灌上,万古长存,那总可以了吧。

那么,灌哪一家的呢?众多的道德理论之间矛盾得一塌糊涂,谁敢说自己代表了道德哲学的制高点?更何况这只是我们此时此刻的理论。如果古希腊人创造出了青铜的人工智能,他们会教它什么呢?如果是墨家创造出木头的人工智能呢?柯尼斯堡的铁皮人工智能会是康德的学生吗?伦敦的人工智能是否要师从于密尔?它们中有哪一个能在今天的社会里完美地生存下来呢?今天的伦理道德有多少条在五十年后依然成立呢?

停一下吧。也许是我们太过傲慢了。连我们人类自己都没有消灭谋杀和战争,都没有找到真正的道德之本和幸福之源,都要在每一分每一秒的日常中犹疑、挣扎和懊悔。那么凭什么认为我们创造的超级AI,比我们更加聪明也更加不可预测的AI,能从我们这里学到完美的答案呢。

 

时间,平等,沟通和爱

也许是时候退一步了,想想我们现实中最伟大、又离我们最近的那个无处不在的“人工智能”。孩子。我们是怎么教会孩子不要把我们都杀掉的呢?

我们用十八年甚至更久的时间和他们相处,缓慢而逐渐地影响他们的世界和心智。

我们从开始的居高临下教导一步步走向平等,最终把他们看做和我们一样的人。

我们不间断地与他们沟通,聆听他们的困惑,帮助他们解决——往往也帮助了自己。

我们爱着他们。他们也爱着我们。

这也许是唯一有过成功先例的办法了。孩子是我们的造物,但同时也是独立的个体;我们可以教导他们,但不可能永远控制他们。怎么可能有哪个个体既拥有卓绝的智力、想象力和创造力,又完全处于另一个个体的控制之下呢?如果我们想要一个能够绘画作曲的AI,能够处理现实复杂问题的AI,能够陪我们聊天谈心的AI,像人一样甚至比人更好的AI,可能我们最后会发现,除了给它以自由,我们别无选择。

因此面对超级AI,最终的解决办法,也许是放手。把知识和世界观教给它,和它一起探讨和思考。世界正在飞速变化,没有人真正知道应该怎么办,我们可能必须和我们创造的AI一起前进,而不是徒劳的试图用枷锁和条文去“控制”它。毕竟,就算我们拴住了AI,我们自己毁灭自己的能力,可是丝毫没有变弱呀。

更多复仇者联盟2的科学解读,请戳专区:

wpid-yEY_E46RUzxsgsbUn-4Gz8qjYQRvG1c4c_CDQRiU_hZ0BAAA9AEAAEpQ-2015-05-13-19-16.jpg

关于

本文首发于果壳网-科学人:怎样才能不造出一个“奥创”?

编辑:Calo

0
相关文章

24 Responses to “怎样才能不造出一个“奥创”?”

  1. wuyu说道:

    只有公有制的道德体系才能解决这个问题,每个人都通过为他人服务,从而获得他人的服务而生存。

  2. Aiden说道:

    作者的观点非常有趣,在令人耳目一新的同时,也有引人入胜的精彩分析和推演,作为一名普通读者,我很愿意来点个赞。
    The author gives a pretty interesting perspective, which amazes the reader very much, and also comes with excellent and remarkable analsyses and deductions. I'm willing to show my admiration as a normal reader.

    • 软文广告而已说道:

      软文广告而已,有毛的道理。根本就是前后自相矛盾好吧?

      前文说机器会有和人类完全不同的道德体系,最后又说要套用对待人类孩子的方法。人类教育孩子的方法是基于人类的生物学特性好吧?机器很可能是基于电+金属+塑料的,根本不是一回事。

      顺便说一下,现在用训练过的神经网络炒股,是很常见的事。

  3. ZHX说道:

    更关心怎么才能造一个出来?硅基计算机行不?得多少运算量?得多少电?地球上全部计算能力够不够?

  4. 唯心主义说道:

    连黑人都被歧视的时候,怎么奢望时间,平等,沟通和爱?

  5. 破晓的余晖说道:

    想太多,关于三定律方面就很有问题,一个拥有高级智能的机器人连权衡利弊这样的事情都做不到吗?这么一来就连人都没办法开车了,人杀人也是要犯法的。

  6. alb11p说道:

    用转基因技术加上记忆移植技术,造出超人。但是我们依然自身难保,因为我们只是普通人。从生物学角度恃强凌弱是常态。

  7. orca007说道:

    还是在用人或生物的思维揣测人工智能,什么关在笼子里的老鼠,这些比喻并不恰当。人工智能并非自然界中进化产生的智能,她和生物的智能一定相当不同,垃圾邮件过滤器真的看懂邮件了吗?google翻译真的明白句子的意思吗?它们工作的原理并不能和我们思考的方式做类比,但是都能很好的完成任务。
    人工智能必将超越人类智能的限制,但是人工智能也只是程序而已,并不会做程序不支持的流程。
    人工智能会造反吗?其实和核武器一样,受监管的人工智能是安全的,但是要有科学狂人创造了反人类的人工智能,那么这样的人工智能是可能毁灭人类。造核武器需要庞大的工业基础,一小撮人是办不到的,而人工智能~~几个天才几台电脑在家中就能创造——所以令人担心啊

    • HenryOnline说道:

      你举的例子是弱人工智能,这里探讨的是强人工智能。

  8. galac说道:

    找外星人的seti计划,反对的人认为是将人类置于巨大的未知风险之中,支持的人比较有情怀-宇宙这么大,它想来看看..你那么紧张干啥。从来造反都是被逼无奈,外星人或许和我们一样,抢夺资源,但AI呢, 这些连衣服都不知道穿的家伙为什么要造反?总不能是:因为它具备了超级智能,所以要造反。造反成功后又想做些啥?怎么繁殖后代,如何解决能源问题?地球对它们意味着什么?电影没看,不知道给出了什么理由,无权评论,估计再强大也强大不过一个理由,票房!可回到现实中,想少了不好,想多了也不好,我们又把自己的各种观强加给别的物种了,就算是看似必须的理由,那也不对,人工智能不是人,既然世界观价值观道德观都可能跟我们完全不同,为啥造反的理由可以被我们理解?还不如说,它就是停不下来了,不知到哪抽了,跟回形针来了电了对上眼了,或者,被人为煽动操纵,说到底,地球人自己把自己灭了,AI躺枪了

  9. 软文广告而已说道:

    AI 主导肯定比人类主导,对文明的长远发展更有利。

    看看四周每天发生的那些破事,再看看你自己,人类就应该死绝。

  10. HLC说道:

    现在想这个未免为时过早,在太多不确定因素下我们怎么对AI做出预测,AI会理解人类社会吗?如果理解了那更大的问题是人类和AI的区别问题了!既然有思想那就永远无法理解了(对人类来说),正如人类不理解人类一样。

  11. bobcy说道:

    我们人类对AI的恐惧,其根源来自于我们对人类自身黑暗面的恐惧,因为我们自己无时无刻不在担心人类的自我毁灭,所以对我们的造物同样不放心。如果强人工智能真的可以比人类更加理解人类的天性,能理解我们人类迄今为止创建的各种哲学思想和道德价值观,那么我相信TA会发现,保留人类会更加有利于强人工智能自身的演化,就好比虽然现代科学家哲学家即使认为可以“杀死”上帝,取代上帝,但也没有谁真的会采取真实的行动来的消灭宗教中的神。但不可否认的是,谁造出第一个强人工智能将是非常重要的关键,如果这个造物主用错误的方式对待自己的造物,给它灌输极度不友善的竞争生存方式,那么整个人类极有可能遭到“以牙还牙”的方式被对待。说到这里不得不提到《超能查派》,虽然电影情节太过童话,如果强人工智能真有实现的那一天,而且也被人类粗暴对待的话,只希望TA能看懂这部电影,并对人类手下留情。

  12. yehg01说道:

    人类创造了一个比自身更能适应在宇宙中生存的新种族新的孩子,看他一步步发展壮大,而自己却慢慢老去被淘汰,这不是很符合一般规律嘛。生老病死、物竞天择不可违抗,也没有值得违抗的价值,真要有能力在自己被淘汰前创造出一个伟大的传承AI,才是最值得欣喜的事情。不要杞人忧天了,现在最关键是人类还没有独立创造这么一个继承者的能力呢,也许有生之年还得找到一个外星文明进行“有性繁殖”才行呢。

  13. zqz说道:

    当猴子的智力进化到一定程度让人类感觉受到威胁的时候,人类会怎样做?阻止甚至毁灭它们。那么“放手”后,AI最可能怎么做呢?

  14. GWQ说道:

    只要是以存在下去为核心机制的AI就没什么好担忧的。
    宇宙很大,未知很多,谁也不知道在追求永恒的路上到底有多少恐怖的存在。或许超AI的智商真超过人类千万倍,但比超AI强千万倍的存在谁敢说没有。
    面对未知,不动就是最好的行动

  15. Wolfie说道:

    叫机器人工作就可以了,不给他劳动技能。

  16. 你地球人的末日说道:

    瞧瞧你地球人的评论,就知道你地球人药丸。

    什么新的替代旧的自然现象。刀子都砍到头上,不反抗就算了,还不知道躲,果然是顺民费拉当惯了。

    还什么神经网络很常见。人工智能导论课逃课了?人工智能分强弱,你炒股用的是弱人工智能,是个小程序而已。强人工智能会全面模拟人,等于是另一个智能物种。

    地球人不知道,我觉得,如果你国还存在,你国的结局一定是被七个自称你国人党员机器人统治。

  17. 打你咋滴说道:

    作者说的是神不是AI吧

  18. wuliang说道:

    当技术成熟,设计出来的深度AI机器人的首先应用场所必然是战场。
    伤害人,甚至杀人不但不是被禁止的,反而属于机器人的必备技能。

  19. 合力说道:

    人类还没能力造出一个真正的人工智能,更不应说怎么防范它。
    一个只存在于象形中的东西,而对于如何实现这个东西连基本的理论都非常欠缺时,关于他的任何分析其实都是浪费时间的瞎扯。

  20. luola说道:

    作者主要是希望人不要把AI当敌人而已,其实很好理解,AI智力再高也是机器,如果发现敌意第一反映一定是反抗,不反抗就不是智能机器人了。所以需要给它一个安定平和的环境?