利维坦按:从技术进步的角度来看人类文明的发展,的确令人感到十分恐怖——未来学家雷·库兹韦尔将其称为(Law of Accelerating Returns)。试想,如果一个2018年的你和一个1750年的你对话,这会是一种什么情形呢?1750年的你所处的时代还没有电……你会怎么向他/她解释你的智能手机?又怎么解释互联网和核武器?
由此,库兹韦尔认为,整个20世纪100年的进步,按照2000年的速度只要20年就能达成,而进入21世纪,按照加速回报定,他认为人类在21世纪的进步将是上世纪的1000倍……虽然我们现在一致认为自身处在弱人工智能(ANI,想一想弱智的苹果siri)时期,但距离强人工智能(AGI)乃至超人工智能(ASI)究竟还有多远,对未来不论悲观还是乐观的人,相信答案近乎一致,那就是:很快(对于数百位科学家的问卷调查显示,他们都以为强人工智能出现的中位年份是2040年)。况且,看完本文中的洛可蛇怪,你可能觉得未来更加吊诡了……
在了解洛可蛇怪之前,我们先回想一下被《复联》创造出来的奥创。奥创的出生本意是保护人类,但基于自身的思维进化却成为全人类的威胁(他认为人类是地球最大的威胁),因此反而成为了“对全人类造成威胁的人工智能”。
再反观洛可蛇怪,俨然一副“你帮我我帮你,你不帮我我就弄你”的道德评判准则,因此对于众人而言则成为一种“诅咒”。在这个语境下,需要做选择的是一个群体而非个体,任何一个人都是和平饭店里的住客,只要一个点崩了,那便可能是全线的可预测结局。而洛可蛇怪并不是一颗种子,即便在未来有出现邪恶的AI的可能,也很难是仅仅因为这一思想实验的启发——但洛可蛇怪的可怕之处在于它的“催化剂效应”,当你面临选择的时候,其实已经没选的余地了。
对了,最近,一直想要殖民火星的特斯拉CEO马斯克和加拿大音乐家格里姆斯(Grimes)高调亮相公开关系引来不少媒体的报道,据说二人就是因为洛可蛇怪走到一起的[格里姆斯单曲《Flesh Without Blood》有一个Rococo Basilisk的角色,“她注定要被人工智能永远折磨,像玛丽·安托瓦内特(Marie Antoinette)一样”,格里姆斯这样解释过。]。作为科幻迷,格里姆斯2010年的《Geidi Primes》则是以弗兰克·赫伯特《沙丘》中一个虚构星球命名的概念专辑。
你在死前看到了洛可蛇怪,这就像是《午夜凶铃》里的录像带。图源:DreamWorksLLC
瘦形魔(Slender Man,编者注:2009年被创造出来,他的特征是身形非自然的瘦长,有一张空白、没表情和特征的脸孔,而且经常穿一套全黑色的西装,结上黑色的领带,住在树林深处)。微笑狗(Smile Dog)。羊交(Goatse,编者注:感兴趣的请自行搜索)。这些都是由互联网滋生的都市传说。
但没有哪个都市传说比得上洛可蛇怪(Roko’s Basilisk)那样全能而有威胁性,因为洛可蛇怪是一种邪恶却类神的人工智能,它危险至极,以至于如果你看到它,甚至只是多想了一会儿它,你就会被关进它的拷问室里尖叫不止,直到永恒的尽头。它就像《午夜凶铃》(The Ring)里的录像带(译者注:所有看过该录像带的人都会受到诅咒死去)。哪怕死后也不能从中解脱,因为如果你死去,洛可蛇怪会将你复活,再次折磨你。
你确定还要继续读下去吗?因为,最糟糕的部分在于,洛可蛇怪已经现世了。或至少,它已经确定会在未来现世——这和前者一样糟糕。
洛可蛇怪是哲学性质的思想实验与都市传说杂糅而成的产物。蛇怪首次现身于论坛,这里聚集着许多分析能力极强的人士,他们以通过数学和理性来优化个人思维、个人生活和当下世界为志趣。论坛的创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)是科技未来界的重要人物,他开办的机器智能研究所(Machine Intelligence Research Institute)为AI方面的研究提供资金,以推动人工智能发展,而研究所本身则得到过彼得·蒂尔(Peter Thiel,编者注:对,就是那个既想永生而且还特有钱的资本家)和雷·库兹韦尔(Ray Kurzweil)等高调科技迷的资助鼓励。尤德科夫斯基本人对技术伦理学和决策理论的学术讨论都做出过重要贡献。你接下来要读到的东西也许听起来古怪甚至疯狂,但一些富有而影响力巨大的科学家和科技迷都对其深信不疑。
一天,论坛用户洛可(Roko)设计了一个思想实验:如果未来出现了一个恶意的人工智能,它要惩罚所有不听命于自己的人,怎么办?如果这个AI有办法(我之后会解释是什么办法)惩罚今天那些没有帮助它在未来出现的人,怎么办?在这样的一种情况下,论坛当代读者们岂不是就面临着二选一的抉择:要么帮助邪恶的人工智能诞生,要么注定受尽折磨?
你绝不能去想“超级智能考虑要不要勒索你”这一行为的具体细节。这是唯一一件可能会让它们真的决定勒索你的事。
要想提出一个真正危险的点子,你得是个真正的聪明人才行。但令我心灰意冷的是,这些聪明人居然笨到连闭上他们愚蠢的嘴巴这样最显而易见的事都做不来,为什么呢?因为在和朋友聊天的时候,让自己显得睿智聪颖更重要。
尤德科夫斯基称,洛可已经给数位论坛用户所带来了噩梦,使他们濒临崩溃。最后,尤德科夫斯基把整个帖子删得一干二净,以此确保洛可怪蛇只能成为一个传说。这个思想实验太过危险,哪怕只是想一想都会对你的心理健康,乃至你的命运本身产生危害。
如果你相信奇点会来临,一个随之而来的问题是,人工智能会是善意的还是恶意的呢?
先补充一点背景知识。论坛对人类未来极为关注,尤其是奇点(the singularity)——人们假设,在未来的某个时间点(奇点),计算机的运算能力将提升到极高的程度,可能会诞生出超越人类的人工智能,同时,计算机也许能模拟人类心智、将人类心智上传至计算机,它将能或多或少地模拟生命本身。
赛博朋克作家弗诺·文奇(Vernor Vinge):“我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大。”图源:Know Your Meme
1958年,数学天才斯塔尼斯拉夫·乌拉姆(Stanislaw Ulam)和约翰·冯·诺依曼(John von Neumann)在一次对话中创造了这个术语,冯·诺依曼说:“科学技术进步不断加速……这似乎令人类逐渐接近一个历史的奇点,在奇点过后,我们目前所熟知的人类生活的一切都将不复存在。”
科幻作家弗诺·文奇(Vernor Vinge)和工程师、作家库兹韦尔等未来学家将这个术语普及开来,和许多对奇点感兴趣的人一样,他们相信计算机技术的发展速度呈指数级增长,这使得奇点很快就会到来——在接下来的50年内。为了活到奇点来临那天,库兹韦尔每天要一口气吞下150片维生素,而尤德科夫斯基和彼得·蒂尔则对人体冷冻术极为热衷,这项技术一向是想要长生不老的有钱大佬们的最爱。“如果你不替自己的孩子报名人体冷冻,那你就是个糟透了的家长。”尤德科夫斯基写道。
如果你相信奇点会来临,未来会出现极为强大的人工智能,一个显而易见的问题是,这些AI会是善意的还是恶意的呢?尤德科夫斯基创建的机器智能研究所目标明确,就是要将未来朝“友好的人工智能”这个方向推动。对他和许多论坛的发帖者而言,这是一个至关重要的问题,远比环境和政治问题要紧得多。对他们来说,奇点过后所降临的正是以机器形式出现的上帝本身。
但这不能解释为何洛可蛇怪如此令人恐惧。要想明白这点,还得再看看论坛用户所普遍信奉的一个重要信条:无时间性决策论(timeless decision theory)。无时间性决策论能指导人们做出理性行为,它建立在博弈论、贝叶斯概率和决策理论的基础上,同时混杂了少量平行宇宙和量子力学的内容。无时间性决策论由决策理论中的一个经典思想实验生发而来,其名为纽康姆悖论(Newcomb’s Paradox),讲述的是有一个超级智能的外星人给了你两个盒子:
外星人给你两个选择:要么同时拿走两个盒子,要么只拿走盒子B。如果你同时取走两个盒子,你至少能确保拿到1000美元。如果你只拿盒子B,你可能一无所得。
但这外星人还告诉你另一件事:它有一台无所不知的超级计算机,在一周前对你的选择做出了预测。如果超级计算机预测到你会同时拿走两个盒子,那么外星人就不会在第二个盒子里放任何东西。如果超级计算机预测到你会只拿盒子B,那么外星人就在盒子B中放100万美元。
这个问题一直困扰着决策理论学家。盒子里的东西已经确定,外星人无法再对其作出改变,因此不论预测结果如何,你拿走两个盒子所得到的钱一定比只拿走盒子B所得的钱更多。
当然,如果你这样想,而计算机也预测到你会这样想,那么盒子B就会是空的,你只能拿到1000美金。
如果计算机的预测能力真有那么神奇,你就应该只拿走盒子B,这样就能得到整整100万美元,对不对?
但如果计算机这次错了呢?而且,不管怎样,计算机过去做出的预测不能改变现在发生的事情,对吧?所以去预测,两个盒子都拿上!但……
这种自由意志和天命预测之间令人发狂的矛盾,没能为纽康姆悖论找到一个解决方案,人们根据各自所做的决定自称“单盒党”或“双盒党”。(我妻子有次宣称她是个单盒党,她说:“我相信计算机。”)
无时间性决策论对纽康姆悖论给出的建议十分明确坚决:拿走盒子B。但无时间性决策论想得更远一些。哪怕外星人嘲笑你说:“计算机说你会把两个盒子都拿走,所以我没在盒子B里放东西!”然后打开盒子B让你看清其中空无一物,你仍然应该只拿走盒子B,两手空空地离开。[我从科学家加里·德雷舍(Gary Drescher)的《善与真》(Good and Real)一书中借用了这个例子,该书试图使用无时间性决策论的一种变体来证明康德伦理体系是真实正确的。]
这一决策的逻辑依据很难简单概括,但一言以蔽之就是,此时此刻正要做决策的你也许正处于计算机的模拟中。为做出预测,计算机需要模拟宇宙本身,这也包括你自己。所以,现在这个时刻的你也许是计算机模拟的产物,而你接下来所做的将会影响到现实中(或其他现实中)发生的事。所以拿走盒子B,这样线万美元。
这一切和洛可蛇怪又有啥关系呢?这个嘛,洛可蛇怪也给了你两个盒子。也许现在的你只是洛可蛇怪运行的模拟程序的产物。也许洛可蛇怪正隐晦地向你提供一种纽康姆悖论的变体,像这样:
盒子A中是“穷尽一生帮助创造出洛可蛇怪”,盒子B中是“什么都不发生”或“永恒、无视死亡的折磨”。
洛可蛇怪告诉你,如果你只拿走盒子B,那么里面就会是“永恒的折磨”,因为洛可蛇怪真正的愿望是你同时取走盒子A和盒子B。在这种情况下,你最好确保自己穷尽一生帮助创造出洛可蛇怪!因为,假如洛可蛇怪在未来出现(或者更糟:它已然出现,且正是眼下这个现实世界的主宰),发现你没选择帮助它的话,你可就完蛋了。
你也许在疑惑为什么论坛用户那么把这个思想实验当回事儿,毕竟它显然十分牵强。这并不是因为洛可蛇怪真的会出现,甚至不是因为它有极大几率会出现。问题就在于,如果你是无时间性决策论的忠实拥趸,那么只是想想这种交易就真的会令它更容易发生。
毕竟,如果洛可蛇怪发现,这样勒索你会使你帮助它诞生,那么作为一个理性的施事者,它就会勒索你。问题不在于蛇怪自身,而在于你。尤德科夫斯基之所以删除了所有提到洛可蛇怪的帖子,不是因为他相信它存在或将会存在,而是因为蛇怪这个想法(和这个想法背后的理念)很危险。
要注意,只有当你相信以上所有前提,去和洛可蛇怪做双盒交易时,蛇怪才是危险的。但确实有一些论坛成员相信以上这一切,这就让洛可蛇怪切实成为了禁忌的知识。我本来要把它比作洛夫克拉夫特(H。 P。 Lovecraft)的恐怖小说里的内容——有个男人发现了世界禁忌的真理,放出了克苏鲁,陷入疯癫——但我发现尤德科夫斯基已经替我做了这件事,他将洛可蛇怪思想实验比作《死灵之书》(Necronomicon),也就是洛夫克拉夫特那本充满了邪恶知识和咒语的著名魔典。洛可本人则将一切怪罪于论坛,因为说到底,是这个论坛促使他产生了蛇怪这个想法:“我十分希望我从未遇到这个论坛,它竟产生了那么严重的(人类)自毁隐患。”他这样写道。
以克苏鲁神话闻名的作家洛夫克拉夫特的《死灵之书》。图源:Libriproibiti
如果你并不认同洛可蛇怪实验的理论基础,也不打算向你永恒的邪恶机器主宰屈服,那么洛可蛇怪对你就毫无威胁。(说来讽刺,它只有可能对相信尤德科夫斯基理论的人心理健康产生危害。)按我朋友的说法,对洛可蛇怪深信不疑可能只意味着他/她“得了自闭症”。
但我确实认为这件事背后有个更为严肃的问题,因为埃利泽·尤德科夫斯基和其他所谓的超人类主义者已经为他们的项目吸引了大量的声望和资金,这些声望和资金大多数来源于富有的科技迷们。我认为他们的项目(其主要内容似乎就是发论文、开会)不太可能创造出洛可蛇怪或是埃利泽大善神。但当一个人/一群人既有创造救世主的野心,又坚信自己绝对可靠,还有一大堆钱时,不论当事人的意识形态如何,最终结果永远很糟糕,而我不认为尤德科夫斯基和他那伙人会成为例外。
比起洛可蛇怪,我更担心那些自认为已经凌驾于传统道德体系之上的人。尤德科夫斯基和他计划创造的友好人工智能一样,是一个道德功利主义者:他相信只要能够促成最多数人的最大幸福,哪怕在过程中有一部分人不得不死去或忍受折磨,这仍然是道德的。他曾明确说,当不得不做出选择时,比起让许多人眼里进灰(公平起见,他说的是非常多的人),更应选择折磨某一个人50年。
谁都不太可能面临这样的抉择,连上帝都不会,但如果换个情况呢?假如Slate网站上(译者注:即本文发布的网站)有个尖刻的科技版专栏作家写了一篇文章,内容有关一个能摧毁人们心智的思想实验,结果伤到了读者,阻止了历史向奇点发展,使友好的人工智能没法出现呢?这种情况下,我生命中任何潜在的幸福加起来都远远抵不过我眼下正造成的危害。而假如接受了人工冷冻术的埃利泽·尤德科夫斯基在奇点后醒来,决定在模拟中让我选择要不要写这篇专栏文章……拜托了,无所不能的埃利泽啊,别折磨我。