用人工智能來增進人類福祉?你太天真了
超級智能和奇點
2014年5月,劍橋大學物理學家史蒂芬·霍金寫了一篇文章,發(fā)出了人工智能迅速發(fā)展的危險警報。在英國的《獨立報》(The Independent)上,霍金以及其他的合著者,包括麻省理工學院的兩位物理學家馬克斯·泰格馬克(Max Tegmark)和諾貝爾獎獲得者弗蘭克·維爾切克(Frank Wilczek),以及加州大學伯克利分校的計算機科學家斯圖爾特·羅素(Stuart Russell),一起寫文章警告說,創(chuàng)建一臺真正能思考的機器“將是人類歷史上最大的事件。”一臺超出人類智力水平的計算機可能會“超越金融市場,超越人類研究者的發(fā)明,超越有控制能力的人類領導者,研發(fā)出一些我們甚至無法理解的武器?!卑堰@一切視為科幻小說則“有可能是我們歷史上最糟糕的錯誤。”
到目前為止,我所描述的技術,比如能搬箱子或做漢堡的機器人,能創(chuàng)造音樂、寫報告,或在華爾街交易的算法,都可以歸類為專業(yè)或“弱”人工智能。即使是IBM的沃森,這個迄今為止機器智能最成功的示范,都遠比不上一般的人類智能。事實上,在科幻小說的領域之外,所有的功能性人工智能技術其實都是弱人工智能。
然而,我在這里提出的其中一個主要觀點是,現實世界人工智能的專業(yè)化性質并不一定會阻礙很多工作最終實現自動化。大部分勞動力從事的工作任務在一定程度上是常規(guī)和可預見的。我們已經看到,迅速提高的專業(yè)機器人或依據大量數據的機器學習算法,最終將對各種技能水平的職業(yè)構成威脅,這一切都不需要機器能像人一樣思考。計算機要取代你的工作并不需要復制你所有的智力,它只需要完成你為獲得報酬所做的具體事情就好。事實上,大多數人工智能的研發(fā),以及幾乎所有的風險投資,都繼續(xù)把重點放在專門的應用程序上,而我們有充分的理由相信,在未來幾年甚至幾十年,這些技術會變得更加強大和靈活。
雖然這些專業(yè)化技術繼續(xù)產出實用的成果并能吸引投資,但一個更為嚴峻的挑戰(zhàn)潛伏在后面。建立一個真正的智能系統(tǒng),一臺可以構思新想法,可以意識到自己的存在,可以進行連貫對話的機器仍然是人工智能所追求的“圣杯”。
對創(chuàng)造一臺真正能思考的機器的著迷至少可以追溯到1950年,當時阿蘭·圖靈(Alan Turing)發(fā)表了一篇論文,開啟了人工智能時代。在隨后的幾十年中,人工智能的研究經歷了繁榮與蕭條的周期循環(huán),人們對它的期望一再飆升,不考慮任何實際的技術基礎,特別是當時的計算機速度。當失望在所難免時,投資和研究活動迅速減少,而稱為“人工智能寒冬”的長期停滯也接踵而至。不過,春天已經再次來到了。今天計算機的超凡力量,以及人工智能研究在特定領域的進步,還有我們對人類大腦的理解,這些結合在一起,使得形勢極為樂觀。
最近一本關于高級人工智能影響的書的作者詹姆斯·巴拉特(James Barrat),對200名人類水平而非弱人工智能研究人員做了一次非正式調查。在這個領域內,人類水平的人工智能被稱為“強人工智能”(Artificial General Intelligence)。巴拉特讓計算機科學家們在強人工智能何時實現的四個預測時間中做出選擇。結果是:42%的人認為能思考的機器將在2030年前創(chuàng)造出來,25%的人選擇在2050年前,10%的人認為2100年之前不會發(fā)生,只有2%的人認為永遠不會發(fā)生。值得注意的是,一些受訪者在對他們的調查寫評論時表示,巴拉特應該加進一個更早的選項——或許是2020年。
該領域的一些專家擔心可能又會形成期望的泡沫。在2013年10月的博客文章中,臉書新成立的人工智能研究實驗室主任雅恩·樂昆(Yann LeCun)警告說,“因為炒作,人工智能50年里‘死’了4次:人們夸下???通常是為了打動潛在的投資者或投資機構),卻無法拿出成果。結果就造成了激烈的對抗反應?!?同樣,紐約大學教授、認知科學專家和《紐約客》博主加里·馬庫斯(Gary Marcus)稱,深度學習神經網絡領域里近期的突破,以及IBM沃森的部分能力,已經明顯被過度炒作。
不過,似乎很明顯,該領域已經獲得了強勁的動力。特別是像谷歌、臉書、亞馬遜等企業(yè)的崛起帶來了巨大的進步。以前從未有這樣財大氣粗的企業(yè)將人工智能放在業(yè)務模式的絕對核心地位,也從未有過人工智能研究在如此強大的企業(yè)之間被幾乎定位成了競爭的焦點。類似的競爭也在國家之間展開。人工智能在集權國家的軍隊、情報機構和監(jiān)視機構中正變得不可或缺。*事實上,一場由人工智能全面支持的軍備競賽很可能正在不久的將來醞釀。我想,真正的問題,不是這個領域整體會不會真正面臨人工智能寒冬的危險,而是進步是只局限在弱人工智能領域,還是最終也能擴展到強人工智能領域。
如果人工智能研究人員最終設法跨越實現了強人工智能,那結果應該不是一臺僅能匹敵人類智力水平的機器。一旦實現了強人工智能,單靠摩爾定律就可以迅速創(chuàng)造出一臺超出人類智力的計算機。當然,一臺能思考的機器仍將擁有計算機目前具有的優(yōu)勢,包括計算能力,還有我們無法理解的信息訪問速度等。不可避免的是,我們很快就要與一種前所未有的東西共享這個星球:一種真正不可思議和超群的才智。
這很可能只是一個開始。人工智能研究人員一般都相信,這樣的系統(tǒng)最終會被用來引導自己的智力發(fā)展。它會專注于提高自己的設計,重新改寫自身軟件,或者使用進化規(guī)劃技術來創(chuàng)建、測試和優(yōu)化改進其設計。這將帶來“循環(huán)改進”似的迭代過程。每次修改后,系統(tǒng)都將變得更聰明、更能干。隨著循環(huán)不斷加快,最終的結果將產生“智能爆炸”,很可能最終生產出一臺比任何人類都聰明十萬甚至上百萬倍的機器。像霍金和其他作者說的,這“將是人類歷史上最大的事件?!?/p>
如果這樣的智能爆炸真的發(fā)生的話,肯定會對人類產生巨大的影響。事實上,它很可能對我們的整個文明都將造成破壞,更別說我們的經濟了。用未來學家和發(fā)明家雷·庫茲威爾(Ray Kurzweil)的話說,它會“撕裂歷史的結構”,迎來一個被稱為“奇點”的事件或者時代。
奇點
計算機先驅約翰·馮·諾依曼一般被認為是第一個將“奇點”這一術語運用在未來技術驅動事件中的人。據說他在20世紀50年代的某個時間說過,“一直在加速的進步……表面上接近人類歷史上的一些重要奇點,我們知道沒有它們,人類事務不能繼續(xù)。”這一主題在1993年圣地亞哥州立大學的數學家弗諾·文奇(Vernor Vinge)寫的一篇論文中得到了充實,文章題為“即將到來的技術奇點”。文奇毫無保留地在論文開頭寫道“在未來三十年間,我們將有技術手段來創(chuàng)造超人的智慧。不久后,人類的時代將結束。”
在天體物理學中,奇點是指一個黑洞,通常的物理規(guī)律不再適用。在黑洞的邊界或視界,引力強到光線自身也無法逃脫。文奇從類似的角度來看待技術奇點:它代表了人類進步的中斷,直到奇點發(fā)生之前,所有的進步基本上都不明顯。試圖預測奇點之后未來將會是怎樣的就好比一個天文學家想要到黑洞里去看一看。
接力棒接下來傳遞給了雷·庫茲威爾,他在2005年出版了一本書《奇點臨近:當人類超越生物學》(The Singularity Is Near: When Humans Transcend Biology)。與文奇不同,庫茲威爾成了奇點主要的宣傳者,他毫無顧慮地試圖窺視視界之外,給我們非常詳細地介紹了未來將是什么樣子的。他告訴我們,第一臺真正的智能機器將在21世紀20年代末建成。奇點本身將在2045年左右發(fā)生。
庫茲威爾是公認的杰出發(fā)明家和工程師。他成功創(chuàng)立了一系列的公司,向市場推出了他在諸如光學字符識別、計算機生成語音和音樂合成等領域的發(fā)明。他被授予20個榮譽博士學位,以及國家技術獎章,并入選了美國專利局的名人堂。《公司》雜志(Inc. Magazine)曾稱他為托馬斯·愛迪生的“合法繼承人”。
然而,他的《奇點》這本書則是一個奇怪的混合,里面有對技術加速充分和連貫的表述,還有一些看起來近乎荒謬的推測,比如,他由衷地渴望能通過到已故父親的墓地收集其DNA,然后利用未來的納米技術使其身體再生,最終讓父親復活。一個充滿活力的社會,里面到處是聰明而又多姿多彩的人物,這些想法一起圍繞在庫茲威爾周圍。這些“奇點人”已經向前走了很遠,建立了自己的教育機構。位于美國硅谷的奇點大學(Singularity University),提供關注指數技術的未經認證的研究生水平課程,其企業(yè)合作伙伴包括谷歌、基因泰克、思科和歐特克(AutoDesk)等。
庫茲威爾最重要的預言是,我們將不可避免地與未來的機器相融合。人類將通過植入大腦極大地增強智力,變得更強大。事實上,如果我們想要理解和控制奇點之后的技術的話,這種智力的增強是必不可少的。
也許庫茲威爾關于后奇點的暢想中最具爭議和令人懷疑的方面,是奇點的追隨者對“永生”前景的強調。奇點人大多數情況下都不希望死。他們計劃通過“長壽逃逸速度”(longevity escape velocity)來實現永生,這個想法的意思是,如果你能堅持活足夠長的時間,直到產生出延長生命的創(chuàng)新,那可以想見你將會達到不朽。這可能是通過使用先進的技術來保持和增強你的生物體,也或許通過將你的思維上傳到未來的計算機或機器人中來實現。庫茲威爾自然希望確保奇點發(fā)生時自己仍然還活著,所以他每天吞噬多達200種不同的藥片和補品,并定期靜脈注射其它物質。雖然許下巨大的承諾對健康和飲食書籍來說很常見,但庫茲威爾和他的醫(yī)生,也是合著者特里·格羅斯曼在他們的書里將諾言提到了一個全新的高度,這本書名為《神奇之旅:長壽到足以永生和超越:九步讓你健康活到永遠》。
很多奇點運動的批評家都發(fā)現,這一切關于不朽和變革的說法都有深刻的宗教色彩。事實上,整個想法已經被譏諷為技術精英的準宗教和一種“書呆子的狂喜”。最近主流媒體對奇點的關注,包括2011年《時代》雜志的封面故事,讓一些觀察家擔心奇點與傳統(tǒng)宗教最終會交叉在一起。曼哈頓大學宗教研究教授羅伯特·杰拉奇(Robert Geraci)在一篇題為“庫茲威爾崇拜”的文章中寫道,如果擴散到更多的人,該運動“將向傳統(tǒng)的宗教團體提出一個嚴峻的挑戰(zhàn),因為比較而言,它們關于救贖的承諾可能看起來無力多了。”而庫茲威爾一方則大聲否認有任何宗教內涵,并稱他的預測是基于對歷史數據可靠、科學的分析。
若不是硅谷整個萬神殿的億萬富翁們都對奇點表現出了非常強烈的興趣,那整個概念可能很容易就被人全部遺棄了。無論是谷歌的拉里·佩奇(Larry Page)和謝爾蓋·布林(Sergey Brin),還是支付寶的聯合創(chuàng)始人(也是臉書的投資人)彼得·泰爾(Peter Thiel)都參與到了這件事情中。比爾·蓋茨也稱贊庫茲威爾預測人工智能未來的能力。2012年12月,谷歌聘請了庫茲威爾來指導其高級人工智能研究。2013年,谷歌分拆出一家新的生物技術公司,命名“加州生命公司”(California Life Company,簡稱Calico)。新公司的既定目標是將研究集中在治愈衰老和延長人類壽命方面。
我個人的看法是,類似“奇點”的東西當然是可能的,但它絕非不可避免。當把這個概念去掉多余的負擔(如對永生的假設),只把它當作未來一段時間巨大的技術加速或破壞的力量來看待時,這個概念才是最有用的??赡芷纥c重要的催化劑,即超級智能的發(fā)明,最終證明是不可能實現的,或者只能在遙遠的未來才有可能。*許多頂尖的腦科學研究人員也都表達了這一觀點。在麻省理工學院研究認知科學60多年的諾姆·喬姆斯基說,我們離建立人類水平的機器智能還“遙不可及”,稱奇點是“科幻小說”。哈佛大學心理學家史蒂芬·平克(Steven Pinker)對此表示贊同,他說:“沒有絲毫的理由相信奇點會在未來實現。你可以想象出一個未來,并不能證明它就有可能發(fā)生?!备甑恰つ?Gordon Moore)的名字似乎注定永遠要與指數進步的技術有關,他也同樣懷疑類似奇點的事情永遠不會發(fā)生。
但是,庫茲威爾關于人類水平人工智能的到來時間有很多的擁護者。麻省理工學院的物理學家,也是霍金文章的共同作者之一馬克斯·泰格馬克,對《大西洋月刊》的詹姆斯·漢布林說:“這是非常近期內的事情。任何在思考他們的孩子在高中或大學應該學什么的人,都應該非常關心這一點?!逼渌苏J為能思考的機器根本不可能實現,但卻往前進了一步。例如,加里·馬庫斯認為強人工智能實現的時間至少是庫茲威爾預測的兩倍,但也認為“很可能在本世紀結束前,機器就比我們聰明了——不只是在下國際象棋或解決小問題方面,而是在從數學和工程到科學和醫(yī)學的各個方面?!?/p>
近年來,對人類級別人工智能的思考已經越來越脫離自上而下的編程方法,轉而強調逆向工程,然后到模擬人腦。關于這一方法的可行性,以及在創(chuàng)建大腦功能仿真前的了解程度上有很大的分歧,一般來說,這一方法計算機科學家可能更看好,但那些有生物科學和心理學背景的人往往持懷疑態(tài)度。明尼蘇達大學的生物學家P·Z·邁爾斯(P. Z. Myers)尤其持批判態(tài)度。在一篇回應庫茲威爾關于大腦將在2020年成功實現逆向設計的博客文章中,邁爾斯嚴厲斥責說庫茲威爾是一個“對大腦如何工作一無所知”的“瘋子”,而且他有“編造胡話和發(fā)表與現實毫無關系的荒謬言論”的嗜好。
這也許是題外話。人工智能的樂觀主義者認為,仿真并不需要忠實于生物大腦的每一個細節(jié)。畢竟,飛機不像鳥一樣扇動翅膀。懷疑者們可能會回應說,我們對智力的“空氣動力學”的理解還遠不能造出任何“翅膀”,不管翅膀能不能扇。而樂觀主義者可能會反駁說,萊特兄弟是依靠修修補補和反復試驗制造出了自己的飛機,肯定不是在空氣動力學原理的基礎上。這樣一來,爭論就繼續(xù)下去了。
陰暗的一面
“奇點人”通常對未來智能爆炸的前景有著無限的樂觀,但其他人則更為謹慎。在那些認真思考過高級人工智能帶來的影響的專家看來,認為完全不可思議的超人類智能會被自然地用來增進人類福祉的假設過于天真。科學界的一些人非常擔憂這一點,他們已經成立了一些小型機構來專門分析與先進的人工智能有關的危險,或是研究如何將“友好”放到未來的人工智能系統(tǒng)中。
在2013年出版的《我們最后的發(fā)明:人工智能及人類時代的終結》(Our Final Invention: Artificial Intelligence and the End of the Human Era)一書中,詹姆斯·巴拉特描述了他稱為“忙孩子的情境”。在一些秘密的地方,也許是政府的研究實驗室、華爾街公司,或信息技術行業(yè)的大公司里,一群計算機科學家在一旁看著新興的機器智能接近并超過人類水平的能力??茖W家們之前已經給他們的人工智能孩子提供了大量的信息,可能幾乎包括所有寫過的書以及互聯網上的所有數據。然而,當該系統(tǒng)接近人類水平的智能時,研究人員將迅速提高的人工智能與外界斷開聯系。實際上是把它們鎖在一個盒子里?,F在的問題是它是否會留在那里。畢竟,人工智能很可能希望擺脫它的籠子,并擴大其視野。要做到這一點,它可能會利用其卓越的能力欺騙科學家,或沖著整個團隊或特定個人進行承諾或威脅。機器不只是更聰明了,它還能夠以人類難以理解的速度對想法和選擇進行思考和評估。這就像是與加里·卡斯帕羅夫下棋,只是不公平的規(guī)則造成了一些額外的負擔:走一步棋你只有15秒鐘,但他有1個小時。在擔心這種情形的科學家看來,人工智能可能會以某種方式設法逃脫盒子、訪問互聯網,或者也許能將自己全部或部分復制到其他計算機上的風險是非常高的。如果人工智能真能逃脫的話,那它將明顯威脅到很多關鍵系統(tǒng),包括金融系統(tǒng)、軍事控制網絡以及電網等能源基礎設施。
當然,問題是,這一切聽起來非常像受歡迎的科幻電影和小說中勾勒出的場景。整個想法都像是在幻想,任何認真的討論都會被人嘲笑。不難想象,所有提出這種擔憂的主要政府官員或政客都可能成為別人的笑柄。
毫無疑問,在軍事、安全機構和大型企業(yè)中對各種人工智能的興趣只會不斷增加。可能發(fā)生的智能爆炸的其中一個明顯意義是將會存在巨大的先發(fā)優(yōu)勢。換句話說,誰先搶到第一就永遠不會被趕上。這也是擔心未來展開人工智能軍備競賽的其中一個主要原因。先發(fā)優(yōu)勢的巨大也很可能促使任何涌現的人工智能盡快進行自我完善,如果不是通過系統(tǒng)本身,那就是通過人類創(chuàng)造者來完成。從這個意義上說,智能爆炸很可能是一個自我實現的預言。鑒于此,我認為似乎可以將迪克·切尼(Dick Cheney)著名的“百分之一主義”用在先進的人工智能上:它發(fā)生的可能性也許非常低,至少在可預見的未來是這樣的,但它的意義是非常大的,因此應該得到認真對待。
即使我們不考慮先進的人工智能存在的風險,并假設未來所有的思考機器都很友好,其對就業(yè)市場和經濟還是會有巨大的影響。在一個經濟實惠的機器能趕上,并有可能超過最聰明人類的能力的世界里,很難想象還會有誰能找到一份工作。在大多數領域里,再多的教育或培訓,甚至到最頂尖的大學,都無法讓一個人能與這樣的機器競爭。即使是我們可能認為只保留給人類的職業(yè)也將受到威脅。比如,演員和音樂家將與充滿真正智能和超人類智慧的數字模擬進行競爭。它們可能是新創(chuàng)造的人物,專門設計了完美的身體,或可能基于真實的人——無論是活著的還是死去的。
從本質上說,人類水平人工智能的廣泛出現,實現了我在前面的章節(jié)中描述的“外星人來襲”的思維實驗。機器不只主要威脅到相對常規(guī)、重復性或可預見的工作,它現在幾乎能夠做到一切。當然,這意味著幾乎沒有人將能從工作中獲得收入。從資本或從機器的所有權中獲得的收入,將集中在少數精英的手中。消費者將沒有足夠的收入來購買所有智能機器所創(chuàng)造的產品或服務。結果就是我們在這本書中已經了解到的趨勢的顯著放大。
然而,這并不代表故事的結尾。無論是相信奇點的人,還是擔心先進的人工智能帶來危險的人,他們都認為人工智能與另一種潛在的破壞性技術力量的到來有關,或許是前者促成了后者,這種力量就是先進的納米技術。