人工智能未來如何, 它對于人類又意味著什么都是當(dāng)下的熱門話題。關(guān)于人工智能未來對工作市場的影響;達(dá)到人類水平的人工智能是否以及何時(shí)會出現(xiàn);這又會不會引發(fā)智能大爆發(fā);對于這樣的未來我們是應(yīng)該積極擁抱還是感到害怕等諸如此類的問題,世界頂級專家之間一直存在爭議。但是也有一些煩人的偽爭議是由于人們理解錯誤和總是彼此討論不休引起的。為了幫助我們把精力集中在有趣的爭議和公開的問題而不是誤解上,就讓我們一起來破解最常見的神話(注:本文所說的「神話」和傳說中的「神」無關(guān)(如果人工智能不會成為我們的神的話),而是指毫無根據(jù)的猜測和論斷)。
時(shí)間表的神話
關(guān)于時(shí)間表的第一個(gè)神話:機(jī)器極大超越人類水平智能需要花多長時(shí)間?關(guān)于這個(gè)問題的一個(gè)常見錯誤概念是,我們認(rèn)為機(jī)器超過人類智能是毋庸置疑的。
我們知道的一個(gè)流行的神話是本世紀(jì)內(nèi)會有超人類人工智能出現(xiàn)。事實(shí)上,歷史充滿了技術(shù)的過度炒作。那些對我們許下承諾的現(xiàn)在會有的飛行汽車和聚變電站在哪里呢?過去人工智能也是被反復(fù)夸大,甚至該領(lǐng)域的一些創(chuàng)始人也在夸大。例如,John MaCarthy (他造出了「人工智能」這個(gè)詞)、Marvin Minsky、Nathaniel Rochester 和 Claude Shannon 寫過一個(gè)過于樂觀的預(yù)測:「我們提出一個(gè)達(dá)特茅斯學(xué)院在1956 年夏季做出的兩個(gè)月,十個(gè)人的人工智能研究[...],我們需要作出嘗試,找到如何讓機(jī)器使用語言形成抽象和概念以解決目前只有人類才能解決的問題的方法,并讓機(jī)器能自我改進(jìn)。我們認(rèn)為如果能精心挑選出一個(gè)科學(xué)家團(tuán)隊(duì),合作一個(gè)夏天,這個(gè)問題就能有重大突破?!?/span>
另一方面,一個(gè)流行的反神話是我們知道本世紀(jì)內(nèi)不會出現(xiàn)超人類的人工智能。研究者們已經(jīng)從各個(gè)方面估算了超人類人工智能離我們還有多遠(yuǎn),但是由于技術(shù)懷疑論者之前很多關(guān)于技術(shù)的悲觀語言都沒有實(shí)現(xiàn),所以我們還是無法斷定本世紀(jì)內(nèi)不會有超人類人工智能。例如,Ernest Rutherford(可以說是這個(gè)時(shí)代最偉大的核物理學(xué)家)在 1933 年曾說過———在西拉德發(fā)明的核反應(yīng)鏈前的 24 小時(shí)內(nèi)—— 所謂核能就是「鏡中花水中月」。還有在1956年時(shí),皇家天文學(xué)家( Astronomer Royal )Richard Woolley 把星際航行稱為「完全是胡扯」。這種神話最極端的形式是超人類智能永遠(yuǎn)不會出現(xiàn),因?yàn)樗谖锢韺W(xué)上是不可能的。然而,物理學(xué)家知道大腦由夸克和電子排列構(gòu)成,運(yùn)作起來就像一個(gè)強(qiáng)大的計(jì)算機(jī)。也知道沒有物理定律可以阻止我們建立更智能的夸克斑點(diǎn)(quark blobs)。
還有一些調(diào)查問了研究者們按至少 50 % 的概率算,人類水平的人工智能距離我們還多少年。所有的這些調(diào)查都有同樣的結(jié)論:世界頂級專家們的意見不一致,所以我們根本不知道答案。例如,在 2015 波多黎各人工智能大會(2015 Puerto Rico AI conference)上的一次人工智能研究者意向調(diào)查中 ,平均(中位數(shù))的答案是 2045 年,但一些研究人員猜測需要幾百年或更長時(shí)間。
還有一個(gè)神話是,擔(dān)心人工智能的人認(rèn)為要不了幾年,上述預(yù)言都能實(shí)現(xiàn)。但事實(shí)上,根據(jù)記錄大多數(shù)擔(dān)心超人類人工智能的人認(rèn)為至少還需要幾十年才能實(shí)現(xiàn)這些預(yù)言。但是這些人強(qiáng)調(diào)只要我們不是 100% 肯定本世紀(jì)不會出現(xiàn)超人類人工智能,最好還是要為意外啟動安全研究。很多涉及人類水平人工智能的安全問題都很棘手,需要幾十年才能解決。所以,現(xiàn)在就要開始研究安全技術(shù),而不是等到一些程序員灌了幾瓶紅牛決定開啟這些可能對人造成巨大傷害的人工智能的前一晚才開始著手研究安全措施。
爭議的神話
另一個(gè)常見的錯誤概念是擔(dān)心人工智能并擁護(hù)人工智能安全研究的人都是那些對人工智能不甚了解的盧德派。當(dāng)標(biāo)準(zhǔn)人工智能教科書(人工智能:一個(gè)現(xiàn)代化的方法, Artificial Intelligence: A Modern Approach)作者 Stuart Russell 在波多黎各人工智能大會演講中提到這個(gè)觀點(diǎn)時(shí),引來了下面觀眾的放聲大笑。支持人工智能安全研究本身就有巨大爭議。事實(shí)上,為了支持一個(gè)適度投資人工智能安全研究,不需要讓人們相信人工智能會帶來高風(fēng)險(xiǎn),只要讓他們知道安全研究不是可忽略的就行了。就像如果你想讓一戶家庭購買家庭保險(xiǎn),只要向他們證明房屋火災(zāi)不是不可能發(fā)生的就行了。
也許是媒體讓人工智能安全 爭論看起來比現(xiàn)實(shí)更加具有爭議。畢竟,恐懼是可以賣錢的,用斷章取義的引用來宣告厄運(yùn)迫在眉睫的文章能產(chǎn)生比平衡各方觀點(diǎn)的客觀性言論更多的點(diǎn)擊。結(jié)果是,從媒體文章的引用中獲取觀點(diǎn)的兩個(gè)人只知道對方的觀點(diǎn)很可能是想法上的分歧比較多。比如,一個(gè)技術(shù)懷疑論者只看了英國某小報(bào)報(bào)道的比爾蓋茨的某些觀點(diǎn)就錯誤的認(rèn)為蓋茨相信超級智能迫在眉睫。類似的還有,支持有益的人工智能運(yùn)動的人可能就只知道吳恩達(dá)說過自己不擔(dān)心人工智能就像不擔(dān)心火星人口過剩,這樣的人或許會錯誤地認(rèn)為吳恩達(dá)毫不關(guān)心人工智能安全問題,但是事實(shí)是,吳恩達(dá)關(guān)心這個(gè)問題。問題的癥結(jié)在于因?yàn)閰嵌鬟_(dá)的時(shí)間表估算的太長了,所以相較于長期問題,他很自然地傾向于優(yōu)先考慮短期內(nèi)人工智能面臨的挑戰(zhàn)。
關(guān)于超人類人工智能風(fēng)險(xiǎn)的神話
「Stephen Hawking 警告機(jī)器人的崛起可能是人類的災(zāi)難?!箍吹竭@樣的標(biāo)題,很多人工智能研究者都會翻白眼。很多人都記不清看過多少類似的文章了。通常來說,這些文章都都會描述到一個(gè)拿著武器面目可憎的機(jī)器人,并建議我們要擔(dān)心機(jī)器人崛起后會殺了人類,因?yàn)樗鼈冮_始有了意識變得邪惡起來。樂觀點(diǎn)說,這類文章著實(shí)讓人印象深刻,因?yàn)樗麄兒喢鞫笠乜偨Y(jié)了人工智能研究者不會擔(dān)心的情景,這個(gè)情景結(jié)合了三個(gè)獨(dú)立的錯誤概念:對意識、邪惡和機(jī)器人的憂慮。
如果你沿路開著車,你會有一個(gè)關(guān)于顏色、聲音等的主觀經(jīng)驗(yàn)。但是一輛自動駕駛汽車會有主觀經(jīng)驗(yàn)嗎?它的感受就是一個(gè)自動駕駛汽車的感受嗎?即便關(guān)于意識在自我權(quán)利的神秘非常有趣,它也與人工智能風(fēng)險(xiǎn)沒有多大關(guān)系。如果你被一輛無人駕駛車撞了,那么它是否有主觀意識對你來說意義也不大。同樣地,會影響我們?nèi)祟惖氖浅壷悄苋斯ぶ悄軙鍪裁?,而不是它的主觀感受如何。
害怕機(jī)器會變成魔鬼是另一種不相干的憂慮。真正需要擔(dān)心的不是它的惡意,而是能力。定義中的超級智能人工智能擅長達(dá)到任何目標(biāo),所以我們需要確保的是讓它的目標(biāo)始終與我們的目標(biāo)一致。人類一般不討厭螞蟻,但是我們比它們聰明太多,所以如果我們想建一座水電站大壩時(shí)有一座蟻山在那里,那就對螞蟻來說太糟了。有益的人工智能運(yùn)動的目標(biāo)是避免將人類置于螞蟻的地位。
對意識概念的誤解與機(jī)器沒有目標(biāo)的神話有關(guān)。機(jī)器顯然能有狹義上的目標(biāo)——做出目標(biāo)導(dǎo)向的行為,比如,熱跟蹤導(dǎo)彈被最簡潔地解釋為以擊中目標(biāo)為目標(biāo)。如果你感到被一臺目標(biāo)和你不一致的機(jī)器威脅了,而給你帶來的麻煩的正好是狹義上的目標(biāo),不是機(jī)器是否有意識,也不是它感受到的目標(biāo)感。如果熱跟蹤導(dǎo)彈正在追蹤你,你大概不會辯解:「我不擔(dān)心,因?yàn)闄C(jī)器沒有目標(biāo)!」
我同情 Rodney Brooks 和其他被聳人聽聞的小報(bào)妖魔化的機(jī)器人先驅(qū),這對他們不公平,因?yàn)橐恍┯浾呖雌饋砜偸嵌⒅鴻C(jī)器人不放,在文章中把機(jī)器人描繪成長著紅色眼睛面目猙獰的金屬怪獸。事實(shí)上,有益的人工智能運(yùn)動主要關(guān)心不是機(jī)器人而是智能本身:尤其是與我們目標(biāo)不一致的智能。給我們帶來麻煩與我們目標(biāo)不一致的超人類人工智能不需要機(jī)器人身體,僅僅是一個(gè)互聯(lián)網(wǎng)連接或許就能智勝金融市場,在發(fā)明上超越人類研究員、操縱人類領(lǐng)袖、甚至設(shè)計(jì)出我們無法理解的武器。即便造不出一個(gè)這樣的實(shí)體機(jī)器人,一個(gè)超級智能和超級富有的人工智能也可以很容易地收買或操縱許多人,讓他們在不知不覺中按照它的意思做事。
這個(gè)機(jī)器人誤解還與機(jī)器不能控制人類的神話有關(guān)。智能可以實(shí)現(xiàn)控制:人類控制老虎不是因?yàn)槲覀兏鼜?qiáng)壯,而是因?yàn)槲覀兏斆?。這意味著,如果我們放棄人類作為地球上最聰明物種的地位,我們也就可能放棄了控制權(quán)。
有趣的爭議
不要在上述錯誤概念上浪費(fèi)時(shí)間了,讓我們關(guān)注那些專家都在爭論的真正的有趣的爭議。你想要什么樣的未來?我們應(yīng)該發(fā)展致命的自動武器嗎?你想在工作自動化中發(fā)生什么?你會給今天的孩子們什么樣的職業(yè)建議?你喜歡新的工作取代舊的,還是一個(gè)沒有工作的社會,每個(gè)人都享受休閑和機(jī)器生產(chǎn)財(cái)富的生活?我們會控制智能機(jī)器嗎,還是它們會控制我們?你希望它會是什么樣的,以及我們?nèi)绾尾拍茏屛磥碜兂赡闫谕哪菢??歡迎一起討論這些問題!