那些年我們一起看過(guò)的人工智能大片

周彤 10年前 (2015-09-19)

一個(gè)成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯(cuò)誤的方式追求人工智能,人工智能就會(huì)以這樣的形式出現(xiàn):難以識(shí)別等

今天小編帶給你的信息量比較大,首先我們來(lái)看一段燒腦視頻。

那些年我們一起看過(guò)的人工智能大片1

德國(guó)研究者展示的人工智能研究成果

第一部分

人工智能正在迎接屬于它的時(shí)代,盡管烙印尚淺。

去年以來(lái),包括霍金、Musk和蓋茨等名人不斷警告人工智能可能帶來(lái)的危害。在讀了Nick Bostrom的書《Superintelligence 》以后,Musk公開(kāi)質(zhì)疑人工智能可能是「我們最大的生存威脅」。

我們對(duì)人工智能的觀點(diǎn)被謬誤的人類中心論所扭曲了。

分歧并不僅僅體現(xiàn)在人工智能威脅論上,人們對(duì)人工智能的看法也各不相同。有些人堅(jiān)持認(rèn)為,智能程度與人類相當(dāng)?shù)摹笍?qiáng)人工智能」永遠(yuǎn)不可能存在,另一些人則認(rèn)為這是不可避免的趨勢(shì)。然而,這些爭(zhēng)論卻常忽略一個(gè)事實(shí)——人工智能存在和思考的形式與人類自身是截然不同的。

簡(jiǎn)而言之,一個(gè)成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯(cuò)誤的方式追求人工智能,人工智能就會(huì)以這樣的形式出現(xiàn):難以識(shí)別、風(fēng)險(xiǎn)擴(kuò)大并阻滯益處,而這些都是毫無(wú)必要的。

這不僅僅是杞人憂天。人工智能早已走出了實(shí)驗(yàn)室,深入到我們生活的方方面面?!溉跞斯ぶ悄堋?,比如蘋果的Siri和亞馬遜的推薦引擎,還有一些基礎(chǔ)設(shè)施方面的人工智能,比如高速算法交易、智能汽車和工業(yè)機(jī)器人,正日益成為我們?nèi)粘I畹囊徊糠?mdash;—與工具使用、城市交通、經(jīng)濟(jì)建設(shè)以及商品貿(mào)易息息相關(guān)。

不幸的是,人工智能的流行觀點(diǎn),特別是在數(shù)不清的電影、游戲和小說(shuō)中,依然假定擬人特征(比如生氣、嫉妒、困惑、貪婪、驕傲、欲望等,更別提冷酷的疏離)是人工智能最重要的部分。這種謬誤的人類中心論可能與現(xiàn)代人工智能的研究相去甚遠(yuǎn),但它也從一個(gè)側(cè)面反映了我們的文化如何看待自身與高級(jí)合成認(rèn)知的遭遇。

那些年我們一起看過(guò)的人工智能大片2

電影《人工智能》劇照

在斯蒂文·斯皮爾伯格2001年的電影《人工智能》中,那個(gè)小男孩機(jī)器人想成為一個(gè)真正的男孩,盡管他只有一顆小小的金屬心。而《終結(jié)者》系列中的天網(wǎng)則沉醉于將人類趕盡殺絕。1968年,在斯坦利·庫(kù)布里克執(zhí)導(dǎo)、改編自亞瑟·克拉克作品的電影《2001太空漫游》中,我們總是自動(dòng)假定那塊巨石想要和人類主角戴夫交流,而不是他飛船上的人工智能HAL 9000。

我認(rèn)為,我們應(yīng)該摒棄這樣一種觀念:「真正的」人工智能必須深切關(guān)心人類,并總將人類作為焦點(diǎn)和動(dòng)機(jī)的想法。也許,我們真正害怕的不是一臺(tái)想殺光人類的大機(jī)器,而是這臺(tái)機(jī)器認(rèn)為我們無(wú)足輕重。比被看做敵人更難受的,是根本不把你放在眼里。

除非我們假定人類的智能包含了所有智能可能的形式(這當(dāng)然是個(gè)彌天大謊),否則為何要將高級(jí)的人工智能定義為與人類相似呢?畢竟,想要定義「智能」是一件難于上青天的事情,而人類的智能根本無(wú)法窮盡所有的可能性。誠(chéng)然,這么做對(duì)實(shí)驗(yàn)室研究有一定的實(shí)際意義,但是從文化方面來(lái)說(shuō),這是弄巧成拙、不符倫理,甚至可能是危險(xiǎn)的。

我們不需要一個(gè)狹隘和自戀的人工智能流行文化——為我們?nèi)祟悓ふ乙粋€(gè)機(jī)器版本的自我映射。因?yàn)椋绻麑⑦@種觀點(diǎn)作為人類與人工智能交流的基礎(chǔ),這將是一個(gè)有嚴(yán)重缺陷的前提。更不用說(shuō),即便縱觀人類的文明史,所有文化上的「首次接觸」都沒(méi)有留下什么快樂(lè)的回憶。

第二部分

從《銀翼殺手》(Blade Runner,1982)到《她》(Her, 2013)的無(wú)數(shù)科幻電影的內(nèi)容都以這樣一種觀點(diǎn)為藍(lán)本:測(cè)量人工智能的發(fā)達(dá)程度,要看它是否能夠被「以人相待」。這個(gè)觀點(diǎn)伴隨現(xiàn)代人工智能研究持續(xù)至今。最早的出處還得追溯到1950年,英國(guó)數(shù)學(xué)家圖靈發(fā)表的《Computing Machinery and Intelligence 》。在這篇論文中,圖靈詳述了「模仿游戲」,也就是我們今天所說(shuō)的「圖靈測(cè)試」。雖然測(cè)試版本不相同,但是,它們揭示了為什么我們研究人工智能的文化道德的方法定義了人工智能本身,無(wú)論好壞。最為人所知的版本是這樣的,提問(wèn)的人向兩名隱藏的選手提問(wèn),一個(gè)是人類,另一個(gè)是臺(tái)電腦。圖靈認(rèn)為,如果提問(wèn)者通常分不清哪個(gè)是哪個(gè),電腦能成功地被識(shí)別為人類,那么,從實(shí)踐目的來(lái)看,不就能認(rèn)為電腦是「智能」的嗎?

不得不說(shuō),讓機(jī)器通過(guò)人類詢問(wèn)測(cè)試隱藏機(jī)器屬性才被視為具有「人類智能」,和圖靈自己需要隱藏同性傾向才被「以直男相待」,兩者之間真是異曲同工。

那些年我們一起看過(guò)的人工智能大片3

圖靈

遺憾的是,更多的人僅僅是「知道」圖靈測(cè)試,卻沒(méi)有真地讀過(guò)。因?yàn)樗奈谋炯染视制婀?,還令人吃驚。在文中,圖靈把自己的測(cè)試解釋為當(dāng)時(shí)流行的一個(gè)室內(nèi)游戲變種:在這個(gè)游戲中有兩個(gè)藏在幕后的玩家,一位是男性(A玩家),一位是女性(B玩家),他們通過(guò)手寫回答問(wèn)題,盡力讓第三方相信自己是一名女性。為了獲勝,其中一名玩家必須令人信服地扮演真正的自己,而另一個(gè)必須試圖以另一種性別通過(guò)測(cè)試。圖靈說(shuō),當(dāng)「計(jì)算機(jī)取代玩家A」之后,就是他的測(cè)試方法。因此,就字義解釋來(lái)看,在他的測(cè)試版本中,計(jì)算機(jī)并不僅僅假裝是個(gè)人,而且得假裝是一個(gè)女人,才能通過(guò)測(cè)試。

那些年我們一起看過(guò)的人工智能大片4

圖靈測(cè)試示意圖

其他版本就漸漸改成,B玩家可以是女的,也可以是男的。一人假裝、兩人假裝或者都不假裝,也可以是完全不同的游戲測(cè)試。既然我們給電腦一個(gè)玩家的座位,那么,我們就可以讓它假裝是個(gè)女的或者男的,甚至欺騙提問(wèn)者,讓其分辨孰男孰女?;蛘呖梢愿鼜?fù)雜些,讓計(jì)算機(jī)假裝成個(gè)試圖扮成女人的男人,同時(shí)還有一位試圖裝成女人的男人,甚至讓計(jì)算機(jī)假裝成這樣一位女性,她假扮成裝作女人的男人!畢竟現(xiàn)實(shí)生活中,以上情形也的確皆有可能。

由莫滕泰杜姆(Morten Tyldum)導(dǎo)演的2014年奧斯卡獲獎(jiǎng)影片《模仿游戲》講述的就是圖靈的故事?;厮莸侥莻€(gè)同性戀還被批判的時(shí)代,即使是身為數(shù)學(xué)家的圖靈不得不「通過(guò)」自己是直男的測(cè)試。當(dāng)隱瞞的性取向被公開(kāi)后,他被迫接受稱為「化學(xué)閹割」的可怕治療(荷爾蒙療法)。最終,無(wú)法忍受身體和精神上雙重折磨的圖靈選擇了自殺來(lái)結(jié)束自己的生命。更荒誕的是,在當(dāng)時(shí)圖靈對(duì)于打敗希特勒做出的巨大貢獻(xiàn)卻被當(dāng)做國(guó)家機(jī)密而被歷史塵封。直到最近,已經(jīng)去世多年的圖靈終于得到英女王頒發(fā)的皇家赦免,但成千上萬(wàn)根據(jù)類似法律判處的其他英國(guó)男人卻沒(méi)有。

要求人工智能通過(guò)測(cè)試以證明其具有智力,要求圖靈用測(cè)試來(lái)證明自己的性取向,這兩件事具有相同的諷刺意味,既嘩眾取寵又嚴(yán)重不公。

就好比,判斷一個(gè)人是白人還是黑色皮膚的人,是男人還是女人,都取決于其他人的觀察和解釋。因?yàn)槠渌艘呀?jīng)習(xí)慣根據(jù)傳統(tǒng)的線索(比如種族、性別、種類等)進(jìn)行判斷。任何正在經(jīng)受測(cè)試的人或事,只有與那些觀察他(或她、它)的人共謀,才會(huì)讓測(cè)試成功通過(guò)。至于人工智能是否愿意通過(guò)測(cè)試,則是這個(gè)測(cè)試上久拖不決的另一個(gè)問(wèn)題了。無(wú)論是哪種方式,所謂的「通過(guò)」更多的是觀眾看法,而不是被測(cè)試者的表現(xiàn)。

我們最好還是假定:宇宙中,「思考」是種更加多樣化的行為,外星人也會(huì)思考,思考并不限于我們?nèi)祟愡@種特殊個(gè)案。與其說(shuō),人工智能的哲學(xué)課題是人類教會(huì)機(jī)器如何思考,不如說(shuō)是機(jī)器告訴人類什么才是一個(gè)更加全面、更加真實(shí)的思考行為。

第三部分

我們?cè)?jīng)希望,把「人工智能是否存在」的定義聯(lián)系到它能否模仿人類思考的能力。它基于一種這種奇怪的人類優(yōu)越感:只有人類能夠思考。正是這種自負(fù)的想法讓曾經(jīng)的研究者希望在現(xiàn)有的機(jī)器上重現(xiàn)人類的思維,然而卻挫敗連連,最后徒勞無(wú)功。因?yàn)樗静粚?duì)。當(dāng)代的人工智能研究表明,「能為任何一件特定的事做安排」就可以說(shuō)是「智能的」。它恰恰不反映我們?nèi)祟惖乃伎寄J?,甚至可以說(shuō)沒(méi)有任何關(guān)系?,F(xiàn)任谷歌的兩名研究主管——斯圖爾特.羅素和彼得.諾維格在他們最經(jīng)典的人工智能教材里提出:仿生設(shè)計(jì),或者說(shuō)對(duì)生物形態(tài)的模仿,并不是我們?cè)O(shè)計(jì)復(fù)雜技術(shù)的通用方法。比如:飛機(jī)并不像鳥一樣飛翔,我們當(dāng)然也不會(huì)用「欺騙鳥兒讓它們以為飛機(jī)是鳥」這樣的標(biāo)準(zhǔn),來(lái)檢驗(yàn)這些飛機(jī)是否真的具有飛行能力。既然如此,那為什么對(duì)人工智能要采用這個(gè)標(biāo)準(zhǔn)?現(xiàn)在,那些務(wù)實(shí)的人工智能研究已經(jīng)不把焦點(diǎn)放在圖靈測(cè)試上了,它并不能視作一個(gè)客觀的智能標(biāo)準(zhǔn)。但在我們的流行文化里,頑固的人類中心主義思想?yún)s依然認(rèn)為這個(gè)智能測(cè)試很重要。就像是迪斯尼影片里那些像年輕人一樣說(shuō)話的動(dòng)物,它的想法要讓人類接受,最好得采用這種幼稚的腹語(yǔ)術(shù)。

可以說(shuō),人工智能的擬人化標(biāo)準(zhǔn)就是一種「前哥白尼」態(tài)度。這種態(tài)度有什么不好?我們想要人工智能以人性化的方式陪伴我們每一天,這不好嗎?

答案是,如果我們對(duì)其余的生命體持有這種幻想,將損失太多知識(shí);只有保持真誠(chéng)和清醒的認(rèn)識(shí),才能從不同的綜合智能中獲得好處。我并非是在說(shuō)哲學(xué)觀點(diǎn),因?yàn)橛行┱軐W(xué)家在討論:人工智能作為有知覺(jué)的實(shí)體,是否應(yīng)該賦予它們倫理權(quán)利。我的意思是,更真實(shí)的視角能更好的讓我們思考自己的技術(shù)。Musk、蓋茨和霍金說(shuō)「人工智能可能帶來(lái)的危險(xiǎn)」,它成了頭條新聞。這個(gè)觀點(diǎn)當(dāng)然很重要,但我擔(dān)心大多數(shù)讀者都誤解了他們的意思。

那些年我們一起看過(guò)的人工智能大片5

「機(jī)器人三定律」

自從1942年由艾薩克.阿西莫夫提出「機(jī)器人三定律」,人們就指望靠程序的設(shè)計(jì),足以讓人工智能不會(huì)「?jìng)θ祟悺?。但這必須建立在一個(gè)基礎(chǔ)上——人工智能必須知道人類是什么,以及做什么事會(huì)傷害人類。其實(shí),人工智能是否會(huì)傷害我們,與它對(duì)人類有沒(méi)有惡意,壓根沒(méi)有關(guān)系。傷害可能會(huì)在很多情況下發(fā)生,而且這些情況大多和我們最愚蠢的極端的善意的指示相關(guān)。與以往假設(shè)的傷害情況相反,傷害的發(fā)生既不是因?yàn)槿斯ぶ悄馨l(fā)生機(jī)械故障,也不是因?yàn)樗鼈冞`背了道德定律,人工智能的巨大風(fēng)險(xiǎn)恰恰是因?yàn)樗膹?qiáng)大和對(duì)人類的公正。如果我們只是在擬人化的特質(zhì)上認(rèn)識(shí)人工智能,或者認(rèn)為它有這重義務(wù),那么我們很難避開(kāi)這些困境。

不管「強(qiáng)人工智能」是否真的會(huì)誕生,如果我們還在堅(jiān)持那些明知是錯(cuò)誤的觀念,就會(huì)在探索和求知的道路上止步不前。在1950年的那篇論文中,圖靈對(duì)自己提出的人工智能觀點(diǎn)其實(shí)還舉了很多反例,包括把它和早期反對(duì)哥白尼的天文學(xué)進(jìn)行比較?!傅厍蚴怯钪嬷行摹?、「人類是絕對(duì)特殊的存在」、「人類是無(wú)價(jià)的完美生命」...雖然持有這些錯(cuò)誤觀點(diǎn)人們的幼小心靈受到了哥白尼學(xué)說(shuō)的打擊,但之后的人類文明終于可以基于宇宙真實(shí)的樣子去探索,而不是基于那種狹隘自私的觀點(diǎn)。圖靈在文中把那些稱為「神學(xué)偏見(jiàn)」,所以,我們也可以把人工智能的擬人化標(biāo)準(zhǔn)說(shuō)成是「前哥白尼」態(tài)度,但它們卻在俗世橫流。如果存在一種強(qiáng)大的非擬人的人工智能,它可能會(huì)讓我們更加清醒的認(rèn)識(shí)自己,了解我們的現(xiàn)狀,并對(duì)復(fù)雜的「智能」有更完整的理解。我們就能從這樣的起點(diǎn)出發(fā),滿懷希望地改造世界。而且我們將充滿信心,因?yàn)檫@樣的睿智總是幫我們提出更好的模型去模擬未知的世界。

錯(cuò)誤的觀念還會(huì)最后導(dǎo)致一種長(zhǎng)期的危害,這種人類奴役技術(shù)的關(guān)系已經(jīng)把我們帶到了「第六次物種大滅絕」(前5次自然滅絕和人類活動(dòng)加速的第6次滅絕)的懸崖邊上??梢哉f(shuō),「人類世」(地質(zhì)學(xué)上認(rèn)為人類活動(dòng)進(jìn)入工業(yè)化后地球進(jìn)入新的地質(zhì)年代)本質(zhì)上并不是人類技術(shù)的發(fā)展,而是人類觀念的產(chǎn)物——世界已經(jīng)可以根據(jù)我們的需求和愿望而改變。我們從這個(gè)詞中能嗅到些許宗教領(lǐng)袖傳播的美好福音世界:機(jī)器完全屈從于人類的需求和愿望工作。如果你也這么認(rèn)為,請(qǐng)谷歌搜索「豬頭屠宰機(jī)」,雖然這并非我的本意,但還是請(qǐng)你先了解它的血腥殘酷再來(lái)和我談?wù)?,如何?chuàng)造一個(gè)機(jī)器完全臣服于人類愿望的世界吧。

也許有人還心存天真的幻想,認(rèn)為我們社會(huì)也經(jīng)歷過(guò)奴隸制度、神權(quán)制度再到法制,所以即便已經(jīng)是2015年,對(duì)機(jī)器來(lái)這套又何嘗不可? 正是這種感情用事——所謂的技術(shù)倫理——構(gòu)成了現(xiàn)在「人類世」的基本算法,也造成了基本困境。繼續(xù)順從這樣的情感,只會(huì)讓我們?cè)谠庥鋈斯ぶ悄芎笠粩⊥康亍,F(xiàn)在,正是我們朝前邁進(jìn)的時(shí)候。你不覺(jué)得,我們已經(jīng)為這樣自命不凡的風(fēng)俗付出了太多的代價(jià)了嗎?

最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(zhǎng)按識(shí)別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新

分享到