那些年我們一起看過的人工智能大片

周彤 10年前 (2015-09-19)

一個成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯誤的方式追求人工智能,人工智能就會以這樣的形式出現(xiàn):難以識別等

今天小編帶給你的信息量比較大,首先我們來看一段燒腦視頻。

那些年我們一起看過的人工智能大片1

德國研究者展示的人工智能研究成果

第一部分

人工智能正在迎接屬于它的時代,盡管烙印尚淺。

去年以來,包括霍金、Musk和蓋茨等名人不斷警告人工智能可能帶來的危害。在讀了Nick Bostrom的書《Superintelligence 》以后,Musk公開質(zhì)疑人工智能可能是「我們最大的生存威脅」。

我們對人工智能的觀點(diǎn)被謬誤的人類中心論所扭曲了。

分歧并不僅僅體現(xiàn)在人工智能威脅論上,人們對人工智能的看法也各不相同。有些人堅(jiān)持認(rèn)為,智能程度與人類相當(dāng)?shù)摹笍?qiáng)人工智能」永遠(yuǎn)不可能存在,另一些人則認(rèn)為這是不可避免的趨勢。然而,這些爭論卻常忽略一個事實(shí)——人工智能存在和思考的形式與人類自身是截然不同的。

簡而言之,一個成熟的人工智能未必與人類相似,也不一定任由人類所支配。如果我們用錯誤的方式追求人工智能,人工智能就會以這樣的形式出現(xiàn):難以識別、風(fēng)險(xiǎn)擴(kuò)大并阻滯益處,而這些都是毫無必要的。

這不僅僅是杞人憂天。人工智能早已走出了實(shí)驗(yàn)室,深入到我們生活的方方面面。「弱人工智能」,比如蘋果的Siri和亞馬遜的推薦引擎,還有一些基礎(chǔ)設(shè)施方面的人工智能,比如高速算法交易、智能汽車和工業(yè)機(jī)器人,正日益成為我們?nèi)粘I畹囊徊糠?mdash;—與工具使用、城市交通、經(jīng)濟(jì)建設(shè)以及商品貿(mào)易息息相關(guān)。

不幸的是,人工智能的流行觀點(diǎn),特別是在數(shù)不清的電影、游戲和小說中,依然假定擬人特征(比如生氣、嫉妒、困惑、貪婪、驕傲、欲望等,更別提冷酷的疏離)是人工智能最重要的部分。這種謬誤的人類中心論可能與現(xiàn)代人工智能的研究相去甚遠(yuǎn),但它也從一個側(cè)面反映了我們的文化如何看待自身與高級合成認(rèn)知的遭遇。

那些年我們一起看過的人工智能大片2

電影《人工智能》劇照

在斯蒂文·斯皮爾伯格2001年的電影《人工智能》中,那個小男孩機(jī)器人想成為一個真正的男孩,盡管他只有一顆小小的金屬心。而《終結(jié)者》系列中的天網(wǎng)則沉醉于將人類趕盡殺絕。1968年,在斯坦利·庫布里克執(zhí)導(dǎo)、改編自亞瑟·克拉克作品的電影《2001太空漫游》中,我們總是自動假定那塊巨石想要和人類主角戴夫交流,而不是他飛船上的人工智能HAL 9000。

我認(rèn)為,我們應(yīng)該摒棄這樣一種觀念:「真正的」人工智能必須深切關(guān)心人類,并總將人類作為焦點(diǎn)和動機(jī)的想法。也許,我們真正害怕的不是一臺想殺光人類的大機(jī)器,而是這臺機(jī)器認(rèn)為我們無足輕重。比被看做敵人更難受的,是根本不把你放在眼里。

除非我們假定人類的智能包含了所有智能可能的形式(這當(dāng)然是個彌天大謊),否則為何要將高級的人工智能定義為與人類相似呢?畢竟,想要定義「智能」是一件難于上青天的事情,而人類的智能根本無法窮盡所有的可能性。誠然,這么做對實(shí)驗(yàn)室研究有一定的實(shí)際意義,但是從文化方面來說,這是弄巧成拙、不符倫理,甚至可能是危險(xiǎn)的。

我們不需要一個狹隘和自戀的人工智能流行文化——為我們?nèi)祟悓ふ乙粋€機(jī)器版本的自我映射。因?yàn)?,如果將這種觀點(diǎn)作為人類與人工智能交流的基礎(chǔ),這將是一個有嚴(yán)重缺陷的前提。更不用說,即便縱觀人類的文明史,所有文化上的「首次接觸」都沒有留下什么快樂的回憶。

第二部分

從《銀翼殺手》(Blade Runner,1982)到《她》(Her, 2013)的無數(shù)科幻電影的內(nèi)容都以這樣一種觀點(diǎn)為藍(lán)本:測量人工智能的發(fā)達(dá)程度,要看它是否能夠被「以人相待」。這個觀點(diǎn)伴隨現(xiàn)代人工智能研究持續(xù)至今。最早的出處還得追溯到1950年,英國數(shù)學(xué)家圖靈發(fā)表的《Computing Machinery and Intelligence 》。在這篇論文中,圖靈詳述了「模仿游戲」,也就是我們今天所說的「圖靈測試」。雖然測試版本不相同,但是,它們揭示了為什么我們研究人工智能的文化道德的方法定義了人工智能本身,無論好壞。最為人所知的版本是這樣的,提問的人向兩名隱藏的選手提問,一個是人類,另一個是臺電腦。圖靈認(rèn)為,如果提問者通常分不清哪個是哪個,電腦能成功地被識別為人類,那么,從實(shí)踐目的來看,不就能認(rèn)為電腦是「智能」的嗎?

不得不說,讓機(jī)器通過人類詢問測試隱藏機(jī)器屬性才被視為具有「人類智能」,和圖靈自己需要隱藏同性傾向才被「以直男相待」,兩者之間真是異曲同工。

那些年我們一起看過的人工智能大片3

圖靈

遺憾的是,更多的人僅僅是「知道」圖靈測試,卻沒有真地讀過。因?yàn)樗奈谋炯染视制婀?,還令人吃驚。在文中,圖靈把自己的測試解釋為當(dāng)時流行的一個室內(nèi)游戲變種:在這個游戲中有兩個藏在幕后的玩家,一位是男性(A玩家),一位是女性(B玩家),他們通過手寫回答問題,盡力讓第三方相信自己是一名女性。為了獲勝,其中一名玩家必須令人信服地扮演真正的自己,而另一個必須試圖以另一種性別通過測試。圖靈說,當(dāng)「計(jì)算機(jī)取代玩家A」之后,就是他的測試方法。因此,就字義解釋來看,在他的測試版本中,計(jì)算機(jī)并不僅僅假裝是個人,而且得假裝是一個女人,才能通過測試。

那些年我們一起看過的人工智能大片4

圖靈測試示意圖

其他版本就漸漸改成,B玩家可以是女的,也可以是男的。一人假裝、兩人假裝或者都不假裝,也可以是完全不同的游戲測試。既然我們給電腦一個玩家的座位,那么,我們就可以讓它假裝是個女的或者男的,甚至欺騙提問者,讓其分辨孰男孰女?;蛘呖梢愿鼜?fù)雜些,讓計(jì)算機(jī)假裝成個試圖扮成女人的男人,同時還有一位試圖裝成女人的男人,甚至讓計(jì)算機(jī)假裝成這樣一位女性,她假扮成裝作女人的男人!畢竟現(xiàn)實(shí)生活中,以上情形也的確皆有可能。

由莫滕泰杜姆(Morten Tyldum)導(dǎo)演的2014年奧斯卡獲獎影片《模仿游戲》講述的就是圖靈的故事?;厮莸侥莻€同性戀還被批判的時代,即使是身為數(shù)學(xué)家的圖靈不得不「通過」自己是直男的測試。當(dāng)隱瞞的性取向被公開后,他被迫接受稱為「化學(xué)閹割」的可怕治療(荷爾蒙療法)。最終,無法忍受身體和精神上雙重折磨的圖靈選擇了自殺來結(jié)束自己的生命。更荒誕的是,在當(dāng)時圖靈對于打敗希特勒做出的巨大貢獻(xiàn)卻被當(dāng)做國家機(jī)密而被歷史塵封。直到最近,已經(jīng)去世多年的圖靈終于得到英女王頒發(fā)的皇家赦免,但成千上萬根據(jù)類似法律判處的其他英國男人卻沒有。

要求人工智能通過測試以證明其具有智力,要求圖靈用測試來證明自己的性取向,這兩件事具有相同的諷刺意味,既嘩眾取寵又嚴(yán)重不公。

就好比,判斷一個人是白人還是黑色皮膚的人,是男人還是女人,都取決于其他人的觀察和解釋。因?yàn)槠渌艘呀?jīng)習(xí)慣根據(jù)傳統(tǒng)的線索(比如種族、性別、種類等)進(jìn)行判斷。任何正在經(jīng)受測試的人或事,只有與那些觀察他(或她、它)的人共謀,才會讓測試成功通過。至于人工智能是否愿意通過測試,則是這個測試上久拖不決的另一個問題了。無論是哪種方式,所謂的「通過」更多的是觀眾看法,而不是被測試者的表現(xiàn)。

我們最好還是假定:宇宙中,「思考」是種更加多樣化的行為,外星人也會思考,思考并不限于我們?nèi)祟愡@種特殊個案。與其說,人工智能的哲學(xué)課題是人類教會機(jī)器如何思考,不如說是機(jī)器告訴人類什么才是一個更加全面、更加真實(shí)的思考行為。

第三部分

我們曾經(jīng)希望,把「人工智能是否存在」的定義聯(lián)系到它能否模仿人類思考的能力。它基于一種這種奇怪的人類優(yōu)越感:只有人類能夠思考。正是這種自負(fù)的想法讓曾經(jīng)的研究者希望在現(xiàn)有的機(jī)器上重現(xiàn)人類的思維,然而卻挫敗連連,最后徒勞無功。因?yàn)樗静粚?。?dāng)代的人工智能研究表明,「能為任何一件特定的事做安排」就可以說是「智能的」。它恰恰不反映我們?nèi)祟惖乃伎寄J?,甚至可以說沒有任何關(guān)系?,F(xiàn)任谷歌的兩名研究主管——斯圖爾特.羅素和彼得.諾維格在他們最經(jīng)典的人工智能教材里提出:仿生設(shè)計(jì),或者說對生物形態(tài)的模仿,并不是我們設(shè)計(jì)復(fù)雜技術(shù)的通用方法。比如:飛機(jī)并不像鳥一樣飛翔,我們當(dāng)然也不會用「欺騙鳥兒讓它們以為飛機(jī)是鳥」這樣的標(biāo)準(zhǔn),來檢驗(yàn)這些飛機(jī)是否真的具有飛行能力。既然如此,那為什么對人工智能要采用這個標(biāo)準(zhǔn)?現(xiàn)在,那些務(wù)實(shí)的人工智能研究已經(jīng)不把焦點(diǎn)放在圖靈測試上了,它并不能視作一個客觀的智能標(biāo)準(zhǔn)。但在我們的流行文化里,頑固的人類中心主義思想?yún)s依然認(rèn)為這個智能測試很重要。就像是迪斯尼影片里那些像年輕人一樣說話的動物,它的想法要讓人類接受,最好得采用這種幼稚的腹語術(shù)。

可以說,人工智能的擬人化標(biāo)準(zhǔn)就是一種「前哥白尼」態(tài)度。這種態(tài)度有什么不好?我們想要人工智能以人性化的方式陪伴我們每一天,這不好嗎?

答案是,如果我們對其余的生命體持有這種幻想,將損失太多知識;只有保持真誠和清醒的認(rèn)識,才能從不同的綜合智能中獲得好處。我并非是在說哲學(xué)觀點(diǎn),因?yàn)橛行┱軐W(xué)家在討論:人工智能作為有知覺的實(shí)體,是否應(yīng)該賦予它們倫理權(quán)利。我的意思是,更真實(shí)的視角能更好的讓我們思考自己的技術(shù)。Musk、蓋茨和霍金說「人工智能可能帶來的危險(xiǎn)」,它成了頭條新聞。這個觀點(diǎn)當(dāng)然很重要,但我擔(dān)心大多數(shù)讀者都誤解了他們的意思。

那些年我們一起看過的人工智能大片5

「機(jī)器人三定律」

自從1942年由艾薩克.阿西莫夫提出「機(jī)器人三定律」,人們就指望靠程序的設(shè)計(jì),足以讓人工智能不會「傷害人類」。但這必須建立在一個基礎(chǔ)上——人工智能必須知道人類是什么,以及做什么事會傷害人類。其實(shí),人工智能是否會傷害我們,與它對人類有沒有惡意,壓根沒有關(guān)系。傷害可能會在很多情況下發(fā)生,而且這些情況大多和我們最愚蠢的極端的善意的指示相關(guān)。與以往假設(shè)的傷害情況相反,傷害的發(fā)生既不是因?yàn)槿斯ぶ悄馨l(fā)生機(jī)械故障,也不是因?yàn)樗鼈冞`背了道德定律,人工智能的巨大風(fēng)險(xiǎn)恰恰是因?yàn)樗膹?qiáng)大和對人類的公正。如果我們只是在擬人化的特質(zhì)上認(rèn)識人工智能,或者認(rèn)為它有這重義務(wù),那么我們很難避開這些困境。

不管「強(qiáng)人工智能」是否真的會誕生,如果我們還在堅(jiān)持那些明知是錯誤的觀念,就會在探索和求知的道路上止步不前。在1950年的那篇論文中,圖靈對自己提出的人工智能觀點(diǎn)其實(shí)還舉了很多反例,包括把它和早期反對哥白尼的天文學(xué)進(jìn)行比較?!傅厍蚴怯钪嬷行摹?、「人類是絕對特殊的存在」、「人類是無價(jià)的完美生命」...雖然持有這些錯誤觀點(diǎn)人們的幼小心靈受到了哥白尼學(xué)說的打擊,但之后的人類文明終于可以基于宇宙真實(shí)的樣子去探索,而不是基于那種狹隘自私的觀點(diǎn)。圖靈在文中把那些稱為「神學(xué)偏見」,所以,我們也可以把人工智能的擬人化標(biāo)準(zhǔn)說成是「前哥白尼」態(tài)度,但它們卻在俗世橫流。如果存在一種強(qiáng)大的非擬人的人工智能,它可能會讓我們更加清醒的認(rèn)識自己,了解我們的現(xiàn)狀,并對復(fù)雜的「智能」有更完整的理解。我們就能從這樣的起點(diǎn)出發(fā),滿懷希望地改造世界。而且我們將充滿信心,因?yàn)檫@樣的睿智總是幫我們提出更好的模型去模擬未知的世界。

錯誤的觀念還會最后導(dǎo)致一種長期的危害,這種人類奴役技術(shù)的關(guān)系已經(jīng)把我們帶到了「第六次物種大滅絕」(前5次自然滅絕和人類活動加速的第6次滅絕)的懸崖邊上??梢哉f,「人類世」(地質(zhì)學(xué)上認(rèn)為人類活動進(jìn)入工業(yè)化后地球進(jìn)入新的地質(zhì)年代)本質(zhì)上并不是人類技術(shù)的發(fā)展,而是人類觀念的產(chǎn)物——世界已經(jīng)可以根據(jù)我們的需求和愿望而改變。我們從這個詞中能嗅到些許宗教領(lǐng)袖傳播的美好福音世界:機(jī)器完全屈從于人類的需求和愿望工作。如果你也這么認(rèn)為,請谷歌搜索「豬頭屠宰機(jī)」,雖然這并非我的本意,但還是請你先了解它的血腥殘酷再來和我談?wù)?,如何?chuàng)造一個機(jī)器完全臣服于人類愿望的世界吧。

也許有人還心存天真的幻想,認(rèn)為我們社會也經(jīng)歷過奴隸制度、神權(quán)制度再到法制,所以即便已經(jīng)是2015年,對機(jī)器來這套又何嘗不可? 正是這種感情用事——所謂的技術(shù)倫理——構(gòu)成了現(xiàn)在「人類世」的基本算法,也造成了基本困境。繼續(xù)順從這樣的情感,只會讓我們在遭遇人工智能后一敗涂地?,F(xiàn)在,正是我們朝前邁進(jìn)的時候。你不覺得,我們已經(jīng)為這樣自命不凡的風(fēng)俗付出了太多的代價(jià)了嗎?

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到