除了擁有智力,機器人還需要情感嗎?

鎂客 10年前 (2015-08-31)

事實上,所有和人工智能相關(guān)的問題都值得認真思考。

一提到人工智能,大多數(shù)人自然而然就會聯(lián)想到被稱為計算機之父、人工智能之父的阿蘭·圖靈。有些人也會對阿達·洛夫萊斯頗有印象,美國國防部曾將一種計算機語言命名為Ada語言,來紀念她。另外,作為詩人拜倫的女兒,阿達·洛夫萊斯認為機器人模擬大腦思考、產(chǎn)生情感是詩意的。

阿蘭·圖靈和阿達·洛夫萊斯都發(fā)明過人工智能測試,尤其是圖靈測試十分有名,可以用來測試機器是否能和人類一樣思考。比如當人類和機器進行交流時,如果一個人無法區(qū)別和自己進行交流的是人還是機器,那么這臺機器就算是通過了圖靈測試。不過,“思考”的定義本來就很模糊。

一、在2014年已有機器人可以“欺騙”人類

為了讓自己設(shè)計的機器人通過圖靈測試,現(xiàn)在的計算機程序員趨向設(shè)計一些“滑頭”的機器在本質(zhì)上能掩蓋真實的對話,迷惑人類判斷。

在去年7月7日,英國皇家學(xué)會的圖靈測試大賽中,一個名為Eugene Goostman的機器人偽裝成13歲的烏克蘭男生,成功“欺騙”了三分之一的評委。

據(jù)悉,Eugene是一個人工智能聊天程序,一款專門設(shè)計與人類進行聊天的計算機程序或聊天機器人。當然,受到某些超現(xiàn)實主義的影響,這款機器人還能和其他聊天機器人進行對話交流。一起來通過視頻感受一下:

不過,很快就有人站出來說,根本算不上真正的人工智能。因為將人類智能設(shè)置為一個13歲的烏克蘭男生,并且測試是使用的英語,那么測試的時候就算出現(xiàn)一些低級錯誤,人們也不會懷疑:還能怎么樣,他只是一個孩子?這人為的設(shè)定本身就為成功“欺騙”人類創(chuàng)造了得天獨厚的條件。

二、除了聊天,機器人將擁有創(chuàng)造性思維

在現(xiàn)在看來,與Eugene一樣的聊天機器人已經(jīng)算得上人工智能的里程碑。不過,研究人員還有更具挑戰(zhàn)性的使命:讓機器人擁有人類最重要的品質(zhì)——創(chuàng)造力!

四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人員擬建了“洛夫萊斯測試”,它是以十九世紀著名的數(shù)學(xué)家、程序員阿達·洛夫萊斯伯爵夫人的名字命名的。你可以要求計算機去創(chuàng)造一些東西,比如編一個故事或?qū)懸皇自姟?/p>

事實上,《三體》的作者劉慈欣就曾經(jīng)開發(fā)了一個簡單的寫詩小程序“電子詩人”,實現(xiàn)了計算機自主寫詩、編故事。

但是要通過所謂的“洛夫萊斯測試”,所有設(shè)計相關(guān)程序的人必須能夠解釋它是如何生成這些創(chuàng)意作品的。

Mark Riedl來自佐治亞理工大學(xué)交互計算學(xué)院,他提出對“洛夫萊斯測試”進行升級,也就是“洛夫萊斯測試2.0版本”,一臺計算機必須要完成一系列越來越苛刻的創(chuàng)意挑戰(zhàn),之后會獲得一個分數(shù),并以此評估創(chuàng)造性。

顯然,洛夫萊斯測試2.0版本具有一定挑戰(zhàn)性,但同時,又有人提出異議,因為他們認為不應(yīng)該把創(chuàng)造力看做是人類最重要的品質(zhì)。

三、人工智能系統(tǒng)產(chǎn)生感情共鳴

不過現(xiàn)在,請先忘記“圖靈測試”和“洛夫萊斯測試”吧,因為筆者要提出一個全新的人工智能測試——弗蘭普頓測試(Frampton Test)。或許你會感到好奇,什么是“弗蘭普頓測試”呢?

事實上,在本月初舉辦的Robotronica 2015機器人創(chuàng)力大會上,Jared Donovan和機器人學(xué)家Michael Milford,以及舞蹈家Kim Vincs教授對人工智能創(chuàng)造力進行了一次專題討論。最近,很多業(yè)界人士都認為人工智能在未來是人類最大的威脅,甚至是人類的“終結(jié)者”。而在本屆機器人創(chuàng)力大會上的這次專題討論更多地是去關(guān)注創(chuàng)造力和機器人的現(xiàn)狀,以及人類更希望智能機器去表達什么樣的情緒或情感。

在人類的精神層面上,共鳴可以算得上是最高層次的一種情緒表達了,人類具有理解彼此,分享彼此感受的能力,而且在絕大多數(shù)情況下,彼此之間根本不需要做太多識別判斷,僅僅是一個眼神、一個動作,就能做到心有靈犀。

因筆者提出了“弗蘭普頓測試”這一概念之所以要用著名搖滾傳奇Peter Frampton的名字來命名,其實是因為他在1973年的一首歌曲中提出了一個重要的問題……“你能像我們一樣感覺彼此嗎?”

我們知道,人類會在某些特定狀態(tài)里產(chǎn)生共鳴,同感彼此的感覺。弗蘭普頓測試也希望能夠達到這一目標,它要求人工智能系統(tǒng)必須在類似的某些特定狀態(tài)里,給出一個令人信服、且適當?shù)那榫w或情感回應(yīng)。

不得不提,人們已經(jīng)開始在相關(guān)領(lǐng)域里進行探索了,這種所謂“情感計算”的人工智能,希望能夠給機器灌輸模擬人類共鳴的能力。

當然,要想通過弗蘭普頓測試可能還有很長的路要走。另外,現(xiàn)階段那些機器人身上所表現(xiàn)出的強烈的情緒、情感,其實都是繼承自它們的創(chuàng)造者而已。

四、人工智能帶來值得思考的問題

據(jù)悉,人工智能和機器人研究人員在今年7月發(fā)布了一封公開信。這些大佬們在信里提出,如果機器人可以自動控制武器,未來將會是非常危險的。毫無疑問,機器人越來越聰明了,那么為了人工智能不威脅到人類,又引發(fā)人們廣泛的思考。

其中,有一個有趣的思考,在為機器人設(shè)計程序時是否加入情感?如果機器人具備了人類情感,比如同情心,就算機器人具有自動控制武器的能力,它也不會去殺人了。

但是,讓機器人具備人類情感就真的是件好事兒嗎?我們知道,人類情感并不都是積極正面的,比如憎恨、憤怒、忿怨等等?;蛟S我們真的應(yīng)該感到慶幸,自己生活在一個沒有情感機器人的世界里面。比如,你調(diào)戲Siri之后,得到的是惡語相向的回答,真不知道會是個什么樣的場景。

雖然社會新聞常常出現(xiàn)“暴力”新聞,但是縱觀生活中的大環(huán)境,不難發(fā)現(xiàn)占據(jù)人類生活中主導(dǎo)地位的依然是積極正面的情感情緒。

事實上,所有和人工智能相關(guān)的問題都值得認真思考,機器人是否會在未來某一天具有創(chuàng)造力,我們?nèi)祟愂欠裣M麢C器人具有創(chuàng)造力呢?諸如此類。

畢竟,人工智能潛伏著滅亡人類的可能性,所以現(xiàn)在對人工智能的思考不能停止。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到