道德迷宮,不該成為無人駕駛發(fā)展的攔路虎!
當(dāng)事故無法避免,你會(huì)選擇撞人還是撞車?那無人駕駛車輛又該怎么選擇?
機(jī)器人學(xué)的三大法則:
第一法則:機(jī)器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令;
第三法則:在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
當(dāng)碰上必須做出犧牲的時(shí)刻,無人駕駛應(yīng)該做出什么選擇?
老司機(jī)們都知道,道路情況瞬息萬變,有很多事故往往都在你想不到情況下發(fā)生?,F(xiàn)如今憑借高速發(fā)展的計(jì)算機(jī)技術(shù)和制造技術(shù),無人駕駛已經(jīng)離我們越來越近。
傳統(tǒng)車廠現(xiàn)階段已經(jīng)基本上已經(jīng)將ADAS(高級(jí)輔助駕駛系統(tǒng))商業(yè)化,成功的搭載于旗下高端車型。智能巡航、行人探測系統(tǒng)、車道保持等等功能已經(jīng)廣泛運(yùn)用于沃爾沃旗下車型;新一代的寶馬7系已經(jīng)可以實(shí)現(xiàn)鑰匙遙控車輛的出入車庫;甚至于Uber和谷歌等高科技公司,已經(jīng)將研發(fā)成形的無人駕駛原型車開上道路進(jìn)行測試。
就在大家都在為無人駕駛上路而全力以赴的時(shí)候,來自圖盧茲經(jīng)濟(jì)學(xué)院的 Jean-Francois Bonnefon在去年卻提出這樣一個(gè)觀點(diǎn):當(dāng)碰上必須做出犧牲的時(shí)刻,無人駕駛應(yīng)該做出什么選擇?
當(dāng)你坐在一輛無人駕駛的車輛里,很不幸的發(fā)生了車輛快速?zèng)_向前方行車的情況。此時(shí),無人駕駛車輛可以有兩個(gè)選擇:撞向旁邊的圍墻,犧牲自己保全前方的行人;撞向行人,以保全車內(nèi)的乘員。后來,Bonnefon又修改了當(dāng)中的細(xì)節(jié)。比方說,當(dāng)這種情況發(fā)生時(shí),車輛的決策權(quán)是否應(yīng)該交還給司機(jī)?如果你的車上此時(shí)有一個(gè)嬰兒,應(yīng)該怎么辦?如果前方也有一輛車,撞墻的話,自己必然會(huì)有犧牲,但是不會(huì)波及到前方車輛;但是如果選擇撞車,可能會(huì)保全雙方,但是同時(shí)也會(huì)有雙方都有人受傷的情況發(fā)生。這時(shí)又該怎么選擇?
在這一些列問題的基礎(chǔ)之上,還有一個(gè)責(zé)任劃分的問題。無人駕駛車輛發(fā)生事故之后,責(zé)任歸屬于車上的司機(jī)還是無人駕駛機(jī)器?如果劃分給機(jī)器的話,應(yīng)該由汽車廠家負(fù)責(zé)還是由算法提供商負(fù)責(zé)?還是說雙方應(yīng)該共同來承擔(dān)責(zé)任?
不得不說,這一些列的觀點(diǎn)提出,鎂客君覺得無疑給正在飛速發(fā)展的無人駕駛潑上一盆冷水。仿佛進(jìn)入了道德迷宮,你永遠(yuǎn)面臨著選擇,而不同選擇的背后,都會(huì)有相應(yīng)的后果。
麻省理工似乎有解決方案
就在人們對于無人駕駛車輛上路后,所要面對的道德問題進(jìn)行討論的時(shí)候,麻省理工的實(shí)驗(yàn)室里,似乎傳來一種解決方案。而這個(gè)解決方案是基于他們開發(fā)出來的一臺(tái)道德機(jī)器。
很有意思的是,這臺(tái)機(jī)器人會(huì)先要求人們來回答一些列的問題。而這些問題也很尖銳,讓很多參與者感到不安。比方說:沒有乘客的無人駕駛汽車突然撞向馬路中間的一條狗和逃跑的罪犯,你是去救狗還是去救罪犯?在測試結(jié)束之后,機(jī)器會(huì)把所有結(jié)果進(jìn)行對比。最終得出的結(jié)論是:人們更多的是關(guān)心無人駕駛車輛是否會(huì)對道路上的其他人員造成傷害,而更少的關(guān)注乘坐無人駕駛車輛的人員。
這個(gè)解決方案看起來似乎有點(diǎn)意思,從結(jié)果出發(fā)來解決問題。只是,道德向來是一種社會(huì)意識(shí)形態(tài),是一種虛無的意識(shí)形態(tài)。這一個(gè)機(jī)器所做的無非是將各類數(shù)據(jù)收集,然后分析出來一個(gè)結(jié)果。如果是基于真實(shí)案例,不管是對行人或者乘坐人一旦造成傷害,想必還是會(huì)遭受到輿論的抨擊。
也就是說,麻省理工所提出的并不是一個(gè)解決方案,而更多的是提供一個(gè)數(shù)據(jù)分析,僅此而已。
連谷歌都不知道答案,無人駕駛該何去何從?
上周,來自谷歌的工程總監(jiān)Ray Kurzweil,在奇點(diǎn)大學(xué)做演講時(shí)回答了這個(gè)問題,當(dāng)時(shí)他說了五個(gè)字:我們不知道。
他承認(rèn),目前對于無人駕駛的道德品性方面,沒有任何現(xiàn)成的答案,就連分析都沒做過。而作為谷歌的首席工程師Andrew Chatham則認(rèn)為,當(dāng)無人駕駛車輛面臨選擇的時(shí)候,往往第一時(shí)間做出的決策是——踩剎車。
所以,就連擁有世界無人駕駛領(lǐng)先水平的谷歌都不知道應(yīng)該怎么去面對這些道德迷宮,而他們現(xiàn)在能做的只有踩剎車。
鎂客君在這里不得不說,道德倫理一直伴隨著人類文明的發(fā)展而進(jìn)步,也會(huì)隨著科技的發(fā)展而發(fā)生變化。所以,道德迷宮不應(yīng)該成為無人駕駛發(fā)展道路上的攔路虎。
要知道,現(xiàn)階段的無人駕駛技術(shù),還并沒有完善和商業(yè)化,僅僅是停留在研發(fā)測試階段。哪怕我們大膽設(shè)想未來不超過5年的時(shí)間,無人駕駛車輛將上路行駛。那么到5年后,人們的道德輿論標(biāo)準(zhǔn)是否會(huì)發(fā)生相應(yīng)的變化?當(dāng)人們都有意識(shí)去規(guī)范自己的行為,遵守規(guī)定的時(shí)候,咱們的道路是否會(huì)形成一種相對的安全,從而避免上述的選擇出現(xiàn),從根本上改變?
科技的發(fā)展,不應(yīng)受到道德的約束,這種無謂的鉆牛角尖,只會(huì)阻礙人類科技文明的進(jìn)步。
最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新
