從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什么?
在這場事件背后,隱憂和質(zhì)疑也如影相隨,警方的做法是否合理?
【編者按】本文由機器之心原創(chuàng),作者:盛威、吳攀、微胖
當(dāng)?shù)貢r間 7 月 7 日,大批民眾聚集在達拉斯市中心,為在明尼蘇達州和路易斯安那州發(fā)生的兩起非裔男子被警察槍殺的案件「Black Lives Matter」游行抗議。20 時 45 分左右,游行隊伍行進至 Lamar 大街和 Main 大道時突發(fā)槍擊,人群立刻分散各處尋找掩護,場面一度混亂?,F(xiàn)場警車與直升機轟鳴,全副武裝的執(zhí)法人員在現(xiàn)場。有民眾表示,至少聽到 30 聲槍響。
這一針對警方的暴力事件導(dǎo)致 5 名警察死亡、7 名警察受傷。當(dāng)?shù)鼐椒Q,槍手 Micah Xavier Johnson 今年 25 歲,是一名退伍軍人,作案動機很可能是因為對「警方對黑人的暴力執(zhí)法」不滿。
這一事件過程中,槍手和警方進行了數(shù)小時的對峙。最終,達拉斯警方將 1 磅 C4 炸藥安裝在機器人的機器臂上,然后通過遠程控制的方式讓機器人接近嫌犯后引爆了炸彈,炸死了嫌犯。
所謂的「警察使用機器人殺人事件」迅速引發(fā)各大媒體關(guān)注。大眾態(tài)度可謂喜憂參半。
大多數(shù)人表示,警方及時止損,成功防止了更大悲劇的發(fā)生。「我認(rèn)為,我們所有人在第一時間里應(yīng)該感到如釋重負(fù),」美國科學(xué)技術(shù)中心主管 Michael Kalichman 說,「......我們能夠確定的是這次行動讓一個原本會造成更大損失的悲劇提前結(jié)束了。......」也有達拉斯人在 Medium 上撰文表示,達拉斯警方處理得當(dāng)。
不過,慶幸成功避免更大悲劇的同時,隱憂和質(zhì)疑也如影相隨。警方的做法是否合理?是否意味著警察軍隊化的開始?
是否合法合理?
美國警方使用機器人已經(jīng)有很長時間了。大眾之所以會有這樣的疑問,原因在于這次使用機器人的行為與以往經(jīng)驗不同。
過去,警方主要讓機器人從事相對中立(中性)行為,比如,給嫌疑犯、人質(zhì)或其他人員傳遞物品,或者用于分散對方注意力,與嫌疑犯交流等。去年,一把持有匕首的嫌疑犯威脅要跳下大橋(位于加州圣何塞),警方通過機器人給對方送去手機和匹薩,讓其冷靜下來,隨后成功將其拘捕。2014年12月,阿爾伯克基警方使用機器人部在一間汽車旅館的房間里部署化學(xué)武器,房間里持有槍支的嫌疑人最后繳械投降。
但在這次事件中,機器人被直接用于剝奪對方生命,也是美國警方首次使用機器人載爆炸物,開了「先例」。人們自然而然會擔(dān)憂,其他警察局會否效法這種行為?正如 Michael Kalichman 所言,「我們還是不得不思考這種事情會不會在別的地方再次發(fā)生。」
不過,無論是警方還是刑事法律專家、機器人技術(shù)專家都認(rèn)為,警方行為合法。關(guān)鍵理由:人類始終牢牢支配著機器人,或者說,這個機器人載爆炸物并非自主型武器。
新南威爾士大學(xué)的人工智能教授 Toby Walsh 反對將這次事件視為科幻小說噩夢般場景的實現(xiàn),他說:很簡單,機器人仍然是受人類遠程控制的。這和遠程遙控飛行在伊拉克、巴基斯坦或其他地區(qū)上空的殺人無人機沒什么兩樣?!溉祟惾匀徽瓶刂鴻C器人,這是件好事?!?/p>
卡耐基梅隆大學(xué)的機器人技術(shù)教授 Red Whittaker 認(rèn)為,事實上,機器人不過一個工具而已。具備這些功能的工具已經(jīng)存在好多年了。遠程控制——無異于扣動扳機或者扔手榴彈或者其他可能的行為。
與學(xué)界觀點稍有不同,警方更多強調(diào)對警員安全的維護:面對致命危險,警察沒有義務(wù)將自身置于險境。本質(zhì)上,這和讓狙擊手從遠處射擊并無不同。
「我們沒有其它選擇,只能使用我們的炸彈機器人,我們將一個設(shè)備放在了它的擴展部分,然后在目標(biāo)位置引爆?!惯_拉斯警察局長 David Brown 在事件后一天的新聞發(fā)布會上說,「其它選擇會將我們的警員暴露在致命的危險中?!?/p>
達拉斯市長 Mike Rawlings 在上周五告訴記者,他知道未來再次遇到這種情況時警方還是會采取這種措施,但是它只能被當(dāng)做「最終手段」?!戈P(guān)鍵是讓警察從傷害中脫離出來,」他說。
之后在接受 CNN 采訪時他又表示槍手—— 25 歲的前陸軍預(yù)備役士兵 Micah Xavier Johnson 有「聰明的頭腦,下定決心要傷害更多警員。如果沒有我們的行動,他就會傷害更多警員。所以,在我看來,我們別無選擇,只能使用所有必要的工具來終止這場對峙。」
警方軍隊化?執(zhí)法還是戰(zhàn)爭?
有觀點表示,警方的任務(wù)是執(zhí)法,不是宣戰(zhàn),是否需要這種軍隊化的裝備?或許,這個問題應(yīng)該置換成:如果犯罪嫌疑人的攻擊力越來越強,執(zhí)法手段是不是也應(yīng)該與時俱進?
據(jù)報道,這個機器人由軍火商諾斯洛普·格魯門公司制造,常被警察、軍隊和世界各地的緊急事件處理人員用來處理遠程拆彈等任務(wù)。該機器人使用輪子前進,重量大約為 220 千克,配備了多種傳感器和一個帶吸盤的機器臂。其型號為 Remotec F5。類似的遙控四輪驅(qū)動機器人早就被美軍和美國警察部隊廣泛改裝并用于拆彈任務(wù)或其他維持和平的任務(wù)。
警方的裝備升級淵源,可溯及上世紀(jì) 80 年代。當(dāng)時,由于美國毒品犯罪猖獗,毒梟火力強悍,美國國會通過了一個「美軍 1033 計劃」,授權(quán)美國警察部隊向美國軍隊購買多余的武器。因此,達拉斯警察依據(jù)該法案向軍方購買了 Remotec F5、MARCbot IV 等多款爆炸拆除機器人。
稍作深入思考,我們不難理解上述現(xiàn)象:驅(qū)動軍事技術(shù)演化的首要因素就是救命,或者說,風(fēng)險減少。讓機器為人類上刀山、下火海,將傷亡降至最低,這里的風(fēng)險可以延伸至來自犯罪嫌疑人的致命攻擊。達拉斯警方購買、使用裝備的行為,不僅合法,也是軍事技術(shù)演進使然。
曾擔(dān)任 LAPD SWAT 助理指揮官(assistant unit commander)長達十三年的退休警官 Ron McCarthy 坦言,這些機器很方便很有用,在這次事件中使用這些武器很完美。如果有人威脅到公民或者警方,我們不會讓警員冒生命危險。
密蘇里-圣路易斯大學(xué)的犯罪學(xué)家 David Klinger 分析地很清楚,「法律并不區(qū)分各種傳遞致命武器的系統(tǒng)種類。如果警員可以射擊犯罪嫌疑人,他們就可以使用其它任何致命武器,這是合理的。如果你能射擊某人,或者可以碾過嫌疑人,我留意過有幾次警方還使用了燃燒彈,為什么不能合法使用爆炸裝置?」
真正的難題:自主型系統(tǒng)
這次事件的發(fā)酵與奪人眼球,主要源自美國由來已久的矛盾(白人警察與黑人平民),或者說,更多的是一個社會文化問題。
達拉斯市所面臨的種族問題卻無可回避。作家 Albert Samaha 在 BuzzFeed 上寫道:
這座城市……涉及警方的槍擊事件已經(jīng)減少了。從 2010 年到 2014 年,達拉斯警方共射殺了 34 人——其中超過一半是黑人——人均比率比休士頓、芝加哥、洛杉磯和紐約都高。
目前的報道并沒有增進我們對基于人工智能的自主型系統(tǒng)(包括武器)難題的思考。比如:
1.失靈。自主機器決策導(dǎo)致相關(guān)死亡事件。今年 5 月份,佛羅里達一位特斯拉 Model S 車主在使用「Autopilot」自動駕駛功能時發(fā)生事故死亡。特斯拉公司在調(diào)查原因后在博客寫道:「在光線過于強烈的環(huán)境下,無論是自動駕駛系統(tǒng)還是駕駛員都未能及時察覺前方拖車的邊緣,因此未能施加制動。在極為罕見的情況下,拖車高度與其在馬路當(dāng)中的位置造成特斯拉 Model S 直接撞進了拖車底部?!?/p>
2.道德兩難。自動駕駛系統(tǒng)是否應(yīng)該不惜一切代價來保護它們的乘客?還是應(yīng)該通過編程選擇犧牲乘客,從而保護他人?近期《科學(xué)》雜志網(wǎng)絡(luò)版報告指出,盡管一些人爭論道,自動駕駛汽車控制的道路會更安全,但提供這種安全性的特有編程也許會阻止它們最終上路。
3.濫用。2015年,科技媒體 The Intecept 刊登了一份文件,詳述了NSA的天網(wǎng)計劃(SKYNET programme)。根據(jù)文件顯示,這項計劃旨在大規(guī)模監(jiān)控巴基斯坦移動電話網(wǎng)絡(luò),然后使用機器學(xué)習(xí)算法分析5500萬用戶移動網(wǎng)絡(luò)元數(shù)據(jù),并試圖評估每個人成為恐怖分子的可能性。然而,根據(jù)這種機器學(xué)習(xí)程序,最高得分目標(biāo)是 Ahmad Zaidan,他長期擔(dān)任半島電視臺駐伊斯蘭堡的總編輯。
4.歧視。算法和數(shù)據(jù)驅(qū)動的產(chǎn)品總會反映設(shè)計者本身的設(shè)計選擇,假設(shè)這些歧視不存在是不負(fù)責(zé)任的行為。有證據(jù)表明在線購物,以及預(yù)設(shè)為由中立算法驅(qū)動的定價策略中都存在歧視。另外一項研究中,哈佛教授 Latanya Sweeney 分別搜索了白色人種兒童(Geoffrey, Jill, Emma)和黑色人種兒童(DeShawn, Darnell, Jermaine)的常用名字,她發(fā)現(xiàn),80%的「黑色」姓名搜索旁邊推送的 Google AdSense 廣告會出現(xiàn)「逮捕」字樣,而「白色」姓名搜索中該數(shù)據(jù)低于30%。
5.控制。隨著技術(shù)的進步,自動化程度更高的機器人也出現(xiàn)了。自主殺人機器人的正式稱呼是「致命自主武器系統(tǒng)(LAWS)」。從已經(jīng)公開的消息看,至少中國、美國和俄羅斯已經(jīng)在從事這方面的研究了。比如,美國海軍艦載的「密集近防御系統(tǒng)」(Phalanx)。前段時間,美國的一款人工智能系統(tǒng)甚至在模擬空戰(zhàn)中擊敗了人類戰(zhàn)術(shù)專家 。而環(huán)球網(wǎng)也曾報道:
中國、俄羅斯和美國正致力于可以獨立執(zhí)行軍事行動的自動化機器人。美國國防部常務(wù)副部長羅伯特•沃克發(fā)表聲明稱,五角大樓有落后的危險。他稱:「我們知道中國已經(jīng)在機器人和自動化領(lǐng)域進行了巨大投資?!苟砹_斯國防部第一副部長兼武裝力量總參謀長格拉西莫夫大將稱:俄羅斯也將打機器人戰(zhàn),在不久的將來,俄羅斯有可能開發(fā)出完全機器人化的部隊獨立完成軍事任務(wù)。
誰該為這些自主系統(tǒng)的行為負(fù)責(zé)?如何給自動化程度更高的人工智能系統(tǒng)安置一個「紅色按鈕」?
6.劃分防御/攻擊。最近,軍火商開發(fā)出了首個攻擊性自助武器。以色列航空工業(yè)公司的「哈比和哈洛普」無人機可自動追蹤敵方航空系統(tǒng)的無線電發(fā)射,并通過撞擊摧毀目標(biāo),該公司表示,無人機「已經(jīng)銷往世界各地?!?/p>
問題是,如果使用智能武器,那么,傳統(tǒng)的自衛(wèi)與侵犯之間的界限也將難以維系。
加利福尼亞大學(xué)伯克利分校的的人工智能專家 Stuart J. Russell 是禁止自主化武器運動的領(lǐng)袖,他說,人們需要搞清楚界限劃在哪里,我們應(yīng)該站在這條界線的正確一邊。「總的說來,清晰界分進攻和防衛(wèi)性武器,對此,我沒有信心?!?/p>
華盛頓的政策組織、新美國安全中心(New American Security)的武器分析員Paul Scharre 說,「如果界限很容易劃清,國家早就同意研發(fā)『防御型』武器了。」
回避不了的難題
《華盛頓時報》報道,達拉斯警察局局長 David Brown 在上周日為其使用致命機器人殺死槍殺警察的犯罪分子的決定進行了辯解,他說下一次遇到這種充滿不確定性的危險情況時還會使用類似的致命機器人。「是我下的決定。在相同的情況下我還會作出此決定,」Brown 局長對 CNN 說。
達拉斯市長 Mike Rawlings 也對警方的行動表示了支持,他說他為警方感到「驕傲」。
不過,減少風(fēng)險的人類本能(想想霍布斯吧)和軍事經(jīng)費不僅會繼續(xù)推動軍事技術(shù)的演化,也會推動軍事技術(shù)向執(zhí)法機構(gòu)流動??傆幸惶?,上面所有自主型武器問題,也是警方需要面對的難題。 「驕傲」、「在相同的情況下我還會作出此決定」這樣的回答也不再能滿足大眾的要求。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動創(chuàng)新
