阻止機(jī)器人上戰(zhàn)場,霍金求禁“人工智能武器”
近日,霍金、馬斯克、史蒂夫等科技及人工智能領(lǐng)域“大佬”共同簽署了一封公開信,號召禁止人工智能武器,阻止機(jī)器人在戰(zhàn)爭中普及。
據(jù)報道,機(jī)器人像科幻電影系列《終結(jié)者》那樣在戰(zhàn)爭中得到普及的速度可能比我們預(yù)想的更快,而一群科技及人工智能領(lǐng)域的領(lǐng)導(dǎo)者們正試圖阻止其發(fā)生。
近日,著名天體物理學(xué)家霍金、特斯拉CEO埃隆·馬斯克(Elon Musk)和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)與其他上百位專業(yè)人士共同簽署了一封號召禁止人工智能武器的公開信。公開信稱,人工智能武器是繼火藥和核武器后“戰(zhàn)爭領(lǐng)域的第三次革命”,禁止人工智能武器的禁令必須盡快頒布。
“任何推動人工智能武器開發(fā)的軍事力量,都有可能導(dǎo)致全球性的軍備競賽,”公開信稱,“那些自動‘選擇并打擊目標(biāo),無需人工干預(yù)’的武器可能成為明天的AK 47,成為助長戰(zhàn)爭、恐怖主義的全球不穩(wěn)定因素。”據(jù)悉,公開信還包括其他知名簽署人,如Skype聯(lián)合創(chuàng)始人賈安·塔里安(Jaan Tallinn)、杰出語言學(xué)家諾姆·喬姆斯基(Noam Chomsky)等。
這些專家稱,人工智能系統(tǒng)可能將在數(shù)年內(nèi),而非數(shù)十年內(nèi)成為可能。“不同于核能,人工智能武器不需要高昂的成本及難以獲得的原材料,所以這種武器很容易在各軍事力量中普及。他們出現(xiàn)在黑市和恐怖分子手中只是時間的問題。”
該公開信表示,帶有武器的四軸無人機(jī)就是一個很好的例子。雖然人工智能武器可以減少戰(zhàn)場上的人員傷亡,但這本身就是一個錯誤,因?yàn)樗鼤档妥呦驊?zhàn)爭的門檻。并強(qiáng)烈要求,禁止人工智能武器的禁令必須盡快頒布,以避免軍備競賽,這比“控制人口數(shù)量的意義更加深遠(yuǎn)”。
人工智能一直是一項(xiàng)備受爭議的課題。目前半自動武器系統(tǒng)已經(jīng)大幅增加,美國空軍預(yù)測,“到2030年機(jī)械性能將極大增強(qiáng),人類反而將成為最弱的系統(tǒng)組件。” 無論是人工智能的批評者和支持者都表示,人工智能武器系統(tǒng)的界限很難拿捏。
不過,雖然現(xiàn)在越來越多的公司在投資研發(fā)該技術(shù),從IBM的Watson電腦系統(tǒng)到蘋果的Siri智能語音助手等。并且,人工智能已經(jīng)在商業(yè)及醫(yī)療保健領(lǐng)域得到運(yùn)用。
事實(shí)上,早已有公司未雨綢繆。例如,人工智能公司DeepMind被谷歌收購時,該公司在收購協(xié)議中加入了一項(xiàng)條款,要求谷歌不能將其技術(shù)運(yùn)用于軍事領(lǐng)域。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動創(chuàng)新
