五角大樓AI倫理原則公布:負(fù)責(zé)、公平、可追蹤、可靠和可管理

韓璐 6年前 (2019-11-01)

在“公平”的討論上,五角大樓國(guó)防創(chuàng)新委員會(huì)給出了不太一樣的“解釋”。

據(jù)外媒報(bào)道,五角大樓內(nèi)部成立的國(guó)防創(chuàng)新委員會(huì)投票批準(zhǔn)了國(guó)防部的AI倫理原則,包含5個(gè)主要原則(負(fù)責(zé)、公平、可追蹤、可靠和可管理)、12條建議,指導(dǎo)美軍將來(lái)如何在戰(zhàn)斗和非戰(zhàn)斗AI系統(tǒng)中應(yīng)用道德規(guī)范。

五角大樓AI倫理原則公布:負(fù)責(zé)、公平??勺粉?、可靠和可管理

原則指出,人類應(yīng)繼續(xù)對(duì)“發(fā)展、部署、使用和成果”負(fù)責(zé),軍方使用的人工智能系統(tǒng)應(yīng)避免可能導(dǎo)致意外傷害的偏見(jiàn)。國(guó)防部部署的AI還應(yīng)該可靠、可管理,并使用“透明且可審核的方法、數(shù)據(jù)源以及設(shè)計(jì)過(guò)程和文檔。”

其中“避免意外傷害和破壞以及避免人為部署系統(tǒng)的脫離接觸”這一點(diǎn),被部分委員會(huì)成員認(rèn)為是“可管理原則”中應(yīng)該明確的一點(diǎn)。而在這一點(diǎn)的實(shí)踐上,軍方需要在使用的AI系統(tǒng)上配備一個(gè)關(guān)門開(kāi)關(guān),以防情況出錯(cuò)時(shí)能夠進(jìn)行人為制止。

令人“較為意外”的是,在“公平”這一原則上,國(guó)防創(chuàng)新委員會(huì)給出了一個(gè)較為不同的解釋。國(guó)防創(chuàng)新委員會(huì)成員和卡耐基梅隆大學(xué)研究副總裁Michael McQuade表示,“您可能會(huì)在‘AI倫理原則文檔’中看到公平一詞引起的共鳴。我會(huì)告誡您,在許多情況下,國(guó)防部不應(yīng)該公平。這應(yīng)該是一個(gè)堅(jiān)定的原則,即我們的系統(tǒng)中不應(yīng)有意外的偏見(jiàn)。”這與人們一般理解中的“公平”還是不同的。

近一兩年來(lái),圍繞“AI倫理”這一點(diǎn),五角大樓沒(méi)少受到來(lái)自業(yè)界專家和群眾的質(zhì)疑和抨擊,譬如與谷歌合作“Maven項(xiàng)目”,基于后者AI技術(shù)無(wú)人機(jī)自動(dòng)追蹤有關(guān)對(duì)象等等。對(duì)于五角大樓而言,AI倫理原則的落實(shí)是較為急迫的。

據(jù)了解,該AI倫理原則雖然已經(jīng)得到了國(guó)防創(chuàng)新委員會(huì)的批準(zhǔn),但最終還是將由國(guó)防部領(lǐng)導(dǎo)來(lái)決定是否采納任何原則。國(guó)防部發(fā)言人表示,目前“人工智能原則:國(guó)防部關(guān)于人工智能在倫理上的使用的建議”文件和相關(guān)白皮書(shū)已經(jīng)上傳至國(guó)防創(chuàng)新委員會(huì)的網(wǎng)站,將與國(guó)防部領(lǐng)導(dǎo)進(jìn)行共享。

最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(zhǎng)按識(shí)別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新

分享到