不只針對(duì)AI!微軟CEO提出10條AI和人類行為準(zhǔn)則

韓璐 9年前 (2016-06-30)

關(guān)于“AI機(jī)器人危險(xiǎn)性”的爭(zhēng)議一直未曾停止。

自從“AI”一夜走紅,關(guān)于“AI是否會(huì)成為人類‘終結(jié)者’”這一問題的討論就從未停止。1950年,著名科幻作家阿西莫夫提出“機(jī)器人三定律”;上周,谷歌聯(lián)合OpenAI、伯克利和斯坦福的學(xué)者聯(lián)合發(fā)布“AI五定律”;這周,著名科學(xué)家斯蒂芬·霍金提出要警惕出現(xiàn)“AI軍備競(jìng)賽”,小心AI的惡性發(fā)展。

微軟CEO納德拉

其實(shí),在業(yè)界內(nèi)外眾多專業(yè)人士都在進(jìn)行激烈的討論之前,微軟早就坐不住了。此前,在2016年的微軟Build開發(fā)者大會(huì)上,微軟CEO納德拉提出了6條人工智能發(fā)展準(zhǔn)則,以及4條針對(duì)生活在AI時(shí)代的人類的行為準(zhǔn)則:

AI 必須用來輔助人類:隨著我們開發(fā)出來的自動(dòng)機(jī)器越來越多,我們需要尊重人類自治。協(xié)作式機(jī)器人(co-bots)應(yīng)當(dāng)從事采礦之類的危險(xiǎn)工作,從而為人類工人豎起一道安全網(wǎng)和提供保護(hù)措施。

AI 必須是透明的:我們應(yīng)該能知道技術(shù)是如何工作的,它的規(guī)則是什么。我們需要的不僅僅是智能機(jī)器(intelligent machines),而且是可理解的機(jī)器(intelligible machines)。技術(shù)會(huì)了解人類的事情,但是人類也必須了解機(jī)器的事情。大家應(yīng)該對(duì)技術(shù)如何審視和分析世界有了解。倫理和設(shè)計(jì)必須齊頭并進(jìn)。

AI 必須實(shí)現(xiàn)效能最大化,同時(shí)又不能傷害人的尊嚴(yán):它應(yīng)該維護(hù)文化承諾,支持多樣化。在設(shè)計(jì)這些系統(tǒng)時(shí)我們需要有更廣泛更深入更多的各種互動(dòng)。技術(shù)界不應(yīng)該決定這個(gè)未來的價(jià)值觀和美德。

AI 必須用于智能隱私:要有復(fù)雜的手段保護(hù)個(gè)人以及群體信息,要能夠以增進(jìn)信任的方式進(jìn)行。

AI 必須承擔(dān)算法責(zé)任以便人類可以撤銷非故意的傷害。我們?cè)O(shè)計(jì)這些技術(shù)時(shí)必須考慮到預(yù)期和非預(yù)期的情況。

AI 必須防止偏見,確保進(jìn)行適當(dāng)?shù)摹⒂写硇缘恼{(diào)查,從而防止錯(cuò)誤的啟發(fā)法不會(huì)造成歧視。

但是人類也必須遵守一些守則——尤其是在考慮清楚我們的后代必須重點(diǎn)考慮和培養(yǎng)哪些技能方面。為了不被時(shí)代拋棄,我們的孩子和他們的孩子需要有:

同理心——機(jī)器很難復(fù)制的同理心(Empathy)在人與 AI 共存的世界里非常有價(jià)值。感覺到別人的想法和感受,協(xié)作和建立關(guān)系將會(huì)變得至關(guān)重要。

教育——有人提出,因?yàn)閴勖娱L(zhǎng)出生率會(huì)下降,教育的投入也會(huì)隨之降低。但我認(rèn)為要想進(jìn)行創(chuàng)新并管理好我們今天看不清楚的創(chuàng)新,我們就必須不斷加大對(duì)教育的投資才能拔高我們的思考層次,才能獲得更加公平的教育產(chǎn)出。新技術(shù)大規(guī)模實(shí)施所需的知識(shí)掌握和技能培養(yǎng)是一個(gè)非常困難的社會(huì)問題,要花很長(zhǎng)時(shí)間才能解決。動(dòng)力織機(jī)在1810年就發(fā)明出來了,但是由于經(jīng)過充分培訓(xùn)的技工人手不足,服裝業(yè)完成變革卻花35年的時(shí)間。

創(chuàng)造力——創(chuàng)造力是最夢(mèng)寐以求的人類技能之一,這一點(diǎn)不會(huì)改變。機(jī)器會(huì)繼續(xù)豐富和增強(qiáng)我們的創(chuàng)造力。小說家Jhumpa Lahiri最近在接受采訪中被問到,作為有特殊影響的英國文學(xué)作家,為何要用自己的第三語言意大利語來進(jìn)行新的文學(xué)創(chuàng)作?她說道:“不斷探索難道不就是創(chuàng)造力的要點(diǎn)嗎?”

裁決和責(zé)任——我們也許愿意接受一個(gè)計(jì)算機(jī)生成的診斷書或者法律判決,但我們更希望由人來最后對(duì)結(jié)果負(fù)責(zé)。

仔細(xì)觀察的話,我們從中可以發(fā)現(xiàn)一些端倪,阿西莫夫、谷歌和霍金等提出的觀點(diǎn)都是基于“AI具有危險(xiǎn)性”的前提。但是,AI機(jī)器人畢竟為人類所發(fā)明創(chuàng)造,在成功制造出來前,人類的每一個(gè)動(dòng)作、每一個(gè)想法都會(huì)對(duì)機(jī)器人造成深遠(yuǎn)的影響,總的來說,就是AI在將來是否具有危險(xiǎn)性,關(guān)鍵還是得看人們是如何操作的。

此外,就如納德拉所言“最具建設(shè)性的討論未必是AI的正邪之爭(zhēng),爭(zhēng)論的焦點(diǎn)應(yīng)該放在該技術(shù)給人和創(chuàng)造者帶來的價(jià)值上面”。在他看來,為了更好地實(shí)現(xiàn)這個(gè)目標(biāo),人類就必須在AI 方面展開更深入的協(xié)調(diào)和協(xié)作,就設(shè)計(jì)的倫理和移情框架達(dá)成一致,這也就是他所提出的10條準(zhǔn)則的基準(zhǔn)值所在。可以說,這10條準(zhǔn)則在目前看來是具有創(chuàng)造性的,因?yàn)樗膬?nèi)容囊括了這場(chǎng)爭(zhēng)論的雙方,從而更為全面、客觀,具有參考性。

最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(zhǎng)按識(shí)別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新

分享到