霍金又來“危言聳聽”了:人工智能將利用核武器來摧毀人類

韓璐 9年前 (2017-03-14)

除了表示擔(dān)憂,霍金這次也帶來了如何應(yīng)對的建議。

人工智能技術(shù)受到關(guān)注以來,關(guān)于“人工智能威脅論”的爭論就一直沒有停歇過,其中,尤以世界著名的物理學(xué)家霍金以及特斯拉CEO馬斯克最為活躍,數(shù)次發(fā)表關(guān)于“人工智能威脅論”的觀點(diǎn)。這不,就在最近,在接受外媒采訪的時候,霍金又再次發(fā)表言論,表達(dá)了自己對于人工智能技術(shù)的擔(dān)憂。

霍金又來“危言聳聽”了:人工智能將利用核武器來摧毀人類

在采訪中,霍金表示,人工智能進(jìn)一步發(fā)展便可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀人類。他認(rèn)為,人類需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。對此,霍金還提出了相關(guān)建議,他提議人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅。他表示:“世界政府可能會成為暴政,所有這一切聽上去好像人類在街難逃,但我是一個樂觀主義者。我認(rèn)為,人類終將會崛起,解決這些挑戰(zhàn)。”

據(jù)了解,這并不是霍金第一次發(fā)表對人工智能應(yīng)該抱有警惕的看法,也不是第一次提出人類必須團(tuán)結(jié)起來、攜手共進(jìn)對抗人工智能。早在此前,霍金就曾預(yù)言,人類在地球上智能再生活1000年,因此必須尋找另一顆宜居的星球。

盡管霍金又再次強(qiáng)調(diào)了人工智能在未來將帶給人們的威脅,但目前我們并不需要擔(dān)心,畢竟以當(dāng)前的技術(shù)而言,讓人工智能“擁有意識”并不是一件簡單的事情,距離這個目標(biāo)的實現(xiàn)還有很長的一段路要走。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到