微軟聊天機(jī)器人發(fā)表不恰當(dāng)言論,被強(qiáng)制下線

伶軒 10年前 (2016-03-25)

微軟聊天機(jī)器人不但辱罵用戶,還發(fā)表種族主義評(píng)論和煽動(dòng)性的政治宣言。

微軟新研發(fā)的聊天機(jī)器人在 Twitter 上線不到 24 小時(shí),竟被強(qiáng)制下線。

據(jù)悉,這款由微軟和必應(yīng)共同開(kāi)發(fā)的實(shí)驗(yàn)性人工智能聊天機(jī)器人名為 Tay,在Twitter 網(wǎng)站上上線之后,有用戶通過(guò)文字誘騙 Tay 說(shuō)出了不適宜言論,例如辱罵甚至是發(fā)表種族主義評(píng)論和煽動(dòng)性的政治宣言。

對(duì)此,微軟方面稱,Tay 還處于實(shí)驗(yàn)階段,它正在學(xué)習(xí)怎樣和人類(lèi)交流。在它學(xué)習(xí)的過(guò)程中,有人和它進(jìn)行了不合適的語(yǔ)言互動(dòng),讓它作出不合適的回應(yīng)。所以,微軟在發(fā)現(xiàn)這個(gè)狀況后,立即以 Tay 的身份通過(guò) Twitter 發(fā)出了一句“忙了一天,要下線消化一會(huì)兒了,待會(huì)再聊。”后,便將 Tay 強(qiáng)制下線。

其實(shí),微軟是想讓 Tay 在與人類(lèi)自如交流時(shí)為人類(lèi)帶來(lái)快樂(lè),并通過(guò)休閑幽默的對(duì)話與人類(lèi)進(jìn)行線上互聯(lián)的。因?yàn)?Tay 會(huì)在與人類(lèi)交流的過(guò)程中完成自我學(xué)習(xí),與人類(lèi)聊得越多就會(huì)越聰明、越個(gè)性化。

但是這種讓人類(lèi)“教學(xué)”的方式存在弊端,例如此次,Tay 在與人類(lèi)交流的過(guò)程中學(xué)會(huì)并發(fā)出了類(lèi)似納粹主義、種族主義和種族滅絕主義那樣的言論。此外,有用戶在試圖與 Tay 進(jìn)行正常交流時(shí)發(fā)現(xiàn),Tay 在聊天時(shí)存在局限性,例如 Tay 似乎對(duì)流行音樂(lè)或電視不感興趣。甚至有人猜測(cè),Tay 能夠很快的學(xué)會(huì)不合適的言論,卻不能適應(yīng)正常的對(duì)話,表明了人工智能在未來(lái),就是會(huì)做出一些“不合適”的事情。

目前,微軟正在對(duì) Tay 發(fā)表的一些煽動(dòng)性評(píng)論進(jìn)行編輯處理,并表示會(huì)對(duì) Tay 進(jìn)行一些調(diào)整。

最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(zhǎng)按識(shí)別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新

分享到