微軟聊天機器人發(fā)表不恰當言論,被強制下線
微軟聊天機器人不但辱罵用戶,還發(fā)表種族主義評論和煽動性的政治宣言。
微軟新研發(fā)的聊天機器人在 Twitter 上線不到 24 小時,竟被強制下線。
據(jù)悉,這款由微軟和必應(yīng)共同開發(fā)的實驗性人工智能聊天機器人名為 Tay,在Twitter 網(wǎng)站上上線之后,有用戶通過文字誘騙 Tay 說出了不適宜言論,例如辱罵甚至是發(fā)表種族主義評論和煽動性的政治宣言。
對此,微軟方面稱,Tay 還處于實驗階段,它正在學習怎樣和人類交流。在它學習的過程中,有人和它進行了不合適的語言互動,讓它作出不合適的回應(yīng)。所以,微軟在發(fā)現(xiàn)這個狀況后,立即以 Tay 的身份通過 Twitter 發(fā)出了一句“忙了一天,要下線消化一會兒了,待會再聊。”后,便將 Tay 強制下線。
其實,微軟是想讓 Tay 在與人類自如交流時為人類帶來快樂,并通過休閑幽默的對話與人類進行線上互聯(lián)的。因為 Tay 會在與人類交流的過程中完成自我學習,與人類聊得越多就會越聰明、越個性化。
但是這種讓人類“教學”的方式存在弊端,例如此次,Tay 在與人類交流的過程中學會并發(fā)出了類似納粹主義、種族主義和種族滅絕主義那樣的言論。此外,有用戶在試圖與 Tay 進行正常交流時發(fā)現(xiàn),Tay 在聊天時存在局限性,例如 Tay 似乎對流行音樂或電視不感興趣。甚至有人猜測,Tay 能夠很快的學會不合適的言論,卻不能適應(yīng)正常的對話,表明了人工智能在未來,就是會做出一些“不合適”的事情。
目前,微軟正在對 Tay 發(fā)表的一些煽動性評論進行編輯處理,并表示會對 Tay 進行一些調(diào)整。
最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動創(chuàng)新
