為節(jié)省時(shí)間和資源,IBM要研發(fā)高速易存儲(chǔ)芯片
人工智能有望進(jìn)入飛速學(xué)習(xí)模式。
為了讓人工智能系統(tǒng)無(wú)所不能,研發(fā)者們通常會(huì)賦予人工智能系統(tǒng)深層神經(jīng)網(wǎng)絡(luò)算法。其實(shí)這并不是很麻煩,麻煩的是培訓(xùn)人工智能需要使用多臺(tái)高性能超級(jí)計(jì)算機(jī)或者是耗費(fèi)大量的時(shí)間?,F(xiàn)在,這個(gè)麻煩似乎有望解決。
最近,有消息稱(chēng),IBM 的 T.J. Watson 研究中心的科學(xué)家們想出了一個(gè)辦法,他們希望用大量的“電阻處理單元”,即結(jié)合 CPU 和非易失性存儲(chǔ)器的理論芯片,以減少人工智能系統(tǒng)的學(xué)習(xí)時(shí)間和降低對(duì)計(jì)算機(jī)性能的要求。此外,這種芯片還可以加快數(shù)據(jù)的傳輸速度,讓人工智能系統(tǒng)在最短的時(shí)間里完成對(duì)所有的世界語(yǔ)言之間的語(yǔ)音識(shí)別和翻譯。
像谷歌的 DeepMind 或者是 IBM 的 Watson 這樣的現(xiàn)代神經(jīng)網(wǎng)絡(luò),它們要執(zhí)行的任務(wù)以數(shù)十億計(jì),對(duì) CPU 內(nèi)存要求非常的高。如果能成功研發(fā)一種新型芯片,把大量的電阻式 RAM 直接放入 CPU 中,將數(shù)據(jù)永久存儲(chǔ),在速度上也不比 DRAM 慢的話(huà),就有可能實(shí)現(xiàn)3 萬(wàn)倍的加速,極大的減少訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時(shí)間和對(duì)計(jì)算機(jī)資源的需求,將以前需要在有數(shù)千臺(tái)機(jī)器的數(shù)據(jù)中心培訓(xùn)幾天的項(xiàng)目,在幾個(gè)小時(shí)的時(shí)間里快速完成。
現(xiàn)在這種芯片還在研發(fā)階段,一些技術(shù)之外的東西,像是電阻式 RAM也還沒(méi)有到商業(yè)化的地步,想要讓這種芯片普及使用可能還需要一段時(shí)間。但是,構(gòu)建快速的本地內(nèi)存芯片真的對(duì)發(fā)展人工智能技術(shù)有很大的幫助,因?yàn)橹挥袨檠邪l(fā)節(jié)省更多時(shí)間和資源,才可以去做更多有用的事情。
最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新
