谷歌用AI創(chuàng)建了一個(gè)子AI系統(tǒng),還在測(cè)試中打敗了人類創(chuàng)建的AI系統(tǒng)
該子AI系統(tǒng)或許將來我們能夠在谷歌的自動(dòng)駕駛系統(tǒng)中看見。
此前,谷歌曾推出一個(gè)AI系統(tǒng)“AutoML(自動(dòng)機(jī)器學(xué)習(xí))”,目的是通過訓(xùn)練AI讓其能夠自主創(chuàng)建其他AI系統(tǒng)。目前,AutoML已經(jīng)研發(fā)出了一個(gè)計(jì)算機(jī)視覺系統(tǒng),而事實(shí)證明,這套系統(tǒng)的性能遠(yuǎn)遠(yuǎn)領(lǐng)先于其他最先進(jìn)的模型智能系統(tǒng)。
圖:NASNet架構(gòu)由兩種類型的層組成:正常層(左側(cè))和縮小層(右側(cè))。
在此次實(shí)驗(yàn)中,研究人員讓AutoML所創(chuàng)建的子AI網(wǎng)絡(luò)NASNet完成對(duì)錄像中人物、汽車、交通信號(hào)燈、手提包和背包等物體的實(shí)時(shí)識(shí)別。
谷歌研究員稱,ImageNet圖像分類和COCO物體檢測(cè)數(shù)據(jù)集為“計(jì)算機(jī)視覺領(lǐng)域公認(rèn)的兩大深度學(xué)習(xí)數(shù)據(jù)集”?;谶@兩大數(shù)據(jù)集上進(jìn)行測(cè)試時(shí),NASNet的表現(xiàn)完勝所有其他視覺系統(tǒng)。
具體數(shù)據(jù)上,在預(yù)測(cè)ImageNet驗(yàn)證集上的圖像準(zhǔn)確率時(shí),NASNet為82.7%。其平均精確度(mAP)為43.1%,超過先前公布的最高紀(jì)錄1.2%,系統(tǒng)效率也提高了4%。此外,在計(jì)算水平上,精確度較低的NASNet也要比尺寸相近的最高配移動(dòng)平臺(tái)高出3.1%。
以往,我們訓(xùn)練AI算法的時(shí)候,海量數(shù)據(jù)的訓(xùn)練是必不可少的,而這也就相對(duì)花去了大量的精力和時(shí)間成本?,F(xiàn)在,谷歌研發(fā)出能夠自己研發(fā)算法的AI系統(tǒng),這對(duì)于AI發(fā)展的進(jìn)程可以說是一個(gè)具備里程碑意義的事件。
對(duì)于NASNet的應(yīng)用方向,谷歌研究人員表示,該算法可用于創(chuàng)造先進(jìn)的人工智能機(jī)器人,或幫助患者恢復(fù)視力。此外,還能幫助設(shè)計(jì)師優(yōu)化自動(dòng)駕駛技術(shù)。增強(qiáng)識(shí)別道路障礙物的能力可提升車輛的反應(yīng)速度,自動(dòng)駕駛汽車的安全性也相應(yīng)提高。
與此同時(shí),谷歌研究人員已經(jīng)NASNet開發(fā)了開源系統(tǒng),時(shí)期進(jìn)行圖像分類和探測(cè)物體。“我們希望基于這些模型,建立更大規(guī)模的機(jī)器學(xué)習(xí)系統(tǒng),以解決未來可能會(huì)出現(xiàn)的大量計(jì)算機(jī)視覺難題。”研究人員在博文中表示。
從當(dāng)前的進(jìn)程來看,NASNet在計(jì)算機(jī)視覺的前路還是相當(dāng)順利的,或許我們?cè)谖磥砟芸匆娝墓雀璧淖詣?dòng)駕駛系統(tǒng)中出現(xiàn)。此外,繼NASNet的成功之后,AutoML不知道什么時(shí)候能夠創(chuàng)建第二個(gè)子AI系統(tǒng),有點(diǎn)令人期待。
最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新
