CVPR 2016正式開幕,一大波黑科技正在奔涌而來(lái)!

韓璐 9年前 (2016-06-29)

近日,2016計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議(CVPR)于美國(guó)正式拉開序幕,內(nèi)容涉及機(jī)器人、無(wú)人機(jī)、VR、AR、自動(dòng)駕駛等眾多領(lǐng)域。

CVPR2016正式開幕,一大波黑科技正在奔涌而來(lái)!

近日,2016計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議(CVPR)于美國(guó)正式拉開序幕。

CVPR是世界頂級(jí)計(jì)算機(jī)會(huì)議之一(另外兩個(gè)是ICCV和ECCV),內(nèi)容涉及機(jī)器人、無(wú)人機(jī)、VR、AR、自動(dòng)駕駛、生物醫(yī)療、工業(yè)自動(dòng)化和檢測(cè)等眾多領(lǐng)域。值得關(guān)注的是,每年的CVPR上都會(huì)涌現(xiàn)出各種前沿科技,吸引了不少圈內(nèi)外的眼球,看看今年的CVPR都將涌現(xiàn)出哪些黑科技。

機(jī)器人預(yù)測(cè)人類行為

這項(xiàng)在視覺預(yù)測(cè)領(lǐng)域取得的突破性進(jìn)展由MIT 的計(jì)算機(jī)科學(xué)及人工智能實(shí)驗(yàn)室(CSAIL)發(fā)表。運(yùn)用CSAIL團(tuán)隊(duì)自創(chuàng)的“視覺表征”算法,在進(jìn)行了600個(gè)小時(shí)無(wú)標(biāo)簽視頻訓(xùn)練后,該系統(tǒng)對(duì)新視頻中人們下一步動(dòng)作的預(yù)測(cè)精確度高達(dá)43%,除此之外,還可以預(yù)測(cè)5秒后的世界。

詳情參看鎂客網(wǎng)文章《MIT人工智能實(shí)驗(yàn)室發(fā)力!讓機(jī)器人告訴你5秒后的世界》

基于深度學(xué)習(xí)的手勢(shì)識(shí)別:DeepHand

DeepHand(深度手勢(shì)識(shí)別)是美國(guó)普林斯頓大學(xué)C Design 實(shí)驗(yàn)室的研究成果。該系統(tǒng)使用了深度學(xué)習(xí)“卷積神經(jīng)網(wǎng)絡(luò)”,通過(guò)判斷手勢(shì)動(dòng)作的數(shù)字位置(把手指的每一個(gè)區(qū)域都定義為數(shù)字),DeepHand可以推算出其下一個(gè)手勢(shì)的數(shù)字位置,進(jìn)而預(yù)測(cè)手勢(shì)變化的可能性。通過(guò)定位鄰近區(qū)域,DeepHand還能夠計(jì)算,顯示攝像頭中無(wú)法直接捕抓到的手勢(shì)運(yùn)動(dòng)。

詳情參看鎂客網(wǎng)文章《無(wú)需VR外設(shè),普林斯頓學(xué)霸用DeepHand解放你的雙手》

微軟全息“穿越”技術(shù):HoloPortation

HoloPortation(全息傳送)可以將活靈活現(xiàn)的人物全息圖像投射到另一個(gè)房間,并與房間的人進(jìn)行實(shí)時(shí)互動(dòng),同時(shí)解決時(shí)間與空間的距離問(wèn)題。視頻中出現(xiàn)的就是Shahram Izadi以及他女兒(的全息圖像)。

人工智能成“配音員”

麻省理工學(xué)院開發(fā)出一個(gè)能夠精準(zhǔn)預(yù)測(cè)聲音的算法。當(dāng)研究員將一個(gè)擊打物品的短視頻交給算法,算法就可以生成一個(gè)打擊的聲音,真實(shí)到可以糊弄住觀看視頻的人類。

百萬(wàn)人臉測(cè)試:人臉識(shí)別靠譜嗎?

華盛頓大學(xué)的UW團(tuán)隊(duì)用69萬(wàn)人的照片創(chuàng)建了一個(gè)百萬(wàn)圖片的數(shù)據(jù)集,分別讓幾個(gè)團(tuán)隊(duì)在此基礎(chǔ)上對(duì)自家人臉識(shí)別系統(tǒng)的匹配準(zhǔn)確率進(jìn)行測(cè)試。

測(cè)試結(jié)果顯示谷歌的FaceNet算法識(shí)別準(zhǔn)確率最優(yōu),在百萬(wàn)規(guī)模數(shù)據(jù)下達(dá)到75%的準(zhǔn)確率,另一個(gè)與之接近的團(tuán)隊(duì)是俄羅斯的N-TechLab,達(dá)到73%的準(zhǔn)確率。相比之下,其他算法在小規(guī)模數(shù)據(jù)集能達(dá)到95%以上,但是百萬(wàn)規(guī)模下的識(shí)別準(zhǔn)確率下降到33%左右。

詳情參看鎂客網(wǎng)文章《華盛頓大學(xué)最新研究:人臉識(shí)別靠譜嗎?》

深度學(xué)習(xí)識(shí)別YouTube的視頻

迪尼斯研究院和復(fù)旦大學(xué)在CVPR 26日的大會(huì)上展示了如何用深度學(xué)習(xí)自動(dòng)識(shí)別剛剛上傳到Y(jié)ouTube視頻里正在發(fā)生什么大事以及新鮮事。來(lái)幫助開發(fā)之前視頻上傳后丟失的大部分有潛在價(jià)值的信息。

斯坦福大學(xué)打造“懂禮貌”機(jī)器人Jackrabbot

斯坦福大學(xué)的研究人員費(fèi)盡了心思制造了一個(gè)叫Jackrabbot的原型機(jī)器人,希望它能夠自行在街道上行走,又不會(huì)與其他行人碰撞,或者有人迎面而來(lái)時(shí)不知往左往右。研究人員表示,未來(lái)這些走路的經(jīng)驗(yàn)將分享給其他的機(jī)器人。

最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(zhǎng)按識(shí)別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新

分享到