得益于布里斯托爾大學和曼徹斯特大學之間的習的相機研究合作,智能相機可以邁出更近一步,開發可學他們開發了可以學習和理解他們所看到的習的相機東西的相機。
機器人專家和人工智能(AI)研究人員知道當前系統如何感知和處理世界存在問題。開發可學目前,習的相機他們仍在將傳感器(例如用于記錄圖像的開發可學數碼相機)與設計用于加速視頻游戲圖形的圖形處理單元(GPU)等計算設備相結合。
這意味著AI系統只有在傳感器和處理器之間記錄并傳輸可視信息后才能感知世界。習的相機但是開發可學可以看到的許多事情通常與手頭的任務無關,例如自動駕駛汽車經過時路旁樹上的習的相機葉子的細節。但是開發可學,此刻所有這些信息都被傳感器細致地捕獲并發送給不相關的習的相機數據,從而阻塞了系統,開發可學消耗了功率并占用了處理時間。為了使智能機器具有高效的視覺效果,必須采用其他方法。
布里斯托爾和曼徹斯特合作社的兩篇論文展示了如何將感測和學習相結合以創建用于AI系統的新穎相機。
布里斯托大學的機器人學,計算機視覺和移動系統教授,首席研究員(PI)的WalterioMayol-Cuevas說道:“要創建高效的感知系統,我們需要超越目前為止的方法來超越界限。
“我們可以從自然系統處理視覺世界的方式中汲取靈感-我們無法感知所有事物-我們的眼睛和我們的大腦共同協作以了解世界,在某些情況下,眼睛本身進行處理以幫助大腦減少不相關。”
青蛙的眼睛具有直接在感測圖像的點上發現類蠅狀物的檢測器的方式便證明了這一點。
這些論文由布里斯托爾的勞里·博斯博士(LaurieBose博士)和柳亞南·劉安南(YananLiu)領導,對這一目標進行了兩處改進。通過實現卷積神經網絡(CNN),這是一種AI算法的形式,可直接在圖像平面上實現視覺理解。團隊開發的CNN可以以每秒數千次的速度對幀進行分類,而無需記錄這些圖像或將其發送到處理管道。研究人員考慮了對手寫數字,手勢甚至浮游生物進行分類的演示。