【第一參賽人/留學人員】田宜彬
【留學國家】美國
【技術領域】新一代信息技術
【參賽屆次】第5屆
【所獲獎項】入圍
【項目簡介】
項目是邊緣計算智能超薄型無透鏡多模式視覺系統,其核心是:(1)用平板型微光學元件取代傳統光學鏡頭,通過先進的圖像處理和機器學習算法實現超薄型多模式成像;(2)成像硬件子系統和基于人工智能和計算機視覺的應用軟件子系統高效地實現到低成本片上系統(SoC) 中,實現低成本邊緣計算并提供系統自學習功能。通過邊緣計算實現智能視覺嵌入式平臺,達到高性價比,并且方便用戶進行二次開發。這樣的智能視覺系統可廣泛用于智能家居、娛樂游戲、教育醫療、機器人、智能制造和智能安防等需要視覺感知的領域。 傳統的光學成像使用光學鏡頭和圖像傳感器。圖像傳感器使用的CMOS半導體技術在近20年有根本性的突破,實現了高分辨率、高動態范圍和高度集成,可以做得小而薄。但是目前使用的光學鏡頭仍然基于傳統的折射光學,即使是塑料鏡頭技術的發展帶來的小型化還是非常有限,比如大部分移動設備(比如手機)里的小型攝像頭仍然使用3—4個鏡片的組合實現一個鏡頭,相對與圖像傳感器體積龐大,消耗大量的材料,并且組裝非常復雜。本項目采用平板型微光學元件取代傳統鏡頭,利用衍射光學和最新圖像處理和機器學習算法可以實現超薄型的多模式成像攝像頭。這種平板型微光學元件可以利用半導體加工工藝,厚度僅為1mm左右, 使用的材料大大減少。這樣的微光學元件非常容易實現總高度為2-3mm的多模式成像攝像頭。 多模式成像同時獲取目標物體的多種信息,比如RGB顏色或多光譜、紅外波段反射情況和深度等。不同成像通道得到的信息互補,可以提高各種視覺識別和分析的可靠性。同時,針對多模式圖像的特性,采用混合式機器學習,將傳統機器學習方法和最前沿的深度神經網絡相結合,優勢互補,既能提高視覺識別和分析算法的精度,又能減少運算量。同時提供系統提供在線自學習功能。
【展開】
【收起】