材料圖:自動駕馭測驗。記者 富田 攝
記者26日從我國航天科工二院二部獲悉,該部近日成功研制“根據深度學習的智能輔佐駕馭體系”,憑仗方寸幾厘米巨細的嵌入式芯片,可以實現對環境的實時精確智能感知,在方針辨認精確率方面到達世界先進水平。
公開數據顯現,智能駕馭方針辨認精確率最高為90.55%,但處理一幅圖片需求4秒;二部智能輔佐駕馭體系的算法精確率為90.05%,處理一幅圖片卻只需求0.03秒。
目前,二部團隊已突破一系列核心技術,包含多方針檢測與辨認、可行進區域切割、車道線檢測等,并在深度神經網絡緊縮、深度神經網絡編譯東西鏈和智能加快引擎等方面形成了技術壁壘。該團隊負責人郭睿表明,場景語義切割是讓計算機理解它“看”到的圖畫代表什么,而深度神經網絡可以通過學習自行提取高層語義特征,掃除逆光、向光、暗影、缺損等要素對方針檢測的攪擾。
郭睿表明,該團隊的作業重心已轉向“根據深度學習的智能輔佐駕馭體系”工程化與產品化作業,并與相關汽車廠聯合展開功用測驗與量產試制,估計將于今年年底完結小規模量產。
此外,該團隊正在研制交融可見光、紅外與毫米波雷達的新式智能傳感器,以應對軍用車輛駕馭環境中光線復雜多變、夜間行軍制止照明等特別場景,滿足軍用車輛全地利、全天候輔佐駕馭的需求。該團隊在智能感知、智能決策等方面積累的先進技術,正逐漸在武器體系的方針檢測與辨認、智能指控等范疇發揮作用。