《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 新品快遞 > 自動駕駛汽車的處理能力

自動駕駛汽車的處理能力

2018-09-05

  在未來20 - 30年中,自動駕駛汽車(AV)將改變我們的駕駛習慣、運輸行業并更廣泛地影響社會。 我們不僅能夠將汽車召喚到我們的家門口并在使用后將其送走,自動駕駛汽車還將挑戰個人擁有汽車的想法,并對環境和擁堵產生積極影響。市場調研公司ABI Research預測:到2030年,道路上四分之一的汽車將會是自動駕駛汽車。

  行業專家已經為自動駕駛的發展定義了五個級別。 每個級別分別描述了汽車從駕駛員那里接管各項任務和責任的程度,以及汽車和駕駛員之間如何互動。 諸如自適應巡航控制這類功能是先進駕駛員輔助系統(ADAS)的示例,并且可以被認為是第1級的能力。 目前,市場上出現的一些新車正在實現第2級功能;但作為一個行業,我們僅僅是才觸及ADAS系統的表面,更不用說完全自主駕駛了。

1.png

  示意圖:自動駕駛的五個級別

  自動駕駛的級別

  當我們去逐級實現自動駕駛的不同級別時,處理能力對于實現完全自動化這一愿景至關重要,此時駕駛員可以“放開方向盤、移開目光和放飛心靈”。 在這個級別上,車內的人只是乘客;同時因為沒有司機,所以也不需要方向盤。 然而,在我們實現該目標之前,我們應該首先了解從非自動駕駛到完全自動駕駛之間的各種級別。

  ADAS/AV有三個主要元素:傳感、計算和執行。

  用感知去捕捉車輛周圍環境的現狀。 這是靠使用一組傳感器來完成的:雷達(長距離和中距離),激光雷達(長距離),攝像頭(短距離/中距離),以及紅外線和超聲波。 這些“感官”中的每一種都能捕捉到它所“看到”的周圍環境的變體。 它在此視圖中定位感興趣的和重要的對象,例如汽車、行人、道路標識、動物和道路拐彎。

2.jpg

  示意圖:汽車從激光雷達、雷達和攝像頭中看到的視圖

  計算階段是決策階段。 在這個階段中,來自這些不同視圖的信息被拼合在一起,以更好地理解汽車“看到”的內容。 例如,場景中到底發生了什么? 移動物體在哪里? 預計的動作是什么?以及汽車應該采取哪些修正措施? 是否需要制動和/或是否需要轉入另一條車道以確保安全?

  執行即最后階段是汽車應用這一決策并采取行動,汽車可能會取代駕駛員。 它可能是制動、加速或轉向更安全的路徑;這可能是因為駕駛員沒有注意到警告,及時采取行動并且即將發生碰撞,或者它可能是完全自主系統的標準操作。

  第2級實際上是ADAS路徑的起點,其中可能在安全解決方案包中制定多種單獨的功能,例如自動緊急制動、車道偏離警告或輔助保持在車道中行駛。

  第3級是諸如2018款奧迪A8等目前已量產汽車的最前沿,這意味著駕駛員可以“移開目光”一段時間,但必須能夠在出現問題時立即接管。

  第4級和第5級兩者都可提供基本上是完全的自動駕駛。 它們之間的區別在于:第4級駕駛將限于諸如主要高速公路和智慧城市這樣的具有地理緩沖的區域,因為它們會重度依靠路邊的基礎設施來維持其所在位置的毫米級精度畫面。

  第5級車輛將可在任何地點實現自動駕駛。在這個級別,汽車甚至可能沒有方向盤,并且座椅可以不是都面向前方。

  自動駕駛所需的處理能力

  在自動駕駛的每個級別上,應對所有數據所需的處理能力隨級別的提升而迅速增加。根據經驗,可以預計從一個級別到下一個級別的數據處理量將增加10倍。 對于完全自動駕駛的第4級和第5級,我們將看到數十萬億次浮點運算的處理量。

  從傳感器的角度來看,下表為您提供了其需求量的一個指引。 第4級和第5級將需要多達八個攝像頭,盡管人們甚至已經提出了需要更高的攝像頭數量。 圖像捕獲裝置的分辨率為2百萬像素,幀速為30-60幀/秒,所以要實時處理所有這些信息是一項巨大的處理任務。對于車上的雷達,其數量可能需要多達10臺以上,這是因為需要在22GHz和77GHz之間搭配使用短距離、中距離和長距離(100m 以上)的雷達。即使在第2級,仍然需要對從攝像頭和雷達捕獲的數據進行大量處理。

3.png

  示意圖:自動駕駛和應用的不同級別

  對于處理能力,我們將關注攝像頭需要做什么,這是因為它與前置雷達一起是支撐諸如在特斯拉中使用的自動駕駛儀的主要傳感器。

  攝像頭系統通常是廣角單攝或立體雙攝,在車上呈前向或以環繞視場(360°)配置。 與雷達和激光雷達不同,攝像頭感應設備取決于處理輸入的軟件的功能;攝像頭的分辨率很重要,但沒有達到你想象的程度。

  為簡化處理過程,我們使用了一種被稱為卷積神經網絡(CNN)的重要算法。CNN是從攝像頭源中提取和分辨信息的一種高度專業化和高效的方法。在我們的汽車案例中,它從攝像頭獲取輸入并識別車道標記、障礙物和動物等。CNN不僅能夠完成雷達和激光雷達所能做的所有事情,而且能夠在更多方面發揮作用,例如閱讀交通標識、檢測交通燈信號和道路的組成等。事實上,某些一級供應商(Tier 1)和汽車原始設備制造商(OEM)正在研究通過攝像頭和雷達組合來降低成本。

  CNN將機器學習的元素帶入汽車。神經網絡的結構都普遍基于我們自己大腦的連線結構。人們首先必須選擇想要實現的網絡類型,以及其按照層數來決定的深度。 每層實際上是前一層和后一層之間的一組互連節點。為了實現神經網絡,大量的智能訓練數據將被應用于它;這是一種高度計算密集型的操作,大多數情況下是離線進行的。對于諸如一種道路情況的圖像和視頻這樣的每一次通過,網絡通過調整各層內的相關因素來進行學習。當訓練數據通過它時,這些相關因素可以從數百萬次數據分析中得到提升。 一旦完成訓練,就可以將網絡和相關因素加載到諸如CPU或GPU計算或特定CNN加速器之類的結構中。

  這種類型的算法和網絡的優點之一是它可以用更新的或更好的相關因素去升級,因此它總是在不斷改進。經過廣泛的比較,我們發現在GPU計算模式上運行的CNN比在當前高端嵌入式多核CPU上快20倍且功耗也低得多。同樣,伴隨著CNN向硬件加速方向發展,我們也已看到性能還可進一步提高20倍,而且在功耗上也可進一步改善。

  展望未來

  隨著我們走向采用無人駕駛汽車的未來,所需的計算能力將隨著傳感器的數量、幀速和分辨率而擴展。 從性能和功率兩個角度來看,卷積神經網絡正在成為解釋圖像數據的最有效方式。 這將引領在網絡的邊緣放置更多處理資源的趨勢,例如在汽車案例中,計算資源是在汽車自身內部,而不是將該處理能力卸載到云并且依賴于始終在線的蜂窩連接。 對于那些提供處理能力、算法和訓練數據的人來說,自動駕駛潛藏著巨大的機會并將成為現實。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 成人乱码一区二区三区 | 久久综合噜噜激激的五月天 | 日韩免费不卡视频 | 黄色天堂网| 欧美在线视频一区二区 | 国产成版人视频网站免费下 | 99精品欧美 | 国产精品久久久免费视频 | 收集最新中文国产中文字幕 | 国产精品原创永久在线观看 | 国产精品一区视频 | 日日干综合| 大香伊人中文字幕精品 | 日韩欧美国产高清 | 免费看avapp 免费久久精品视频 | 99精品视频在线在线视频观看 | 国产一级视频在线观看网站 | 欧美专区一区二区三区 | 国产免费久久精品99re丫y | 视频一区二区三区在线 | 日韩a视频在线观看 | 亚洲精品国产字幕久久不卡 | 久久98 | 久久精品国产免费一区 | 久久精品国语 | 99久久精品自在自看国产 | 国产伦久视频免费观看视频 | 五月月色开心婷婷久久合 | 国产在线一区二区视频 | 国产成人h综合亚洲欧美在线 | 亚洲成人国产精品 | 欧美久久精品 | 精品综合一区二区三区 | 欧美插入视频 | 久久免费公开视频 | 国产精品亚洲片在线牛牛影视 | 亚洲热热久久九九精品 | 国产美女久久久久 | 久久久久久国产视频 | 免费播放aa在线视频成人 | 欧美激情精品久久久久久不卡 |