一個月前,黃仁勛用一小顆自動駕駛SoC芯片完成了整個GTC CHINA 2019的“新品發(fā)布”。
發(fā)布會當天,這位“皮衣男子”趕在閉館前匆匆去了自動駕駛汽車展位,用半個小時逐一聆聽了幾家自動駕駛初創(chuàng)企業(yè)的思路。那晚的黃教主,向在場工程師們釋放出了一種近乎惺惺相惜的善意。
這種情愫很好理解——
要知道,在這屆GTC CHINA散場時,很多觀眾發(fā)出的感慨是:“十分硬核,不夠性感?!碑吘惯h道而來的大家直到演講后半程,才終于等到黃仁勛掏出一塊200 TOPS深度學習算力的自動駕駛新品“Orin”。取而代之的,是各種“空口無憑”的軟件技術升級。
面對一張張略顯失望的臉,老黃也很無奈:“我這么努力,你都看不到。就好像你老婆做了一整天家務,你卻說她什么都沒做?!?/P>
眾口難調(diào),但這確實是英偉達在接下來的業(yè)務發(fā)展中必須要面對的問題。與“看得見摸得著”的硬件發(fā)布不同,軟件迭代周期短、初期人力成本高、落地成果卻很難形成清晰的概念……這些都讓這家人工智能計算公司的技術發(fā)布開始與公眾預期逐漸拉開差距。
而就在車云菌險些被觀眾情緒帶跑節(jié)奏時,我們在英偉達的官方公眾號上發(fā)現(xiàn)了一系列由NVIDIA DRIVE Labs出品的視頻。視頻內(nèi)容從工程技術的視角,直觀展現(xiàn)出NVIDIA DRIVE AV軟件團隊如何完成一個個自動駕駛的日常任務,諸如從路徑感知到交叉路口處理等一系列挑戰(zhàn)。
那么,以自動駕駛為起點,車云菌嘗試回答:當英偉達不再拋出核彈,他們到底做了些什么?
“直播”自動駕駛
近年,英偉達正式加入戰(zhàn)局。公司內(nèi)部的軟件開發(fā)人員已經(jīng)遠遠超過了硬件工程師的數(shù)量。
他們首先打算解決自動駕駛汽車的三個問題:
?知道自己在哪里:不光要掌握車輛具體位置,還得知道是在主路的第幾條車道上,將定位精確到厘米級;
?知道自己周圍有什么:像人類大腦一樣判斷,前方卡車在減速、左后方有輛SUV駛來、右側(cè)人行道有小孩、下一個路口是綠燈且不能左轉(zhuǎn)……
?作出正確的駕駛決策:判斷從左側(cè)超車可以安通過路口,然后控制車輛完成相應動作。
如今這些工作,都被團隊一一擺上了臺面。與常規(guī)“秀肌肉”的視頻演示不同,英偉達實驗室將自動駕駛最困難的感知層面的工作拆解成一個個小任務,條分縷析地告訴大家:我們是怎么做到的,以及我們?yōu)槭裁茨茏龅健?BR> 任務的分解也很有意思。車隊順利攻克了包括建立感知路徑、通過傳感器融合實現(xiàn)環(huán)繞感知功能、打造像素級感知能力、借助特征追蹤確保安全性、自主識別停車位、障礙物分類、車道線識別及自動補償、測算車輛與障礙物距離、實現(xiàn)準確可靠的目標跟蹤、預測目標的未來移動軌跡、不借助地圖的情況下識別交叉路口。
“可靠性”三個字貫穿了所有挑戰(zhàn)過程。對此,NV Labs給出的說法是:“對于L2+級自動駕駛系統(tǒng)來說,例如NVIDIA DRIVE AP2X平臺,實時評估路徑感知可靠性意味著評估該系統(tǒng)是否知道何時進行安全的自主操作,以及何時應該將操作權移交給人類駕駛員?!?BR> 至于NVIDIA DRIVE AP2X。2019年初公司在GTC上剛剛發(fā)布了全新平臺,其基于NVIDIA Xavier系統(tǒng)級芯片運行,采用DriveWorks加速庫和實時操作系統(tǒng)DRIVE OS,其中包含DRIVE AutoPilot軟件、DRIVE AGX和DRIVE驗證工具,并融合了DRIVE AV自動駕駛軟件和DRIVE IX智能駕駛艙體驗。
得益于二季度發(fā)布的DRIVE AP2X Software 9.0上新增的大量自動駕駛功能加持,該平臺成為業(yè)界公認的現(xiàn)階段唯一完備的L2+自動駕駛解決方案。采埃孚、大陸、沃爾沃都心甘情愿為其買單。
于是,團隊幾個人在硅谷全長50英里的高速公路環(huán)路上完成了一次零干預的全自動駕駛。簡單來說,這是一次類似“現(xiàn)場直播”的測試,工程師們沒有機會像錄制視頻那樣,拿實際路徑感知信號與理想?yún)?shù)進行對比,還要隨時準備應對過程中有可能發(fā)生的意外情況。
譬如,一旦自動駕駛車輛只能接收到一種傳感器發(fā)射的感知信號,就無法保證最終決策置信度的實時及準確。比這更糟的還在后面——如果這唯一的路徑感知輸入失敗,自動駕駛功能要么大幅影響操作的舒適及平穩(wěn)度,要么干脆整個失靈。
換句話說,比完成這次“零干預”全自動駕駛?cè)蝿崭y的,是將整個過程原汁原味地呈現(xiàn)在各位看官眼前。
特殊任務
有別于一些硬拼技術實力的廠商,英偉達站在消費者視角給自己提出了幾項相對特別的挑戰(zhàn)——
?攝像頭硬傷:
對于當下居于主流的視覺感知路線而言,攝像頭始終無法抵抗極端環(huán)境因素帶來的硬傷,雨雪、強光等外界因素會在極大程度上干擾傳感器的可見度。這也成了主流廠商爭相攻堅的話題點。
英偉達開發(fā)出了一種深度神經(jīng)網(wǎng)絡(DNN)ClearSightNet,用以評估攝像頭的可見度進而確定遮擋、障礙以及可見度降低的根本原因。如此一來,在數(shù)據(jù)被下游模塊處理之前,感知系統(tǒng)就能在處理管道中盡早檢測到無效數(shù)據(jù),以備后患。
團隊透露,在開發(fā)ClearSightNet時,他們考慮到了幾個主要需求:
1.擁有從造成攝像頭失明的各種潛在原因中推理出根本原因的能力
2.輸出可操作的有意義信息
3.必須十分輕巧,能夠以最小的計算消耗在多個攝像頭上運行
感知數(shù)據(jù)最終抵達決策端時,車輛可以選擇不開啟自動駕駛功能,并提醒用戶清潔攝像頭鏡頭或擋風玻璃,或者使用ClearSightNet輸出以通知用戶攝像頭感知可信度計算結果。
從視頻結果可以看到,在攝像頭“失明”時,英偉達給出了能夠控制車輛最大程度保障安全的解決方案。
?保護車輛不受碰撞:
在大家還為車輛如何避免主動碰撞時,英偉達已經(jīng)開始考慮車輛“自身安全”問題了。
為此,公司設計了一款名為NVIDIA安全力場(SFF)的軟件。其作為一個獨立的監(jiān)督員,對車輛主要規(guī)劃和控制系統(tǒng)的決策進行實時復核,如果判定操控動作不安全,就會一票否決并糾正其決策路徑,并支持自主啟動及手動操作。
據(jù)介紹,SFF還有一些獨到之處。該技術的正向仿真和碰撞核查是通過GPU計算加速在三維時間空間內(nèi)進行的,這雖然對芯片算力提出了更高要求,但能夠覆蓋現(xiàn)實世界的各種復雜交通環(huán)境,包括缺少車道線標記、停車場場景以及在擁擠的交通環(huán)境中變道,這類無法嚴格劃分橫縱向操作的情景。
此外,考慮到現(xiàn)實世界的反應時間,以及其他自動駕駛車輛軟件組件和子系統(tǒng)可能帶來的缺陷和延遲,SFF還設定了安全程序預留空間。
唯一一點遺憾是,SFF實現(xiàn)“零碰撞”的前提,是所有道路參與者都要遵守該規(guī)則,并且感知和車輛控制都在預先設計的范圍內(nèi)運行。因此即便這臺BB8成功了,要想推廣及未來社會仍舊任重道遠。
?遠光燈控制:
當然,擺在自動駕駛落地眼前的最大現(xiàn)實因素,或許還是各國司機風格迥異的駕駛習慣??蓤F隊發(fā)現(xiàn),駕駛員們在“愛用遠光燈‘晃人’”這件事上意外地達成了一致。
于是出于安全因素考慮,英偉達要求AI必須要克服局限性,借助感知技術減少對向車燈造成的眩光影響。
團隊在視頻中簡要介紹了其背后的工作原理:
利用攝像頭圖像訓練出基于攝像頭的深度神經(jīng)網(wǎng)絡(DNN)AutoHighBeamNet,它可以為車輛的遠光燈系統(tǒng)自動生成控制輸出,從而提高夜間行駛的視野范圍和安全性。AutoHighBeamNet無需根據(jù)場景中其他光源的照度水平來生成遠光燈控制信號,而是能夠從更廣泛的駕駛場景中學習,實現(xiàn)真正自主可靠的遠光燈控制。
每幀AutoHighBeamNet檢測結果將會輸入到后處理子模塊中,該子模塊能夠執(zhí)行每幀和時間的后處理。隨后,AutoDrivingBeam模塊的輸出可以由汽車制造商進行定制,根據(jù)來自其他車輛模塊的輸入信號(例如,汽車本身的速度,環(huán)境照明條件等)調(diào)整適應其相應規(guī)則和政策?;谶@些定制,最終產(chǎn)生遠光燈控制信號。
遠光燈控制信號可以采用兩種不同的模式:自動遠光燈(AHB)模式,它提供二進制開/關控制;自適應驅(qū)動光束(ADB)模式,可精確控制各個遠光LED陣列以創(chuàng)建無眩光區(qū)域(GFZ)。
顯然,即便整天泡在實驗室里,英偉達的軟件團隊早已不再滿足于技術的實現(xiàn)效果,而開始向市場商業(yè)化發(fā)起進攻。相比一塊芯片的算力大小,這些市場化的考量或許才是這場戰(zhàn)爭輸贏的關鍵。
軟件尋找載體,技術實現(xiàn)“破圈”
而BB8完成的任務也足夠交上一張漂亮的成績單。基于NVIDIA DRIVE AGX平臺,自動駕駛車輛可以實時同步運行功能多樣的360度環(huán)繞感知,定位以及規(guī)劃和控制軟件。
工程師通過使用感知和定位所提供的輸入數(shù)據(jù),規(guī)劃和控制層讓自動駕駛汽車能夠獨立行駛。規(guī)劃軟件通過感知和定位的結果來確定汽車特定操作所需的物理軌跡。視頻里也清楚地展示出車輛在自主變換車道時的流暢動作:規(guī)劃軟件先利用環(huán)繞攝像頭和雷達感知來進行變道操作安全檢查,然后計算縱向速度曲線以及從當前車道的中心線移動到目標車道中心線所需的橫向路徑計劃,最后控制軟件發(fā)出加速/減速和向左/右轉(zhuǎn)向的命令以執(zhí)行車道變換規(guī)劃。
正是這些軟件組成部分,與硬件一起成就了系統(tǒng)的多樣性和安全冗余。而這一系列任務視頻,恰恰成了證明英偉達自動駕駛軟件技術落地的可靠載體。
在這之外,將無形化的軟件沉淀成可視化的視頻內(nèi)容,也能同時以更加輕松的方式觸達到消費者層面。當汽車方向盤交到機器手中,用戶會天然樹立起不安與不信任感。這種先期教育市場的思路,能夠消除部分不安心理,重建人們在自動駕駛空間內(nèi)的安全感。
直觀點說,NV Labs的“自動駕駛挑戰(zhàn)”系列,是英偉達軟件技術“破圈”的先導。
作為曾經(jīng)游戲市場的霸主,這家芯片巨頭必然深諳消費者之道。相比一般車廠對于車輛智能功能“洗腦式”的宣傳,此番英偉達率先拿出一部分干貨試探市場,占領用戶心智。
這種策略直接體現(xiàn)在公司財報數(shù)據(jù)上,2019年三季度英偉達汽車業(yè)務迎來高光時刻。公開數(shù)據(jù)顯示,彼時,該領域營收攀升至創(chuàng)紀錄的2.09億美元,同比增長30%。相比之下,英特爾第二季度的自動駕駛營收為2.01億美元,同比增加16%。
對比來看,英特爾一季度該項營收2.09億美元,英偉達為1.66億美元。這意味著,英偉達環(huán)比上漲,英特爾環(huán)比下跌。
黃仁勛自己對于“軟件公司”的藍圖也相當清晰:“這只是英偉達目前定位中的一部分?!?BR> 回顧既往十年,英偉達已經(jīng)進行了兩次業(yè)務轉(zhuǎn)變。第一次是從GPU圖像芯片公司轉(zhuǎn)變?yōu)椴⑿杏嬎愎?,典型的應用場景是人工智能。后來,公司又決定在少數(shù)特定場景中提供最完善的解決方案,覆蓋游戲、專業(yè)渲染,超級計算、自動駕駛幾大領域。
隨著英偉達業(yè)務領域越來越廣,客戶“解放雙手”的自由度就越高。這恐怕才是“The more you buy ,the more you save”的真實含義。
(轉(zhuǎn)載)