自打 2015 年特斯拉開放 Autopilot 軟件功能以來,大貨車一直是 Autopilot 的噩夢。
看看這些事故:
2016 年 5 月,Model S 車主 Joshua Brown 在 Autopilot 開啟狀態(tài)下,與一輛橫穿馬路的大貨車相撞,Joshua Brown 在事故中死亡。
2019 年 3 月,一輛 Model 3 在美國佛羅里達(dá)州開啟 Autopilot 時撞上了一臺白色拖掛卡車,駕駛員不幸身亡。
今年 6 月初,在臺灣嘉義縣的中山高速上,一輛 Model 3 也在 Autopilot 開啟狀態(tài)下撞向了一輛大貨車。當(dāng)時大貨車并不是在行駛中,而是側(cè)翻在路面。
6 月 24 日下午,在深圳南坪一段道路上,一輛開啟了 Autopilot 功能的 Model 3,與一輛并線的大貨車發(fā)生碰撞。
事故發(fā)生時,大貨車正從 Model 3 車輛右前方并線進(jìn)入本車道,Autopilot 沒有減速,Model 3 車主事后反饋:在前車并線時,Autopilot 反倒加速撞向了大貨車。
事故判定結(jié)果:大貨車全責(zé)。
在 6 月底的事故發(fā)生后,當(dāng)事的特斯拉 Model 3 車主劉先生在多個渠道提出了對特斯拉 Autopilot 的質(zhì)疑。
這也是今天不少特斯拉車主和準(zhǔn)車主們想弄清楚的問題——Autopilot 在這次或者這類交通事故中究竟是否存在問題?
1.事故始末
讓我們簡單還原一下 6 月下旬的這次事故:
24 日下午三時左右,天氣晴朗,車主劉先生駕駛著 Model 3 上了深圳南坪快速路。
和往常一樣,他開啟了特斯拉 Autopilot。在 ACC(自適應(yīng)巡航)模式下,Model 3 跟在一輛黃色大貨車后行駛。
這是一條他平時上下班常走的路線,以往使用 Autopilot 時,系統(tǒng)基本上可以順利完成自動跟車等駕駛?cè)蝿?wù),所以他也習(xí)慣了將一只手搭在方向盤上。
不過這次,Autopilot 給了他一場驚嚇。
就在行駛到一段虛線路段時,Model 3 右前方的車道上大貨車開啟轉(zhuǎn)向燈,并向 Model 3 車道突然并線。
根據(jù) Model 3 車身攝像頭拍攝的視頻畫面顯示,在大貨車并線向本車道行駛時,特斯拉依然向前行駛。
幾秒后,Model 3 撞上了大貨車。
事故責(zé)任很快厘清。
從現(xiàn)場照片看,大貨車變道時沒有避讓相鄰車道的車輛,碰撞事故發(fā)生時大貨車車身壓在了道路虛線上。保險公司認(rèn)定為大貨車全責(zé)。
雖然事故是由大貨車造成的,但當(dāng)事的 Model 3 車主的質(zhì)疑是:
為什么在大貨車并線進(jìn)入本車道時,Model 3 沒有采取減速或制動的避讓措施?
Autopilot 是不是根本沒有識別到渣土車?
在快要撞上大貨車時,為什么 Model 3 還要加速向前沖上去,導(dǎo)致車主沒有充足的時間順利接管車輛?
2.核心爭議:Autopilot 是否「失職」?
在最近的一次溝通中,特斯拉官方對這場事故做了結(jié)論:
特斯拉華南區(qū)總經(jīng)理向當(dāng)事 Model 3 車主表示,特斯拉的產(chǎn)品沒有問題。
至于 FSD 為什么會撞上貨車,官方解釋是:「因為路況復(fù)雜,駕駛員手沒放在方向盤上,沒有及時接管。當(dāng)時所有自動駕駛硬件均正常工作,后臺數(shù)據(jù)沒有異常?!?/p>
「駕駛員的手沒有放在方向盤上」,這點(diǎn)是特斯拉從后臺調(diào)取數(shù)據(jù)后做出的判斷。
而車主告訴汽車之心,他的手一直握著方向盤,只是不會一直對方向盤施加壓力。
有自動駕駛領(lǐng)域的業(yè)內(nèi)人士認(rèn)為,「感應(yīng)方向盤太容易被鉆空子,屬于明顯的漏洞。自動駕駛還是得依靠系統(tǒng)功能安全性,而不是限制駕駛員。」
截止到發(fā)稿前,此次交通事故的車主仍在就 Autopilot 是否存在問題與特斯拉溝通。
實(shí)際上,從視頻中的事故情況看,如果換成人類駕駛員駕駛,只要看到了大貨車進(jìn)行并線,幾乎一定會做出減速或者制動的反應(yīng)。
但 Autopilot 顯然沒有做到這一點(diǎn)。
那么,特斯拉 Autopilot 是否真的存在問題?
3.Autopilot 對加塞行為的判斷邏輯
首先在感知層面,特斯拉是否識別到了大貨車?
廣汽研究院智能駕駛技術(shù)部部長郭繼舜分享了他此前對特斯拉進(jìn)行測試的一些經(jīng)驗。
他認(rèn)為,特斯拉 Autopilot 識別加塞的邏輯,是需要前車車身或車尾的二分之一進(jìn)入本車道時,系統(tǒng)才會認(rèn)為是這是一次加塞。
這樣進(jìn)行加塞意圖判斷的邏輯,是為了避免誤觸發(fā),因為相鄰車道的車輛可能僅僅是部分貼近車道線行駛,但并沒有真正做出加塞動作。
因此,特斯拉會針對相鄰車道的加塞意圖設(shè)定一個具體的閾值。
車身或車尾的二分之一,也是業(yè)界在加塞場景中其中一個采用較多的閾值。
而且 Autopilot 在功能開發(fā)上做了更多的工作:
如果特斯拉檢測到相鄰車輛的三分之一進(jìn)入本車道,但還沒有達(dá)到加塞的閾值,這時特斯拉在本車道內(nèi)有時不會減速,而是向另外一側(cè)進(jìn)行小幅避讓。
根據(jù)事故當(dāng)時的視頻畫面,在這次交通事故中,大貨車大約有六分之一進(jìn)入了特斯拉的車道,這么近的距離還要進(jìn)入加塞,本身就是大貨車的全責(zé)。
至于特斯拉是否識別到了大貨車,郭繼舜認(rèn)為,在此次交通事故中,特斯拉側(cè)面主要依靠攝像頭來進(jìn)行識別,而攝像頭只能夠看到大貨車的局部特征。
也就是說,特斯拉的攝像頭很可能無法判斷大貨車是不是一輛車。
退一步說,即使特斯拉通過局部特征判斷那是一輛大貨車,也無法做出對方將進(jìn)行加塞的判斷。
因為大貨車加塞進(jìn)入特斯拉車道的比例沒有達(dá)到 Autopilot 設(shè)定的加塞行為判斷的閾值。
第二個問題是,為什么 Model 3 會突然加速撞車?
目前可以明確的是,根據(jù)特斯拉的后臺數(shù)據(jù)記錄,當(dāng)事車主在整個事故過程中沒有踩下加速踏板,也就是說,加速屬于特斯拉 Autopilot 控制下的行為。
當(dāng)時,特斯拉處于 ACC 自適應(yīng)巡航模式下,Autopilot 會追蹤前方車輛進(jìn)行自動跟車。
因而,發(fā)生此次撞車事故有兩種可能:
一是特斯拉無法識別正在并線的大貨車,在發(fā)現(xiàn)前方 ACC 的目標(biāo)駛離后,車輛采取了加速跟車,從而發(fā)生撞車事故。
二是,特斯拉識別到了大貨車,但 Autopilot 認(rèn)為沒有加塞的可能性,于是繼續(xù)自動跟車,導(dǎo)致撞車事故。
從算法邏輯上講,特斯拉 Aupilot 并沒有做錯什么。
不過,也有業(yè)內(nèi)人士持不同觀點(diǎn)。
一位國內(nèi)自動駕駛公司技術(shù)工程師解釋:
「特斯拉的超聲波雷達(dá)可以檢測 8 到 12 米之間,基本上可以覆蓋一個半車道。
在這次事故中,大貨車的車輪駛進(jìn)車道時,超聲波肯定是能夠檢測到,但由于大貨車底盤高,車輪經(jīng)過時系統(tǒng)會認(rèn)為有障礙物。車輪通過后,又會認(rèn)為沒有障礙物,系統(tǒng)可能過濾掉了超聲波雷達(dá)的檢測結(jié)果。
Autopilot 的算法策略是重攝像頭輕毫米波雷達(dá),感知融合有可能沒有開發(fā)得特別完善。
最終,在算法層面,由于傳感器融合檢測缺陷,特斯拉肯定沒有識別到大貨車?!?/p>
4.屢撞大貨車的背后
特斯拉已經(jīng)不止一次撞上大貨車。
今年 6 月,一輛 Model 3 在臺灣嘉義縣中山高速上撞上一輛大貨車。事發(fā)時,內(nèi)側(cè)車道上有一輛貨車發(fā)生側(cè)翻,后方駛來的 Model 3 直接撞上貨車。
在這次事故中,Model 3 開啟了 Autopilot 功能,時速約為 110 公里。事后車主回憶,當(dāng)時并未注意到前方車輛側(cè)翻,而是在車輛撞擊前 2 秒才進(jìn)行了緊急制動。
2019 年 3 月,一輛 Model 3 在美國佛羅里達(dá)州開啟 Autopilot 時撞上了一臺白色拖掛卡車,駕駛員不幸身亡。
2016 年 5 月,同樣在佛羅里達(dá),一輛 Model S 在 Autopilot 模式下撞上一臺白色大貨車。
當(dāng)時,白色大貨車正在調(diào)頭轉(zhuǎn)彎,特斯拉與大貨車側(cè)面發(fā)生碰撞,并從卡車底部鉆過,整個車頂被徹底「削掉」,駕駛員 Joshua Brown 身亡。
這一系列事故背后,Autopilot 怎么了?不能識別大貨車嗎?
Autopilot 的傳感器主要由 8 個攝像頭、12 個超聲波傳感器和 1 個增強(qiáng)版毫米波雷達(dá)組成。
對于這套方案,法雷奧中國 CTO 顧劍民認(rèn)為,「對攝像頭來說,需要用機(jī)器學(xué)習(xí)來訓(xùn)練識別物體。但靜態(tài)物體類別多,形態(tài)也千差萬別,沒經(jīng)過樣本訓(xùn)練便識別不了?!?/p>
這里的邏輯是,自動駕駛公司在開發(fā)視覺感知時,基本上采用深度學(xué)習(xí)技術(shù),這項技術(shù)具備遷移和泛化特點(diǎn)。
比如,讓系統(tǒng)看到一匹白色的馬,下次再看到一匹黑色的馬,系統(tǒng)仍然可以判斷出來那是一匹馬。但如果出現(xiàn)一只豬,系統(tǒng)就無法識別,因為沒有學(xué)習(xí)過。
車輛的視覺檢測與之類似。
以發(fā)生在臺灣的交通事故為例,翻倒的大貨車場景,是特斯拉從來沒有見過的,根本檢測不出來是一輛車,系統(tǒng)可能把大貨車當(dāng)成了天空。
所有的視覺檢測任務(wù),首先要有完整的場景需求,然后根據(jù)場景需求進(jìn)行算法設(shè)計,而算法都是有局限性和邊界的。
這便是特斯拉 Autopilot 和許多自動駕駛視覺檢測方案的天然缺陷。
這種缺陷體現(xiàn)到大貨車的視覺檢測上,便暴露得更加明顯。
如今,大貨車視覺檢測是全世界公認(rèn)的難題,尤其是近距離大貨車視覺檢測。
這是因為,大車的異型車輛種類非常多,小車無非是換下顏色,或者車體結(jié)構(gòu)存在如 SUV 和小轎車等的區(qū)別。
但大車種類豐富,主要有拖掛車、平板車、水泥罐車等,再加上這些大貨車在實(shí)際駕駛場景中出現(xiàn)的頻率相比小車來說要低很多,想要收集數(shù)據(jù)并進(jìn)行訓(xùn)練相對困難。
這意味著,如果把此次深圳南坪交通事故中的場景交給其他自動駕駛公司去應(yīng)對,很可能也無法成功避免交通事故。
即使在這個場景中應(yīng)對成功,但同樣的場景下,把大貨車換成一輛集裝箱車輛,近距離加塞時仍然有可能發(fā)生碰撞事故。
5.改進(jìn)之路
在一些消費(fèi)者看來,加塞行為是道路上常見的真實(shí)場景,尤其是在城市里面,加塞場景更需要被處理好。否則,只能說明自動駕駛還不完善。
而大家更關(guān)心的是,如果車企的自動駕駛系統(tǒng)確實(shí)無法處理所有的場景,便應(yīng)該明確告知消費(fèi)者它的自動駕駛功能的局限性。
Model 3 車主劉先生回憶,在買這輛車時,「特斯拉的工作人員跟我說,花 5.6 萬就可以(讓車輛)具備完全自動駕駛能力……因為相信它,我才愿意花 5.6 萬。風(fēng)險方面,他一點(diǎn)也沒告訴我,沒告訴我不能識別雪糕筒,也沒告訴我不能識別大貨車。」
正是因為 Autopilot 提供駕駛便利,車主會信任它。但又因為系統(tǒng)不成熟,在遇到Autopilot 無法解決的情況時,又存在車主無法及時接管車輛的可能性。
這就到了考驗人性和駕駛員經(jīng)驗的時刻,人類駕駛員既不能完全信任 Autopilot,又要利用它來完成某些路段的自動駕駛?cè)蝿?wù)。
那么,如何完善自動駕駛功能?
有業(yè)內(nèi)人士建議,可以從傳感器方面,嘗試增加角雷達(dá)來進(jìn)行提高感知能力等。
此外,在自動駕駛尚未完全成熟之前,自動駕駛測試進(jìn)行得多么充分,都無法窮盡現(xiàn)實(shí)道路中的所有場景。
再加上中國道路的復(fù)雜性和國人的交通習(xí)慣,特斯拉或許應(yīng)該在算法層面更加保守,同時要更加注重對人類駕駛員的教育和宣傳。
畢竟,特斯拉 Autopilot 已經(jīng)不是一件普通意義上的商品,它處于不斷迭代更新的過程中,而且是一場由車企和消費(fèi)者共同參與的技術(shù)迭代之旅。
所以,在更高級別自動駕駛到來前,駕駛員仍需要克服人性對機(jī)器的依賴,掌握駕駛的主導(dǎo)權(quán)。
來源:第一電動網(wǎng)
作者:汽車之心
本文地址:http://ewshbmdt.cn/kol/121397
本文由第一電動網(wǎng)大牛說作者撰寫,他們?yōu)楸疚牡恼鎸?shí)性和中立性負(fù)責(zé),觀點(diǎn)僅代表個人,不代表第一電動網(wǎng)。本文版權(quán)歸原創(chuàng)作者和第一電動網(wǎng)(ewshbmdt.cn)所有,如需轉(zhuǎn)載需得到雙方授權(quán),同時務(wù)必注明來源和作者。
歡迎加入第一電動網(wǎng)大牛說作者,注冊會員登錄后即可在線投稿,請在會員資料留下QQ、手機(jī)、郵箱等聯(lián)系方式,便于我們在第一時間與您溝通稿件,如有問題請發(fā)送郵件至 content@d1ev.com。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。