首頁>資訊 >
特斯拉 vs 司機:是誰在“自動”駕駛? 2022-02-06 12:11:07  來源:36氪

文|杜晨 編輯|VickyXiao

特斯拉最近又出了個大新聞:被美國國家公路交通安全管理局(NHTSA)要求在美國召回近5.4萬輛汽車。

為啥?

這又是它的完全自動駕駛(Full Self-Driving)軟件惹的禍:它有可能讓汽車在路口的停車標(biāo)志前緩慢前行,而不是完全停止。

在美國,所有司機都知道,一旦看到路口有停車標(biāo)志,不管有沒有看到其他車輛或者行人,司機都要先完全停下車,再繼續(xù)前行。所以,特斯拉自動駕駛里的這個功能妥妥地違反了不少州的法律,而且有可能會增加車禍風(fēng)險。

為什么特斯拉號稱全智能的自動駕駛,在現(xiàn)實里,卻這么多bug?當(dāng)這些bug造成嚴(yán)重后果,承擔(dān)責(zé)任的,是它,還是相信了特斯拉所描述的美好場景的司機?

司機or汽車:誰的錯?

上個月,全球第一樁涉及到特斯拉 Autopilot 的嚴(yán)重刑事起訴,浮出水面。

此案當(dāng)中的事故,發(fā)生在2019年的洛杉磯郊區(qū) Gardena.

2019年12月29日深夜,司機 Kevin Riad 駕駛一輛特斯拉 Model S,從高速公路下匝道時,以較高的速度闖了紅燈,并且撞上一輛正常行駛通過路口的本田小轎車。事故導(dǎo)致本田車上兩人當(dāng)場死亡,Riad 和特斯拉車上另一名女性乘客受到輕傷,目前已恢復(fù)。兩輛汽車均已報廢。

事后,美國公路交通安全管理局 NHTSA 宣布派出特別調(diào)查組。在此之前,這支特別調(diào)查組已經(jīng)對十多起和特斯拉 Autopilot 功能相關(guān)的車禍?zhǔn)录归_了調(diào)查。

去年10月,加州檢方正式對 Riad 發(fā)起了重罪指控(felony charge),包括兩項交通肇事致人死亡 (vehicular manslaughter) 的罪名。首次開庭安排在今年2月23日。

需要明確的是,本案的被告人是當(dāng)時肇事車輛的司機。

盡管 Autopilot 技術(shù)無疑在事故中扮演了關(guān)鍵的角色,并且也將在本案的審理過程中被著重提及——但該技術(shù)本身,以及特斯拉公司,并非本案的被告。

(不過,美國聯(lián)邦和各地監(jiān)管部門,同時也在就 Autopilot 功能對特斯拉公司展開調(diào)查。)

圖片來源:當(dāng)?shù)仉娨暸_ KCAL-9

此案也是目前全美已知的第一起涉及 Autopilot 功能,并且起訴對象為肇事駕駛員的重罪案件。這也意味著:即使司機認(rèn)為汽車在“自動駕駛”,司機自己仍然是事故的責(zé)任人。

多位自動駕駛相關(guān)法律事務(wù)專家,包括南卡羅萊納州大學(xué)法學(xué)教授 Briant W. Smith,和律師 Donald Slavik 等表示,這次加州公訴 Riad 一案,是第一樁涉及相關(guān)輔助/自動駕駛功能致人死亡的嚴(yán)重刑事訴訟案件。

除此之外車禍?zhǔn)芎φ叩募胰艘惨呀?jīng)分別向肇事司機和特斯拉公司發(fā)起了民事訴訟。受害者 Lopez 的家人在起訴書宣稱,那輛Model S 在事故發(fā)生時“突然加快到無法控制的速度”,并且指控肇事者 Riad 本人此前的駕駛記錄非常不干凈,屬于“危險駕駛者”。這些民事起訴將作另案審理,和本次的加州公訴暫時無關(guān)。

自動駕駛 or 輔助駕駛?

如果你對電動車本身以及相關(guān)的技術(shù)行業(yè)有足夠多的了解,你可能會知道,被特斯拉命名為“Autopilot”的這一功能,并非真正的“自動駕駛”系統(tǒng)。

本質(zhì)上,Autopilot 就是很多汽車都有的輔助巡航功能的“升級版”,可以實現(xiàn)定速巡航、跟隨車道、調(diào)整車速等操作。該功能從2019年4月之后的車型開始標(biāo)配,無需額外付費;2016-2019年的車型均包含了 Autopilot 所需的硬件,需要付費才能激活。

按照行業(yè)廣泛接受的國際汽車工程師協(xié)會 (SAE International) 標(biāo)準(zhǔn),Autopilot 處于 L2-L3 之間,并未達到公認(rèn)的“自動駕駛”的水平。

比方說,SAE 標(biāo)準(zhǔn)(見下圖)對于 L3 的一個重要指標(biāo),就是在特定情況下駕駛員可以無需關(guān)注路況;而特斯拉在功能說明和教學(xué)的時候也會告知車主,即使開始了 Autopilot 功能,駕駛員也仍需要保持注意力。

Autopilot 還有一個 FSD 模式,可以自動進行轉(zhuǎn)換車道、根據(jù)周圍交通情況自動調(diào)整車速、變換車道、駛?cè)腭偝鲈训馈⒆詣硬窜?、根?jù)信號燈/停車指示牌完成操作等更多功能。

FSD 的全稱是 Full Self-Driving(完全自主駕駛),其中大部分功能均已商業(yè)化;少數(shù)功能仍處于公測階段 (Beta),但也對市售車型的消費者開放,只要付費升級 FSD,即可開啟。

然而,監(jiān)管部門似乎并不認(rèn)同特斯拉的說法和做法。

在加州公訴 Riad 一案中,NHTSA 直接發(fā)表聲明,宣稱:

1)盡管許多車輛都有輔助駕駛功能,在法律上,只有駕駛者本人才是責(zé)任主體。

2)所有的汽車,不管是否有部分自動駕駛功能,這些功能是否開啟,都要求駕駛者必須保持全程的控制。(every vehicle requires the human driver to be in control at all times.)

3)沒有任何的市售汽車能夠?qū)崿F(xiàn)自動駕駛。(no vehicle on sale that can drive itself.)

從 NHTSA 的表態(tài)中可以我們可以明確:截至目前,對于涉及到 Autopilot 以及類似輔助駕駛功能的交通事故案件,這些功能的確是事故發(fā)生的直接誘因。然而,監(jiān)管部門的思路,仍然是將肇事司機作為責(zé)任主體和懲治對象。

不過,就前述的第三條來看,考慮到特斯拉公司和其高管過去曾在許多場合嚴(yán)重夸大 Autopilot 功能的實際能力和特斯拉自動駕駛技術(shù)的先進性——NHTSA 的聲明,也直接駁斥了他們的口徑。

2016年5月7日,美國俄亥俄州,一輛開啟了 Autopilot 功能的 Model S 撞上一輛卡車。駕駛員當(dāng)場死亡,Autopilot 在美國奪走了第一條生命。當(dāng)時,該功能剛剛上線半年之久。

根據(jù)硅星人統(tǒng)計,自從該功能發(fā)布以來,全球已知確認(rèn)與 Autopilot 功能相關(guān)的交通事故已經(jīng)造成至少6人死亡、多人嚴(yán)重受傷。

美國國家運輸安全委員會 NTSB(一個政府屬性的民用交通事故調(diào)查機構(gòu)),已經(jīng)對至少28起特斯拉電動車傷亡事故展開特別調(diào)查。這些事故涉及包括 Autopilot、電池起火、剎車失靈等諸多因素。

去年,NHTSA發(fā)布政府簡報,宣布正式就11起涉及 Autopilot 的具體事故,對特斯拉公司,以及其推出的Autopilot、交通感知巡航系統(tǒng) (TACC) 等功能的設(shè)計能力,展開更加詳盡的調(diào)查。

而在歐洲,特斯拉的過度宣傳問題已經(jīng)受到政府重視了。比如在德國,反不正當(dāng)競爭監(jiān)管機構(gòu)在2020年起訴了特斯拉,指責(zé) Autopilot、FSD 的命名和宣傳行為構(gòu)成了誤導(dǎo)公眾的行為,并且道路運行車輛開啟這些功能,違反交通安全法規(guī)。

該案中,法院判定特斯拉敗訴。從此,特斯拉被禁止在德國使用 Autopilot、FSD 之類的字眼,并且在營銷宣傳內(nèi)容中也不得繼續(xù)誘導(dǎo)消費者相信其在“自動駕駛”方面的能力。

要酷 or 要命?

很多硅星人的讀者應(yīng)該記得,在2018年,101高速的 Mountain View 路段,華人車主 Walter Huang 駕駛一輛 Model X ,在正常前進行駛中突然撞上了混凝土隔離帶,不幸殞命。

當(dāng)時,車上就開啟了 Autopilot 功能,然而這輛高配 Model X 搭載的諸多強大的的傳感器,和先進的道路掃描軟件算法,都沒能及時發(fā)現(xiàn)前方道路收窄,導(dǎo)致了事故發(fā)生。

相關(guān)調(diào)查顯示,這位車主在生前已經(jīng)幾次對自己的妻子、家人和其它 Model X 車主吐槽過 Autopilot 功能不好用。具體來說, Autopilot 已經(jīng)好幾次把車往他后來喪命的那條隔離護欄上拐了。

Huang生前在蘋果擔(dān)任工程師,然而就連他都沒能對 Autopilot 功能局限有足夠清楚的認(rèn)識,就更別提那些非科技從業(yè)者,對電動車和輔助/自動駕駛技術(shù)不夠熟悉的普通車主了。

很多車主選擇特斯拉,看中的正是它的高科技屬性,給人很“酷”的感覺。而 Autopilot,又似乎是人們期待已久的自動駕駛技術(shù),在大規(guī)模市售車型中的最早也最高調(diào)的應(yīng)用。

硅星人之前的一篇文章曾經(jīng)指出,現(xiàn)在的問題就在于:包括特斯拉在內(nèi)的的一部分電動車/新造車品牌,對相關(guān)的輔助駕駛功能進行過度宣傳,夸大其能力,在用戶的心中造成錯誤的理解,間接導(dǎo)致事故更加頻繁的發(fā)生。

結(jié)果就是,某些壓根沒有達到自動駕駛標(biāo)準(zhǔn)的輔助駕駛技術(shù),包裝在自動駕駛的假面之下,非但沒有讓道路交通更加安全,反而釀成了更多事故。

歐盟新車安全評鑒協(xié)會成員、英國汽車安全專家 Matthew Avery 接受當(dāng)?shù)孛襟w采訪時曾表示,特斯拉在 Autopilot、FSD 等功能的宣傳上極具誤導(dǎo)性,容易讓那些對技術(shù)不太熟悉的消費者,誤以為他們花錢升級了 Autopilot/FSD 之后,自己的汽車就獲得完全自動駕駛的能力了。

“Autopilot 導(dǎo)致的許多事故都是致命的。這些司機究竟是在鬧著玩,或者因為更糟糕的情況——他們真的相信 Autopilot 就是完全自動駕駛——我們無從得知?!?/p>

去年,特斯拉向一部分車輛推送了 FSD beta 9 測試版軟件,讓這部分車主給特斯拉提供路測數(shù)據(jù)。

但是一些車主很快發(fā)現(xiàn),這一版本的 FSD 非常不穩(wěn)定、不安全,會把月亮當(dāng)成信號燈,還會時不時竄入自行車道。如果真的讓這些車上路,它們毫無疑問將會成為嚴(yán)重的道路安全隱患。

消費者權(quán)益機構(gòu)《消費者報告》(Consumer Reports) 發(fā)布了調(diào)查報告,宣稱特斯拉推送的 FSD 測試軟件缺乏安全防護,對其它道路參與者帶來嚴(yán)重風(fēng)險。

FSD Beta 9 將月亮誤認(rèn)為信號燈截圖來源:Jordan Nelson

近日,一家名為 The Dawn Project 的社會公益機構(gòu),在《紐約時報》上刊登了一則整版廣告,題為“不要成為特斯拉碰撞測試假人”,指責(zé) FSD 功能的技術(shù)可靠性、安全性非常糟糕,特斯拉面向市售車型提供該功能,讓車主成為路測“小白鼠”的做法是在草菅人命。

“一家《財富》500強公司,銷售的數(shù)千輛汽車,運行著最糟糕的軟件,在公開道路上行駛,而我們的家人將成為這些汽車碰撞測試的假人——這不是我們想要的,”廣告寫道。

賣了這么多年,特斯拉電動車的普及程度現(xiàn)如今已經(jīng)非常高了,它的獨特感、科技感,給車主身份增添的“酷”的標(biāo)簽,也不如從前了。

而我們在今天觀察到的是:Autopilot、FSD 等實際是輔助駕駛,卻被宣傳夸大為自動駕駛的功能,正在延續(xù)著特斯拉作為一個“酷”品牌的生命。

然而,讓車主對這些功能產(chǎn)生錯覺,進而誘發(fā)更多的交通事故、生命和財產(chǎn)損失——這件事,可一點都不酷。

注:封面圖和頂端題圖來自于 KCAL-9、The Dawn Project 等機構(gòu),版權(quán)屬于原作者。如果不同意使用,請盡快聯(lián)系我們,我們會立即刪除。

本文來自微信公眾號 “硅星人”(ID:guixingren123),作者:光譜 杜晨,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 特斯拉 司機

相關(guān)閱讀:
熱點
圖片 圖片