自動駕駛的安全悖論。

自動駕駛的安全悖論。

你對車的信任到底有多深?由它壓著限速跑在城市快速路上?把自己和他人的生命安全完全托管給它?需要你接管車輛的時候,你對自己反應速度又有多少自信?

2018 年 3 月的一個晚上,一輛 Uber 改裝的沃爾沃自動駕駛測試車在自動行駛 19 分鐘後,識別到車前方有輛距離自己 5.6 秒的車,距離 2.6 秒的時候系統 『認』 出是輛自行車,距離 1.5 秒的時候系統在 『其他』 和 『自行車』 間搖擺。

距離 0.2 秒的時候,系統警告、提示車上測試員接管車輛。

太晚了 —— 測試員接管的時候車速 39 英裡 / 小時《約 62 公裡 / 小時》。

騎車人被撞飛。

當場不治。

警方事後調查到測試員事發時正在手機上用戶 Hulu 看綜藝節目,他們認為如果測試員一直看路,完全可以避免事故。

就這樣,媒體的焦點從 Uber 轉移到測試員。

但車企一邊給司機創造分心的條件,一邊要求司機全神關注在危險來臨的那半秒做出精確反應。

本身就是反人性。

在一次美國運輸安全委員會關於特斯拉致命車禍的聽證會上,時任主席 Robert L. Sumwalt 說,是時候停止讓司機假裝他們有自動駕駛汽車了。

-2013 年,Google 啟動了自己的自動駕駛試驗項目,讓員工在上下班路上坐這些測試汽車。

員工被告知要看著路,做好緊急情況下接管車輛的準備。

但絕大多數人看手機、卷睫毛或者直接在高速公路上睡著。

Google 幾周後結束了這項試驗。

-根據美國國家公路交通安全管理局 (NHTSA) 的一項研究,一些司機花了 17 秒鐘才重新控制一輛輔助駕駛車輛。

這周,一輛小鵬 P7 在國內高架道路上以大約每小時 80 公裡的時速撞上前方拋錨車輛,導致 1 人死亡。

不算很清晰的視頻裡,這輛 P7 的剎車燈在撞車前沒有亮過。

-網上流傳的疑似車主微信聊天記錄稱,事發時他開啟車道居中功能《LCC》,車輛沒有預警,他也 『剛好分神』。

-小鵬汽車稱會全力配合調查,協助處理後續相關事宜。

國內法規下,自動駕駛事故依然沿用《道路交通安全法》進行責任認定,該法案在 2021 年 4 月的修訂版本中,首次將自動駕駛寫入法律,在一百五十五條中提到:

-發生道路交通安全違法行為或者交通事故的,應當依法確定駕駛人、自動駕駛系統開發單位的責任,並依照有關法律、法規確定損害賠償責任。

構成犯罪的,依法追究刑事責任。

但法條在實際操作中的具體責任認定這塊仍然是空白的,在目前的道路交通法規中,駕駛者還是作為交通事故的第一責任人。

特別是當車輛處於需要駕駛員共同控制車輛的 0 到 2 級的輔助駕駛狀態時,責任認定和普通車輛駕駛事故相似。

-據 2021 年市場監管總局發佈的《自動駕駛汽車化分級》,將自動駕駛汽車分為 0 到 5 級,其中 0 到 2 級為駕駛輔助類,3 到 5 級為自動駕駛類。

-前述小鵬汽車提到的 LCC+ACC 屬於 2 級的輔助駕駛。

《龔方毅 實習生薛鈺潔》