阻礙L5自動駕駛的非技術性難題。

在自動駕駛普及的過程中,我們需要解決許多極具挑戰性的非技術性難題,如倫理道德、責任義務以及大眾輿論等。

這是意料之中的,因為有超百萬人的生命與此息息相關,更不用說自動駕駛將給各行各業帶來改變,並影響數億人的工作了。

在某些情況下,車輛可能也需要被迫做出痛苦的倫理抉擇。

最著名的倫理困境莫過於『電車難題』:一輛電車失控了,即將撞死A和B兩人,作為駕駛員的你是否應該拉一下拉桿讓失控的電車轉換軌道,撞死另一條軌道上的C呢?如果你認為答案是顯而易見的,那麼如果C是個孩子呢?如果C是你的孩子呢?如果這輛車是你的車,而且C是你的孩子呢?

現在,如果人類駕駛員的行為導致車禍造成死亡,他們需要對司法程序做出回應,由司法程序判定他們是否行為得當,如果他們被判定行為不得當,那麼後果可想而知。

但如果是AI導致了死亡的發生呢?AI自己能用可以被人類理解的、合理合法的理由來解釋它的決策嗎?要知道,『可解釋的AI』是很難實現的,因為AI往往是通過數據訓練出來的,AI的答案是一個復雜的數學方程組,需要高度簡化後才能被人類理解。

而且,有些AI的決策在人類看來其實是徹頭徹尾的『昏招』《因為AI缺乏人類的常識》,反過來說,有些人類的決策在AI看來也是『愚不可及』的《因為AI無法理解,為什麼人類會做出酒後駕駛或疲勞駕駛這類害人害己的愚蠢行為》。

這裡還涉及其他一些問題,包括自動駕駛為人們節省了數百萬小時的開車時間,可是同時使數百萬人類『職業駕駛員』的生計受到影響,在這兩者之間,我們應該如何做好平衡?也許5年後,AI積累了數十億公裡的駕駛經驗,自動駕駛的安全性有所提高,車禍導致的135萬死亡人數由此可以減半,但在過渡期,AI可能會犯一些人類駕駛員不會犯的錯誤,這是可以被接受的嗎?

阻礙L5自動駕駛的非技術性難題。