加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 回到現(xiàn)場:車禍是如何發(fā)生的?
    • 自動駕駛系統(tǒng)開車,安全員負責?
    • 無人駕駛之后,誰來真正擔責?
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

汽車自動駕駛之后,安全事故誰來擔責?

2020/10/09
116
閱讀需 15 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

還記得 2 年多前 Uber 的那起自動駕駛汽車導致行人死亡的車禍嗎?最新消息是,今年的 9 月 15 日,亞利桑那州的大陪審團決定以過失殺人罪起訴當時 Uber 自動駕駛汽車前安全駕駛員拉斐爾·瓦斯奎茲,并建議判處其 2.5 年有期徒刑,而這位安全員當庭表示拒絕認罪,這場官司可能還要繼續(xù)打下去。

這場事故背后的責任方 Uber 呢?其實早在去年 3 月份,作為肇事方的 Uber 已經(jīng)被美國法院判定無罪。

被稱為“自動駕駛致行人死亡第一案”的當事方就這樣輕而易舉地逃脫擔責,讓這個確實存在一定過錯的安全員來承擔全部罪責。這結(jié)果確實令人唏噓,難道這是一起“大公司作惡,小職員背鍋”的司法腐???抑或是,這場判決是美國司法的老模式遇到新問題,不知道如何對自動駕駛算法系統(tǒng)及其所有者做出裁定?

在有安全員監(jiān)控的自動駕駛測試或者商用中,我們自然還是會把車輛的安全事故責任歸咎于這個安全員,但一旦真正的無人駕駛大規(guī)模普及,車上的安全員,甚至是方向盤、剎車都去掉之后,車輛的安全事故責任,那自然就要算到研發(fā)和使用這套自動駕駛算法的企業(yè)主體身上了。那么到時候,關(guān)于自動駕駛算法的追責將變得更加復雜。

在討論這一問題之前,我們不妨回到 Uber 的這起車禍細節(jié)中,來看下這場車禍判決存在哪些爭議點,Uber 是否真的可以全身而退?一旦去掉安全員,無人汽車和自動駕駛算法該如何擔責?這些看似未來才會遭遇的問題已經(jīng)擺到了你我的面前,亟待思考和討論。

回到現(xiàn)場:車禍是如何發(fā)生的?

去年 11 月,美國國家安全運輸委員會(NTSB)發(fā)布了一份報告,披露了 Uber 自動駕駛汽車在碰撞前 10 秒的細節(jié)。值得注意的是,當時已經(jīng)判決了 Uber 平臺無責,但是這份報告中卻指出了 Uber 自動駕駛系統(tǒng)有種種漏洞。

這起車禍的大致經(jīng)過是這樣。2018 年 3 月 18 日晚上,亞利桑那州坦佩市一位女性在推著自行車過馬路時,被時速 60 多公里 Uber 無人駕駛汽車撞死。

如果這輛車只是一輛普通車輛,那么事故責任就很明顯,一邊是行人橫穿馬路,負有一定責任,但車輛司機因沒有及時剎車和避讓,要負主要責任。但這輛車是 Uber 的無人駕駛測試車輛,車上面配有一名安全員,負責處理車輛的緊急情況。

在這起車禍中,這名安全員顯然沒有盡職盡責。根據(jù)調(diào)查,這名安全員在行車過程中,一直在通過手機觀看類似于“中國好聲音”的娛樂節(jié)目,這期間監(jiān)控攝像頭拍到他一直在反復低頭,直到事故發(fā)生前的 0.5 秒,他才注意到車輛前方的行人,最后只是在撞到后的 0.7 秒才踩下剎車,但事故已經(jīng)發(fā)生了。

這場事故判決安全員擔責是毫無問題的。畢竟他的職責就是確保車輛行駛安全和道路行人安全,可由于他的疏忽大意,直接造成了這一嚴重事故。日常生活中,大量的行車事故大多由這類疏忽大意造成。

但正是 Uber 無人駕駛車輛的自動駕駛系統(tǒng)給了安全員一種錯覺,認為車輛可以自行判斷前方的路況,而自己可以偷懶去看手機。這也是自動駕駛技術(shù)等級中 L3 級別的困境。車輛可以高度自動駕駛,但是出了事故要算駕駛員的。那么怎么可以讓駕駛員放心的休息或者娛樂游戲呢?

回到 Uber 這輛車,難道它就沒有任何問題么?從調(diào)查來看,問題也很多。

在 Uber 車輛撞到行人前的 10 秒中,車輛本來識別到這個行人并避免車禍的。但是一系列系統(tǒng)的誤判導致了車輛未曾減速就撞了上去。報告中有幾個關(guān)鍵數(shù)據(jù):在 9.9 秒到 5.8 秒中,汽車從 56 公里加速到 70 公里;在 5.6 秒,汽車毫米波雷達(Radar)第一次檢測到前方有物體,并識別其為“汽車”,5.2 秒,汽車激光雷達(Lidar)第一次檢測到前方物體,將其識別為“其他”,判定其靜止不動。4.2 秒到 2.7 秒,汽車對識別對象在“汽車”和“未知”之間來回搖擺,但是沒有參考對物體的跟蹤歷史記錄,最終將其判定為靜止物體。

2.6 秒到 1.2 秒的時間,激光雷達才將物體識別為靜止的自行車,但又出現(xiàn)判定搖擺,等到重新識別為自動車,并決定制動。但車輛真正制動是在車禍前的 0.2 秒開始。這時時速 64 公里的車輛已經(jīng)無法避免撞到行人。車禍發(fā)生。

我們看到,在車禍發(fā)生前的幾秒鐘,車輛發(fā)生了多次搖擺不定的誤判,浪費了大量時間。根據(jù) NTSB 報告指出,造成事故的關(guān)鍵問題就是,軟件無法正確預測受害者的類別和運動軌跡。如果系統(tǒng)及早正確地識別出前方物體是行人,就應該大幅放慢速度,或者設(shè)法繞開避讓。

但是 Uber 的自動駕駛系統(tǒng)并沒有如此謹慎行事,反而是因為 Uber 認為緊急制動系統(tǒng)會造成車輛的不穩(wěn)定,所以對該系統(tǒng)做了限制。

也就是說,Uber 把自動駕駛系統(tǒng)的剎車當成了最后才考慮的因素,真是細思極恐。

自動駕駛系統(tǒng)開車,安全員負責?

如果按照 NTSB 的調(diào)查,那么 Uber 的自動駕駛系統(tǒng)就存在巨大安全缺陷,首先是汽車的識別算法的準確度和時效性問題,其次就是對于緊急制動系統(tǒng)的設(shè)置權(quán)限問題。NTSB 得出結(jié)論說,Uber 取消車輛出廠自帶的自動緊急制動系統(tǒng)的做法,增加了在公共道路上測試自動駕駛車輛的風險。

據(jù)調(diào)查報告,這輛 Uber 汽車在車禍前,已經(jīng)以自動駕駛模式運行了約 19 分鐘,車輛大約至少行駛了約 22 公里。那么在這段距離內(nèi),如果安全員沒有踩過一次剎車,那就意味著自動駕駛系統(tǒng)也很可能沒有啟動過一次剎車。如果有開車經(jīng)驗的人來說,哪怕是夜深人靜的街道,很少會在以每小時接近 70 公里的時速下行駛 20 多公里,都不需要減速或剎車。

如果是 Uber 真的把剎車權(quán)限交給了安全員,那么這個安全員怎么又可能在完全不顧及自己和行人安全的情況下,在高速行駛中還敢沉浸在娛樂節(jié)目當中。

也就是說,Uber 將剎車權(quán)限交給安全員的同時,卻沒有讓安全員意識到自己要百分百了解這一安全措施。Uber 通過設(shè)置安全員規(guī)避了法律風險,但是它自身卻沒有預計到車輛的安全風險,也沒有盡到告知義務,使得一個被算法“忽悠”的人類成為自動駕駛技術(shù)走進現(xiàn)實世界的注腳。

反過來說,一輛汽車的自動駕駛系統(tǒng)在自動駕駛模式下系統(tǒng)沒有剎車權(quán)限,而是完全需要安全員操作的話,那么這場自動駕駛測試到底意味著什么,一場假的自動駕駛測試嗎?

根據(jù) Uber 的一名離職工程師的說法,“Uber 的車禍發(fā)生率會還是太高了”,“如果是 Waymo 出現(xiàn)這樣的表現(xiàn),就會停止測試以找出原因,而 Uber 則會忽略這一問題”。

這些問題也正是外界詬病 Uber 的無人駕駛計劃的地方。Uber 既想通過激進的自動駕駛計劃來推進其自動駕駛出租車業(yè)務的商業(yè)化,又想通過設(shè)置安全員來規(guī)避其在自動駕駛系統(tǒng)上的缺陷和漏洞,最終出現(xiàn)問題,還可以把責任推給這些雇員。

顯然,Uber 做到了。在 2018 年底,Uber 又恢復了部分城市的無人車路測,為每輛車配備了 2 名安全員,并進行更為嚴格的監(jiān)控,以及對自動駕駛系統(tǒng)做了優(yōu)化。

而對于當?shù)氐乃痉C關(guān)來說,判決 Uber 無需擔責的原因則很簡單,就是“沒有任何判決依據(jù)”。

無人駕駛之后,誰來真正擔責?

因為缺乏法律責任的認定,這次 Uber 得以“僥幸”逃脫。但根據(jù)以上分析,Uber 在事實責任面前是難辭其咎的。

首先,Uber 自動駕駛系統(tǒng)并沒有以安全作為第一考慮要素,而是更強調(diào)系統(tǒng)的穩(wěn)定性和持續(xù)性。這是為 Uber 無人車出現(xiàn)眾多安全事故埋下了隱患。如果未來 Uber 是以這樣一套“激進”的算法來推進其無人駕駛出租車的行駛策略,那么,很容易出現(xiàn)車輛以快速行駛優(yōu)先而忽略道路安全的情況。

其次,該駕駛系統(tǒng)的測試存在紕漏,按照其對制動系統(tǒng)的設(shè)置,需要安全員的干預才能完成,這顯然是背離自動駕駛技術(shù)的本意。顯然,這樣的系統(tǒng)是無法真正實現(xiàn)無人駕駛的商用的。

就在 Uber 出現(xiàn)致命事故的同一年,美國的加州卻進一步放松了無人駕駛的監(jiān)管,可以允許車輛上沒有安全駕駛員,只需要保證自動駕駛車輛出問題時,能被遠程接管即可。

2019 年,Waymo 就拿到了加州機動車輛管理局(DMV)頒發(fā)的完全自動駕駛測試牌照,測試時可以不用安全員。后面在無人駕駛出租車上,乘客也已經(jīng)可以打到?jīng)]有安全員的出租車,只是在遇到突發(fā)危險后,可以在行駛中按下汽車幫助按鈕或在應用程序中與安全員取得聯(lián)系。

那么,這一情況下,就必須要考慮到無人車的新的責任歸屬和相關(guān)問題了,畢竟車輛出現(xiàn)事故不能再歸咎于遠程指導的安全員了。

那責任歸屬其實就比較簡單了。在根據(jù)正常的交通事故責任認定后,如果排除了對方責任之后,那么事故責任就會判定為無人駕駛汽車的責任,但至于是車生產(chǎn)商、自動駕駛系統(tǒng)提供商或業(yè)務運營方來承擔責任,則需要根據(jù)商業(yè)模式的責任劃分和對現(xiàn)場事故的原因判定來進行劃分。

但這里會有一個法律責任主體缺失問題。在現(xiàn)有一般情況下,幾乎每一場事故都會有專門的人來對此負責,大多數(shù)都是違規(guī)肇事司機,但一旦換成無人駕駛汽車,那么也就找不到這樣一個法律責任主體。因為不可能去控告一個購買了無人駕駛汽車的車主吧,畢竟他沒有開車,也不可能去控告設(shè)計了這個自動駕駛算法的工程師吧,工程師又不是一個人,事故原因也不能僅僅歸因于某行代碼。那么,歸結(jié)于提供自動駕駛系統(tǒng)的公司嗎?那這樣沒有任何一家公司會在愿意承擔如此巨大的風險了。

也許未來將會有一個由自動駕駛汽車各方和保險公司共同成立的責任主體,這些制造、設(shè)計和運營各方根據(jù)責任大小承擔相應比例的保險費,無人駕駛的私家車主(估計會很少是個人)也會在購買服務中支付一定的保險費用,形成一個保險資產(chǎn)池,來應對可能出現(xiàn)的事故。

這個責任主體對事故承擔整體的責任認定和賠償,同時也在內(nèi)部形成一套 AI 測算系統(tǒng),根據(jù)不同汽車廠商的車輛損壞情況、不同自動駕駛算法的事故率和運營商的運營策略來認定具體責任,以決定不同主體未來的保費。

比如,有些汽車廠商以保障車內(nèi)乘客的安全優(yōu)先,那么在出現(xiàn)事故導致行人受損后,基于這種策略的公司就要多交保費;如果有些廠商是以保障行人乘客的安全優(yōu)先,出現(xiàn)車內(nèi)乘客受傷或致命事故,就要多支付費用,多賠付車內(nèi)乘客。

可以預見,當自動駕駛無人車普及之后,各種各樣復雜狀況的責任認定案例會層出不窮。我們必須在此之前就要開始思考和嘗試立法工作。而不是等到事情發(fā)生之后,才開始摸索。千萬不要像 Uber 案例一樣,最終只能把罪責扣在這個不負責任的人類身上,而對自動駕駛算法系統(tǒng)束手無策。

對無人駕駛汽車的嚴苛管制,并不意味著我們不看好這一產(chǎn)業(yè)。在我看來,無人駕駛汽車的前途是非常光明的。盡管會出現(xiàn)這樣那樣的極端事故,但是無人駕駛在未來一定會比現(xiàn)有的人類駕駛的出行狀況是更安全的。

就像目前 Waymo 出現(xiàn)的眾多事故中,絕大多數(shù)都是人類司機的全責。當未來一旦無人駕駛汽車占據(jù)多數(shù)的時候,我們就不必再小心這些車輛,而是要更小心人類司機的車輛了。因為自動駕駛系統(tǒng)開車時是不會去看“達人秀”的。

相關(guān)推薦

電子產(chǎn)業(yè)圖譜

你的困惑,來自于無路貼近未知。我們在技術(shù)、思想、傳播的異界,販來極限腦量下的TMT。