首樁「自動駕駛」撞上一輛貨車死亡車禍發生!2萬5千台Tesla Model S遭調查

首樁自動駕駛死亡車禍發生!2 萬 5 千台 Tesla Model S 遭調查

自動駕駛電動車 Tesla 才剛在台灣開賣, 美國卻傳出首起使用自動駕駛模式發生的死亡車禍。根據外國媒體報導,一輛 Tesla Model S 在自駕模式開啟時於美國高速公路上撞上一輛貨車導致Tesla駕駛死亡。美國國家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)已針對 2 萬 5 千台 Tesla Model S 展開調查。

車禍發生在美國時間 5 月 7 日,當時 Tesla Model S 的駕駛以自駕模式行駛於美國佛羅里達高速公路,撞上一台在前方左轉的白色貨車。Tesla 在聲明稿指出,在陽光非常刺眼的情況下,自駕系統和司機都沒有發現這台白色貨車,也因此未煞車。

Tesla 在聲明稿中表示,在 Tesla 自駕系統行駛超過 1 億 3,000 萬英里後,這是第一起死亡車禍,和其他死亡車禍數據相比,美國平均每行駛 9,400 萬英里就有一起死亡車禍,全球則為 6,000 萬英里。目前,NHTSA 已針對 Tesla 自駕系統是否有按照預期正常運作做初步調查,Tesla 也不排除後續將召回旗下產品改善安全性。

自駕系統仍在測試階段,駕駛雙手應放在方向盤上、保持警覺

Tesla 並強調,他們過去不斷提醒車主自駕系統仍在測試階段,建議開啟自駕模式時,雙手仍應放在方向盤上,並在系統無法適當駕駛時接手。「研究數據指出,只要在駕駛保持警覺的情況下,相較於全手動駕駛,自駕系統明顯提高駕駛安全性。」Tesla 在聲明中表示。

該名在車禍中喪身的駕駛一直是Tesla和新科技的愛用者,根據《The Verge》報導,他在過去曾在 YouTube 上傳 Model S 的自駕模式如何閃過車子避免發生碰撞,該影片擁有 170 萬次點閱數,甚至連 Tesla 創辦人馬斯克(Elon Musk)也在 Twitter 上分享。意外發生後,Tesla 也在聲明稿中表示哀悼。

Tesla自駕車發生首起死亡車禍,政府介入調查

電動車製造商Tesla本周透露,最近旗下一輛型號為Model S的電動車在啟用自動駕駛(Autopilot)時發生死亡車禍,美國國家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)已對此展開初步的調查,以評估該自動駕駛系統的性能。

駕駛Model S的是45歲的Joshua Brown,他在今年5月7日的下午三時於美國佛羅里達州的US 27A道路上往西行,撞上對向正要左轉的連結車,Model S的車頂撞擊連結車底部之後衝向路肩、穿越了柵欄、撞上電線桿並逆時針旋轉,Brown當場死亡。

由於這是第一起Model S車款在啟用自動駕駛模式時發生死亡車禍,Tesla根據標準程序通知了NHTSA。Tesla表示,不論是Brown或自動駕駛在豔陽高照的天空下都沒注意到聯結車側面的白邊,所以都沒踩剎車。

Tesla強調,Model S的自動駕駛模式是關閉的,當車主要啟用自動駕駛模式時,系統會事先警告這是個仍處於公開測試階段的新技術,即使自動駕駛技術愈來愈進步,但它並不完美,還是需要駕駛人隨時注意。例如該系統要求車主必須隨時將手擺在方向盤上,若偵測到車主的手離開方向盤,即會自動降低車速。

從自動駕駛的原理來看:這位特斯拉的死忠粉絲,為何最後會慘死在 Model S 上?

佛羅里達州的本週四,注定將是載入汽車史冊的日子,因為史上第一起由自動駕駛技術致死的不幸意外在這天發生了。Joshua Brown 駕駛著特斯拉 Model S,這款號稱是馬路上最安全的車,從側面撞上了一輛 18 輪大型貨車。車從後輪的空隙中直接穿過,頂部被掀翻,致駕駛員當場死亡。這也是特斯拉第一起致人死亡的車禍。

諷刺的是,Joshua Brown,一位 3D 打列科技公司老闆,還是一個特斯拉的死忠粉絲,他利用自動巡航避免車禍的影片,在 YouTube 上一度得到170萬次觀看,並被伊隆·馬斯克轉推。

事故發生的原因

我們來還原一下事件發生的情況,當時這款 Model S 處於自動巡航狀態,而車輛前方的感應器和 Joshua 都沒有注意到這輛正橫穿馬路的貨車,致其徑直撞向貨車側面的尾部。

通常情況下,Model S 前部的距離感應器可即時監測車距,同時控制車速以避免事故。

據特斯拉官方解釋,高大的白色貨車車體和強陽光下的天空混在一起,難以分辨,致使自動巡航系統沒有識別到前方障礙並自動剎車,屬於極個別情況。

美國高速公路交通安全局(NHTSA)正對這起事故進行調查,並將在初步程序中評估特斯拉自動巡航系統的有效性。 

這個致命的自動巡航到底是什麼?

硬體上看,Model S 裝有 12 個環繞車體的超音波感應器,用於檢測周圍異常,有效範圍 16 英呎。同時,前側還裝有一個鏡頭和一個長距離雷達。

多個感應器協同作用,這款車可以偵測駕駛員視覺死角,透過調整車速,避免前端與側面的碰撞,並可以識別車道線,避免偏離車道。

輕輕下按自動巡航控制桿,系統就會接管剎車和油門,解放你的雙腿;再按一次,系統會進而接管方向盤。此時若經過彎道,Model S 可以根據車道線自行調節方向。

這套系統還可用於智慧調節車距,自動變換車道,這些都可以透過幾個按鈕實現,而不需要油門、剎車和方向盤。

特斯拉在其部落格中聲明,自動巡航僅提供駕駛輔助,不能代替駕駛員操作。對此,特斯拉對 Model S 增加了警報系統。

特斯拉在座椅,安全帶,方向盤內均裝壓力感應器,如果駕駛員手離開方向盤超過 5 分鐘,或沒有按標準在駕駛座上坐穩,警報即會響起,如果駕駛員不理會警報,車輛會緩慢減速。

由於調查報告還未釋出,還不能得知事故發生時車輛的預警系統發生了什麼問題。 

特斯拉要負多大責任?

雖然具體原因我們無從得知,但可以確定,這是人類自動駕駛技術發展史上第一次由技術原因導致的命案。

而且,這起事故正發生在美國無人汽車政策制定時期。當整個汽車與科技產業都在遊說美國政府公布相關法規時,有 45.8% 的人卻因為安全原因看衰自動駕駛。這起事故可能會為無人駕駛的發展蒙上陰影。

對於這起事故,特斯拉官方聲明:

這項科技的預設出廠是關閉狀態,使用前需要使用者明確知道這項科技還在公開測試階段,並不完全成熟。此外,當啟動自動巡航,系統會提醒司機要保持對車輛的控制,要時刻把手放在方向盤上,並隨時準備接管操控。

The Verge 則列出了特斯拉 Model S 的使用說明書條款,其中一條直接與本案相關:

自動巡航無法探測到所有障礙物,並可能無法識別停止在車道上的車輛。此外,無法檢測到自行車或行人的情況也可能發生。完全依賴自動巡航可能會導致傷亡。

可見,當時橫過馬路的貨車不能被識別,是系統自身的問題。

除去這一條,說明書中還羅列了大量的安全操作規範,其中多條警告均與潛在車禍相關。而 The Verge 認為,並沒有多少人會仔細閱讀這種又臭又長的說明書並把它牢記在心,由此造成的安全隱患是巨大的。 

這場事故或多或少是由於 Joshua Brown 自己沒有注意路況,給了自動巡航過多的信任。

但是,從特斯拉官方資料看,自動巡航的安全性已經明顯優於手動駕駛。

這場車禍是1 億 3 千萬英里來自動巡航下遭遇的第一場車禍。相比之下,美國每 9 千 4 百萬英里就有一起車禍。伊隆·馬斯克也聲稱,自動巡航的安全係數要比傳統駕駛高兩倍。

不過,還是要提醒特斯拉車主:自動巡航並不完全可靠,仍需要您時刻正視前方,手握方向盤,時刻警惕路況。


現在的「自動駕駛」大概都還是「白老鼠」階段!yell連Google的「自動駕駛車」都還沒開始大量製造、販賣!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

輔助駕駛、自動駕駛,兩者的差別不僅一樁悲劇車禍

5 月份特斯拉的 「自動巡航 」系統導致的車主死亡事件,因為 6 月 30 日美國國家公路交通安全管理局(NHTSA)調查而不得不被披露出來,這起事故終於成了全球重要的關注新聞。

相信大家都知道了這起事故的介紹和一些技術問題,這裡不再重複。這個事故並不是只涉及一家公司和一項技術,它還涉及了科技和人的關係,以及企業和社會責任。在這裡幫大家釐清一些相關的問題。

1.特斯拉採用了幾種技術,鏡頭部分來自以色列公司 Mobileye,它們研製的技術確切的說法是 「輔助駕駛」,而不是 「自動駕駛」。

Mobileye 公司對他們的技術介紹是這樣的:「Mobileye 是視覺訊息處理領域的演算法和晶片系統領導者,主要是針對駕駛員輔助系統(DAS)市場。」,以及 「Mobileye 技術讓路上的旅客更安全,減少交通事故,挽救生命,同時具有透過自主駕駛重塑駕駛體驗的潛力。」

Mobileye 對於自己技術的定位很清楚,它是人類駕駛員的輔助,不是自動駕駛。他們雖然表示了未來有全自動駕駛的可能性,但也明確表示了現在不是這樣。

Mobileye 提供的技術是特斯拉使用的 「自動駕駛」 相關技術中最先進的一部分。除此之外,其他如防撞雷達,傳感器,都不是什麼新鮮東西,最近 5 年買過中等價格車的話,如果選了比較好的配備,利用雷達來這些防止碰撞,防止追撞,甚至自動停車之類的功能都應該是標配了。

把這幾種東西放在一起,確實能提供一些方便,但是距離產生真正的革新還差得太遠了。Mobileye 的系統幾乎和各大汽車廠商都在合作,從BMW、TOYOTA到通用汽車,都有比較成熟的系統。

按照 Mobileye 自己的介紹,他們的晶片 EyeQ 從 2007 年開始商轉第一代產品,到 2014 年 3 月份已經安裝在了 330 萬輛汽車上,涉及 160 個車型和 18 個汽車製造商。這完全不是一個新東西,只是其他廠商不敢把這種東西叫做 Autopilot 罷了。

2.特斯拉本身其實也多次強調這只是輔助駕駛系統,但是擋不住媒體和粉絲們熱烈追捧,儼然把這種技術的應用看成了科技革命。

因為對特斯拉的盲目崇拜,車主們似乎真的相信特斯拉掌握著目前最先進的自動駕駛技術,而且這種技術完全可用,比人駕駛錯誤率更低,於是他們就真的開始不管方向盤讓這套系統自己駕駛了。

在 YouTube 上可以看到很多熱心車主的所謂 「測試」 影片,他們雙手離開方向盤,吃東西,刮鬍子,甚至在手機上玩遊戲。特斯拉明確知道這種狀況要出問題,也曾經試圖升級系統,讓給他們的自動駕駛模式增加一系列限制,比如最高速度限制在 45 MPH 之類,但最後在車主的抗議、甚至威脅去訴訟的強烈反對中作罷。很可能這又是一個企業被用戶綁架的例子。

如果對電腦視覺和機器學習有一點基本認知,就會明白為什麼這些系統只能是輔助作用。我們可以用前一段 AlphaGO 和李世石的圍棋大戰來做個例子幫助理解,這兩者有一些區別,不算特別準確的對比,但大致可以說明問題。在那場大戰中,電腦的輸入和輸出仍然是人管理的,有人替 AlphaGo 落子,並且把結果輸入回系統。使得 AlphaGo 處在一個無干擾的環境中,有明確且準確的數據輸入,系統穩定性也就很高。

但在汽車上,輸入是鏡頭、雷達和傳感器。我們先不討論人工智慧系統的準確度,僅談電腦視覺,即使在相對穩定的測試環境下,有充足的計算資源和時間, 準確度仍然達不到 100%。

何況是在汽車上,運算能力受限、時間要求極高,並且路上的情況千變萬化,這樣的準確度就下降更多了。無論鏡頭還是雷達各有其工作限制,受到天氣、雨雪、落葉、塵土等等影響,也不可能總是正確。

3.目前自動駕駛所收集到的數據資料還不足

再說數據處理這部分,各家的演算法雖然各自有一些區別,但歸根結底原理都是差不多的,這些年流行的主要是深度學習相關的技術。

同樣的技術也被用於 AlphaGo 的對戰中,如果你還記得那場 AlphaGo 輸掉的對戰,應該還記得那時候的感覺,當時圍觀者直接的感受是 「AlphaGo 的水準突然下降,從超越九段的高手瞬間變成了圍棋愛好者水平,連出錯誤 」。是的,在這樣的系統裡面,一定會在某些時候出現這種情況。

從圖像輸入到計算出來結果,其中每一個環節都有可能導致這樣狀況。所以如果是對相關技術有比較清醒的認知,應該現在是不敢開著所謂 「自動巡航」 的特斯拉,自己去刮鬍子的。

程式不像人,一旦出問題,它的錯誤反映的會更加激烈和明確。在最終的表現上,就是它在 99.9% 的時間可能工作很正常,但那 0.1% 不正常的時候,會突然變得連基本功能都完成不了,而且難以修正。並不是像人那樣,一個正常人很難出現到瞬間從天才變成白痴這樣的異常情況。

更糟糕的是,這種錯誤會同時存在所有同一版本的軟體上,完全能重現。100 個人類司機不會犯一樣的錯誤,但 100 台裝了同樣版本系統的車輛,會在同樣的情況下出同樣的問題,影響會非常大。

媒體們說:「人類司機和鏡頭都沒能識別白色的貨車」,這個形容對這起事故過於美化了。這個案例中,人類司機並沒認真駕駛車輛,他當然沒能識別到白色的貨車。

但一個正常駕駛的司機能不能識別這種情況呢?事發時候正在白天,能見度很好,通常應該是能的,就算確實沒能提前看到它,到附近的時候仍然有機會減速,或者透過改變方向撞向隔離帶之類不致命的地方,不至於和自動駕駛系統漏檢之後一樣,完全不減速撞向貨車,穿過貨車之後司機已經死亡,車輛還停不下來繼續往前開了幾百公尺。

只要寫過程式的人,應該都會理解 「軟體一定存在 Bug」。從演算法到最終商品之間還有漫長的距離,還需要大量的包裝和產品化工作,這些工作都會帶來 Bug,而且這些系統最終基於的現有其他技術,比如作業系統和其他標準程式庫,也一樣會出現 Bug。當 Bug 出現的時候,軟體能正確處理好當前的情況嗎?恐怕也很不樂觀。

4.目前的交通系統是以人類為中心建立的一種高容錯度系統

 目前在道路上,一個新手,只需熟悉基本交通規則,透過考試就可以上路行駛,路上的其他人會根據他的駕駛情況適應你的存在。對於新手,人們可能會禮讓一些,對於其他地方車牌的車輛也會禮讓一些,這樣的規則是長期車輛行駛中建立的文化,並不是硬性規則。

有經驗的駕駛會說:「如果大晴天旁邊的車雨刷突然動了一下,這應該就是一個想打燈右轉的新手司機。」 人類暫時判斷失誤,通常是可以被道路上其他參與者預測和感知到的,不至於導致太糟糕結果。

這樣的高容錯系統中混入大量自動駕駛車輛很可能是一種災難,因為後者一旦出現錯誤,行為就變得非常詭異,就算是有經驗的人類司機也難以預測它。

儘管自動駕駛車輛能 99% 準確遵守交通規則,仍然會產生各種難以預料的情況。要解決這個問題,大概只能把人類司機徹底排除在交通系統之外,100% 靠自動駕駛。但現階段在法律和政治上毫無疑問是不可行的。

綜合這些情況,可以有一個比較確切的結論:在現在這個階段,人 / 機之間的關係仍然是互相補充,互相發現對方的 Bug。

5.「Autopilot(自動巡航)」誤導不懂技術的使用者

可靠的辦法,是把輔助駕駛技術做為一種應急備份,用來在人失敗的情況下的最後一次補救,而不應該反過來,讓人去彌補機器的錯誤。因為人從放鬆到緊張的狀態切 換不那麼容易,如果以機器為主導,人長時間出於放鬆狀態,等到機器出問題的瞬間,幾乎不可能指望人能有及時而正確的反映。

特斯拉在這方面的行為,無論是用 「Autopilot(自動巡航)」更換「ADAS(高級駕駛輔助系統)」,還是長期對社群以及 YouTube 上那些用戶瘋狂的縱容甚至暗示和鼓勵,都是非常不負責任的。

出了事情很多人會把問題推給用戶,說廠商明確告知了風險,但沒出事的時候所有人都在推波助瀾,誇獎這個技術多麼酷炫。相信廠商也明白,這樣一套系統一旦到了對背景、知識毫無瞭解的用戶手裡,這些用戶是不會在乎這種風險提示的。

Autopilot 這個名字就影響了用戶的認知,再加上社群和媒體的推波助瀾,真是擋也擋不住。如果陰謀論一點的話,廠商甚至是有意默許此事,以獲得更多的自動駕駛里程數據。

在此事之前,媒體都喜歡說 「特斯拉的自動巡航里程迅速上升,已經超過了 Google 好幾年的成果」… 這種行為就如同把機槍送給猴子,天知道他們會作出什麼事情來。這起事件的最終影響還不知道,要等待美國國家公路交通安全管理局的調查結果,最糟糕的情況下,很可能影響整個自動駕駛業的發展。

6.「自動駕駛比人類駕駛的事故率更低」只是一種宣傳說法

道路交通是一個非常微妙的行為,它牽扯到了參與交通所有人共同的默契。

目前這種技術條件下的技術大規模放到普通車輛上,不僅僅是對車主本人的風險,對於路上其他人並不公平。我按照交通規則開車,認為所有人都會遵守跟我差不多的規則,誰會想到旁邊有個自動駕駛的車輛出了 Bug?

如果是專業人員測試,會加倍小心預防各種意外情況,這倒不太可怕。但一般使用者不會這樣,他們把道路上所有人都牽扯進了這場危險的遊戲。這恰恰是其他傳統汽車廠商不敢幹這件事的原因,無論TOYOTA還是BMW,都在駕駛輔助系統上投入巨大,也具有成熟性的產品,但以他們廣泛的車輛使用者數量,如果把這種系統送到用戶手裡,風險就不是這等級了。

媒體還喜歡宣傳的一個口徑是 「自動駕駛比人類駕駛的事故率更低」。但在駕駛這個問題上,比較這種平均數意義並不大。

人類駕駛事故導致的死亡,有相當比例是酒駕、駕駛注意力不集中、超速和不繫安全帶造成的。以加拿大的安大略省為例,2014 年全省十萬人口車禍事故死亡率 3.52 人,在北美算相當低,這裡人們駕駛習慣很好,但這幾個因素仍然佔相當比例:

在 2014 年安省致死的機動車事故數據中,酒駕佔 24.9%,駕駛注意力不集中 17.9%,超速 17.0%,不繫安全帶 12.5%,其他交通違章情況沒統計在內。

美國因為這些問題影響的比例更大,所以如果不做這些違法事情的話,一個人類司機的事故率遠沒有媒體渲染的那麼高。

更何況,人類個體差異相當大,有人 20 年一張罰單都沒有,有人經常出各種事故,這兩者怎麼能平均起來統計成人類的事故率去和自動駕駛比較呢?

在這種情況下,個體的意義大於整體統計數字,而一些輔助系統,比如安全帶警報系統、或者給有酗酒歷史的司機安裝的車內酒精含量檢測系統都可以避免很多潛在事故,從而救了更多的人。甚至嚴格的交通法律,增加執法力度,給予更多培訓都是非常有用的辦法。如果只從降低事故率考慮,上述這些方法遠比試圖用自動駕駛取代人類司機有效。

考慮到無人駕駛的道德問題,也就是在某些特定情況下,讓車上的人類受傷還是讓對面的司機受傷,或者讓周圍的行人死亡,形成的道德困境,那些純自動,車上沒有人,用來運算貨物或者特殊用途的無人駕駛系統似乎更可行一些。

這種車上沒有人,遇到危險情況自己撞下懸岩也只不過是損失了一輛車和貨物,不會讓其他人受傷或者死亡。人機混合在一起的,以機器為主導的自動駕駛系統面對這個道德困境很難有好的解決方案。

在這起事件之後,各國應該會逐步制訂規範無人駕駛的法規,比如至少這樣的車輛應該有明確的標記,讓其他人知道它存在無人駕駛的可能性,路上的其他人類司機有權利知道這件事,並且採用自己的防禦或者規避策略。

或者車輛之間的通訊系統會被制訂成規範,無論是自動車還是人類駕駛的車都會安裝,從而讓車輛瞭解周圍其他車輛的情況。這種聯網系統如果不考慮隱私的話,應該會對交通情況有很大幫助,但它跟自動駕駛並不直接相關,人類駕駛也需要這樣的系統。

綜合這些因素,在短期內,有嚴格限制的更高級的駕駛輔助系統,以及少量的純自動的專業用途車輛,這兩個方向都是有可能實現的,但讓車輛自己駕駛,同時人坐在駕駛座上刮鬍子、吃飯,這種情況應該很難被普及。


「自動駕駛比人類駕駛的事故率更低」只是一種宣傳說法?think這樣的話,Google自動駕駛車,還沒開始生產,就確定不用賣了!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

Tesla未向投資人揭露自駕車肇事意外,遭美國證交會調查

這輛Model S是在啟用自動駕駛模式時撞上對向要左轉的連結車,駕駛人Joshua Brown當場死亡。Tesla雖然通報了美國國家公路交通安全管理局(NHTSA),但並未在財報聲明中揭露,SEC正在討論相關事件是否應被列為「重大事件」而必須公告周知。

Tesla宣稱今年5月發生的意外是自動駕駛模式於去年10月推出,為行駛1.3億哩後首次發生的死亡車禍,而且並未收到SEC的調查通知。

除了這起死亡車禍之外,媒體又揭露了兩起與Tesla自駕模式有關的車禍,本月初一輛Model S在啟用自動駕駛之後,先是撞上道路右邊的護欄,再彈到中間的分隔島,最後車底朝天,另一輛Model X亦是在啟用自動駕駛時,於本周日直接撞擊了道路上的逾20個木樁,車子幾乎全毀,但駕駛與乘客都未受傷。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

自動駕駛神話破滅,特斯拉面臨輿論指責危機被要求禁用「Autopilot」

7 月 14 日晚,美國權威評測雜誌《消費者報告》發文指出特斯拉汽車公司應該停用「Autopilot」駕駛輔助系統的自動轉向功能,並更改該命名,以免誤導車主這個系統能全自動駕駛。

讓用戶做「小白鼠」?

《消費者報告》認為,特斯拉的駕駛輔助系統是未經驗證的技術,特斯拉自己也稱其為「beta 測試系統」,不應該在升級為成熟系統前讓用戶承擔風險。

特別是車輛的自動轉向功能,雖然系統能輔助轉向,但關鍵路況判斷還說依賴車主人工操作,因此要求駕駛員雙手不得離開方向盤,但這種「半自動」的駕駛方式容易讓車主放鬆警惕。

另外,文章指出「Autopilot」這個命名帶有誤導性,可能會讓車主在瞭解系統運作方式之前,誤認為可以放開雙手讓系統完全接管車輛。

對此,特斯拉回應稱暫時不考慮停用和改名,同時承諾正在不斷改進這套系統,內部測試達到數百萬英里,安全性不斷提升,系統的升級也會及時跟進。

連鎖質疑

《消費者報告》當然不是第一個擔憂特斯拉「Autopilot」駕駛輔助系統的,上週美國國家公路交通安全管理局(National Highway Traffic Safety Administration,簡稱 NHTSA )就向特斯拉發出了資料檢測請求。

NHTSA 要求特斯拉提交該系統的設計改進、系統升級、輔助駕駛開關提醒等方面最新資料,以此判斷該系統安全性是否足以在路上行走。

近期針對特斯拉駕駛輔助系統的質疑聲越發密集,導火索就是之前該公司的一輛 Model S 電動汽車在使用自動駕駛功能時發生車禍,致使車主死亡。為此,特斯拉正在接受美國聯邦交通安全管理機構的調查。

外界對自動駕駛系統的心防未卸下的情況下,這起車禍激起輿論是連鎖性的。這次發文直指特斯拉自動駕駛技術過於激進的《消費者報告》,也曾對該技術評價頗高,態度轉折顯然是從這第一次和人命直接相關的車禍開始的。

特斯拉汽車面臨的現狀是,最受關注的「自動駕駛」神話在一點點地退燒中。畢竟新鮮感過後,公眾的關注開始重現回到安全性上面。


特斯拉自己也稱其為「beta 測試系統」?think這種「beta 測試系統」會死亡,還真是恐怖測試!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

釐清自駕車事故責任,德國擬立法要求加裝黑盒子

德國政府打算立定新法,要求車廠在具備自動駕駛功能的汽車上,加裝俗稱黑盒子的系統紀錄器,以期若有事故發生,能夠據以釐清相關責任歸屬。

德國運輸部近日提出新草案,打算要求汽車駕駛在開啟自動駕駛功能時,儘管不需要留意交通狀況或操持排檔桿,但必須維持駕駛姿勢,以在緊急情況下能夠立刻接手駕駛。伴隨這項草案出爐的還有新增黑盒子設備的要求,該裝置必須在自動駕駛、手動駕駛模式下,以及系統要求駕駛接管時,對汽車運作狀況進行紀錄。

該法案預計還需要經過跨部會審核,預計夏季結束前會正式提出。

日前Tesla Model S系列車款在自動駕駛模式下發生的死亡意外,讓汽車業與政府監理機構都密切關注自動駕駛車的安全問題,並希望透過新機制確保相關技術能夠安全運行。


加裝俗稱黑盒子的系統紀錄器?think如果是「若有事故發生,能夠據以釐清相關責任歸屬」應該是全部的「自動車」全部都要加裝「系統紀錄器」才對!yell理論上,人類駕駛出事的機率更高!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

自駕車死亡車禍報告:Tesla無安全缺失,是駕駛疏忽

由電動車業者Tesla所生產的一輛Model S電動車在去年第二季啟用自動駕駛時發生死亡車禍,美國國家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)對該事件展開調查,調查結果於本周出爐,顯示Tesla的系統並無安全上的缺陷,還說自動緊急剎車系統(Automatic Emergency Braking,AEB)可以減少40%的後方追撞意外。

負責調查此事的是NHTSA的缺陷調查辦公室(Office of Defects Investigation,ODI),主要檢驗Tesla自動駕駛系統的設計與性能,包含AEB、人機介面、AEB與自動駕駛系統在遭遇意外時的資料,以及Tesla曾於AEB與自動駕駛系統上所作的變更。

調查結果顯示,並沒有在Tesla的AEB或自動駕駛系統的設計與性能上發現任何缺陷,也沒有發現這些系統未依照原本的設計執行。

去年那一起車禍的肇事原因是直行的Model S撞上了對向正要左轉的聯結車,且當時那輛Model S啟用了自動駕駛系統。

根據NHTSA的說明,AEB的主要用途為避免從後方追撞前車,並未適用於所有的車禍型態,而基於先進駕駛輔助系統(Advanced Driver Assistance Systems,ADAS)的自動駕駛系統則是要求駕駛必須持續與全面注意交通環境,以隨時採取行動,避免車禍的發生。

此外,NHTSA還強調AEB可降低40%的後方追撞意外,估計到2025年時,AEB將能避免2.8萬次的追撞意外,因此而受傷的人數也會減少1.2萬名。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

特斯拉致命車禍調查結果出爐:自動駕駛沒犯錯,它比人類駕駛更安全

現在,特斯拉應該長舒一口氣——經過長達半年的調查之後,美國國家公路交通安全局(National Highway Traffic Safety Adminstration,簡稱NHTSA)確認,特斯拉的自動駕駛系統 Autopilot 並無功能缺陷,也無需安全召回。

事情得回憶一年多以前,2015 年 5 月,約書亞·布朗在美國佛羅里達州的公路上遭遇嚴重車禍身亡。他駕駛的是特斯拉 Model S,事發時開啟了「自動駕駛」(Autopilot)模式,一輛卡車在特斯拉對面道路垂直左轉,後者的駕駛員和自動駕駛系統都未能採取行動,Model S 徑直撞向卡車,從底部穿過後脫離道路,最後撞到電線杆釀成了悲劇。

車禍引發了激烈討論,關於自動駕駛是否安全以及事發時它是不是失靈的討論,使特斯拉承受了極大壓力。甚至有人認為,特斯拉應該「召回」自動駕駛功能。去年 7 月,NHTSA確認介入了車禍調查,該機構也一直致力於「如何讓各種新的自動化安全技術在道路上安全地執行」的研究。

6 個月後的現在,NHTSA公佈了調查結果。一份 13 頁的報告顯示:

1)事發時,特斯拉的自動駕駛系統沒有出現故障;

2)特斯拉配備的自動剎車(ABE)和自動駕駛系統都有限制條件,事發時的狀況本來就超出了系統設計的適用範圍;

3)自動駕駛系統仍然需要人類駕駛員全神貫注;

4)自動駕駛系統顯著提高了安全性。引入自動駕駛後,特斯拉車禍發生率已經降低 40%。

自動剎車和自動駕駛再好,視野也有「盲區」

車禍發生時當天,天氣晴朗,道路乾燥而且能見度很好,但是NHTSA表示,不管是人類,還是特斯拉的自動剎車和自動駕駛系統,都沒有進行剎車,直到兩車相撞前 2 秒,特斯拉還以 74 英里(約 119 公里)的時速前行。

問題的關鍵在於,不管是自動剎車還是自動駕駛系統,當時的情況都超出了它們能感知的範圍。

首先,自動剎車系統(ABE)的應用已經超過 10 年,它和自動駕駛(Autopilot)是相互獨立的,很多品牌的高階車型中都有自動剎車系統。它主要用於感知前方車輛,接近追撞時,它會向駕駛員發出警告,如果情況緊急,它也會主動進行自動剎車。特斯拉也有自動剎車系統,而且預設開啟。

但是,對於側方車輛,尤其是十字路口垂直方向的來車,自動剎車系統的感知能力很弱,它本來也不是為這個狀況設計的。在這種情況下,自動剎車反應遲緩甚至根本不起作用。

特斯拉在 2015 年 10 月透過軟體工具更新的方式引入了自動駕駛,主要包含兩個功能:主動巡航定速(TACC)和自動巡航(Autosteer)。前一個模式會讓車輛在駕駛員設定的速度下自動行駛,當檢測到前方車輛時,它還會自動減速保持合適的距離;後面的模式則使用鏡頭、雷射雷達探測路標和前方車輛,使特斯拉能夠自動行駛在道路中間。

兩個功能都有限制,他們主要感知前方車輛和物體,側方出現的車輛在自動駕駛系統的盲點區內。特斯拉也明確告知,這兩個功能的應用情境是高速公路。

自動駕駛雖準確,但駕駛員最好專心點 

所以,在自動駕駛模式下,依然需要駕駛員全神貫注,並隨時準備接管。

根據事後的資料,在車禍發生前,約書亞有至少 7 秒的反應時間,而絕大多數車禍是在 3-4 秒內發生的,如果他當時保持專注,是完全有可能避免悲劇發生的。交通安全局之所以認為特斯拉的自動駕駛系統不是車禍的「罪魁禍首」,很重要的原因是它已經盡到了提醒的義務。

首先,自動駕駛模式是預設關閉的,在用戶協議裡,它也明確告知用戶,使用自動駕駛時依然需要把雙手放在方向盤上並隨時準備接管。之後,在用戶每次啟動自動駕駛時,中控台的螢幕幕都會彈出對話框再次強調這一訊息。

另外,如果系統感知到駕駛員的雙手不在方向盤上,它就會發出警報。如果駕駛員不在 15 秒內做出回應,警報聲會越來越大,如果駕駛員依然置之不理,系統會自動地當前車道緩慢減速,直到駕駛員雙手再次回到方向盤。

如果操作得當,自動駕駛可令車禍發生率降低 40%

雖然看起來有如此多的限制,自動駕駛依然顯著提高了汽車的安全性。交通安全局分析了 2014 年到 2016 年,所有裝備了自動駕駛功能的特斯拉 Model S 和 Model X 發現,安裝自動駕駛後,造成彈出安全氣囊的車禍的平均數量,已經從每 100 萬英里 1.3 起,降低到每 100 萬英里 0.8 起。車禍發生率降低了近 40%。

約書亞·布朗可能是人類歷史上第一個在「自動駕駛」的汽車上失去生命的人,他的死是一個悲劇,也讓大家清楚了現在的自動駕駛技術的侷限。

從布朗生前在社交網站發佈的內容,我們得知他是特斯拉的忠實擁躉,他曾在影片中熱情地展示過自動駕駛技術,甚至有一次,他大力稱讚自動駕駛系統避免了一起事故。正如特斯拉在車禍後的聲明,布朗「一生專注於創新和技術發展,對特斯拉的使命堅信不移」。如今逝者已去,但也意味著我們在探索更安全的自動駕駛技術上,應該永不止步。 

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

Tesla首宗死亡車禍調查出爐:車子曾7次發出手握方向盤警告

美國國家運輸安全委員會(National Transportation Safety Board, NTSB)周二公佈去年Tesla首宗死亡車禍的調查報告 ,顯示車子在發生事故前,曾經多次發出警告要求車主將手放回方向盤。 

去年5月美國佛州居民Joshua Brown駕駛Tesla Model S,車輛在啟動自動駕駛模式下撞上了正要向左轉的聯結車,隨後衝向路肩車毁人亡。事發後這件Tesla首宗致死車禍引發自駕車安全性的關注,有關主管機關也介入調查。 

NTSB的調查報告也揭露了來自出事的Tesla事發前41分鐘的詳細系統效能資訊。報告顯示,在41分鐘內Tesla的自動駕駛(Autopilot)軟體運作了37分鐘,並偵測到車主雙手握方向盤的時間僅25秒。在這段期間,車子7次發出視覺警告,顯示「未偵測到雙手未依要求放在方向盤上」,其中6次還伴隨警鈴聲,最後一次警告甚至長達6分鐘。Brown在每次警告後,手放回方向盤上時間僅1到3秒。 

出事時的Tesla時速約為119公里。LA Times引述NTSB調查員表示,事發時駕駛人可能因為正在講手機,而未能看到聯結車並及時踩煞車。 

今年一月美國國家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)也公佈本事件調查結果,顯示Tesla的系統並無安全上的缺陷。 

Tesla曾經多次申明Autopilot只是輔助駕駛系統,車主必須全程手握方向盤,並隨時取得開車主控權。而在本事件後,Tesla也更新了Autopilot的功能,包括自動轉向功能限制8公里時速,以及一旦車主未回應安全警示,就會無法使用Autopilot功能駕駛等。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏
Forums  ›  新聞話題  ›  商務