據悉,這起事故發生在美國賓夕法尼亞州貝德福德市(Bedford)收費公路的出口,車輛在駛離出口時撞上右側道路護欄,隨后反彈至中央隔離帶,并發生側翻。據駕駛人艾伯特·斯卡格里奧內(Albert Scaglione)向警方描述,事發時汽車正處于Autopilot自動駕駛模式。
繼Tesla Model S發生交通事故導致駕駛員斃命之后,7月6日又發生一起Tesla Model X因為使用Autopilot導致的交通事故。
據悉,這起事故發生在美國賓夕法尼亞州貝德福德市(Bedford)收費公路的出口,車輛在駛離出口時撞上右側道路護欄,隨后反彈至中央隔離帶,并發生側翻。據駕駛人艾伯特·斯卡格里奧內(Albert Scaglione)向警方描述,事發時汽車正處于Autopilot自動駕駛模式。
NHTSA日前宣布,正對Tesla Model S電動汽車展開初步調查,如果經查發現Autopilot自動駕駛功的確存在不安全因素,NHTSA將責令特斯拉召回相應的Model S汽車。
Tesla為Autopilot辯護的邏輯
自從推出Autopilot之后,Tesla就一直提醒司機,這是一項測試功能,在開啟該功能后,司機仍需要將手放到方向盤上,繼續保持對汽車的控制。在Model S發生致命車禍之后,Tesla辯稱,那次車禍是Model S系列汽車自動駕駛功能激活使用行駛1.3億多英里過程中,遇到的第一起致命事故,而全世界平均每6千萬英里行程就會發生一起致命車禍。
聽起來Tesla的邏輯似乎是,反正全世界每年因為交通事故都要死這么多人,現在我們的Autopilot功能也只不過才死一個而已,而且是開了1.3億英里之后哦!你們有什么資格說我不安全?
其實仔細想想,這種邏輯似乎也有其一定的道理,聽起來也有點耳熟。就好像吸煙的人吐槽室外禁煙區域時,總會提到空氣污染一樣,反正大家都要呼吸,這城市因為霧霾致死的大有人在,吸煙致死的少得多,你們憑什么說我吸煙危害他人健康?
Tesla為Autopilot辯護的另一個理由是,Autopilot會根據車主駕駛時搜集到的數據,進行分析、學習,不斷改進、越變越好,也就是馬斯克所說的Fleet Learning功能。這個功能的關鍵,就是要積累足夠多的使用數據,通過Tesla的計算中心與電動車的雙向數據溝通,實現Autopilot升級的效果。
Autopilot的本質是什么?
但是,需要指出的是,Autopilot仍舊處于“早期測試狀態”,通常在這種開發狀態下的軟件功能,是不會用于量產車上的。也許是為了讓車主幫助搜集數據,也許是對自動駕駛功能迫不及待,Tesla不僅將Autopilot推向了大眾市場,而且在宣傳中極力鼓吹Autopilot的先進。
一方面,Tesla在Autopilot的介紹中反復強調這個功能有多么的方便;另一方面,Tesla又要求車主將雙手放在方向盤上,在緊急時刻隨時準備控制好汽車。我們來試想一下,這種使用狀態,車主既沒有辦法完全享受Autopilot帶來的便利,也沒有真正享受純粹的駕駛樂趣,而且可能還要保持注意力高度集中——因為你不知道什么時候Autopilot就出問題了。
那么這樣一來,車主和Autopilot功能的測試駕駛員有什么分別?可能唯一的區別是,Tesla會向測試駕駛員支付工資,并提供其他一系列相關法律要求的待遇保障。而使用Autopilot的車主,不僅要自己買車,自己掏錢升級,使用Autopilot過程中搜集的數據,Tesla也不會付錢,還要自己承擔發生事故的風險。像本文初提到的Model S事故,Tesla還要把責任完全推到車主身上。
致命事故的事實證明,Tesla的Autopilot功能是有安全隱患的。Tesla敢于讓自掏腰包的車主們去當“小白鼠”,這一點,實在是令人不敢恭維。更令人遺憾的是,大量繼續在使用Autopilot的Tesla車主仍舊蒙在鼓里。
免責聲明:本文內容由互聯網用戶自發貢獻自行上傳,本網站不擁有所有權,也不承認相關法律責任。如果您發現本社區中有涉嫌抄襲的內容,請發送郵件至:operations@xinnet.com進行舉報,并提供相關證據,一經查實,本站將立刻刪除涉嫌侵權內容。