關於特斯拉 FSD 是否會碾過孩子或假孩子的爭論沒有抓住重點

A 最近的影片 來自特斯拉TSLA
-“黎明計劃”的評論家 Dan O'Dowd 展示了一條由錐形道路組成的測試跑道。 在那裡,一名司機使用特斯拉的 FSD 原型車駛向一個兒童碰撞假人並撞上了它。 有人認為,Telsa FSD 不能為兒童可靠地剎車。 O'Dowd 的批評者聲稱該視頻是偽造的或製作不當,一些人自己做了演示,包括讓所有人都感到苦惱的是,對真正的現場“志願者”兒童進行測試。 很少有人考慮像 Tesla FSD 這樣的原型車是否應該為兒童可靠地制動,這是一個真正有趣的問題。

奧多德經常寫信說他希望禁止特斯拉 FSD。 我之前報導過他的競選活動, 他最近參加了加州參議院提名的競選,只是為了投放反特斯拉 FSD 的競選廣告。 他自然激起了埃隆·馬斯克 (Elon Musk) 和直言不諱的支持特斯拉社區的憤怒。 因此,立即發生了爭吵。 上面鏈接的原始視頻並未顯示 FSD 已激活,但後來的版本顯示已激活。 一些人認為難以閱讀的屏幕圖像表示駕駛員正在踩下踏板。 其他數據顯示汽車減速或發出警告,關於演示的真實性爭論不休。

ADVERTISEMENT

這次示威被選為挑釁性的,因為沒有什麼比汽車撞到孩子更可怕的了。 在美國,每天有 3 名兒童死於車禍,每年約有 170 名行人兒童被汽車撞死。 對於許多人來說,他們的反應是,任何會碾壓孩子的技術都是不可接受的。 NHTHT
SA 確實開始調查 Tesla Autopilot(已發布產品)的部署,並開始研究 FSD 原型。 拉爾夫·納德 (Ralph Nader) 等其他人也呼籲讓 FSD 原型車停止上路。 在極少數人用真實的孩子重複測試後,NHTSA 發出警告不要這樣做,Youtube 也撤下了人們這樣做的視頻。 據報導,特斯拉還要求刪除他們的汽車撞擊測試假人的視頻。 《華盛頓郵報》報導說看到了一封來自特斯拉的停止和終止信。

這個問題非常複雜,而且並不少見,沒有人完全正確。 FSD 系統雖然稱為測試版,但更準確地說是原型。 在大多數開發人員看來,自動駕駛原型(和測試版)確實需要在路上進行大量測試,每個團隊都這樣做,由人類“安全駕駛員”監控系統並在系統出錯時定期進行干預以防止事故發生。 特斯拉的不同尋常之處在於,它允許普通客戶參與這項測試,而所有其他公司都有經過一定程度培訓的員工來完成這項任務,而且通常每輛車有 2 名員工。

原型,就其本質而言,會失敗,包括在重要的事情上,比如在路上為行人停下來。 每個團隊,從最好的 Waymo 到最差的,都把車輛放在路上,除了乾預之外,這些車輛經常會做一些非常糟糕的事情,而且大多數人認為,對這種早期階段的車輛進行測試對於取得進展並最終部署汽車來說是而且仍然是必要的。 一旦部署,這些汽車將具有更高的質量並挽救生命——很多人——所以每個人都希望盡快部署,但關於我們如何達到這一點以及何時達到這一點還有很多問題需要討論它。

ADVERTISEMENT

駕駛員輔助與自動駕駛

除了特斯拉使用客戶來測試他們的原型是否是個好主意的問題外,許多問題都圍繞著駕駛員輔助系統之間的差異,這涉及到一個人完全參與駕駛,但監督系統而不是物理移動不需要人工監督的控制和自動駕駛系統(事實上,車輛可以在沒有人的情況下運行。)

許多業內人士認為,這是兩個截然不同的東西,NHTSA 將它們宣佈為只是兩個不同“級別”的自動化技術是錯誤的。 Aurora 自動駕駛聯合創始人 Sterling Anderson 認為,從駕駛員輔助(或 ADAS,高級駕駛員輔助)轉向自動駕駛就像試圖通過建造更高的梯子登上月球。

第一個讓人們把腳從踏板上移開的大型高級駕駛員輔助系統是巡航控制系統,特別是自適應巡航控制系統。 後來,車道保持系統出現了,它可以讓你的手離開方向盤,很快這兩者就結合在了特斯拉“Autopilot”這樣的產品中。 作為 ADAS(駕駛員輔助)工具,這些工具需要全神貫注地使用。

ADVERTISEMENT

雖然一開始並不是每個人都相信,但今天的普遍結論是這些系統有效,不會在路上造成危險。 起初人們甚至對基本的巡航控制系統都持懷疑態度,但它很快成為汽車上非常普遍的功能。

Tesla Autopilot 出於各種原因提出了新問題,但最有趣的問題圍繞著這樣一個事實,即它在功能上明顯優於早期產品,包括更簡單的巡航控制系統——但這種優勢實際上可能使其更危險,從而變得更差。 一個奇怪的悖論出現了,系統越好,結果可能越差,因為高級系統會導致“自動化自滿”,即監督司機不太注意道路。 (一些人還認為,特斯拉的“Autopilot”和 FSD 名稱助長了這種自滿情緒,圍繞這些產品的公眾信息也同樣如此。)

這不是一個很好的悖論。 我們想開發更好的系統,但是如果一個系統在你讓它變得更好的過程中整體變得更糟,那麼當你穿越危險的山谷時,在事情變得更好之前變得更糟的情況下,很難獲得真正好的系統。 今天,我們絕不會因為標準巡航控制系統會撞到孩子或闖紅燈而責備它——這些系統要簡單得多,根本沒有能力避免這些錯誤。 但是許多人想要指責為大多數障礙而停止的更高級的系統,因為它不會 100% 停止——儘管沒有系統會完美到可以避免 100% 的錯誤,儘管人類也不會完美。

ADVERTISEMENT

我在內華達州和加利福尼亞州參與了世界上第一部自動駕駛測試法的起草工作。 玩家們同意應該有一些關於如何在道路上進行測試的基本規則(以前的規則並沒有禁止它,因為當然沒有人想過這樣做。)與此同時,銷售 ADAS 工具的汽車製造商確實不希望他們的 ADAS 汽車受到自動駕駛測試法規的約束,因此 ADAS 操作被排除在這些法規之外。

特別是在加利福尼亞州,這產生了一個懸而未決的問題。 所有的自動駕駛測試(除了最近的一些例外)都是在一名安全駕駛員的監督下完成的。 這樣就非常像駕駛 ADAS 汽車。 法律在這方面的區別並不明確,這造成了一些有趣的情況。 同樣參與起草法規的安東尼·萊萬多夫斯基後來擔任優步的負責人UBER
反恐精英。 他宣稱,因為當時他們所有的車都只有安全駕駛員在運行,這是ADAS,優步不需要遵守自動駕駛測試規定。 加州 DMV 說不,在這種邏輯下沒有人在測試自動駕駛,這不是法律的意圖。 他們告訴優步,他們需要註冊為自動駕駛測試車輛,否則他們將使用他們的特殊權力拉掉優步汽車的車牌。 優步答應了。

ADVERTISEMENT

DMV 採取的方法是,如果你正在嘗試製作一個自動駕駛系統,即使它是一個早期不完整的系統,需要監督並且總是受到監督,你應該被視為一個受規則約束的自動駕駛測試公司。

儘管如此,特斯拉仍在沿用同樣的做法。 由於特斯拉確實有 ADAS 產品,他們從未向國家報告進行過任何自動駕駛測試。 到目前為止,DMV 放任自流——甚至特斯拉員工對特斯拉 FSD 的測試也很難與他們阻止 Uber 做的事情區分開來。 DMV 可能會對此進行監管。 但是客戶使用情況如何,它是正式的(如果您閱讀細則並忽略名稱)駕駛員輔助工具嗎?

但它似乎工作

解決這個問題的主要方法是確保監管關注度保持高水平。 為此有多種技術,包括以各種方式監視駕駛員並在他們不注意時嘮叨他們,或者如前所述,訓練有素的專業駕駛員,甚至是他們的團隊,多隻眼睛盯著道路。 幾十年來,我們一直在駕駛學校培訓青少年司機,讓教練可以抓住方向盤,並有自己的剎車來停車,這個系統運作良好。

ADVERTISEMENT

到目前為止,強有力的結論是這是可行的。 Waymo 等主要自動駕駛公司的安全記錄堪稱典範。 Waymo 報告稱在 20 年對安全駕駛員進行了超過 2021 萬英里的測試,期間可能發生了 2 起過失事故。 在那段時間裡,人類平均會發生近 40 起事故。 正如在駕駛教練的指導下駕駛的學生比剛拿到執照的司機做得更好一樣,監控系統顯然有效,而且這些車輛實際上對公眾造成的風險比普通人的類似駕駛要小。

至少在美國,如果沒有人受傷——或者至少如果風險水平低於普通駕駛——一項活動通常不會受到監管。 美國的做法要寬鬆得多——你不必證明你所做的是安全的,但如果事實證明它不安全,你可能會被攔下並被認定對你造成的任何傷害負責。 其他一些國家/地區會要求監管機構提前決定某事是否安全,而更高的標準更不利於創新。

當然,在一個著名的案例中,安全駕駛員方法導致了致命事故,Uber ATG 的車輛在亞利桑那州撞死了一名行人。 NTSB 的調查和後來的法庭案件發現安全司機疏忽大意(她在看電視而不是做她的工作),儘管 Uber 也因管理安全司機的文化不佳而導致了這一錯誤。 然而,重要的結論是 安全駕駛系統有效且本身不會將公眾置於不應有的風險之中,儘管人類安全駕駛員顯然有可能疏忽並導致高風險。

ADVERTISEMENT

這就是訓練有素的付費司機的系統。 特斯拉走得更遠,讓普通客戶來做這項工作。 已經發生了多起特斯拉司機在監督 Autopilot 產品時明顯疏忽的事件,並發生了包括致命事故在內的撞車事故。 然而,Tesla 汽車使用 Autopilot 行駛的里程比任何自動駕駛團隊都要多得多,因此負面甚至悲劇事件的存在並不一定證明該系統使公眾面臨更大的風險。

每個季度,特斯拉都會發布誤導性統計數據,指出使用 Autopilot 的司機的安全記錄要好於不使用 Autopilot 的司機,儘管有些 Autopilot 用戶存在疏忽。 雖然這些數字無異於謊言, 我和其他人試圖對實數進行逆向工程, 實際數字並沒有那麼糟糕,這表明 Autopilot 用戶的安全記錄與非用戶相似。 雖然它並不優越,但也不會使人們面臨額外的風險。 結果非常接近,以至於 NHTSA 正在對特斯拉的緊急車輛事故進行調查。 目前尚不清楚他們是否會採取預防措施或查看整體安全記錄。

許多人建議特斯拉可以通過更好的駕駛員監控來改善他們的記錄。 標準監控只是要求駕駛員定期對車輪施力。 其他公司有攝像頭可以觀察司機的眼睛,以確保他們正在看路——如果 Uber ATG 這樣做,他們就可以避免他們的死亡。 特斯拉最近也開始使用駕駛員注視監控。

ADVERTISEMENT

應該指出的是,將特斯拉自動駕駛儀的安全性顯示為類似於常規駕駛的計算是功利主義的。 這實際上是一小部分粗心的 Autopilot 用戶中較高的事故率,他們忽略了道路或進入自動化自滿狀態,而那些勤奮的人則有更好的安全記錄。 我們在這方面遇到了哲學上的困難——我們不喜歡讓一些人承擔更高的風險,即使更多的人風險更低。 我們不太喜歡它,以至於我們可能會剝奪勤奮的人們一種使他們更安全地保護那些疏忽大意的人的工具,儘管這不是我們的目標。

FSD呢

以上數據為Autopilot,屬於出貨產品。 Tesla FSD 不是運輸產品。 他們稱之為“測試版”(在發布前的最後一個測試階段幾乎是最終產品),但事實並非如此。 他們現在有超過 100,000 名特斯拉車主試用。 為了使用它,車主必須支付一筆費用(現在漲到 15,000 美元)來預訂最終的 FSD 系統,並通過一種安全駕駛測試才能進入測試隊列。 安全駕駛考試在很大程度上是偽造的,並沒有測試您真正想要完成這項任務的內容,但這確實意味著並不是每個付錢的人都能得到它。

他們警告司機,該系統有很多錯誤,需要像 ADAS 一樣不斷監督,並說,“它會在最壞的時候做錯事。” 這是一個相當明確的說法,但與此同時,“全自動駕駛”這個名稱顯然會讓人聯想到與 ADAS 不同的形象。 我駕駛過該系統,並判斷其作為自動駕駛系統的性能相當差。

ADVERTISEMENT

即便如此,儘管直覺恰恰相反,特斯拉的方法似乎奏效了。 該系統擁有 100,000 名司機,運行了數百萬英里(儘管沒有關於每個司機使用該系統的公開數據。)我們也知道,對於涉及 FSD 測試的任何事故,公眾都會進行大量審查系統,只有少數小事件被公之於眾。 雖然一些 Tesla FSD 測試員是 Tesla 的鐵桿粉絲,他們可能會隱瞞他們發生的事故,但發生大量重大事故而沒有被揭露的可能性極小。 任何嚴重的警察報告事故,尤其是傷害事故,都非常有可能引起注意,就像他們對 Autopilot 所做的那樣。

然而我們看不到它們。 雖然這不是真正的科學分析,但特斯拉的 FSD 計劃目前似乎並未將公眾置於危險之中。 這可能歸因於系統有多糟糕。 大多數司機都知道,如果不注意這個系統的當前狀態,那將是非常愚蠢的。 隨著它變得更好,這可能會改變。 如果您考慮更原始的基本巡航控制系統,它會起作用,因為沒有人敢在使用它時不注意道路。

ADVERTISEMENT

特斯拉的命名

特斯拉對自己的產品名稱毫無幫助。 許多人對 Autopilot 這個名字持批評態度,因為(錯誤的)公眾看法是飛機自動駕駛儀是靠自己駕駛飛機的。 事實上,飛機自動駕駛儀是一個比特斯拉的汽車自動駕駛儀簡單得多的系統,它之所以起作用,是因為在空中,你離可能撞到的任何東西都很遠。 不過,這並不能阻止錯誤的公眾看法。 對於 FSD,情況更糟。 它還沒有達到自動駕駛的水平,甚至還沒有接近,而且肯定還沒有“完全”。 這種混淆導致 Waymo 放棄使用自動駕駛這個詞來描述他們的產品,因為擔心特斯拉在公眾心目中錯誤地定義了這個詞。

特斯拉真的不需要對其產品進行更多宣傳。 他們賣掉所有他們能做的。 令人困惑的是,他們故意使用這些名稱而不是低估和過度提供。 他們會為自己省去很多悲傷——除了那種“所有的宣傳都是好的宣傳”。

那麼,如果特斯拉會撞到一個兒童大小的假人,可以嗎?

令人驚訝的答案是“可能”。 所有的測試原型系統都會這樣做,除非禁止所有原型測試,否則即使在兒童碰撞這樣令人回味的問題上也無法要求完美。 很難制定一個禁止特斯拉 FSD 的監管制度,同時又不禁止或減緩非常重要的技術的發展,這些技術將及時挽救數百萬人的生命。 數百萬人的生命不是一件小事,這將是人類歷史上安全方面最偉大的進步之一。

ADVERTISEMENT

至多,我們可以嘗試定義事物,以便那些監督此類測試系統的人滿足某些標準。 我們可能會堅持讓他們得到更好的監控(特斯拉正在這樣做)。我們可能會要求他們專業或通過測試,但隨後我們會創建一個機構來定義和執行這些測試,這會很麻煩。 只要通過筆試並獲得健康證明,就可以成為駕駛教練,不需要進行現場技能測試。

儘管如此,我們可以為誰可以監督原型系統定義一套規則,這可能會阻止特斯拉的活動。 但這樣做就會陷入“越好越不喜歡”的悖論。 我們不想讓越過那個山谷成為一個更好的系統變得更加困難。 真正的問題是,如果沒有人受傷,我們為什麼還要去那裡。 目前還沒有人受傷的報告,當然也沒有任何程度的傷害表明比普通駕駛有更大的風險。 我們不想陷入禁止事物的陷阱,因為我們直覺它們是危險的。 我們只想禁止實際上是危險的東西。

特斯拉 FSD 測試很可能稍後會變得太危險。 這可能是由於自動化自滿或系統更改而發生的。 特斯拉被要求向當局報告在系統測試期間發生了多少事件是合理的,這樣我們就可以知道它是否以及何時變得危險。 O'Dowd 的“我們應該禁止它,因為在我看來這很危險”的方法是錯誤的,至少在美國是這樣。

ADVERTISEMENT

在這裡閱讀並發表評論

來源:https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child-錯過重點/