人工智能倫理與不可避免的人工智能事故作鬥爭,這也籠罩在自動駕駛汽車上

您是否認識一個特別容易發生事故的人?

看來我們都這樣。

也許這個人是那種容易被香蕉皮滑倒或打翻客廳裡珍貴花瓶的人。 他們就像一塊磁鐵,吸引著各種各樣的事故。 情況可能會很糟糕,有時您甚至不願意靠近他們。 你可能會遭受不祥的溢出,或者遭受他們的一次令人不快的事故的不光彩的後果。

但當我們暗示任何人都比其他人更容易發生事故時,我們可能過於嚴厲了。 可以說,事故可能發生在我們任何人身上。 我們都有可能發生或捲入事故。 包括我們中最好的人。

讓我們在這個討論的基礎上再提出一個更令人煩惱的問題。

事故是不可避免的嗎?

換句話說,無論我們如何努力防止事故發生,事故仍然有可能發生,並且最終肯定會發生。 您可以尋求保護世界免受事故的影響。 這看起來無疑是謹慎的。 但無論怎樣,事故仍然會出現。

正如他們所說,事故隨時可能發生。

將某些事件適當地標記為事故可能有助於澄清其含義。 通常的字典定義是,事故是一種意外和無意發生的事件,其結果是造成類似損害或傷害的不幸結果。

用心解開這個定義。

上述事件是出人意料的。 這意味著我們似乎沒有意識到事故本身會發生。

上述事件純屬無意。 這表明我們應該排除有人故意促使事件發生的情況。 如果一個惡作劇者在地板上放了一塊香蕉皮,而他們知道一個不幸且毫無戒心的無辜者會踩到這個地方,你就很難斷言被香蕉皮絆倒的人遭遇了事故。 相反,他們被欺騙並被陰險地引入陷阱。

該定義還包括結果是不幸的標準。 從這個角度來看,一旦發生事故,必然會導致糟糕的結果。 不小心打翻花瓶的人已經破裂,並可能損壞了令人喜愛的物品,無法修復。 花瓶的主人因價值損失而受到傷害。 撞進花瓶的人現在可能欠失主的損失。 但願不會有人因為花瓶的破裂而被割傷或報廢。

為了平衡起見,我們可能要指出,也存在所謂的“好”事故。 一個人可能會因事故而發財或獲得其他重要利益。 最常被引用的例子之一是亞歷山大·弗萊明爵士和他廣受讚譽的青黴素發現。 據說,他在實驗室裡有點粗心,兩週假期回來後,他在一個培養皿上發現了黴菌。 據報導,他談到此事時這樣說道:“有時候,人們會找到自己不想要的東西。 28 年 1928 月 XNUMX 日黎明時分,當我醒來時,我當然不打算通過發現世界上第一個抗生素或細菌殺手來徹底改變所有醫學。 但我想這正是我所做的。”

我們先把有利的事故放在一邊,重點討論不利的事故。 事故的皺眉臉版本是指那些不良後果可能特別危及生命或產生嚴重後果的情況。 我們希望盡可能減少負面事故(當然,如果可行的話,我們也希望最大化正面事故,儘管我將在後面的專欄中介紹笑臉變體)。

我想稍微改一下之前關於事故不可避免性的問題。 到目前為止,我們一直關注在單個人的特定情況下發生的事故。 毫無疑問,事故也會同時影響多人。 當人們沉浸在某種複雜的系統中時,尤其會遇到這種情況。

準備好應對之前提出的問題的變體。

系統事故是不可避免的嗎?

我們應該仔細考慮一下。

假設有一個工廠車間是用來生產汽車零件的。 可以說,工廠的設計者非常擔心可能發生的工人事故。 工廠工人必須始終佩戴頭盔。 工廠裡張貼著告示,提醒大家注意工作中的事故,小心謹慎。 採取一切預防措施以避免事故發生。

在這個系統中,我們可能希望沒有人發生事故。 您相信發生事故的可能性為零嗎? 我敢說,任何理性的思考者都不會打賭在這種情況下發生事故的可能性為零。 發生事故的可能性可能非常低,但我們仍然知道並假設,儘管採取了所有預防措施,仍然存在一定程度的發生事故的風險。

所有這些都表明,在一個足夠複雜的系統中,我們必然相信事故仍然會發生,無論我們如何努力防止事故發生。 我們不情願地承認系統事故確實是不可避免的。 這種規模的宏大聲明可能會附帶一個警告,即該系統必須具有一定的複雜性閾值,因此基本上不可能覆蓋所有基礎以完全防止事故發生。

現在,您已經一步一步地了解了有關事故的概括性理論,這些理論可以被標記為正常事故或正常事故理論 (NAT)。 以下是研究過這一概念的研究人員的簡單描述:“在足夠大的範圍內,任何系統都會產生‘正常事故’。 這些是由於復雜性、組件之間的耦合和潛在危害的組合而導致的不可避免的事故。 正常事故與更常見的組件故障事故不同,系統操作員無法理解導致正常事故的事件和相互作用”(如 Robert Williams 和羅曼·揚波爾斯基, 經營理念 雜誌)。

我帶你來到所謂的土地的原因 正常事故 我們可能需要仔細地將這一理論應用於我們社會中逐漸且不可避免地變得無處不在的事物,即人工智能(AI)的出現。

讓我們深入探討一下。

有些人錯誤地認為人工智能將會是完美的。 據推測,人工智能係統不會犯錯誤,也不會給我們帶來麻煩。 你需要做的就是確保那些人工智能開發人員做得足夠好,瞧,人工智能永遠不會做任何可能被解釋為意外或引發事故的事情。

對於這個假設的信念並沒有那麼快。 如果你願意接受這個理論 正常事故任何實質性複雜性的人工智能都將不可避免地帶來事故。 無論人工智能開發人員為防止事故做了多少深夜修補,人工智能肯定會在某個時間點捲入事故。 這就是餅乾破碎的方式。 為這件事在打翻的牛奶中哭泣是沒有喘息機會的。

思考人工智能的混搭和概念原則 正常事故.

設想我們擁有一個控制核武器的人工智能係統。 AI經過精心設計。 每一個可以想到的製衡都已被編碼到人工智能係統中。 我們是否能夠免受可能發生的基於人工智能的事故的影響? 那些支持正常事故觀點的人會說,我們並不像想像的那麼安全。 鑑於人工智能可能特別複雜,一場普通的事故就靜靜地等待著有一天出現,也許是在最糟糕的時刻。

這些棘手問題和疑慮的要點是,我們必須保持警惕,人工智能注定會發生事故,而人類必須對可能隨之而來的危險採取明智和主動的行動。 正如您在一兩分鐘後就會看到的那樣,在使用人工智能時,這是一個迫在眉睫的考慮因素,而人工智能倫理和道德人工智能領域正在就該做什麼進行相當多的爭論。 有關我對人工智能倫理和道德人工智能的持續和廣泛的報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

在我們陷入兔子洞之前,讓我們確保我們對人工智能的本質達成共識。 今天還沒有任何有感知能力的人工智能。 我們沒有這個。 我們不知道有感知力的人工智能是否可能實現。 沒有人能夠恰當地預測我們是否會獲得有感知力的人工智能,也沒有人能準確地預測有感知力的人工智能是否會以計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導) 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這場討論可能會朝著完全不同的方向發展。 一個有感知能力的人工智能應該具有人類的品質。 您需要考慮到有感知力的人工智能相當於人類為您提供建議的認知。 更重要的是,由於一些人推測我們可能擁有超級智能人工智能,因此可以想像,這種人工智能最終可能比人類更聰明(對於我對超級智能人工智能可能性的探索,請參閱 這裡的報導)。 總而言之,這些情況都會加劇對消息來源的評估。

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

認識到今天的人工智能無法以任何方式與人類思維相媲美的“思考”。 當您與 Alexa 或 Siri 交互時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了利用計算模式匹配的機器學習 (ML) 和深度學習 (DL)。 這導致人工智能係統具有類似人類的傾向。 與此同時,今天沒有任何人工智能具有表面上的常識,也沒有任何強大的人類思維的認知奇蹟。

您可能已經意識到,當人工智能的最新時代開始時,人們對現在所謂的人工智能產生了巨大的熱情。 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

總而言之,人們普遍希望,通過建立人工智能道德準則,我們至少能夠提高社會意識,了解人工智能可以帶來什麼好處,也可以帶來什麼壞處。 我廣泛討論了人工智能倫理原則的各種集體分析,包括研究人員設計的一套分析,這些分析在題為“人工智能道德準則的全球格局”(發表於在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

我們可能需要添加到大肆宣揚的人工智能道德清單中,我們需要明確考慮並採取公開行動來防止或至少大力減輕基於人工智能的行為 正常事故 這可能會發生。 那些開發人工智能的人需要在這方面盡最大努力。 那些部署人工智能的人也需要這樣做。 那些使用人工智能或在某種程度上受到人工智能影響的人應該保持警惕,警惕似乎即將發生的人工智能事故的可能性。

您可能會想,人工智能可以內置足夠的預防措施,發生事故的可能性應該降至零。 對於那些技術人員來說,通常的傲慢態度是,如果一項技術可以產生問題,那麼另一項技術肯定可以解決問題。 只要不斷地投入越來越多的技術,直到問題消失。

那麼,那些研究過面向系統的事故的人往往會不同意,並通過提出一種稱為瑞士奶酪模型 (SCM) 的觀點來禮貌地反駁假定的技術人員的浮誇:“在 SCM 中,安全層被建模為上面有洞的奶酪代表了每一層安全的弱點。 隨著時間的推移,孔洞會改變形狀並四處移動。 最終,無論有多少片奶酪(安全層),這些孔都會對齊,從而允許直接射穿所有奶酪片(發生事故)”(根據 Robert Williams 和 Roman Yampolskiy 先前引用的論文) )。

我不想陷入這樣的問題:是否有一種有保證的方法可以對人工智能進行編程,以完全避免任何事故的發生。 人們正在嘗試各種數學和計算證明方法。 我認為可以合理且公平地宣布,我們今天沒有可擴展的工作方法,也沒有可以鐵定保證這種零機會的技術,而且我們肯定背負著大量由我們拼湊而成的人工智能。肯定知道並沒有尋求遵守這種做法。 後一點至關重要,因為即使我們可以在人工智能實驗室中炮製一些東西,將其擴展到正在進行的無數瘋狂和無憂無慮的人工智能工作中,並且這將繼續出現,這是一個棘手的問題,即使計算證明機器銀牌也不太可能解決子彈存在。

我認為值得簡單提及的另一點是,由於惡意的人類行為者,人工智能變成了做出不良行為的原因。 我不會將這些實例歸入人工智能事故的範疇。 請記住,開頭的討論表明,字典中事故的定義是發生的事件 無意的 自然。 如果人類網絡騙子設法讓人工智能係統做壞事,我不會將該人工智能歸類為經歷了事故。 我相信你會同意這個假設。

一個有趣的問題是,各種人工智能不良行為中有多少可以歸因於純粹的人工智能事故,而不是網絡犯罪分子的不正當行為。 根據一些現有的人工智能事件報告數據庫,人工智能事故的發生率似乎比惡意引發的事件更多,儘管你必須對這一觀點持高度懷疑的態度。 我這樣說是因為當人工智能係統受到攻擊時,人們很容易不報告,而當人工智能事故發生時,也許更願意報告。

關於人工智能事故,我們需要討論一個極其重要的警告。

使用“人工智能事故”這樣的流行語通常是不可取的,並且會給我們所有人(對整個社會)造成相當大的混亂。 當一個人遭遇事故時,我們常常聳聳肩,對發生事故的人表示同情。 我們似乎對待“事故”這個詞就好像它意味著沒有人對所發生的事情負責。

讓我們以遭遇車禍為例。 一輛汽車在右轉彎時大幅轉向,意外撞上了另一輛直行的汽車。 咳咳,這只是一場意外,無意中發生的。 如果該事件僅以發生的事故來表述,那麼那些沒有參與該事件的人可能會讓此事溜之大吉。

但我有一種感覺,如果你坐在被撞的車裡,你不會那麼同情那個轉彎過大的司機。 你的看法肯定是另一位司機是個糟糕的司機,表面上非法或不明智的駕駛行為導致了車禍。 通過將事件標記為“事故”,被困的司機現在處於某種劣勢,因為從表面上看,這一切都是偶然發生的,而不是出自肇事司機之手。

事實上,“事故”這個詞充滿了不同的含義,總的來說,政府對車禍的統計數據將此事稱為汽車碰撞或車禍,而不是使用“車禍”一詞。 車禍或車禍似乎對事件的發生沒有任何影響。 與此同時,“車禍”的措辭幾乎讓我們認為這是命運的巧合,或者以某種方式超出了人類的控制範圍。

當提到人工智能事故時,你可以充分地看到這種內涵考慮是如何發揮作用的。 我們不希望人工智能開發人員隱藏在人工智能只是無意中造成某人傷害的內涵盾牌後面。 對於那些部署人工智能的人來說也是如此。 你可能會說,“人工智能事故”的措辭幾乎是人工智能的擬人化,它會誤導社會,讓人工智能幕後的人類逃避責任。 對於我關於讓人類對其人工智能負責的日益重要的討論,請參閱我的討論: 這裡這個鏈接這裡這個鏈接.

從今往後,我將使用“人工智能事故”這個流行語,但我不情願地這樣做,只是因為這是提及這種現象的傳統方式。 遺憾的是,嘗試以不同的方式表達這一點往往會更加臃腫並且不那麼容易閱讀。 請確保以一種不會導致您視而不見的方式來解釋這句口號,並且不會意識到當人工智能出錯時,人工智能背後的人類應該承擔責任。

為了幫助說明將人工智能稱為引發事故可能會產生的混亂或誤導,我們可以回到我關於打翻花瓶的言論。 考慮一下人工智能這樣做的例子:“這個問題與人工智能偶然或冷漠地完成的事情有關。 打翻花瓶的清潔機器人就是一個例子。 複雜的環境有如此多種類的“花瓶”,我們不太可能通過編程來懲罰所有副作用”(根據 Robert Williams 和 Roman Yampolskiy 的論文)。

一個人工智能係統在家庭中使用,然後“意外地”打翻了花瓶,這似乎表明沒有人應該因為人工智能的這種不利行為而受到指責。 人們可能會遺憾地譴責,這只是一次意外。 另一方面,我們應該正確地問為什麼人工智能係統沒有被編程來處理一般的花瓶情況。 即使人工智能開發人員沒有預料到花瓶本身在可能遇到的物體範圍內,我們當然可以質疑為什麼沒有一些總體的物體避免措施來防止人工智能係統撞倒花瓶。花瓶(因此,人工智能可能不會承認將花瓶歸類為花瓶,但仍然可以將其作為可檢測的要避免的對象來避免)。

我已經預測並將繼續預測,我們將逐漸走向一場關於人工智能係統出現的巨大法律戰,這些系統會讓自己陷入“人工智能事故”並造成某種形式的傷害。 到目前為止,社會還沒有對人工智能有意或無意地推入市場並產生不利後果的法律抵製做出任何重大反應。 當今的人工智能潮流已經成為半生不熟的人工智能製造商和那些匆忙實施人工智能部署的人的淘金熱,他們現在很幸運,相對來說沒有受到民事訴訟和刑事起訴的影響。

人工智能引發的法律反彈遲早會到來。

接下來,我們如何嘗試應對不可避免的所謂人工智能事故?

我們可以立即做的一件事就是嘗試預測人工智能事故可能如何發生。 通過預測人工智能事故,我們至少可以設法想出辦法來減少它們或盡量減少它們發生的可能性。 此外,我們可以嘗試設置護欄,以便當人工智能事故確實發生時,減少示範性傷害的可能性。

前面引用的研究文章中描述的一組有用的因素 了解和避免人工智能故障:實用指南 包括以下屬性(引自研究論文):

  • 受人工智能輸出影響的系統。
  • 人工智能輸出與更大系統之間的時間延遲、系統可觀察性、人類註意力水平以及操作員糾正人工智能故障的能力。
  • 惡意使用人工智能控制的系統可能造成的最大損害。
  • 接近人工智能的組件的耦合和交互的複雜性。
  • 人工智能和其他所使用技術的知識差距以及系統的能量水平。

在這個激烈討論的關鍵時刻,我敢打賭,您一定會渴望一些說明性​​示例,以進一步闡明人工智能事故主題。 有一組特別且肯定很受歡迎的例子讓我很感動。 你看,作為人工智能專家(包括倫理和法律影響),我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易地理解該主題的理論性質。 生動地呈現這種人工智能道德困境的最令人回味的領域之一是基於人工智能的真正自動駕駛汽車的出現。 這將作為對該主題進行充分討論的方便用例或範例。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了所謂人工智能事故的出現?如果是,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能事件

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在準備深入研究自動駕駛汽車和道德人工智能的可能性,從而導致所謂的人工智能事故的出現。

想像一下,一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且看起來正在安全行駛。 起初,每次你能夠瞥見自動駕駛汽車時,你都會特別注意。 這款自動駕駛汽車因其配備的電子傳感器而脫穎而出,其中包括攝像機、雷達裝置、激光雷達設備等。 自動駕駛汽車在您的社區中巡遊了數週之後,您現在幾乎沒有註意到它。 對您而言,它只不過是本已繁忙的公路上的另一輛車。

為了避免您認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。

有一天,自動駕駛汽車發生了事故。

在右轉時,人工智能駕駛系統使自動駕駛汽車大幅擺動,並撞上了一輛人類駕駛的汽車。 人類駕駛的汽車正在正確的車道上直行。 人類駕駛員沒有特別的機會轉向或避免被撞。 此外,自動駕駛汽車沒有發出任何警告或跡象表明它將廣泛右轉。

這是意外嗎?

我們當然可以說它包含在人工智能事故的範疇內。 這種說法的依據是,自動駕駛汽車的方向盤上有一個人工智能駕駛系統。 不知何故,無論出於何種原因,人工智能在右轉時選擇大幅擺動。 結果導致自動駕駛汽車撞上了人類駕駛的汽車。

回想一下之前關於“事故”一詞相關含義的討論,看看這種暗示是如何在這種情況下發揮作用的。 另外,請記住,我們討論了一名人類駕駛員右轉並撞上另一輛人類駕駛汽車的情況。 我們意識到,將此行為視為“意外”的概念具有誤導性和令人困惑的性質。 造成大幅擺動的人類駕駛員可能會隱藏這樣一種想法,即事故只是發生了,這似乎是偶然的,或者是命運的變幻莫測。

對於基於人工智能的自動駕駛汽車超速行駛並撞上人類駕駛汽車的情況,我們或許不應將這種情況稱為“人工智能事故”,也許我們應該說這是一場涉及自動駕駛的車禍或汽車碰撞。駕駛汽車和人力駕駛汽車。 這樣我們就可以擺脫將其視為不可知手段的意外的空洞混亂。

您認為公眾對此事件有何反應?

好吧,如果汽車製造商或自動駕駛技術公司能夠堅持將此事標記為事故,他們也許能夠避開整個社區的潛在強烈反對。 對所有事故的同情心可能會蔓延到特定的情況。 有關城市、縣和州領導人可能如何應對人工智能自動駕駛汽車事件的更多信息,請參閱我共同領導的一項哈佛大學研究的討論,如下所述: 這裡的鏈接.

如果情況被簡單地描述為車禍或汽車碰撞,也許人們就會認識到某人或某物可能應對該事件負責。 本能的反應可能是人工智能應該對此負責。 問題是,除非我們決定指定人工智能具有類似的法人資格,否則您將無法將責任歸咎於人工智能本身(請參閱我關於人工智能和法人資格的討論,網址: 這裡的鏈接).

我們可以檢查人工智能駕駛系統,試圖找出是什麼導致了看似不當的駕駛以及隨後的車禍。 但這並不意味著人工智能將承擔責任。 責任方包括人工智能開發商、自動駕駛汽車車隊運營商等。 我也將其他人包括在內,因為城市可能對轉彎發生的彎角的設計負有部分責任。 此外,假設一名行人從拐角處衝出,人工智能駕駛系統選擇避開該行人,但卻陷入了車禍。

等。

結論

我們想知道人工智能正在計算什麼以及它被編程來做什麼。 人工智能是否按照編碼行事? 也許人工智能在編程中遇到了錯誤或錯誤,這並不能成為採取行動的藉口,而是提供了更多關於崩潰是如何發生的線索。

AI駕駛系統中寫入了什麼樣的AI護欄? 如果有護欄,我們想弄清楚為什麼它們似乎無法防止車禍。 也許人工智能駕駛系統可能會停下來而不是轉彎。 我們想知道人工智能在事件發生過程中通過計算評估了哪些替代方案。

除了追查具體事件的真相外,另一個合理的疑慮是人工智能駕駛系統是否存在缺陷或其他嵌入的方面,會做出類似的不良行為。 從本質上講,這一事件可能預示著未來還會發生更多事件。 如何使用基於計算機的駕駛情況模擬來嘗試和預測此類人工智能駕駛系統的提示? 是否有足夠的道路駕駛測試來找出可能導致車禍的人工智能問題?

這種情況凸顯了基於人工智能的自動駕駛汽車的出現所面臨的一個有爭議的難題。

它是這樣的。

一方面,社會希望迅速採用自動駕駛汽車,因為希望人工智能駕駛系統與人類駕駛員一樣安全甚至可能更安全。 僅在美國,目前每年就有近 40,000 萬人因車禍死亡,約 2.5 萬人受傷。 分析表明,這些車禍中有相當大一部分是由於人為錯誤造成的,例如醉酒駕駛、分心駕駛等(請參閱我對此類統計數據的評估) 這裡的鏈接).

AI駕駛系統不會酒後駕駛。 他們不需要休息,也不會在開車時感到疲憊。 我們的假設是,通過將自動駕駛汽車建立為一種可行的交通方式,我們可以減少人類駕駛員的數量。 這反過來意味著我們將大大減少每年因車禍造成的人員傷亡人數。

一些專家表示,我們最終將實現零死亡和零傷害,而且那些自動駕駛汽車應該不會崩潰,但這是一個完全荒謬且完全錯誤的期望。 我已經解釋過為什麼這如此不誠實 這裡的鏈接.

無論如何,假設我們將發生一定數量的自動駕駛汽車發生的車禍。還假設這些車禍將造成一定數量的傷亡。 令人苦惱的問題是,我們作為一個社會是否願意容忍任何此類情況。 有人說,即使真正的自動駕駛汽車導致一人死亡或一人受傷,整個套件和 kaboodle 都應該被關閉。

相反的觀點是,如果拯救的生命正在減少年度死亡人數,我們應該繼續鼓勵自動駕駛汽車的出現,而不是做出如此不合邏輯的反應。 我們需要接受這樣一個前提:即使是自動駕駛汽車,一定數量的傷亡仍然存在,但我們要認識到,如果年度死亡人數減少,就表明我們走在正確的道路上。

當然,一些人認為,我們不應該在公共道路上擁有自動駕駛汽車,除非它們通過廣泛而詳盡的計算機模擬或通過私人閉路測試而獲准用於此類用途。 反駁的觀點是,讓自動駕駛汽車行駛的唯一可行且最快的方法是使用公共道路,而在採用自動駕駛汽車方面的任何延誤都將導致人類駕駛汽車相撞的可怕數字繼續存在。 我在我的專欄中更詳細地報導了這場辯論,並敦促讀者查看這些討論,以充分了解對這一有爭議問題的觀點。

現在讓我們把事情總結一下。

人工智能事故將會發生。 我們必須抵制將人工智能事故視為看似偶然的衝動 偶然 因此,錯誤地讓製造商和部署人工智能的人完全擺脫了困境。

我還有一個額外的轉折,作為您這一天最後一個有趣的想法。

據報導,喜劇演員戴恩·庫克講過一個關於車禍的笑話:“幾天前,我遭遇了一場車禍。 不是我的錯。 即使這不是你的錯,對方也會從車裡下來,看著你,就像這是你的錯一樣:你為什麼紅燈停下來,讓我打你80!”

最突出的地方是,人工智能係統可能會選擇堅持認為,當涉及特定人工智能的人工智能事故發生時,人工智能會宣稱該事件是人類的錯,而不是人工智能的錯。 順便說一句,這可能是完全正確的,人類可能試圖通過聲稱這是人工智能的錯來尋找替罪羊。

或許人工智能正試圖把人類當作替罪羊。

你看,我們設計的人工智能可能會很棘手,無論是偶然還是無意。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitically-of-ai-accidents-which-looms-over-autonomous-self-也駕駛汽車/