人工智能倫理與人工智能算法單一文化的陰險相似的想法,包括自動駕駛汽車

讓我們來看看一個令人費解的難題。

俗話說,英雄所見略同。

毫無疑問,您已經多次聽過這個方便的口號。 在一些閒聊中,如果你和一位同事或朋友在同一時刻想到了同一個想法,你們中的一個人一定會高興地感嘆,英雄所見略同。 這無疑是對你和你的同胞的一種奉承之言。

我們也可以將另一條聖人智慧加入這個組合。

據說傻瓜很少有不同意見。

我想稍微改一下這句格言。 看似相當相當的說法是,傻瓜往往想法相似。 我知道你可能會對這句著名台詞的重鑄有些異議。 儘管如此,如果傻瓜很少有不同意見,你可以推斷傻瓜主要傾向於相似的思維,這似乎是相對準確的。 我希望這不會因為神聖智慧的偏離性改變而引起太多的心痛或驚愕。

我們現在正處於這種進退兩難的危險時刻。

假設我們公開承認「偉大的思想相似」這一觀點通常是正確的,並且我們同時承認「傻瓜往往思想相似」這一斷言也是正確的。 當你遇到一群想法相似的人時,我必須問你一個簡單的問題。

他們都是偉大的頭腦還是都是傻瓜?

哎呀!

根據偉大思想的規則,他們大概是有偉大思想的。 另一方面,根據愚人的規則,他們顯然都是愚人。 我們好像有問題。 你可能會結結巴巴地說,也許這些志同道合的思想家既偉大又愚蠢。 你能同時成為兩者嗎? 看來你是想問這個問題。

你可能會激烈地爭辯說,想法相似並不能說明聚會的想法是偉大的還是愚蠢的。 我們或許無意間把邏輯顛倒了。 任何一群想法相似的人都只是想法相似而已。 你不能試圖用他們思維的相似性來貼上「偉大思想」或「愚蠢思想」的標籤。 他們可能頭腦混亂。 他們可能會被說服。 從本質上講,人物塑造不一定會陷入「僅僅偉大或愚蠢」這一有點錯誤的二分法。

有各種各樣的見解與擁有相似想法的人們的環境有關。

據報道,聖雄甘地曾說過,一小群堅定且志同道合的人可以改變歷史的進程。 這無疑展示了志同道合的巨大力量。 柏拉圖警告說,當談到封閉的思想時,你可能會認為一群不屈不撓的志同道合的人可能會這樣,你可以得到這樣的結論:「只有這一點才值得恐懼:封閉的思想、沉睡的想像力、精神死亡。”

帶著一連串對相似想法的好奇心,我該去哪裡呢?

事實證明,有人擔心人工智慧正在逐漸讓我們走上一條不可避免且不受歡迎的道路,讓志同道合的人工智慧演算法主宰我們的日常活動。 這被概括地稱為 AI演算法單一文化.

我們正在走向這樣一種情況:社會依賴於普遍存在的人工智慧系統,這些系統可能具有相同或幾乎相同的底層演算法能力。 從這個意義上說,我們很容易受到全球範圍內大規模的志同道合的影響。

在進一步討論這個主題之前,我想立即澄清一下,我並不是暗指有感知能力的人工智慧。 正如我稍後將解釋的那樣,我們今天還沒有感知到的人工智慧。 儘管那些瘋狂而睜大眼睛的頭條新聞宣稱我們擁有有感知力的人工智慧,但事實絕對不是這樣,應該完全忽視。

我之所以強調這一點,是因為當我將人工智慧描述為「志趣相投」時,我不希望你得出這樣的結論:今天的人工智慧在某種程度上等同於人類的思維。 肯定不是。 請不要做出這種擬人化的聯想。 我使用「志趣相投」的措辭只是為了強調人工智慧演算法可能以某種方式組成,以便它們以相同的方式運作。 但他們的「思考」與我們所理解的人類思考品質沒有任何相似之處。 我稍後將對此進行更多討論。

在演算法單一文化結構方面「志同道合」的人工智慧,我們可以將其評估為既壞又好。 不好的一面是,如果這些常用和使用的千篇一律的人工智慧充滿了偏見和歧視性內容,那麼人工智慧很可能會被陰險地廣泛使用,並在各地傳播這些令人厭惡的做法。 好的一面是,如果人工智慧的設計和實施得當,沒有偏見和歧視性的包容性,我們希望能夠廣泛地註入公平性。 所有這些都具有示範性的人工智慧倫理和人工智慧道德影響。 有關我對人工智慧倫理和道德人工智慧的持續和廣泛的報道,請參閱 這裡的鏈接 這裡的鏈接.

以下是我關於人工智慧演算法單一文化的七個實用的經驗法則:

1)人工智慧演算法單一化包括採用相同或幾乎相同的底層演算法,然後廣泛用於做出影響人類的決策

2)這樣的人工智慧可以提供一致性和可靠性,儘管這是一把雙面刃

3)一方面,傳達不利偏見的人工智慧很容易以不恰當的方式傳播和反覆使用(這很糟糕)

4) 另一方面是,體現公平性和其他公正理想屬性的人工智慧可以廣泛傳播(這很好)

5)當人工智慧具有這種程度的同質性時,存在某種系統範圍的脆弱性,並且可能會因破壞性衝擊而嚴重削弱

6)人工智慧異質性有時可能是首選,儘管這引起了對可能出現的巨大不一致的擔憂

7)我們都需要思考、警惕並應對人工智慧演算法單一文化

在深入探討人工智慧演算法單一文化背後的瘋狂和模糊的考慮之前,讓我們先就深刻的整體主題建立一些額外的基礎知識。 我們需要簡單地深入了解人工智慧倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到對人工智慧演算法單一文化的關注。

我們似乎都意識到,在當今互聯的數位世界中,即使資料庫中存在極少量的數據,並且似乎無論我們走到哪裡,我們都可能會受到排斥。 例如,假設存在一個資料庫,其中包含一條數據,其中包含表明您信用不可靠的指標。 這對你來說可能是正確的,也可能是完全錯誤的。 您可能知道資料庫包含這條訊息,或者您可能完全不知道它。 這是我們都沉浸在資料過剩的宇宙中的一大災難。

包含此指標的資料庫可以輕鬆地與其他地方的其他資料庫共享有關您的重要方面。 眨眼之間,世界各地的電子連接資料庫可能會帶有現在傳輸的標誌,表明您不值得信賴。 如果您選擇申請貸款,某些貸款批准應用程式很可能會訪問這些資料庫之一併檢索表示您將被冷落的標誌。 您可能會在世界某個地方嘗試獲得貸款,但很快就被拒絕了。 前往另一個地區可能沒什麼好處。 無論您走多遠,資料庫的互連性都會困擾您。

幸運的是,各種有關數據和隱私的法律已經逐步頒布。 不同國家的法律有顯著差異。 它們也可能因州而異。 但至少人們意識到資料庫中的資料能夠快速傳播有關您的資訊所帶來的危險。 我們希望您能夠訴諸法律來嘗試防止虛假訊息,或至少知道它存在於您身上。 請參閱我的報道 這裡的鏈接 關於隱私入侵和人工智慧。

我想你可能會說,關於你的數據是一種眾所周知的「標籤,你就是它」遊戲(其中我們有時想成為被標記的人,有時我們希望不被這樣標記)。

深吸一口氣。

假設我們揮舞魔杖,可以奇蹟般地確保您的數據不會出現這種同質性。 我們能夠讓全社會聯合起來制止此類行為。 因此,您可能會認為自己不再面臨此類擔憂的危險。

遺憾的是,你可能會忽略人工智慧演算法單一文化所帶來的危險。

這就是原因。

我們將回到嘗試獲得貸款的例子。 想像一下,您去找貸方,他們正在使用具有特定演算法的人工智慧系統,我們將其稱為演算法 Y。在您的情況下,當您申請並提供詳細資訊時,演算法 Y 的編寫方式如下:它會在數學上即時確定您是否應該被拒絕貸款。 本質上,這個演算法可以「決定」你不值得信用。

請注意,在這種情況下,我們假裝人工智慧沒有存取資料庫來嘗試獲取您的信用度。 因此,人工智慧不可能根據資料庫中的某些數據進行拒絕。 整個選擇是透過演算法 Y 就所涉及的計算做出的。

AI 表示您的貸款被拒絕。 我相信你會對這個結果感到失望。 您可能會聳聳肩並選擇去不同的貸方。 再次強調,您確信沒有一個資料庫可以讓您擺脫競爭。 在你看來,你所需要做的就是不斷嘗試不同的貸款機構,最終你就會獲得批准。

當你轉向另一家貸款機構時,你再次被拒絕。 這令人不安。 您嘗試了另一家貸款機構,但很快就被拒絕了。 一次又一次,每一次嘗試都會導致同樣令人沮喪的結果。 你很生氣。 你煩透了。

到底是怎麼回事?

所有這些貸款人是否秘密合謀確保您無法獲得貸款?

簡短的回答是“不”,我們要說他們本身並沒有密謀。 相反,他們都碰巧使用了演算法 Y。他們並不是聚集在幕後並同意在他們的人工智慧中使用演算法 Y 意義上的「共謀」。 沒有一個黑手黨式的聚會表明他們都會使用演算法 Y。順便說一句,人們認為這確實可能發生,但為了討論,我們現在將這些替代方案放在一邊。

演算法 Y 可能會被所有這些獨立且不同的貸方使用,這是有一個完全合理的理由的。 演算法 Y 可能是開源的。 每個不同貸方的人工智慧開發人員可能在每種情況下都只是訪問一個開源庫並將該程式碼複製到他們的人工智慧系統中。

這可能是完成工作最簡單、最快的方法。 無需從頭開始嘗試設計演算法 Y。只需幾分鐘的在線訪問,編碼就已為您完成並可以直接使用。 複製及貼上. 此外,您也許能夠避免對程式碼進行任何偵錯。 您的假設可能是程式碼已經經過充分測試,無需重新發​​明輪子。

好吧,所以貸款人都無辜地選擇使用演算法 Y。演算法 Y 很有可能被稱為用於確定信用價值的「黃金標準」。 這將使該特定演算法的採用更加流行。 人工智慧開發人員不僅透過使用它來節省時間,而且還確保了安全。 其他人都發誓該演算法是可行的。 為什麼要與群眾的智慧奮戰? 這樣做似乎是不謹慎的。

歡迎來到人工智慧演算法單一文化時代。

我們透過這個例子發現,相同的演算法可以很容易地在眾多人工智慧系統中重複使用。 這並沒有什麼特別的陰謀。 手頭上沒有超級騙子策劃的邪惡陰謀。 由於可以被描述為良性和有益的原因,一種特定的演算法取代了那些惡意的方案而佔據主導地位。

在過去的幾年裡,廣泛使用相同演算法的可能性已經存在,儘管需要克服更多的障礙。 如今,演算法儲存集線器的使用幾乎可以輕鬆存取。 開源可能比前幾代更容易被接受。 等等。

With the one example of the lender that we've been exploring, we might end up with two lenders, twenty lenders, two hundred lenders, two thousand lenders, or maybe hundreds of thousands of lenders all opting to use that same algorithm Y in their人工智慧. 演算法AI是萬無一失的。 它正在全球範圍內被選擇並融入人工智慧中。

沒有人提出任何危險信號。 沒有明顯的理由這樣做。 如果有的話,當某些貸方選擇不使用演算法 Y 時,可能會引發危險信號。嘿,問題可能會被勸告,你沒有使用演算法 Y。這會帶來什麼? 你是否故意想做一些卑鄙或骯髒的事情? 齊心協力,與其他人一起行動。

將這種相同的概念單一文化推論到各種人工智慧系統和各種演算法。

一項研究這樣描述了這一現象:「用於塑造社會選擇的演算法的興起伴隨著對單一文化的擔憂——即選擇和偏好在演算法管理面前將變得同質化」(Jon Kleinberga 和Manish Raghavana , 《算法單一文化與社會福利》 國家科學院院刊 2021)。 他們進一步指出:“即使演算法在具體情況下更加準確,但當演算法發現自己處於不利條件時,每個人都使用相同演算法的世界很容易出現相關故障。”

我們現在可以有效地回顧我之前關於人工智慧演算法單一文化的七個規則:

1)人工智慧演算法單一化包括採用相同或幾乎相同的底層演算法,然後廣泛用於做出影響人類的決策

2)這樣的人工智慧可以提供一致性和可靠性,儘管這是一把雙面刃

3)一方面,傳達不利偏見的人工智慧很容易以不恰當的方式傳播和反覆使用(這很糟糕)

4) 另一方面是,體現公平性和其他公正理想屬性的人工智慧可以廣泛傳播(這很好)

5)當人工智慧具有這種程度的同質性時,存在某種系統範圍的脆弱性,並且可能會因破壞性衝擊而嚴重削弱

6)人工智慧異質性有時可能是首選,儘管這引起了對可能出現的巨大不一致的擔憂

7)我們都需要思考、警惕並應對人工智慧演算法單一文化

正如我的規則#2 中所指出的,人工智慧演算法單一文化無疑是一把雙面刃。

根據我的規則#3,你最終可能會受到不利影響。 如果你被一個又一個的貸款人拒絕,無論你走到哪裡,如果演算法 Y 這樣做是基於偏見或其他不適當的基礎,那麼你會遺憾地受到詛咒。 要推翻這件事,你會遇到很多困難。 就資料庫中有關您的資料而言,您很可能擁有一些法律追索權,並且普遍認識到不良資料的後果。 很少有人會理解一個糟糕的演算法正在追隨你到天涯海角。

根據我的規則#4,人工智慧演算法單一文化有潛在的優勢。 假設演算法 Y 正確地阻止您獲得貸款。 你可能曾經試圖透過貨比三家來偷偷地、惡毒地欺騙事情。 由於相同的演算法 Y 被廣泛使用,您的購物不太可能淘金。 儘管我們可能不喜歡演算法公平性存在持久且常見的可能性的想法(如果存在這樣的事情,請參閱我的分析: 這裡的鏈接),當一件好事被廣泛傳播時,我們可能會感到高興。

接下來我們討論衝擊。

在我的規則#5中,我指出存在一個潛在的疑慮,即人工智慧演算法單一文化可能會受到大規模破壞。 這很容易解釋。 想像一下,演算法 Y 中存在一個軟體錯誤。沒有人注意到它。 數千萬年來,它一直隱藏在眾目睽睽之下。 如果您懷疑這種情況是否會發生,即開源程式碼中存在錯誤但尚未較早發現,請參閱我的報告: 這裡的鏈接 此類實例。

該錯誤出現並導致演算法 Y 不再是每個人都認為的那段令人讚嘆的程式碼。 意識到這個錯誤存在於成千上萬的人工智慧系統中。 短時間內,這個錯誤可能會在整個地球上出現,我們很快就會發現自己面臨可怕的混亂。 既然每個人都把雞蛋放在一個籃子裡,而這個籃子現在完全歪了,全世界都在發生同樣的事情。

一場史無前例的災難。

從理論上講,如果貸款人各自設計自己的專有演算法,這種情況就不會輕易發生。 很有可能,如果其中一個有錯誤,其他人就不會。 如果它們都使用相同的基本程式碼,那麼它們都有相同的錯誤。

如果你這樣做就該死,如果你不這樣做就該死。

我確信你們中的一些人會大喊,關於單一栽培環境中的錯誤的好消息是,如果有可用的修復程序,每個人都可以簡單地實施相同的修復程序。 這似乎是看待此事的一種明亮而陽光的方式。 是的,這可能有用。 但這裡的要點是,全面破壞的可能性更大。 即使解決方案可能更容易應對,您仍然面臨著由於單一文化方面帶來的巨大破壞。

除了可能引起震驚的錯誤實例之外,我們還可以想出許多其他令人不安的場景。 其中一個可能是網路騙子,他設計了一種邪惡的方式來篡奪常用的演算法。 惡人手中可能有大筆財富。 他們可以從一個人工智慧轉到另一個人工智慧,讓人工智慧做一些卑鄙的事情。 所有這些都是因為相同的演算法一遍又一遍地使用。 龐大的規模可以用來做善事,但遺憾的是也可能被用來做壞事。

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智慧的真正自動駕駛汽車的出現是否闡明了人工智慧演算法單一文化的任何情況?如果是,這顯示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智慧演算法單一文化

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

我們將先闡述一些重要的基礎。 人工智慧駕駛系統的設計目的是嘗試安全地操作自動駕駛汽車。 一些汽車製造商和自動駕駛技術公司正在以專有方式進行編碼。 其他人則依賴開源程式碼。

設想某些演算法 Z 可在開源儲存庫中使用,並且可以方便地在人工智慧駕駛系統中使用。 汽車製造商或自動駕駛技術公司將 Z 演算法整合到他們的人工智慧駕駛系統中。 這將被整合到他們的人工智慧駕駛系統中。

如果他們在道路上投放十幾輛自動駕駛汽車,所有這些自動駕駛汽車都將包含 Z 演算法,作為人工智慧駕駛系統車載軟體的一部分。 假設自動駕駛汽車能夠安全行駛,車隊規模逐漸增加到道路上的二十輛自動駕駛汽車。 決定進一步加大力度。 很快,該車隊的 XNUMX 輛自動駕駛汽車就出現在街道和高速公路上。 等等。

另一家汽車製造商也在其駕駛系統中使用 Z 演算法。 他們也在部署自動駕駛汽車。 他們的艦隊規模擴大了。 很快,他們就有數千輛自動駕駛汽車來來去去。

我相信您能看到事情的發展方向。

隨著基於人工智慧的自動駕駛汽車的出現,我們發現自己處於人工智慧演算法單一文化之中。 許多品牌和型號的自動駕駛汽車可能都在其人工智慧駕駛系統中使用了特定的演算法。 這件事並沒有任何勾結。 沒有什麼大陰謀在運作。

就有一天我們的道路上可能有多少自動駕駛汽車而言,這個主題存在著激烈的爭論。 我們知道,如今光在美國就有大約 250 億輛人類駕駛的汽車。 有些人認為,假設我們最終廢除人類駕駛的汽車,或者它們自然會被拋棄並被自動駕駛汽車取代,那麼我們將需要大約 250 億輛自動駕駛汽車。

別那麼快,有些勸告。 人類駕駛的汽車大約有 90% 或更多的時間處於閒置狀態。 總的來說,人類駕駛的汽車停在路邊等待人類駕駛駕駛。 基於人工智慧的自動駕駛汽車幾乎可以一直在行駛。 你可能會擁有一輛 24×7 全天候運行的人工智慧自動駕駛汽車,除了維護或其他所需的停機時間。

在這種情況下,你似乎不需要 250 億輛自動駕駛汽車來一對一取代 250 億輛人類駕駛汽車。 也許 200 億輛自動駕駛汽車就足夠了。 也許一億。 沒有人能肯定地說。 關於我對這個問題的評估,請參閱 這裡的鏈接.

我想暫時指出,我們最終可能會有數以百萬計的自動駕駛汽車在我們的高速公路和小路上行駛。 對於本次討論而言,我們最終將有多少輛汽車上路並不是一個至關重要的問題。 毫無疑問會有數以百萬計的人。 由於人工智慧演算法的單一性以及在大規模上同時遇到優點和缺點的關鍵特性,這種規模調整通常很重要。

這是轉折。

不幸的是,演算法 Z 中存在一個以前沒有人注意到的嚴重問題。 有一個錯誤會導致人工智慧駕駛系統的其餘部分出錯。

壞消息。

對於那些正在努力設計人工智慧駕駛系統的人來說,我意識到你們通常不喜歡這種最壞的情況,儘管機會可能很小,但它們仍然值得討論。 我們不能把頭埋在沙裡。 最好睜大眼睛,努力預防或至少減輕此類災難。

從理論上講,包含此錯誤的人工智慧自動駕駛汽車可能會嘗試撞擊並撞毀其掌握範圍內的幾乎所有物體。 人工智慧只是按照它在這種情況下「設計」的方式去做。 這將是災難性的。

你們中的一些人可能會認為,僅僅因為一輛人工智慧自動駕駛汽車可能會遇到這個錯誤,本身似乎並不是什麼大問題。 我這麼說是因為一旦AI自動駕駛汽車撞上卡車之類的東西,車輛本身很可能會受到嚴重損壞,以至於無法再由AI主動指揮進行進一步的混亂和破壞。 可以這麼說,它已經死在水裡了。

好吧,考慮一下所涉及的比例因子。

如果有數以百萬計的自動駕駛汽車,並且它們都依賴相同的嵌入式演算法 Z,它們可能會遺憾地執行相同的錯誤。

我知道並承認,這個錯誤可以透過使用 OTA(無線)電子分散式軟體更新來修復或克服。 作為一個簡單的背景介紹,許多人都滔滔不絕地談論使用 OTA 的優勢。 當需要軟體更新時,您無需將人工智慧自動駕駛汽車帶到汽車維修店或經銷店。 無論自動駕駛汽車在哪裡(在限制範圍內),OTA 幾乎都可以完成。

同時,在我們找出錯誤和修復方案並透過 OTA 發送之前,道路上的自動駕駛汽車仍將處於不穩定的狀態。 有些人會遇到這個錯誤並出錯。 其他人也即將這樣做。

我們可能會選擇堅持所有自動駕駛汽車暫時停在原地,在 OTA 修復程式傳輸到人工智慧駕駛系統之前不要進一步使用。 想像一下這種破壞。 假設人類駕駛的汽車所剩無幾。 自動駕駛汽車也很可能不會配備人類駕駛控制裝置。 從本質上講,在我們修復錯誤期間,最終可能會導致 200 億(或任何數量)的自動駕駛汽車停飛。

如果社會已經變得依賴自動駕駛汽車,那麼從移動性的角度來看,你幾乎已經關閉了社會,至少在錯誤修復被推出之前是如此。

現在,這對系統來說將是一次有害的、令人震驚的衝擊。

我懷疑潛伏的錯誤會做出可怕的行為,這似乎幾乎是不可能想像的,但同時我們也不能完全排除這種可能性。 還有其他可能性,例如可能存在網路犯罪漏洞。 例如,我已經討論過一個流氓民族國家如何試圖透過利用人工智慧駕駛系統的弱點來實施令人髮指的行為,請參閱我的討論: 這裡的鏈接。 此外,有關如何惡意接管人工智慧自動駕駛汽車的詳細信息,請參閱我的報告: 這裡的鏈接.

結論

志同道合既是福也是禍。

我們之前註意到甘地說過,志同道合的人可以成就偉大的事。 「志同道合」的人工智慧有可能取得偉大的成就。 柏拉圖警告我們,封閉的思想可能是一個嚴重的危險。 如果我們周圍都有志同道合的系統,我們可能會面臨無意(或故意)顛覆因素的潛在危險,這些因素可能會傷害我們中的一些人甚至所有人。

我們需要對人工智慧演算法單一文化保持開放的態度。 如果我們做對的事情,我們也許能夠揚善避惡。

但前提是我們對這一切的想法都是正確的。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/06/19/ai-ethics-confronting-the-insidious-one-like-mind-of-ai-algorithmic-monoculture-include-for -自動駕駛汽車/