人工智能倫理對不斷上升的熱土豆綜合症感到憤怒,人工智能製造商似乎試圖避免對其決定生命的自主系統負責

我們都知道你應該確保你不會吃到眾所周知的燙手山芋。

燙手山芋的策略似乎至少可以追溯到 1800 年代後期,當時一場涉及點燃蠟燭的客廳遊戲讓球滾動起來。 在那個時代,人們通常會坐在一系列相對相鄰的木椅上,玩一場令人興奮的遊戲。 點燃的蠟燭將由球員從一個人傳遞到另一個人,代表我們後來選擇的表述為移交 熱土豆.

按照慣例,每個人都必須大聲說出流行的押韻,然後才能通過逐漸燃燒的蠟燭。 押韻顯然是這樣的:

“傑克還活著,而且很可能還活著;

如果他死在你手上,你就放棄了。”

這個押韻的獨奏曲大概會讓蠟燭有一點點時間繼續燃燒,直到最後結束。 誰在最後自然熄滅時卡住了手中的蠟燭,誰就是輸掉比賽的人(雙關語!)。

根據押韻中的說法,失敗者必須支付“罰金”,因此通常必須退出任何進一步的遊戲回合。 然後,這可能與我們今天認為的日常音樂椅相結合,這樣輸掉一輪的人將不再參加隨後的輪次(好像音樂停止了,他們無法獲得可用的座位)。 最終,只有剩下的兩個人通過點燃的蠟燭並說韻,直到最後的熄滅中確定了最終的贏家。

您可能想知道為什麼我們不再用點燃的蠟燭玩這個遊戲,以及為什麼我們通常將其稱為燙手山芋,而不是將其描述為“點燃的蠟燭”方案。 研究人員已經提出了很多關於這種情況如何逐漸發生的理論。 歷史似乎模糊不清,關於這件事如何演變的不確定性。 我想我們可以放心,點燃的蠟燭通常不會像這樣使用,因為出現明顯錯誤的可能性似乎非常令人擔憂(有人掉下蠟燭並著火,或者有人在遞蠟燭時被蠟燭燒傷來自其他玩家等)。

就作為點燃蠟燭的潛在替代品的熱土豆而言,您通常可以認為土豆總體上會更安全一些。 沒有明火。 沒有熔化的蠟。 在這種情況下使用馬鈴薯的潛在基礎是已知它們一旦被加熱就很容易保持熱量。 你可以把土豆傳過來,它會保持熱一段時間。 有人認為,決定什麼時候燙手山芋不再熱,而是被評為冷,這將是一個備受爭議的命題。

當然,如今,眾所周知的燙手山芋的概念更像是一個獨立的考慮因素。 任何被評為或排名為燙手山芋的東西通常都具有嚴重的淘汰質量。 你不想拿著燙手山芋。 你想確保它去別的地方。 在某種程度上,您可能不會過度擔心它的去向,只是它不再在您的手中。

將燙手山芋遞給親愛的朋友或類似熟人似乎很無情。 這似乎完全不合時宜。 如果可以的話,也許可以找其他人或其他地方放那個燙手山芋。 一個絕望的舉動可能是將燙手山芋強加給和藹可親的同事,但希望這只是作為最後的手段。

硬幣的另一面是,你可能很樂意把燙手山芋交給你不喜歡的人或你正在尋求報復的人。 當然,如果你的目標是削弱一個對你不好的人,燙手山芋幾乎可以派上用場。 讓他們弄清楚如何處理燙手山芋。 祝您擺脫馬鈴薯的困擾,並為您標記它的人帶來最壞的運氣。

在僅涉及兩個人的燙手山芋場景中,可能會就哪個人拿著不受歡迎且不受歡迎的物品進行快速的來回爭執。 比如我把燙手山芋遞給你,你趕緊還給我。 假設我們不需要在每次交接之間宣布童謠,我們幾乎可以在我們的手臂允許的範圍內以最快的速度傳遞馬鈴薯。

你可能會好奇我為什麼選擇深入研究這個備受推崇和經常被引用的燙手山芋。

這就是原因。

事實證明,燙手山芋的幌子越來越多地用於人工智能(AI)領域。

大多數人對此一無所知。 他們從來沒有聽說過。 他們完全不知道它是什麼。 甚至許多 AI 開發人員都沒有意識到這一點。 儘管如此,它仍然存在並且似乎被用於真正有問題的環境中,尤其是涉及生死攸關的情況。

我將此稱為 AI 熱土豆綜合症.

這種綜合症背後有很多嚴重的影響,我們需要確保我們戴上我們的 AI 道德思想上限並考慮應該做什麼。 有一些發人深省的倫理考慮。 也必然會產生顯著的法律影響(尚未達到社會知名度,儘管我預測它們很快就會出現)。 有關我對 AI Ethics、Ethical AI 和 Legal AI 問題的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

讓我們打開包裝 人工智能熱土豆綜合症.

想像一個與人類共同工作的人工智能係統。 人工智能和人類正在傳遞對一些正在進行的活動的控制,因此有時人類處於控制之中,而其他時候人工智能處於控制之中。 這可能首先以一種我們應該說得體或合理的方式來完成。 出於各種原因,我們稍後會談到,人工智能可能會通過計算確定需要將控制權迅速傳遞給人類。

這是 熱土豆 這會危及現實世界中的生命,而不僅僅是作為一個有教育意義的孩子的遊戲。

將控制權從 AI 快速傳遞給人類的問題在於,這可以以合理的方式完成,也可以以相當不合理的方式完成。 如果人不是特別期待切換,這可能是一個問題。 如果人類通常對控制權的傳遞感到滿意,那麼當人類沒有足夠的時間或對為什麼將控制權強行輸入到人類手中的原因認識不足時,移交的情況可能會令人生畏。

我們將探討這如何給人類和可能附近的其他人類帶來生死攸關的危險的例子。 這是嚴肅的事情。 句號,句號。

在深入探討背後的狂野和毛茸茸的考慮的更多內容之前 人工智能熱土豆綜合症,讓我們列出一些關於非常重要的主題的額外基礎知識。 我們需要簡要介紹一下 AI 倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到對燙手山芋及其在人工智能中潛在的災難性用途的關注。 在燙手山芋的策略中也潛藏著一種惡魔。

作為對熱土豆策略的人工智能表現的快速回顧:

  • 人工智能和人類在環正在共同完成一項給定的任務
  • 人工智能有時可以控制
  • 人在環有時會控制
  • 人工智能和人類之間存在某種形式的切換協議
  • 切換可能是高度可見的,也可能是微妙的,幾乎是隱藏的
  • 這一切通常都在實時環境中(正在積極進行中)

這裡的主要焦點是當切換本質上是一個燙手山芋時,人工智能選擇突然將控制權交給人類。 請注意,我稍後還將介紹另一個方面,即人類將控制權移交給人工智能作為燙手山芋。

首先,考慮一下當 AI 將燙手山芋交給人類在環時會發生什麼。

我將把人類稱為循環中的人類,因為我說人類已經是正在進行的活動的一部分。 我們可以有其他場景,一個沒有特別參與活動的人,也許對整個事情不熟悉,被人工智能遞給了燙手山芋,所以請記住,這種環境的其他風味確實存在。

如果我給你一個燙手山芋並且想以合理的方式這樣做,也許我會提醒你我要把事情交給你。 此外,如果我真的相信你擁有燙手山芋比我擁有它更好,我會嘗試這樣做。 我會在心裡計算你是否應該擁有它,或者我是否應該繼續使用它。

設想一場籃球比賽。 你和我在同一個團隊。 我們希望共同努力,爭取贏得比賽。 比賽只剩下幾秒鐘了,我們需要拼命得分,否則我們將輸掉比賽。 我進入位置進行最後一槍。 我應該這樣做,還是應該將球傳給你,讓你進行最後一投?

如果我是一個更好的籃球運動員並且有更大的投籃機會,我可能應該保留籃球並嘗試投籃。 如果你是一個比我更好的籃球運動員,我可能應該把球傳給你,讓你投籃。 其他考慮因素也很突出,例如我們中的哪一個在球場上處於更好的位置來投籃,以及我們中的一個是否已經筋疲力盡,因為比賽快結束了,可能會筋疲力盡,無法達到標準他們的射擊。 等等。

考慮到所有這些因素,在忙碌的時刻,我需要決定是保留球還是將球傳給你。

敏銳地意識到,在這種情況下,時鐘至關重要。 你和我都面臨著極其及時的回應。 整個遊戲現在都上線了。 一旦時間用完,我們要么贏了,因為我們中的一個人射門了,要么我們輸了,因為我們沒有擊沉。 如果我沉了籃筐,我可能會成為英雄。 或者,如果我將球傳給你而你將球擊沉,你可能會成為英雄。

這也有山羊的一面或缺點。 如果我保住球卻投失,每個人都可能指責我是山羊或讓整個球隊失望。 另一方面,如果我把球傳給你,而你投失了球,那麼你就變成了山羊。 這可能對你完全不公平,因為我強迫你成為最後一個射手並最後一槍。

你肯定知道我把你置於那個令人反感的位置。 儘管每個人都可以看到我這樣做,但他們注定只會專注於最後一個持球的人。 我可能會自由滑冰。 沒有人會記得我在最後一刻把球傳給了你。 他們只會記得你有球並輸掉了比賽,因為你沒有投籃。

好的,所以我把球傳給你。

我為什麼這樣做?

沒有簡單的方法來確定這一點。

我的真正意圖可能是我不想被困在山羊身上,所以我選擇把所有的壓力都放在你身上。 當被問到為什麼我傳球時,我可以說我這樣做是因為我認為你是一個比我更好的射手(但是,讓我們假裝我根本不相信)。 或者我認為你的處境比我好(假設我也不這麼認為)。 沒有人會知道我實際上只是想避免陷入燙手山芋。

從表面上看,沒有人能輕易看出我將球傳給你的真正理由。 也許我這樣做是無辜的,因為我相信你是更好的球員。 那是一個角度。 也許我這樣做是因為我不想讓每個人都因為我可能錯過投籃而稱我為失敗者,因此我把球交給了你,並認為這對我來說是一個巨大的解脫。 我是否真正關心你是完全不同的事情。

我們現在可以為與 AI 相關的燙手山芋添加更多細節:

  • 人工智能選擇在最後一刻將控制權交給人工參與
  • 最後一刻可能已經遠遠超出了任何人類可行的行動
  • 人在環具有控制權,但由於切換時間而有些錯誤

考慮一下。

假設一個 AI 系統和一個人在迴路中正在協同工作,執行一項涉及在工廠中運行大型機器的實時任務。 AI 檢測到機器出現故障。 人工智能並沒有繼續保持控制權,而是突然將控制權交給了人類。 這家工廠的機器正在迅速走向純粹的混亂,沒有時間讓人類採取糾正措施。

人工智能將燙手山芋交給了人在迴路中,並用名副其實的燙手山芋把人類塞住了,以至於人類無法應對這種情況。 Tag,你就是它,在小時候玩標籤遊戲時走老路。 我們應該說,人類被貼上了混亂的標籤。

就像我關於籃球比賽的例子一樣。

AI為什麼要做交接?

好吧,與人類突然交出籃球然後瘋狂揮手解釋他們為什麼這樣做的情況不同,我們通常可以檢查人工智能編程並找出導致人工智能進行這種燙手山芋交接的原因。

人工智能開發人員可能事先決定,當人工智能陷入非常糟糕的困境時,人工智能應該繼續將控制權交給人類在環。 這似乎完全合情合理。 人類可能是場上“更好的球員”。 人類可以利用他們的認知能力來潛在地解決手頭的任何問題。 人工智能可能已經達到了它的編程極限,在這種情況下它沒有其他建設性的事情可以做。

如果人工智能在機器出現故障前一分鐘完成了交接,也許一分鐘的提醒時間就足夠讓人類在環中糾正問題。 假設人工智能在還剩 300 秒時完成了交接。 你認為人類可以在那個時間範圍內做出反應嗎? 不太可能。 在任何情況下,為了讓事情變得更簡單,假設在還剩幾納秒的情況下切換到人工在環(納秒是十億分之一秒,相比之下,這是一個快速眨眼的時間)眼睛是緩慢的 XNUMX 毫秒長)。

如果人工智能在只剩下幾秒鐘的時間就將燙手山芋遞給了燙手山芋以採取任何公開行動,那麼人在迴路中能否做出充分的反應?

否。

交接比其他情況看起來更像是虛假的。

實際上,當涉及到可怕的困境時,交接不會有任何好處。 人工智能已經把人類變成了山羊。

一些 AI 開發人員在設計 AI 時並沒有考慮到這一點。 他們(錯誤地)幸福地沒有考慮到時間是一個關鍵因素。 他們所做的只是在事情變得艱難時選擇進行移交。 當人工智能沒有什麼可以建設性地做的時候,把球扔給人類球員。

AI 開發人員在編寫 AI 代碼時可能沒有認真考慮這一點,然後他們經常因未能進行測試而導致這一點暴露出來,從而導致雙重失敗。 他們的測試表明,當達到人工智能的極限時,人工智能“盡職盡責”地進行了交接。 瞧,人工智能被認為是好的並且準備好了。 測試不包括被置於那個令人羨慕和不可能的位置的實際人類。 沒有適當的人在環測試過程可能會抗議在最後一刻或實際上在最後一刻進行的眨眼交接對他們沒有好處或沒有好處。

當然,一些人工智能開發者會敏銳地考慮到這種困境,明智地如此。

在考慮了這個難題之後,無論如何,他們將繼續對 AI 進行編程,使其以這種方式行事。

為什麼呢?

因為沒有別的事可做,至少在他們的腦海裡是這樣。 當一切都失敗時,將控制權交給人類。 也許奇蹟會發生。 但要點是,這不是人工智能開發人員關心的問題,他們正在給人類最後一次機會來應對手頭的混亂局面。 人工智能開發人員對此後發生的任何事情都束手無策。

我想澄清一下,人工智能開發人員並不是這些燙手山芋設計的唯一設計者。 有許多其他利益相關者為此而坐到了談判桌前。 也許進行規範和需求分析的系統分析師曾表示這是人工智能應該做的。 相關的人工智能開發人員相應地製作了人工智能。 人工智能項目經理可能已經設計了這個。 監督人工智能開發的高管和管理層可能已經設計了這個。

整個 AI 開發生命週期中的每個人都可能繼承了同樣的燙手山芋設計。 是否有人注意到它,我們不能肯定地說。 如果他們確實注意到了,這些人可能會被貼上反對者的標籤並被拋到一邊。 其他人可能已經將此事引起了他們的注意,但他們並不理解其後果。 他們覺得這是一個技術細節,不在他們的範圍內。

我將在這個非正式的“原因”列表中添加一個更邪惡的可能性。

AI Hot Potato Syndrome 有時會被故意使用,因為那些製造 AI 的人希望他們慷慨激昂地聲稱合理的否認。

為故事的這一部分做好準備。

在工廠機器失控的情況下,對於發生的事情誰應該負責,肯定會有很多指責。 在操作機器方面,我們有一個人工智能係統這樣做,我們有一個人在循環這樣做。 打個比方,這是我們的兩個籃球運動員。

時鐘快要倒了,機器快要開動了。 假設你和我都知道 AI 向人類在環中進行了切換,但沒有足夠的時間讓人類採取任何足夠的行動來糾正或避免災難。 沒有其他人意識到這就是發生的事情。

在任何情況下,製造人工智能的公司都可以立即聲明他們沒有過錯,因為人類擁有控制權。 根據他們無可挑剔的記錄,在大爆炸發生時,人工智能並沒有受到控制。 人類是。 因此,很明顯,人的過錯是顯而易見的。

AI公司在做出這種直言不諱的斷言時基本上是在撒謊嗎?

不,他們似乎在說實話。

當被問及他們是否確定人工智能不受控制時,該公司會大聲而自豪地宣稱人工智能根本不受控制。 他們已經記錄了這一斷言的證據(假設人工智能保留了事件的日誌)。 事實上,人工智能公司的高管們可能會因為有人會在這一點上挑戰他們的誠信而厭惡地揚起眉毛。 他們願意以他們神聖的誓言宣誓人工智能是 任何監管機構都不批准 掌控之中。 人在環中有控制權。

我相信你明白這有多麼誤導。

是的,人類被交給了控制權。 理論上,人類處於控制之中。 人工智能不再控制。 但是缺乏可用的時間和通知幾乎使得這是一個非常空洞的主張。

從 AI 製造商的角度來看,這樣做的美妙之處在於,很少有人能夠挑戰所提出的主張。 AI 製造商可能不會發布事件的日誌。 這樣做可能會暴露被操縱的情況。 這些日誌被認為是知識產權 (IP) 或其他專有和機密性質的。 該公司可能會爭辯說,如果顯示日誌,這將展示他們 AI 的秘密武器並耗盡他們寶貴的 IP。

想像一下可憐的人在循環中的困境。 他們感到困惑的是,每個人都在指責他們讓事情失控。 人工智能“做了正確的事”並將控制權交給了人類。 這可能是規範所說的(同樣,規範在沒有考慮時間和可行性因素方面是疏忽的)。 尚未發布但被 AI 製造商聲稱是鐵定的日誌證明了人類已被 AI 控制的絕對事實。

你可以宣布這是對幾乎肯定會摔倒的困惑人類的一次可憐的灌籃。

很有可能,只有將這件事告上法庭,發生的事情的真相才會最終被揭露。 如果精明的合法小獵犬知道這種類型的演出,他們會嘗試合法地獲取日誌。 他們需要找一位專家證人(我不時做的事情)來破譯日誌。 僅有日誌可能還不夠。 日誌可能被篡改或更改,或者故意設計為不清晰地展示細節。 因此,人工智能代碼可能也需要深入研究。

與此同時,在整個這個痛苦而漫長的法律發現過程中,人在循環中看起來真的很糟糕。 媒體會把這個人描繪成不負責任,失去理智,不勤奮,應該被追究責任。 可能幾個月或幾年,在這個過程中,那個人仍然是每個人都指責的那個人。 惡臭可能永遠無法去除。

請記住,同樣的情況很容易再次發生。 然後再次。 假設人工智能製造商沒有改變人工智能,每當出現類似的最後一分鍾情況時,人工智能就會進行無時間剩餘交接。 人們希望這些情況不會經常發生。 在它發生的極少數情況下,人在循環中仍然是方便的墮落者。

這是一個魔鬼的把戲。

您可能想堅持認為 AI 製造商沒有做錯任何事。 他們說的是實話。 AI放棄了控制。 然後認為人類處於控制之中。 這些是事實。 爭論它沒有任何意義。

無論是否有人明智並提出棘手的問題,以及人工智能製造商是否以任何直接的方式回答這些問題,這似乎都很少發生。

問題包括:

  • 人工智能什麼時候交接給了人在環?
  • 人工智能在什麼程序基礎上進行交接?
  • 是否有足夠的時間來接管控制權?
  • 人工智能是如何為這些困境設計和設計的?
  • 等。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括(可能令人驚訝或具有諷刺意味地)評估 AI Ethics 如何被公司採用。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在這個重要討論的關鍵時刻,我敢打賭,您希望獲得一些可能展示該主題的其他說明性示例。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了有關人工智能熱土豆綜合症的任何信息,如果是這樣,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能熱土豆綜合症

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

對於全自動駕駛汽車,可能沒有任何機會在人工智能和人類之間發生切換,因為可能沒有任何人在循環中開始。 當今許多自動駕駛汽車製造商的願望是將人類駕駛員完全從駕駛任務中移除。 該車輛甚至不包含人類可訪問的駕駛控制。 在這種情況下,人類駕駛員(如果存在)將無法參與駕駛任務,因為他們無法訪問任何駕駛控制。

對於一些全自動駕駛汽車,一些設計仍然允許人類參與其中,儘管人類根本不必在場或參與駕駛過程。 因此,如果人願意,人可以參與駕駛。 不過,人工智能絕不會依​​賴人類來執行任何駕駛任務。

在半自動駕駛汽車的情況下,人類駕駛員和人工智能之間存在手拉手的關係。 對於某些設計,人類駕駛員可以完全接管駕駛控制,從本質上阻止人工智能參與駕駛。 如果人類駕駛員希望讓人工智能恢復駕駛角色,他們可以這樣做,儘管這有時會迫使人類放棄駕駛控制。

另一種形式的半自動操作將需要人類駕駛員和人工智能以團隊的方式一起工作。 人工智能在駕駛,人類在駕駛。 他們一起開車。 人工智能可能會服從人類。 人類可能會服從人工智能。

在某個時刻,人工智能駕駛系統可能會通過計算確定自動駕駛汽車正處於無法維持的境地,並且自動駕駛汽車將發生碰撞。

順便說一句,一些權威人士四處聲稱自動駕駛汽車將是不可碰撞的,這純粹是胡說八道,而且是無恥和錯誤的說法,請參閱我的報導 這裡的鏈接.

繼續自動駕駛汽車駛向碰撞或車禍的場景,人工智能駕駛系統可能會被編程為將駕駛控制權立即移交給人類駕駛員。 如果有足夠的時間讓人類駕駛員採取規避行動,這對人工智能來說確實是一件明智而恰當的事情。

但是假設人工智能在只剩下幾分之一秒的時間內完成了交接。 人類駕駛員的反應時間遠遠不夠快,無法做出充分反應。 此外,如果人類奇蹟般地足夠快,那麼在墜機前剩餘的有限時間內,很可能沒有可行的規避行動可以採取。 這是一個雙重原因:(1)人類駕駛員採取行動的時間不足,(2)如果人類駕駛員可以採取行動,則該行動可以在所提供的不足時間內執行的時間不足。

總而言之,這類似於我之前關於籃球蜂鳴器情況和工廠機器發狂情況的討論。

讓我們在其中添加邪惡的成分。

汽車製造商或自動駕駛技術公司不希望被貼上他們車隊中發生的各種車禍的標籤。 人工智能駕駛系統被編程為始終將控制權交給人類駕駛員,無論人類駕駛員是否有足夠的時間來解決困境。 每當發生此類車禍時,汽車製造商或自動駕駛技術公司都能夠口頭堅稱人類駕駛員在控制,而人工智能則沒有。

他們在人工智能駕駛系統方面的記錄似乎很出色。

對於這些車禍,人工智能駕駛系統一次都沒有“過錯”。 似乎總是那些該死的人類司機似乎並沒有把眼睛放在路上。 我們可能傾向於接受這種廢話,並相信完全精確的人工智能可能永遠不會出錯。 我們可能傾向於相信(因為我們根據經驗知道)人類司機很馬虎並且會犯大量的駕駛錯誤。 合乎邏輯的結論是,人類司機一定是罪魁禍首,而人工智能駕駛系統是完全無辜的。

在一些自動駕駛倡導者對這種特徵感到不安之前,讓我們絕對承認人類駕駛員很可能有過錯,他們應該盡快採取行動,例如從人工智能手中接管駕駛控制。 當人工智能交出駕駛控制時,人類駕駛員也有可能做一些實質性的事情。 等等。

這裡的重點是在人工智能被認為是車輛駕駛員的情況下,然後突然且很少注意人類駕駛員可能會做什麼,將燙手山芋扔給人類駕駛員。 這也是為什麼這麼多人關注半自動駕駛汽車的雙重駕駛角色的原因。 你可能會說有太多的司機在開車。 看來,目標是通過擁有完全自動駕駛的車輛來解決這個問題,這種車輛不需要人類駕駛,並且人工智能始終在駕駛車輛。

這就提出了一個相關的問題,即當人工智能駕駛時,由什麼或誰負責,我在我的專欄中已經多次討論過這個問題,例如 這裡的鏈接這裡的鏈接.

結論

在聽到或閱讀涉及半自動駕駛汽車的車禍時,我們需要小心。 警惕那些試圖通過宣稱他們的人工智能駕駛系統擁有完美記錄來欺騙我們的人。 陰謀詭計 人工智能熱土豆綜合症 可能在混合。

對於那些在這些問題上試圖狡猾的公司,也許我們可以牢記亞伯拉罕林肯的名言:“你可以在某些時候欺騙所有人,也可以一直欺騙某些人,但你無法欺騙一直都是所有人。”

我試圖在這裡揭示隱藏在屏幕後面的 AI 魔法,有時隱藏在引擎蓋下,我已經闡明了這一點,以便更多的人 不會 更多時候被愚弄。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employees-by-ai-makers-看似試圖避免對他們的生活負責的自主系統/