人工智能倫理對人工智能不對稱性的惡化持謹慎態度

有時你走錯了路。

這種俗語可以應用於不對稱的概念。

是的,我將談論不對稱。 正如您可能在我們生活的這個混亂的世界中遇到的那樣,有時您可能會發現自己對對您而言相對重要的事情知之甚少。 這被正式稱為 信息不對稱.

關鍵是你擁有的知識或信息比你希望擁有的要少,而且你所擁有的顯然比參與此事的另一方要少。 與對方相比,您處於明顯的劣勢。 他們知道一些你不知道的事情。 他們可以利用他們所知道的,尤其是在你不知道的方面,並在與你的任何粗暴的審議或談判中佔據上風。

好吧,鎮上有一個新孩子,被稱為 人工智能不對稱.

這個最新的流行語是指你有可能與擁有人工智能的人對抗,而你並沒有那麼武裝。

他們有人工智能,而你有,好吧,只有你。 事情是不平衡的。 你處於假定的劣勢。 由於被人工智能增強,對方將能夠圍繞你轉圈。 這可能是在愛情和戰爭中一切都是公平的那句名言中(一句古老的諺語創造了 尤弗斯 John Lyly,1578 年),儘管 AI 不對稱的動態和危險引發了具有挑戰性的道德 AI 問題。 有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

在我們進入 AI 領域及其與 AI 不對稱相關的大量複雜性之前,讓我們首先探索普通舊信息不對稱的日常常規版本。 這將為進入眾所周知的人工智能新手奠定基礎。

一個簡短而有目的的啟發性故事可能會激起您的胃口。

前幾天,我在路上遇到了爆胎,我正在迅速尋找可以立即安裝的合適替代品。 我使用智能手機在網上查看了附近的輪胎店,以了解我必須使用洩氣保用輪胎行駛的距離以及是否有商店營業。 此外,我對他們的在線客戶評論進行了快速評估,並試圖收集任何有用的信息,比如他們經營了多長時間以及其他可能展示他們價值的因素。

在給其中一家輪胎店打電話後,店員給了我一份關於輪胎及其安裝成本的輕鬆報價。 輪胎並不是我想的那樣,但店員向我保證,他們將是該地區唯一一家可以立即完成工作的商店。 據店員介紹,附近的其他任何一家輪胎店都沒有這種輪胎庫存,這些競爭對手至少需要一天的時間才能從某個半遠的倉庫中獲得合適的輪胎。

我正處於信息不對稱之中。

店員自稱更了解當地輪胎店的狀況,尤其是我需要的輪胎類型。 我在一個我只是路過的地區,對那個特定地理區域的輪胎店沒有任何第一手知識。 據我所知,店員很準確,給了我赤​​裸裸的真相。

但是店員這樣做了嗎?

可能是,可能不是。

可能是店員真誠地相信傳達給我的一切。 對店員來說,這就是事實。 或者也許店員有點誇大事實。 有可能所說的話可能是真的,儘管它被描繪的方式暗示它是完全和無可辯駁的真理。 當然,這也可能完全是胡說八道,店員只是為了讓輪胎店獲得我的生意而出錢。 一個多汁的佣金可能已經上線了嗎?

我敢說沒有人喜歡處於這樣一個弱者的位置。

局勢的利害關係是信息不對稱有多重要的一個重要因素。 如果手頭的問題是生死攸關的問題,那麼呆在狗窩裡並依靠對方知道或聲稱知道的事情是一種粗略且極不受歡迎的姿勢。當風險很低時,比如在餐館點晚餐,服務員告訴你這道魚菜是天堂,但你以前從未在那裡吃過飯,而且信息不靈通,你可以接受這種信息不對稱,而不必太擔心(我還假設您還打賭服務器不會冒險給出不好的建議並錯過獲得體面的小費)。

回到破舊輪胎的故事(雙關語!),我無法立即確定店員是否給了我可靠和信息豐富的見解。 你可能想知道發生了什麼。 我決定打電話給附近的其他幾家輪胎店。

你準備好接受我的發現了嗎?

所有其他輪胎商店都有我想要的輪胎庫存,並且不會嘗試眨眼說服我換一個輪胎(就像第一個店員試圖做的那樣)。 他們還可以在與我打電話的第一家輪胎店相同的時間內完成工作。 價格差不多。

我向你保證,我鬆了一口氣。

具有諷刺意味的是,在墨菲的厄運定律中,我聯繫的第一個地方是唯一一個似乎出去吃午飯的地方,事實上。 我很高興我試圖獲得更多信息。 這縮小了信息不對稱的差距。 我為自己堅持自己的立場而不同意我打電話的第一個地方而鼓掌。

話雖如此,在我獲取額外信息的過程中需要付出一定的代價。 我打了大約四個電話,每個電話都需要大約十五到二十分鐘才能完全接聽。 從這個意義上說,我用了大約一個半小時​​,只是想知道把車開到哪裡去。 如果我立即把我的車開到第一個地方,那麼到那時新輪胎幾乎已經裝在我的車上了。 另一方面,我幾乎可以肯定,後來我會後悔在卑鄙的信息不對稱束縛中做出的快速決定。

有時你必須咬緊牙關,面對可怕的信息不對稱。 你只是希望無論你做出什麼決定,都會足夠好。 這可能不是一個“完美”的決定,你以後可能會後悔做出的選擇。 另一個角度是,您可以嘗試支持信息等式,儘管這不一定是免費的,而且還可能會浪費寶貴的時間,這取決於珍惜的時間是否至關重要。

既然知道我的車用全新的正確輪胎運行良好,無疑讓你感到欣慰,我可以轉向 AI Asymmetry 的出現。

考慮一個 AI 的悲慘故事。

您正在尋求獲得房屋貸款。 有一個特定銀行正在使用的在線抵押貸款請求分析器。 在線系統利用了當今先進的人工智能功能。 無需與人工貸款授予代理交談。 人工智能做到了這一切。

AI 系統會引導您完成一系列提示。 您盡職盡責地填寫表格並響應 AI 系統。 這個AI很健談。 雖然您過去可能使用過傳統的基於計算機的表單系統,但這種 AI 變體更類似於與人類代理進行交互。 不完全是,但足以讓你幾乎開始相信有人在這項活動的另一邊。

在盡力與這個人工智能“討論”你的請求後,最後它會通知你不幸的是貸款請求沒有被批准。 人工智能似乎在道歉,這有點讓你的山羊感到困惑,好像人工智能想要批准貸款,但那些監督銀行的卑鄙人不會讓人工智能這樣做。 有關我對這些所謂的人工智能道歉有多麼誤導的報導,請參閱 這裡的鏈接.

你不知道你為什麼被拒絕。 AI不提供任何解釋。 也許人工智能在計算中犯了錯誤或搞砸了。 更糟糕的是,假設人工智能在決定貸款時使用了一些非常有問題的考慮因素,例如你的種族或性別。 您所知道的是,您似乎在浪費時間,同時還將大量私人數據交給了人工智能和銀行。 他們的人工智能打敗了你。

這將被標記為人工智能不對稱的一個例子。

是你反對銀行。 銀行配備了人工智能。 你沒有同樣武裝。 你有你的智慧和你的硬敲智慧學校,但你的後兜里沒有人工智能。 反對機器。 可悲的是,機器在這種情況下贏了。

你要做什麼?

首先,我們需要在社會基礎上認識到這種人工智能不對稱正在增長並變得幾乎無處不在。 人類在我們每天與之交互的所有系統中都遇到了人工智能。 有時 AI 是我們與之交互的唯一元素,例如在此示例中關於貸款請求的內容。 在其他情況下,人類可能處於依賴 AI 幫助他們執行給定服務的循環中。 對於貸款,銀行可能會讓您與人工代理交談而不是與 AI 交互,但人工代理正在使用計算機系統訪問 AI,該 AI 在貸款請求過程中指導人工代理(而且,你幾乎總是可以保證讓人類代理表現得好像他們被囚禁了,因為他們必須嚴格執行人工智能“告訴他們做什麼”的任何事情)。

無論哪種方式,人工智能仍在混合中。

其次,我們需要嘗試並確保 AI 不對稱至少是在 AI 道德的基礎上進行的。

請允許我解釋一下這個看似古怪的言論。 你看,如果我們可以確定 AI 以一種合乎道德的方式行事,我們可能會對正在發揮作用的不對稱性感到安慰。 在某種程度上類似但也鬆散的基礎上,您可能會說,如果我與第一個輪胎店店員的互動有一些尖銳的道德準則並得到執行,也許我不會被告知我被告知的故事,或者至少我不會可能不必立即尋找是否有人給了我一個高大的故事。

稍後我將解釋更多有關 AI 倫理的信息。

第三,我們應該尋求減少人工智能不對稱的方法。 如果你有 AI 在你身邊,努力成為你的教練或保護者,你也許可以使用該 AI 與你將與之正面交鋒的另一個 AI 進行反擊。 正如他們所說,有時以火攻毒是很有意義的。

在深入討論 AI 不對稱背後的狂野和模糊考慮之前,讓我們建立一些關於非常重要的主題的額外基礎知識。 我們需要簡要介紹一下 AI 倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到我們對 AI 不對稱性的關注。

快速回顧一下我前面提到的三個已確定的建議是:

1) 意識到人工智能不對稱的存在並且正在增長

2) 尋求確保 AI 不對稱受到 AI 倫理的約束

3) 嘗試通過配備 AI 來應對 AI 不對稱

我們將仔細研究後一個以火攻克的觀點。

想像一下,當您尋求貸款時,您的 AI 正在幫助您。 這可能是您智能手機上為獲得貸款而設計的基於人工智能的應用程序。 它不是一家銀行的應用程序,而是獨立設計以代表您行事。 我在關於基於 AI 的守護天使機器人的書中詳細介紹了這些類型的應用程序,請參閱 這裡的鏈接.

在您申請貸款時,您可能會在其他 AI 逐步完成申請流程時參考此應用程序。 這兩個人工智能係統是截然不同的,並且彼此完全分開。 您智能手機上的 AI 已經過“訓練”,可以了解其他 AI 使用的所有技巧。 因此,您輸入銀行 AI 的答案將基於您的 AI 向您提供的建議。

另一個變體包括你的 AI 回答另一個 AI 提出的問題。 就其他 AI 可以確定的而言,是你在輸入答案。 相反,您可能只是在觀看兩個戰鬥 AI 系統之間發生的交互。 這使您可以查看您的 AI 提供的內容。 此外,您可以根據您對 AI 代表您所做的事情是否滿意來調整您的 AI。

我曾預測,在這些 AI 不對稱的情況下,我們都將逐漸成為 AI 的武裝。

讓我們考慮一下這將如何解決。

這些是我列出的對 AI 不對稱條件的基石影響:

  • 對你有利的 AI 不對稱性展平 (帶你向上,希望達到同等水平)
  • 激發對你有利的 AI 不對稱性 (在已經平等的情況下提高你的優勢)
  • 將 AI 不對稱提升至您的非凡青睞 (在已經處於優勢時獲得更廣泛的優勢)
  • 無意中削弱了你對 AI 的不對稱性 (當你有一個預先存在的優勢並且人工智能無意中把你拉下來時)

是時候深入研究這些有趣的可能性了。

將 AI 的不對稱性展平以利於你

扁平化 AI 不對稱性是最明顯和最常討論的考慮因素,即您將用 AI 武裝自己,嘗試與手頭的另一方使用的 AI 正面交鋒。 AI 不對稱設置一開始就讓你處於明顯的劣勢。 你的角落裡沒有人工智能。 你在事情的低端。 另一邊確實有人工智能,而且他們在更高的地方。

因此,你明智地用人工智能武裝自己,旨在讓你和其他人工智能處於平等地位。

要記住的一個重要且可能令人驚訝的細微差別是,所使用的人工智能係統並不總是會相互平衡。 你可能會用人工智能武裝自己,我們應該說它不如對方正在使用的人工智能強大。 在這種情況下,你增加了你的下行頭寸,謝天謝地,儘管你現在並不完全等同於對方及其 AI。

這就是為什麼我將其稱為扁平化 AI 不對稱性。 您也許可以縮小差距,但不能完全縮小差距。 最終目標是在你身邊使用人工智能,讓你處於完全平等的姿勢。 問題是,這可能可行,也可能不可行。 可以想像,另一方可能擁有一些非常昂貴的人工智能,而你正試圖與家庭式的節儉型人工智能競爭。

並非所有的人工智能都是一樣的。

激發 AI 不對稱對您的青睞

這種情況今天很少討論,部分原因是現在很少見。 總有一天,這將是家常便飯。 這個概念是假設你沒有人工智能,但仍然與擁有人工智能的一方處於同​​等地位。

對你有好處。

人類確實有他們的智慧。

但是您可能希望獲得優於對方的優勢。 用 AI 武裝自己,帶你進入更高的境界。 您現在擁有自己的智慧和值得信賴的 AI。 你已經獲得了可能會戰胜對方人工智能的優勢。

增強 AI 不對稱性,為您帶來非凡的青睞

使用類似的邏輯作為代表您激發 AI 不對稱的方面,假設您已經超越了使用 AI 的另一方的能力。 因此,你不是從一個平等的姿勢開始的。 幸運的是,您已經處於領先地位。

無論如何,您可能希望獲得更大的優勢。 因此,你用人工智能武裝自己。 這會讓你的頭和肩膀高於另一側。

無意中削弱了對您不利的 AI 不對稱性

我懷疑你想听聽這種可能性。 請意識到,處理人工智能並不全是玫瑰和冰淇淋蛋糕。

可能是當你用人工智能武裝自己時,你實際上削弱了自己。 如果你已經低於對方的 AI,那麼你現在就掉進了一個更深的坑里。 如果你們處於平等地位,那麼你們現在處於劣勢。 如果你在另一邊之上,你現在等於或低於它。

怎麼會這樣?

想到您採用的 AI 會讓您誤入歧途,您可能會感到震驚。 這很容易發生。 僅僅因為你的角落裡有人工智能並不意味著它是有用的。 您可能正在使用 AI,它提供了您不一定認為合適的建議,但您還是決定使用它。 你當時的邏輯是,既然你費盡心思得到了人工智能,那你還不如依賴它。

您使用的 AI 可能有缺陷。 或者它可能設計得不好。 人工智能給你的建議不可靠的原因有很多。 那些盲目接受人工智能所說的任何事情的人,必然會發現自己處於一個受傷的世界。 我已經在我的專欄中介紹過這樣的困境,例如 這裡的鏈接.

底線是,絕對不能保證僅僅因為你用人工智能武裝自己,你就會在人工智能不對稱遊戲中獲勝。

你可能會到達一個公平的競爭環境。 你可能會獲得優勢。 而且,令人遺憾的是,您需要謹慎,因為當您使用 AI 時,您可能會陷入低谷。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要。

除了採用人工智能倫理之外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。 例如,請參閱我的報導 這裡的鏈接這裡的鏈接.

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於 AI 的真正自動駕駛汽車的出現是否說明了有關 AI 不對稱性的任何信息?如果是這樣,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能不對稱

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

讓我們勾勒出一個展示 AI 不對稱性的場景。

考慮一下自動駕駛汽車將在哪裡漫遊以接載乘客這一看似無關緊要的問題。 這似乎是一個非常無害的話題。

首先,假設人工智能自動駕駛汽車將在整個城鎮漫遊。 任何想要求乘坐自動駕駛汽車的人基本上都有平等的機會叫到一輛自動駕駛汽車。 逐漸地,人工智能開始主要讓自動駕駛汽車只在城鎮的一個區域漫遊。 這部分是一個更大的賺錢者,人工智能已經被編程來嘗試和 最大化 收入作為整個社區使用的一部分(這強調了優化背後的心態,即只關註一個特定的指標,而忽略過程中的其他關鍵因素)。

事實證明,該鎮貧困地區的社區成員不太可能乘坐自動駕駛汽車。 這是因為自動駕駛汽車離得更遠,並且在城鎮收入較高的地區漫遊。 當請求來自城鎮的較遠地區時,來自較近位置的任何其他請求將獲得更高的優先級。 最終,在城鎮較富裕地區以外的任何地方獲得自動駕駛汽車幾乎是不可能的,對於那些生活在現在資源匱乏地區的人來說,這令人惱火。

自動駕駛汽車本應實現的人人享有機動性的夢想破滅了。

你可以斷言,人工智能完全落在了一種統計和計算偏差上,類似於一種代理歧視(通常也稱為間接歧視)。 意識到人工智能並不是為了避開那些較貧窮的社區而設計的。 在這種情況下,讓我們清楚這一點。 不,它只是為了優化收入而設計的,這是一個看似可以接受的目標,但這是在人工智能開發人員沒有考慮其他潛在後果的情況下完成的。 這種優化反過來又在不知不覺中不可避免地導致了不良結果。

如果他們將 AI 倫理考慮作為優化思維的一部分,他們可能會事先意識到,除非他們設計 AI 來應對這種僅在一個指標上過大的情況,否則他們可能會避免這種糟糕的結果。 有關自動駕駛汽車和自動駕駛汽車的廣泛採用可能引發的此類問題的更多信息,請參閱我的報導 這裡這個鏈接,描述了我在這些主題上合著的一項哈佛領導的研究。

在任何情況下,假設馬已經離開穀倉並且這種情況不能立即接受總體解決方案。

那些想使用這些自動駕駛汽車的人會做什麼?

最明顯的方法是與社區領袖合作,讓汽車製造商或自動駕駛技術公司重新考慮他們如何設置人工智能。 也許對在那個城市或城鎮部署這些自動駕駛汽車而獲得的任何許可或許可施加壓力。 這些可能是帶來積極變化的可行方法,儘管這些努力可能需要一段時間才能取得成果。

另一個角度是用人工智能武裝自己。

設想有人巧妙地設計了一個基於人工智能的應用程序,該應用程序可以在您的智能手機上運行,並與正在接受乘車請求的汽車製造商或車隊運營商的人工智能打交道。 可能是您正在使用的人工智能利用了其他人工智能的關鍵元素,因此您對自動駕駛汽車的請求被給予更高的優先級。 請注意,我並不是在暗示正在發生任何非法行為,而是說您這邊的 AI 是基於發現的“功能”甚至其他 AI 中的漏洞而開發的。

結論

關於通過使用 AI 武裝自動駕駛汽車車隊運營商的 AI 公然反擊的故事引發了額外的 AI 倫理爭議和考慮。

例如:

  • 如果一個人可以利用人工智能讓他們比其他系統的人工智能更有優勢,那麼這在跨越人工智能倫理界限方面能走多遠(我說服自動駕駛汽車來找我和我的朋友,排除所有其他人)?
  • 此外,是否有任何類似的 AI 倫理考慮,即如果有人知道或擁有 AI 與其他 AI 進行戰鬥,是否應該以某種方式提醒那些沒有平衡 AI 的人並能夠武裝自己也相應地?

最後,所有這一切都將我們帶入了一個看似詭異的未來,其中包括一場人工智能軍備競賽。 誰將擁有他們出行和生存所需的人工智能,誰不會? 是否總會有更多的人工智能出現並引發對平衡人工智能的需求?

受人尊敬的科學家卡爾·薩根(Carl Sagan)就特別是災難性的軍備競賽提供了這種睿智的智慧:“核軍備競賽就像兩個死敵站在齊腰深的汽油中,一個用三根火柴,另一個用五根火柴。”

在即將到來的人工智能軍備競賽中,我們必須果斷地保持腳幹,頭腦清醒。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end-棒棒的/