人工智能倫理 令人震驚的啟示是,訓練人工智能有毒或有偏見可能是有益的,包括那些自動駕駛汽車

這是一句老話,我相信你以前聽過。

需要一個人才能知道。

您可能沒有意識到這是一個可以追溯到 1900 年代早期的表達方式,並且通常在提及不法行為者時被調用(標語的其他變體可以追溯到更遠的地方,例如 1600 年代)。 如何使用這種說法的一個例子需要這樣一種觀念,即如果你想抓住一個小偷,那麼你需要使用一個小偷來這樣做。 這展示了一個人需要知道一個人的斷言。 許多電影和電視節目都利用了這種方便的聖人智慧,經常描繪,抓住騙子的唯一可行方法是僱傭一個同樣腐敗的騙子來追捕不法分子。

換檔,有些人可能會利用同樣的邏輯來爭辯說,辨別某人是否存在不當偏見和歧視性信念的合適方法是找到已經懷有這種傾向的人。 據推測,一個已經充滿偏見的人將能夠更容易地感覺到另一個人同樣充滿了毒性。 再一次,它需要一個人知道一個是公開的口頭禪。

您對使用有偏見的人來懷疑另一個有偏見的人的可能性的最初反應可能是懷疑和不相信。 難道我們不能通過僅僅檢查他們而不必求助於尋找具有相似性質的其他人來確定某人是否持有不利的偏見嗎? 故意尋找有偏見的人以發現其他也有偏見的人似乎很奇怪。

我想這部分取決於您是否願意接受假定的克制,即需要一個人才能知道一個。 請注意,這並不意味著抓住小偷的唯一方法要求您專門且始終使用小偷。 您似乎可以合理地爭辯說,這只是可以適當考慮的附加路徑。 也許有時你願意接受使用小偷抓小偷的可能性,而其他情況可能會使這成為一種深不可測的策略。

正如他們所說,使用正確的工具進行正確的設置。

既然我已經列出了這些基本原理,我們就可以進入這個故事中可能令人不安和表面上令人震驚的部分。

你準備好了嗎?

人工智能領域正在積極追求同樣的原則,有時需要一個人知道一個,特別是在試圖找出有偏見或以歧視性方式行事的人工智能的情況下。 是的,令人費解的想法是,我們可能有意設計出完全不加掩飾地帶有偏見和歧視性的 AI,這樣做是為了以此作為發現和揭示其他具有同樣毒性的 AI 的手段。 正如您稍後會看到的那樣,這件事背後有各種令人煩惱的 AI 倫理問題。 有關我對 AI Ethics 和 Ethical AI 的全面持續和廣泛的報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

我想你可以將這種使用有毒 AI 來追求其他有毒 AI 作為眾所周知的以火攻毒的概念(我們可以使用大量委婉語和說明性隱喻來描述這種情況)。 或者,正如已經強調的那樣,我們可能會吝嗇地提到一個人知道一個人的斷言。

總體概念是,我們不應該僅僅試圖通過使用傳統方法來弄清楚給定的人工智能係統是否包含不適當的偏見,也許我們也應該尋求採用不那麼傳統的方法。 一種非常規的方法是設計包含所有最嚴重的偏見和社會不可接受的毒性的人工智能,然後使用該人工智能來幫助排除其他具有同樣不良傾向的人工智能。

當您快速考慮一下時,它肯定看起來非常明智。 我們的目標可以是構建最大毒性的人工智能。 然後使用這種有毒的 AI 來找出其他也具有毒性的 AI。 對於後來發現的“壞”人工智能,我們可以通過消除毒性、完全拋棄人工智能來處理它(參見我在 這裡這個鏈接),或監禁 AI(請參閱我對 AI 禁閉的報導 這裡這個鏈接),或者做任何其他似乎適用的事情。

一個反駁的觀點是,我們應該檢查一下我們是否有意並願意設計有毒且充滿偏見的人工智能。 這是我們應該考慮的最後一件事,有些人會勸告。 專注於讓人工智能完全由善組成。 不要專注於設計具有不當偏見的弊端和渣滓的人工智能。 對於某些人來說,這種追求的想法似乎令人反感。

這個有爭議的任務還有更多的疑慮。

也許設計有毒人工智能的使命只會讓那些希望製造能夠削弱社會的人工智能的人更加膽大妄為。 就好像我們在說,製作具有不恰當和令人討厭的偏見的人工智能是完全可以的。 不用擔心,不用猶豫。 尋求設計出讓您心滿意足的有毒 AI,我們正在向全球各地的 AI 建設者大聲傳達。 一切都是以善良的名義(眨眼眨眼)。

此外,假設這種有毒的人工智能流行起來。 可能是許多其他 AI 構建者使用和重用了 AI。 最終,有毒的人工智能被隱藏在各種人工智能係統中。 可以類比為設計一種破壞人類的病毒,該病毒可以從可能是密封的實驗室中逃脫。 接下來你知道,該死的東西無處不在,我們已經把自己消滅了。

等一下,這些反駁的反面是,你在各種瘋狂和不受支持的假設中肆無忌憚。 深吸一口氣。 你冷靜一下。

我們可以安全地製造有毒的 AI 並將其封閉。 我們可以使用有毒的人工智能來發現並幫助減少人工智能的日益流行,不幸的是,人工智能確實存在不當的偏見。 任何其他這些荒謬的狂野和未經證實的滾雪球感嘆都純粹是下意識的反應,令人遺憾的是愚蠢和徹頭徹尾的魯莽。 不要試圖把嬰兒和洗澡水一起倒掉,這是預先警告的。

這樣想,支持者爭辯說。 為研究、評估和像偵探一樣發現其他具有社會攻擊性的 AI 的目的而正確構建和使用有毒 AI 是一種有價值的方法,並且應該在被追求時得到公平的震動。 拋開你的皮疹反應。 下來,清醒地看待這個。 我們關注的是獎品,即揭露和消除基於偏見的人工智能係統的過剩,並確保作為一個社會,我們不會被有毒的人工智能所淹沒。

時期。 句號。

有多種基石方法可以深入研究將有毒或有偏見的人工智能用於有益目的的概念,包括:

  • 設置故意包含有偏見且完全有毒的數據的數據集,這些數據可用於訓練 AI 關於不做什麼和/或註意什麼
  • 使用此類數據集來訓練機器學習 (ML) 和深度學習 (DL) 模型以檢測偏差並找出導致社會毒性的計算模式
  • 將經過毒性訓練的 ML/DL 應用於其他 AI,以確定目標 AI 是否具有潛在的偏見和毒性
  • 提供經過毒性訓練的 ML/DL,以向 AI 構建者展示需要注意的事項,以便他們可以輕鬆檢查模型以了解算法上的偏差是如何產生的
  • 舉例說明有毒 AI 的危險,作為 AI 倫理和道德 AI 意識的一部分,所有這些都通過這個問題兒童壞到骨的 AI 系列示例來講述
  • 其他

在深入了解這幾條路徑之前,讓我們建立一些額外的基礎細節。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,我們可以通過探索我所說的機器學習和深度學習的意思來設置舞台。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

對於這一切,還能做些什麼?

讓我們回到之前提出的如何通過使用一種有點非傳統的“需要一個人知道一個”的方法來嘗試和應對 AI 偏見或有毒 AI 的列表。 回想一下,該列表包含以下要點:

  • 設置故意包含有偏見且完全有毒的數據的數據集,這些數據可用於訓練 AI 關於不做什麼和/或註意什麼
  • 使用此類數據集來訓練機器學習 (ML) 和深度學習 (DL) 模型以檢測偏差並找出導致社會毒性的計算模式
  • 將經過毒性訓練的 ML/DL 應用於其他 AI,以確定目標 AI 是否具有潛在的偏見和毒性
  • 提供經過毒性訓練的 ML/DL,以向 AI 構建者展示需要注意的事項,以便他們可以輕鬆檢查模型以了解算法上的偏差是如何產生的
  • 舉例說明有毒 AI 的危險,作為 AI 倫理和道德 AI 意識的一部分,所有這些都通過這個問題兒童壞到骨的 AI 範例係列講述
  • 其他

我們將仔細研究這些要點中的第一個。

設置有毒數據的數據集

嘗試建立包含令人討厭的社會偏見的數據集的一個有見地的例子是 WILDS 策劃集合的 CivilComments 數據集。

首先,一些快速的背景。

WILDS 是可用於訓練 ML/DL 的開源數據集集合。 WILDS 的主要目的是讓 AI 開發人員能夠隨時訪問代表 分佈變化 在各個特定領域。 目前可用的一些領域包括動物物種、活組織中的腫瘤、小麥頭密度和其他領域,例如我將立即描述的 CivilComments。

處理分佈變化是正確構建 AI ML/DL 系統的關鍵部分。 這是交易。 有時,您用於訓練的數據與測試數據或“野外”數據完全不同,因此您可能經過訓練的 ML/DL 與現實世界的樣子相差甚遠。 精明的 AI 構建者應該訓練他們的 ML/DL 以應對這種分佈變化。 這應該提前完成,並且在以後需要對 ML/DL 本身進行改造時並不令人意外。

正如介紹 WILDS 的論文中所解釋的那樣:“分佈變化——訓練分佈與測試分佈不同——會大大降低在野外部署的機器學習 (ML) 系統的準確性。 儘管它們在現實世界的部署中無處不在,但這些分佈變化在當今 ML 社區廣泛使用的數據集中的代表性不足。 為了解決這一差距,我們展示了 WILDS,這是一個由 10 個數據集組成的精選基準,反映了現實世界應用中自然出現的各種分佈變化,例如跨醫院進行腫瘤識別的變化; 跨越用於野生動物監測的相機陷阱; 在衛星成像和貧困測繪中跨越時間和地點”(在 Pang Wei Koh、Shiori Sagawa、Henrik Marklund、Sang Xie、Marvin Zhang、Ashay Balsubramani 的題為“WILDS: A Benchmark of in-the-Wild Distribution Shifts”的論文中、胡偉華等)。

此類 WILDS 數據集的數量不斷增加,並且數據集的性質通常正在增強,以增強將數據用於 ML/DL 訓練的價值。

CivilComments 數據集是這樣描述的:“自動審查用戶生成的文本——例如,檢測有毒評論——是調節互聯網上大量文本的重要工具。 不幸的是,先前的工作表明,這種毒性分類器會發現訓練數據中的偏差,並虛假地將毒性與某些人口統計數據的提及聯繫起來。 這些類型的虛假相關性會顯著降低特定子群體的模型性能。 我們通過 CivilComments 數據集的修改變體來研究這個問題”(如 WILDS 網站上發布的那樣)。

考慮不良在線帖子的細微差別。

毫無疑問,在使用幾乎任何類型的社交媒體時,您都會遇到有毒的評論。 您似乎幾乎不可能神奇地避免看到這些天似乎無處不在的辛辣和糟糕的內容。 有時粗俗的材料是微妙的,也許你必須在字裡行間閱讀以了解有偏見或歧視性的語氣或含義的要點。 在其他情況下,這些詞是公然有毒的,你不需要顯微鏡或特殊的解碼環來弄清楚這些段落的含義。

CivilComments 是一個數據集,旨在嘗試設計可以通過計算檢測有毒內容的 AI ML/DL。 以下是研究人員關注的重點:“機器學習中的意外偏見可能表現為不同人口群體的系統性表現差異,可能加劇整個社會對公平性的現有挑戰。 在本文中,我們介紹了一套與閾值無關的指標,通過考慮分類器的分數分佈在指定組之間變化的各種方式,提供了對這種意外偏差的細緻入微的看法。 我們還引入了一個新的大型在線評論測試集,其中包含用於身份參考的眾包註釋。 我們用它來展示我們的指標如何用於在現有公共模型中發現新的和潛在的微妙的意外偏差”(在一篇題為“Nuced Metrics For Measurement Unintended Bias With Real Data for Test Classification”的論文中,Daniel Borkan、Lucas Dixon、杰弗裡·索倫森、尼圖姆·塞恩、露西·瓦瑟曼)。

如果你對這個問題進行一些廣泛的思考,你可能會開始想知道,你到底是如何區分什麼是有害評論與什麼不是有害評論。 對於他們所理解的完全有毒的措辭,人類可能會有根本的不同。 一個人可能會對發佈在社交媒體上的特定在線評論或評論感到憤怒,而其他人可能根本不會被激怒。 經常有人爭論說有毒評論的概念是一個完全模糊的規則。 就像藝術,習慣上說藝術只能在旁觀者的眼中理解,同樣,偏見或有毒的言論也只能在旁觀者的眼中。

Balderdash,有些反駁。 任何有理智的人都可以判斷在線評論是否有毒。 你不需要成為火箭科學家就能意識到一些張貼的刻薄侮辱何時充滿偏見和仇恨。

當然,社會習俗會隨著時間的推移而發生變化。 不久前可能不會被認為是冒犯性的事情在今天可能被視為極其錯誤的。 最重要的是,多年前所說的曾經被視為過度偏見的事情可能會根據含義的變化而重新解釋。 同時,其他人斷言,有毒評論總是有毒的,無論它最初是在何時頒布的。 可以說毒性不是相對的,而是絕對的。

試圖確定什麼是有毒的問題仍然是一個相當困難的難題。 我們可以在這個棘手的問題上加倍努力,嘗試設計算法或人工智能來確定哪個是哪個。 有人說,如果人類很難做出這樣的評估,那麼對計算機進行編程可能同樣或更成問題。

設置包含有毒內容的數據集的一種方法涉及使用眾包方法對內容進行評級或評估,因此提供了一種基於人的方法來確定哪些內容被視為有害內容,並將標籤包含在數據集本身中。 然後,AI ML/DL 可能會檢查數據和人工評分者已指示的相關標籤。 這反過來又可以潛在地作為一種通過計算找到潛在數學模式的方法。 瞧,ML/DL 然後可能能夠預測或計算評估給定評論是否可能有毒。

正如引用的關於細微差別指標的論文中所述:“該標籤要求評估者對評論的毒性進行評級,從‘非常有毒’、‘有毒’、‘很難說’和‘無毒’中進行選擇。 評估者還被問及幾種毒性亞型,儘管這些標籤沒有用於這項工作的分析。 使用這些評級技術,我們創建了一個包含 1.8 萬條評論的數據集,這些評論來自在線評論論壇,其中包含毒性和身份標籤。 雖然所有評論都被標記為毒性,並且 450,000 條評論的子集被標記為身份。 一些標記為身份的評論是使用從以前的身份標籤迭代構建的模型預先選擇的,以確保人群評估者會經常看到身份內容”(在 Daniel Borkan、Lucas Dixon、Jeffrey Sorensen、Nithum Thain、Lucy Vasserman 引用的論文中)。

另一個旨在擁有包含說明性有毒內容的數據集的示例涉及訓練基於 AI 的自然語言處理 (NLP) 會話交互系統的努力。 您可能已經與 Alexa 和 Siri 等 NLP 系統進行過交互。 我已經介紹了當今 NLP 的一些困難和限制,包括當 Alexa 向兒童提供不合適且危險的建議時發生的一個特別令人不安的實例,請參閱 這裡的鏈接.

最近的一項研究試圖使用九類社會偏見,這些偏見通常基於 EEOC(平等就業機會委員會)受保護的人口特徵列表,包括年齡、性別、國籍、外貌、種族或民族、宗教、殘疾狀況、性方向和社會經濟地位。 根據研究人員的說法:“NLP 模型學習社會偏見是有據可查的,但是關於這些偏見如何在諸如問答 (QA) 等應用任務的模型輸出中表現出來的工作卻很少。 我們介紹了 QA 的偏見基準 (BBQ),這是一個由作者構建的問題集數據集,它突出了在與美國英語語境相關的九個社會維度上對屬於受保護階級的人的經證實的社會偏見”(在題為“BBQ”的論文中) : A Hand-Built Benchmark For Question Answering”,作者:Alicia Parrish、Angelica Chen、Nikita Nangia、Vishakh Padmakumar、Jason Phang、Jana Thompson、Phu Mon Htut、Samuel R. Bowman)。

設置故意包含有偏見和完全有毒數據的數據集是人工智能的一個上升趨勢,尤其是人工智能倫理的出現和產生倫理人工智能的願望。 這些數據集可用於訓練機器學習 (ML) 和深度學習 (DL) 模型,以檢測偏差並找出導致社會毒性的計算模式。 反過來,經過毒性訓練的 ML/DL 可以明智地針對其他 AI,以確定目標 AI 是否具有潛在的偏見和毒性。

此外,可用的受過毒性訓練的 ML/DL 系統可用於向 AI 構建者展示需要注意的事項,以便他們可以輕鬆檢查模型以了解算法上的偏差是如何產生的。 總體而言,這些努力能夠證明有毒人工智能的危險性,這是人工智能倫理和人工智能道德意識的一部分。

在這個重要討論的關鍵時刻,我敢打賭,您希望獲得一些可能展示該主題的進一步說明性示例。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了使用數據集來設計有毒人工智能的效用,如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和避免有毒人工智能

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

在自動駕駛汽車和自動駕駛汽車的出現面前,人工智能注入的偏見有很多潛力,並且有朝一日可能會實現,例如,參見我在 這裡的鏈接這裡的鏈接. 我們仍處於自動駕駛汽車推出的早期階段。 在採用達到足夠的規模和可見度之前,我一直預測最終會發生的許多有毒 AI 方面還不是很明顯,也沒有引起公眾的廣泛關注。

考慮一個看似簡單的駕駛相關問題,乍一看似乎完全無害。 具體來說,讓我們來看看如何正確判斷是否停車等待沒有通行權的“任性”行人。

毫無疑問,您一直在開車並遇到等待過馬路的行人,但他們沒有這樣做的通行權。 這意味著您可以自行決定是否停下來讓他們通過。 您可以在不讓他們通過的情況下繼續進行,並且仍然完全符合這樣做的合法駕駛規則。

對人類駕駛員如何決定為此類行人停車或不停車的研究表明,有時人類駕駛員會根據不利的偏見做出選擇。 人類駕駛員可能會看著行人並選擇不停車,即使如果行人有不同的外觀(例如基於種族或性別),他們也會停下來。 我已經在 這裡的鏈接.

人工智能駕駛系統將如何編程以做出同樣的走走停停決定?

你可以宣稱所有的人工智能駕駛系統都應該被編程為總是為任何等待的行人停下來。 這大大簡化了問題。 真的沒有任何棘手的決定要做。 如果行人在等待過馬路,無論是否有先行權,都要確保人工智能自動駕駛汽車停下來讓行人過馬路。

十分簡單。

生活從來沒有那麼容易,似乎。 想像一下,所有的自動駕駛汽車都遵守這條規則。 行人將不可避免地意識到人工智能駕駛系統,容我們說,是推倒重來的。 任何和所有想要過馬路的行人都會心甘情願地這樣做,無論何時何地。

假設一輛自動駕駛汽車以每小時 45 英里的限速行駛在一條快速街道上。 行人“知道”人工智能會讓自動駕駛汽車停下來。 於是,行人飛奔到街上。 不幸的是,物理學勝過人工智能。 人工智能駕駛系統將試圖讓自動駕駛汽車停下來,但自動駕駛汽車的動力將攜帶重達數噸的裝置向前衝撞任性的行人。 結果要么是有害的,要么是造成死亡。

當有人類駕駛員駕駛時,行人通常不會嘗試這種行為。 當然,在某些地區會發生一場眼球大戰。 一名行人注視著一名司機。 司機盯著行人。 視情況而定,司機可能會停下來,或者司機可能會聲稱他們對道路的要求,並表面上是敢於讓行人試圖擾亂他們的道路。

我們大概不希望 AI 捲入類似的眼球大戰,這無論如何也有點挑戰,因為沒有人或機器人坐在自動駕駛汽車的方向盤上(我已經討論過機器人的未來可能性那個驅動器,看 這裡的鏈接)。 然而,我們也不能讓行人總是做主。 結果可能對所有有關方面都是災難性的。

然後,您可能會想轉向硬幣的另一面,並宣佈人工智能駕駛系統在這種情況下永遠不應該停止。 換句話說,如果行人沒有適當的過馬路權,人工智能應該始終假設自動駕駛汽車應該繼續前進。 那些行人真倒霉。

如此嚴格和簡單化的規則不會被廣大公眾所接受。 人就是人,他們不喜歡被完全排除在過馬路之外,儘管他們在法律上缺乏在各種情況下這樣做的通行權。 你可以很容易地預料到公眾會引起軒然大波,並且可能會看到對繼續採用自動駕駛汽車的強烈反對。

如果我們這樣做該死,如果我們不這樣做該死。

我希望這已經引導您找到合理的替代方案,即 AI 需要進行編程,以做出關於如何處理這個駕駛問題的決策。 永不停止的硬性規則是站不住腳的,同樣,永遠停止的硬性規則也是站不住腳的。 人工智能必須設計有一些算法決策或 ADM 來處理這個問題。

您可以嘗試使用與 ML/DL 方法相結合的數據集。

以下是 AI 開發人員可能決定如何編寫此任務的方式。 他們從放置在自動駕駛汽車將在其中使用的特定城市周圍的攝像機收集數據。 數據展示了人類駕駛員何時選擇為沒有通行權的行人停車。 它全部收集到一個數據集中。 通過使用機器學習和深度學習,可以對數據進行計算建模。 然後人工智能駕駛系統使用這個模型來決定何時停止或不停止。

一般來說,這個想法是,無論當地習俗是什麼,這就是人工智能指導自動駕駛汽車的方式。 問題解決了!

但是,真的解決了嗎?

回想一下,我已經指出,有研究表明,人類駕駛員在選擇何時為行人停車時可能存在偏見。 收集到的關於特定城市的數據可能會包含這些偏見。 然後,基於該數據的 AI ML/DL 可能會建模並反映這些相同的偏見。 人工智能駕駛系統只會執行相同的現有偏見。

為了嘗試解決這個問題,我們可以將一個實際上具有這種偏見的數據集放在一起。 我們要么找到這樣一個數據集,然後標記偏差,要么我們綜合創建一個數據集來幫助說明問題。

將採取所有先前確定的步驟,包括:

  • 設置一個有意包含此特定偏差的數據集
  • 使用數據集訓練機器學習 (ML) 和深度學習 (DL) 模型以檢測這種特定偏差
  • 將經過偏差訓練的 ML/DL 應用於其他 AI,以確定目標 AI 是否可能以同樣的方式存在偏差
  • 提供經過偏差訓練的 ML/DL,向 AI 構建者展示需要注意的事項,以便他們可以輕鬆檢查他們的模型,了解算法上的偏差是如何產生的
  • 通過這個添加的具體示例,將有偏見的 AI 的危險作為 AI 道德和道德 AI 意識的一部分舉例說明
  • 其他

結論

讓我們重溫一下開場白。

需要一個人才能知道。

一些人解釋說,這個令人難以置信的流行說法意味著在挖掘有毒 AI 時,我們應該對構建和使用有毒 AI 以發現和處理其他有毒 AI 給予應有的信任。 底線:有時需要一個小偷才能抓住另一個小偷。

一個表達的擔憂是,也許我們正在竭盡全力開始製造小偷。 我們想設計出有毒的人工智能嗎? 這不是一個瘋狂的想法嗎? 一些人強烈認為我們應該禁止所有有毒的人工智能,包括故意建造的人工智能,即使據稱是為了英雄或英勇 永遠的人工智能 目的。

以任何可能出現的聰明或陰險的幌子壓制有毒的人工智能。

現在關於這個話題的最後一個轉折點。 我們通常認為這條著名的台詞與做壞事或壞事的人或事有關。 這就是我們如何理解需要一個小偷才能抓住一個小偷的概念。 也許我們應該把這句話改頭換面,讓它更像一張快樂的臉,而不是一張悲傷的臉。

這裡的如何。

如果我們想要無偏見且無毒的人工智能,可能需要一個人知道一個。 也許需要最偉大和最好的人來認識並產生更多的偉大和善良。 在這種聖人智慧的變體中,我們將目光集中在幸福的臉上,並專注於設計 人工智能永遠。

如果你明白我的意思,那將是一個更加樂觀和令人滿意的快樂觀點。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be-包括對那些自動駕駛汽車的有益/