人工智能倫理為全球範圍內即將出現的人工智能偏見的幽靈敲響了警鐘,尤其是通過迫在眉睫的全自動系統的推動

柏拉圖有句名言:好的決策是基於知識而不是數字。

對於當今的人工智慧 (AI),這種敏銳的洞察力似乎具有驚人的先見之明。

你看,儘管目前的頭條新聞宣稱人工智慧已經以某種方式達到了感知能力並體現了人類的知識和推理,但請注意,這種誇大的人工智慧誇張是陰險的搪塞,因為我們在當今的演算法決策中仍依賴數字運算(ADM )由人工智慧系統承擔。 即使是大肆吹捧的機器學習 (ML) 和深度學習 (DL) 也包含計算模式匹配,這意味著數字仍然是 ML/DL 崇高使用的核心。

我們不知道人工智慧是否有可能獲得感知。 可能是,也可能不是。 沒有人能確切地說出這是如何發生的。 有些人認為,我們將逐步改進我們的計算人工智慧工作,從而自發地產生某種形式的感知能力。 其他人則認為人工智慧可能會進入一種計算超新星並幾乎自行獲得感知能力(通常稱為奇點)。 有關人工智慧未來的這些理論的更多信息,請參閱我的報導: 這裡的鏈接.

所以,我們不要自欺欺人,錯誤地相信當代人工智慧能夠像人類一樣思考。 我想接下來的問題就成為柏拉圖關於我們是否可以基於計算人工智慧而不是感知人工智慧做出良好決策的言論的最前線。 你可能會驚訝地發現,我會斷言,我們確實可以透過日常人工智慧系統做出正確的決策。

硬幣的另一面是,我們的日常人工智慧系統也可能做出錯誤的決定。 糟糕的決定。 充滿不良偏見和不平等的決定。 您可能已經意識到,當人工智慧的最新時代開始時,人們對現在所謂的人工智慧產生了巨大的熱情。 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

我對人工智能倫理和道德人工智能的廣泛報導可以在以下網址找到: 這裡這個鏈接這裡這個鏈接,僅舉幾例。

對於本文的討論,我想提出人工智慧的一個特別令人擔憂的方面,人工智慧倫理領域的人們理所當然地哀嘆並試圖提高人們對此的認識。 這個發人深省和令人不安的問題實際上很容易指出。

在這裡,它是: 人工智慧具有在現實世界中以驚人的全球規模傳播人工智慧偏見的潛力。

當我說「大規模」時,這顯然意味著全球範圍內的大規模。 規模巨大。 超出秤範圍的秤。

在我深入探討人工智慧帶來的偏見將如何擴大之前,讓我們確保我們都了解人工智慧如何消除不適當的偏見和不平等。 再次回憶一下,這不是有感知能力的品種。 這都是計算能力的。

您可能會感到困惑,人工智能如何會像人類一樣帶來不利的偏見和不平等。 我們傾向於認為人工智能是完全中立、公正的,只是一台機器,沒有人類可能擁有的情感波動和邪惡思維。 人工智能陷入偏見和不平等的最常見方式之一是在使用機器學習和深度學習時發生,部分原因是依賴收集的有關人類如何決策的數據。

請允許我詳細說明一下。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這將走向何方。 如果做出模式化決策的人類已經融入了不良偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身不存在常識或其他感知方面。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言“垃圾進垃圾出”。 問題是,這更類似於偏見——當偏見淹沒在人工智能中時,它會不知不覺地被注入。 人工智能的算法決策或 ADM 自然而然地充滿了不平等。

不好。

這給我們帶來了人工智慧在規模化時存在偏見的問題。

首先,讓我們看看人類偏見如何造成不平等。 一家提供抵押貸款的公司決定僱用一名抵押貸款代理人。 該代理人應該審查想要獲得房屋貸款的消費者的請求。 評估申請後,代理人會做出核准貸款或拒絕貸款的決定。 十分簡單。

為了方便討論,我們假設一名人工貸款代理人每天可以分析 8 筆貸款,每次審查大約需要一小時。 在為期 40 天的工作週中,代理人會進行約 2,000 次貸款審查。 每年,代理人通常會進行約 XNUMX 次貸款審查,或多或少。

該公司希望增加貸款審核量,因此額外僱用了 100 名貸款代理人。 假設他們的生產力大致相同,這意味著我們現在每年可以處理大約 200,000 筆貸款(以每個代理人每年 2,000 筆貸款審查的速度計算)。 看來我們確實加強了貸款申請的處理力道。

事實證明,該公司設計了一種人工智慧系統,基本上可以進行與人工代理相同的貸款審查。 人工智慧在雲端的電腦伺服器上運作。 透過雲端基礎設施,該公司可以輕鬆添加更多運算能力,以適應可能需要的任何數量的貸款審查。

利用現有的人工智慧配置,他們每小時可以進行 1,000 次貸款審核。 這也可以 24×7 發生。 AI不需要休假時間。 沒有午休時間。 人工智慧全天候工作,不會因過度勞累而抱怨。 我們可以說,以這個近似速度,人工智慧每年可以處理近 9 萬份貸款申請。

請注意,我們從擁有 100 名人工代理每年可以處理 200,000 萬筆貸款,並多次躍升至透過人工智慧系統每年處理 9 萬條評論的數量。 我們大幅擴大了貸款請求處理範圍。 毫無疑問。

做好準備迎接可能會讓你從椅子上摔下來的踢球。

假設我們的一些人工代理基於不良偏見做出貸款決定。 也許有些人認為種族因素在貸款決策中扮演關鍵角色。 也許有些人正在使用性別。 其他人則使用年齡。 等等。

在 200,000 萬次年度貸款審查中,有多少是在不利偏見和不平等的錯誤注視下進行的? 也許是 10%,大約是 20,000 筆貸款請求。 更糟的是,假設這是 50% 的貸款請求,在這種情況下,每年有 100,000 起錯誤的貸款決策實例,令人不安。

那很糟。 但我們還沒有考慮到更可怕的可能性。

假設人工智慧有一個隱藏的偏見,由種族、性別、年齡等因素組成。 如果 10% 的年度貸款分析受到這種不良影響,那麼我們就有 900,000 萬個貸款請求沒有不當處理。 這比人類代理可能做的要多得多,主要是由於數量方面的原因。 這100個代理人如果全部都在做不公平的審查,最多只能在200,000萬筆年度貸款審查中做到這一點。 人工智慧可以在 9,000,000 條年度評論中做同樣的事情。

哎呀!

這確實是人工智慧造成的巨大偏見。

當人工智慧系統中埋藏著不良偏見時,看似有利的縮放現在卻發生了逆轉,並變成了一種極其令人困惑(且令人不安)的縮放結果。 一方面,人工智慧可以有效地處理更多申請房屋貸款的人。 從表面上看,這似乎是一個巨大的 永遠的人工智能。 我們應該為自己增加了獲得所需貸款的機會而感到慶幸。 同時,如果人工智慧嵌入了偏見,那麼縮放將是一個非常糟糕的結果,我們發現自己陷入了可悲的泥潭 壞的人工智能,真正大規模。

眾所周知的雙面刃。

人工智慧可以從根本上增加那些尋求所需服務和產品的人的決策機會。 不再受人力限制的勞動力瓶頸。 傑出的! 劍的另一面是,如果人工智慧包含諸如隱藏的不平等之類的不良行為,那麼同樣大規模的擴展將會以難以想像的規模傳播這種不良行為。 令人氣憤、錯誤、可恥,我們不能讓社會陷入如此醜惡的深淵。

任何對為什麼我們需要強調人工智慧道德的重要性感到困惑的人現在應該意識到,人工智慧的擴展現像是追求道德人工智慧的一個非常重要的原因。 讓我們花點時間簡要地考慮一些關鍵的人工智慧道德準則,以說明對於任何設計、部署或使用人工智慧的人來說,什麼應該是至關重要的焦點。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 該部門的人工智能能力將得到開發和部署,以便相關人員對適用於人工智能能力的技術、開發流程和操作方法有適當的了解,包括透明和可審計的方法、數據源、設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的具體細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在建立人工智慧系統時使用,這也是一個棘手的難題。 人們很容易對人工智慧道德準則是什麼以及如何普遍遵守這些準則做出一些手足無措,而當人工智慧編碼必須成為名副其實的橡膠時,情況就複雜得多。

人工智慧道德原則將由人工智慧開發人員、管理人工智慧開發工作的人員,甚至最終部署和維護人工智慧系統的人員共同使用。 整個人工智慧開發和使用生命週期的所有利益相關者都被認為在遵守正在製定的人工智慧道德規範的範圍內。 這是一個重要的亮點,因為通常的假設是「只有編碼員」或那些對人工智慧進行程式設計的人才能遵守人工智慧道德概念。 請注意,人工智慧的設計和應用需要整個村莊的共同努力。 為此,整個村莊都必須對人工智慧道德保持警惕。

人工智慧深度偏差縮放如何運作

既然我已經了解人工智慧可能包含偏見,我們準備好研究人工智慧擴展如此侵入性的一些原因。

考慮一下十個根本原因的關鍵清單:

  1. 輕鬆複製
  2. 最小的擴展成本
  3. 極為一致
  4. 缺乏自我反省
  5. 盲從
  6. 不傾斜它的手
  7. 收件人毫無戒心
  8. 傾向於不刺激挑釁
  9. 虛假的公平光環
  10. 很難反駁

我將簡要探討每個關鍵點。

當你試圖擴大人力規模時,這樣做很可能會變得非常複雜。 你必須找到並僱用人才。 你必須訓練他們來做這項工作。 你必須付錢給他們,並考慮到人們的需求。 將此與人工智慧系統進行比較。 您開發它並投入使用。 除了對人工智慧進行一定程度的持續維護之外,您可以坐下來讓它無休止地處理。

這意味著人工智慧很容易被複製。 您可以根據任務和數量的需要添加更多的運算能力(您不是在招募或解僱)。 只需按一下按鈕即可在全球範圍內使用,並透過互聯網的全球可用性來實現。 與人力相比,擴大規模的成本是最低的。

眾所周知,人類勞動是不一致的。 當你擁有大型團隊時,你就像有一盒名副其實的巧克力,因為你永遠不知道你手上可能有什麼。 人工智慧系統可能是高度一致的。 它一遍又一遍地重複相同的活動,每次都與上次基本相同。

通常,我們會喜歡人工智慧的一致性。 如果人類容易產生偏見,那麼我們的人類勞動中總會有一部分誤入歧途。 如果人工智慧的建構和運算工作完全公正,那麼迄今為止它會更加一致。 但問題是,如果人工智慧有隱藏的偏見,那麼現在的一致性是非常令人厭惡的。 這種有偏見的行為很可能會一而再、再而三地持續發生。

人類有望進行一些自我反思,並可能發現自己做出了有偏見的決定。 我並不是說所有人都會這樣做。 我也不是說那些發現自己的人一定會改正自己的錯誤。 無論如何,至少有些人有時會糾正自己。

人工智慧不太可能有任何形式的計算自我反思。 這意味著人工智慧會繼續做它正在做的事情。 人工智慧偵測到它與公平發生衝突的可能性似乎為零。 話雖這麼說,我已經描述了解決這個問題的一些努力,例如在人工智慧中建立人工智慧道德組件(請參閱 這裡的鏈接)並設計人工智慧來監控其他人工智慧以識別不道德的人工智慧活動(參見 這裡的鏈接).

由於缺乏任何形式的自我反思,人工智慧也可能基本上盲目服從它被指示做的任何事情。 人類可能不會那麼聽話。 一些正在執行任務的人很可能會質疑他們是否可能被引導進入不平等領域。 他們往往會拒絕不道德的命令,或者可能走舉報路線(請參閱我的報告: 這裡這個鏈接)。 不要指望日常的當代人工智慧會以某種方式質疑其程式設計。

我們接下來轉向那些正在使用人工智慧的人。 如果您正在尋求房屋貸款並與某人交談,您可能會警惕該人是否給予您公平待遇。 當使用人工智慧系統時,大多數人似乎不那麼懷疑。 他們通常認為人工智慧是公平的,因此不會那麼快被激怒。 人工智慧似乎會讓人們陷入一種「這只是一台機器」的恍惚狀態。 最重要的是,嘗試抗議人工智慧可能很困難。 相較之下,抗議人類特工對待你的方式要容易得多,也更容易被接受和認為是可行的。

總而言之,與充滿偏見的人類相比,充滿偏見的人工智慧具有不光彩的優勢,即能夠讓人工智慧大規模地部署這些偏見,而不會輕易被抓住或吸引消費者意識到正在發生什麼令人不安的事情。

在本次討論的這個關頭,我敢打賭,您希望獲得一些其他示例,這些示例可能會大規模地展示人工智慧嚴重偏見的難題。

我很高興你問。

有一組特別且肯定很受歡迎的例子讓我很感動。 你看,作為人工智能專家(包括倫理和法律影響),我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易地理解該主題的理論性質。 生動地呈現這種人工智能道德困境的最令人回味的領域之一是基於人工智能的真正自動駕駛汽車的出現。 這將作為對該主題進行充分討論的方便用例或範例。

接下來是一個值得思考的值得注意的問題: 基於人工智慧的真正自動駕駛汽車的出現是否說明了人工智慧在規模上存在的偏見,如果是的話,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人為幫助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5級還沒有真正的無人駕駛汽車,我們甚至都不知道是否有可能實現這一目標,也不知道需要多長時間才能到達那裡。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智慧的大規模偏見

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在準備深入研究自動駕駛汽車和道德人工智慧的可能性,這需要探索大規模傳播的人工智慧偏見。

讓我們使用一個簡單明了的例子。 一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且似乎正在安全駕駛。 起初,您每次看到自動駕駛汽車時都會特別注意。 這輛自動駕駛汽車以其包括攝像機、雷達單元、激光雷達設備等在內的電子傳感器機架而脫穎而出。 在自動駕駛汽車在您的社區周圍巡航數週後,您現在幾乎沒有註意到它。 對你而言,它只是已經繁忙的公共道路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章,請參閱我的分析 這裡這個鏈接。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。

事實證明,對於本來無害且普遍受歡迎的基於人工智能的自動駕駛汽車,開始出現兩個不恰當的擔憂,具體來說:

A。 人工智能在自動駕駛汽車中漫遊以接載乘客的情況迫在眉睫,成為人們普遍關注的問題

b. 人工智能如何對待等待的沒有通行權的行人已成為一個緊迫的問題

起初,人工智能在整個城鎮的自動駕駛汽車中漫遊。 任何想要乘坐自動駕駛汽車的人基本上都有平等的機會叫到一輛自動駕駛汽車。 漸漸地,人工智能開始主要讓自動駕駛汽車僅在城鎮的一個區域內行駛。 這個部分是一個更大的賺錢機器,人工智能係統已被編程為嘗試最大化收入,作為社區使用的一部分。

該鎮貧困地區的社區成員不太可能乘坐自動駕駛汽車。 這是因為自動駕駛汽車距離較遠,並且在該地區收入較高的地區漫遊。 當請求來自城鎮的偏遠地區時,來自較近位置(可能位於城鎮“受人尊敬”的地區)的任何請求都將獲得更高的優先級。 最終,除了城鎮較富裕的地區之外,在任何地方獲得自動駕駛汽車幾乎是不可能的,對於那些生活在資源匱乏地區的人們來說更是如此。

你可以斷言人工智能幾乎是基於一種代理歧視(通常也稱為間接歧視)。 人工智能並沒有被編程來避開那些較貧困的社區。 相反,它通過使用 ML/DL“學會”了這樣做。

事實是,共享出行的人類司機也因做同樣的事情而聞名,儘管不一定完全是出於賺錢的角度。 有些共享出行的人類司機對於在城鎮的某些地方接載乘客存在著不良偏見。 這是一個眾所周知的現象,該市已經採取了一種監控方法來捕捉人類司機的這種行為。 人類司機可能會因為進行令人討厭的選擇行為而陷入麻煩。

人們認為人工智能永遠不會陷入同樣的流沙。 沒有設置專門的監控來跟踪基於人工智能的自動駕駛汽車的行駛方向。 直到社區成員開始抱怨後,市領導才意識到發生了什麼事。 有關自動駕駛汽車和自動駕駛汽車將出現的此類城市範圍問題的更多信息,請參閱我的報導: 這裡這個鏈接 其中描述了我與他人合著的一項哈佛大學主導的關於該主題的研究。

這個基於人工智能的自動駕駛汽車漫遊方面的例子說明了早期的跡象,即在某些情況下,人類可能會產生不良偏見,為此需要採取控制措施,而取代這些人類駕駛員的人工智能卻被忽視了。自由的。 不幸的是,人工智能可能會逐漸陷入類似的偏見之中,並且在沒有足夠的護欄的情況下這樣做。

這也展示了人工智慧在規模問題上存在的偏見。

就人類駕駛而言,我們可能到處都有一些人在行使某種形式的不平等。 對於人工智慧駕駛系統來說,它通常是針對整個自動駕駛車隊的統一人工智慧。 因此,我們可能會從鎮上的 500 輛自動駕駛汽車(全部由相同的 AI 代碼運行)開始,然後逐漸增加到 XNUMX 輛自動駕駛汽車(全部由相同的 AI 代碼運行)。 由於所有 XNUMX 輛自動駕駛汽車都由同一個人工智慧運行,因此它們相應地都受到人工智慧中嵌入的相同衍生偏見和不平等的影響。

在這方面,規模化傷害了我們。

第二個例子涉及人工智能確定是否停車等待沒有過馬路通行權的行人。

毫無疑問,您一直在開車並遇到等待過馬路的行人,但他們沒有這樣做的通行權。 這意味著您可以自行決定是否停下來讓他們通過。 您可以在不讓他們通過的情況下繼續進行,並且仍然完全符合這樣做的合法駕駛規則。

對人類駕駛員如何決定為此類行人停車或不停車的研究表明,有時人類駕駛員會根據不利的偏見做出選擇。 人類駕駛員可能會看著行人並選擇不停車,即使如果行人有不同的外觀(例如基於種族或性別),他們也會停下來。 我已經在 這裡的鏈接.

想像一下,基於人工智能的自動駕駛汽車被編程來處理是否為沒有通行權的行人停車的問題。 以下是人工智能開發人員決定如何對該任務進行編程的方式。 他們從遍布全市的攝像機收集數據。 數據顯示,人類駕駛員會為沒有通行權的行人停車,而人類駕駛員則不會停車。 所有這些都被收集到一個大數據集中。

通過使用機器學習和深度學習,可以對數據進行計算建模。 然後人工智能駕駛系統使用這個模型來決定何時停止或不停止。 一般來說,這個想法是,無論當地習俗是什麼,這就是人工智能指導自動駕駛汽車的方式。

令城市領導和居民驚訝的是,人工智慧顯然是根據行人的外表(包括種族和性別)來選擇停止或不停止。 自動駕駛汽車的傳感器會掃描等待的行人,將這些數據輸入到 ML/DL 模型中,然後模型會向人工智慧發出是否停止或繼續的訊息。 遺憾的是,該鎮在這方面已經存在著許多人類駕駛員的偏見,而人工智慧現在也在模仿同樣的情況。

這個例子說明人工智慧系統可能只是複製人類已經存在的不良偏見。 此外,它還大規模地這樣做。 有時,任何人類駕駛員都可能被教導要進行這種不恰當的選擇形式,或者可能是個人選擇這樣做,但很可能大部分人類駕駛員可能不會集體這樣做。

與此形成鮮明對比的是,用於駕駛自動駕駛汽車的人工智慧駕駛系統可能會始終如一地執行衍生偏差。

結論

有多種方法可以嘗試避免設計出帶有不良偏見或隨著時間的推移收集偏見的人工智慧。 我們的想法是盡可能在進入高速狀態並加速擴展之前發現問題。 可以這麼說,希望偏見不會消失。

假設人工智慧中會出現某種程度的偏見。 一旦大規模部署人工智慧,您就不能只執行那些經常宣稱的技術人員「一勞永逸」的概念之一。 你必須勤奮地關注人工智慧正在做什麼,並努力發現任何需要糾正的不良偏見。

正如先前指出的,一種方法是確保人工智慧開發人員了解人工智慧道德規範,從而促使他們保持警惕,對人工智慧進行程式設計以避免這些問題。 另一個途徑包括讓人工智慧自我監控自身是否存在不道德行為和/或使用另一塊人工智慧來監控其他人工智慧系統是否有潛在的不道德行為。 我在著作中介紹了許多其他潛在的解決方案。

現在最後一個想法。 以柏拉圖的一句話開始了這次討論,也許用柏拉圖的另一句精明的話來結束這次討論是合適的。

柏拉圖說,重複一件好事沒有壞處。

當人工智慧成為現實時,大規模使用人工智慧無疑是實現這一樂觀願望的可行手段。 永遠的人工智能 種類。 我們喜歡重複一件好事。 當人工智慧成為 壞的人工智能 由於充滿了令人不快的偏見和不平等,我們可能會依賴柏拉圖的言論,說重複一件壞事會帶來巨大的傷害。

讓我們仔細聆聽柏拉圖的智慧之言,並據此設計我們的人工智慧。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive -全球範圍內特別是透過迫在眉睫的完全自治系統推動/