人工智能倫理和人工智能法正朝著明確識別和管理人工智能偏見的標準邁進

你玩過五十二張撿牌嗎?

這不是你通常願意承擔的遊戲。 這就是為什麼。 有人向您提供據稱這是一項有趣的運動,如果您上鉤,他們就會將一整副撲克牌拋向空中,然後立即扔到地板上。 然後這個人給你一個厚臉皮的微笑,並告訴你繼續拿起卡片。 這就是整個遊戲。

惡作劇!

關於這個,我確實有一個有點深思熟慮的問題要問你。

假設其中一張卡片滑到附近的沙發下面。 當你把所有的牌都撿完後,你就會知道少了一張,因為你手裡只有五十一張。

問題是,你能確定哪張卡丟失了嗎?

我相信您會立即說您可以輕鬆找出哪張牌不在您的手中。 你所要做的就是把甲板整理好。 你知道一副標準的套牌由四套花色組成,每套花色的牌從一到十編號,然後依次為傑克、皇后和國王。

您知道這一點,因為標準的撲克牌是基於標準的。

哇,那句話似乎是那些完全明顯的斷言之一。 嗯,是的,當然,標準的遊戲套牌是基於標準的。 我們都知道。 我的觀點是,通過制定標準,我們可以在需要時依賴該標準。 除了能夠推斷出一副牌中缺少什麼牌外,您還可以輕鬆地與其他人一起玩數以萬計的知名紙牌遊戲。 一旦有人被告知遊戲規則,他們就可以直接玩,因為他們已經完全知道套牌的組成。 你不需要向他們解釋這套牌有四套花色和不同編號的牌。 他們已經知道是這樣的。

我要去哪裡?

我試圖帶你走上一條道路,這條道路是在人工智能領域取得進展的重要手段,尤其是在人工智能倫理和人工智能倫理領域。 你看,我們需要嘗試提出廣泛且一致同意的關於人工智能倫理的標準。 如果我們能做到這一點,它將提高采用 Ethical AI 的便利性,並且明顯旨在改進不斷被拋入市場的 AI 系統(如無編號和無序的外卡牌)。 有關我對 AI Ethics、Ethical AI 和 AI Law 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

我提出這一點是為了為我在這裡的討論奠定基礎,該討論將側重於更廣泛的 AI 倫理領域的特定部分或部分,即如前所述的 AI 偏見的特定元素。 我與您分享這個話題的原因也是,美國國家標準與技術研究院 (NIST) 發布的一份文件正試圖讓我們朝著描述 AI 偏見的標準邁進。 該文件名為 制定識別和管理人工智慧偏見的標準 作者 Reva Schwartz、Apostol Vassilev、Kristen Greene、Lori Perine、Andrew Burt 和 Patrick Hall,由美國商務部 NIST 特別出版物 1270 於 2022 年 XNUMX 月出版。

我們將展開這種方便且令人鼓舞的努力,以建立我們所說的人工智能偏見。 俗話說,你無法管理你無法衡量的東西。 通過制定列出各種 AI 偏見的標準,您可以開始衡量和管理 AI 偏見禍害。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 該部門的人工智能能力將得到開發和部署,以便相關人員對適用於人工智能能力的技術、開發流程和操作方法有適當的了解,包括透明和可審計的方法、數據源、設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

許多關鍵的 AI 道德準則的基礎是 AI 偏見的陰險本質。

就像一副紙牌一樣,如果我們能以某種方式將 AI 偏見組合成一組“套裝”或類別,那肯定會很漂亮。 事實上,NIST 文件提供了一個建議的分組。

提出了三個主要類別:

1) 系統性偏差

2)統計和計算偏差

3) 人類偏見

是否所有 AI 偏見都完全符合這三個類別之一當然需要考慮。 你可以肯定地說,一些 AI 偏見同時屬於一類、二類或全部三類。 此外,您可能會聲稱有更多類別值得提及,例如某些第四、第五、第六或更多系列的分組。

我希望這就是您的想法,因為我們需要讓每個人都參與幫助制定這些標準。 如果您對這些標準最初形成的方式感到憤怒,我敦促您將這種能量轉化為幫助我們其他人使這些萌芽的標準盡可能健全和完整。

現在,我們可以仔細看看提出的三個類別,看看到目前為止我們處理過什麼樣的手(是的,我將繼續使用一副撲克牌的類比,這樣做在整篇書面文章中,您可以將自己的底錢押在那個不那麼隱藏的主題王牌上)。

提到系統性偏見是什麼意思?

NIST 文件是這樣說的:“系統性偏見源於特定機構的程序和實踐,這些機構的運作方式導致某些社會群體受到優勢或偏愛,而其他社會群體則處於劣勢或貶值。 這不一定是任何有意識的偏見或歧視的結果,而是大多數人遵循現有規則或規範的結果。 制度性種族主義和性別歧視是最常見的例子”(請注意,這只是一個簡短的摘錄,鼓勵讀者查看更完整的解釋)。

人工智能通過提供一種在基於人工智能的應用程序中傳達和應用這些偏見的方式,進入了系統性偏見的混合體。 每當您使用注入 AI 的軟件時,據您所知,它可能包含一系列偏見,這些偏見已經通過導致 AI 製造的公司和行業實踐融入系統。 根據 NIST 的研究:“這些偏見存在於人工智能中使用的數據集中,以及人工智能生命週期中的製度規範、實踐和流程以及更廣泛的文化和社會中。”

接下來,考慮被標記為統計和計算偏差的一組偏差。

NIST 文件指出:“統計和計算偏差源於樣本不代表總體時產生的錯誤。 這些偏見源於系統性而非隨機性錯誤,並且可能在沒有偏見、偏袒或歧視意圖的情況下發生。 在人工智能係統中,這些偏見存在於人工智能應用程序開發中使用的數據集和算法過程中,並且經常出現在算法針對一種類型的數據進行訓練並且無法推斷出這些數據時。”

這種類型的統計和計算偏差通常被融入使用機器學習 (ML) 和深度學習 (DL) 的 AI 系統中。 提出當代 ML/DL 的重大問題,需要對 AI 是什麼以及 ML/DL 是什麼進行相關的切線。

讓我們確保我們對於當今人工智能的本質達成共識。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習和深度學習,它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

這將我們直接帶到了 NIST 三個分組中的第三類,特別是人類偏見在 AI 偏見出現中的作用。 以下是 NIST 文件指出的內容:“人類偏見反映了人類思想中的系統性錯誤,這些錯誤基於有限數量的啟發式原則和更簡單的判斷操作的預測值。 這些偏見通常是隱性的,往往與個人或群體如何感知信息(例如自動 AI 輸出)以做出決策或填寫缺失或未知信息有關。 這些偏見在整個人工智能生命週期的機構、團體和個人決策過程中無處不在,在部署後的人工智能應用程序的使用中也無處不在。”

您現在已經快速了解了這三個類別。

我想與您分享一些在 NIST 文件中表達的額外思考。 他們敘述中的圖表提供了對三組 AI 偏見背後的關鍵問題和考慮因素的有用總結。 我在這裡列出它們是為了方便您參考和啟發。

#1:系統性偏差

  • 誰被計算,誰不被計算?

— 潛在變量的問題

— 邊緣化群體的代表性不足

— 不平等的自動化

— 確定效用函數的代表性不足

— 有利於多數/少數的流程

— 目標函數中的文化偏見(個人最佳 vs 群體最佳)

  • 我們怎麼知道什麼是對的?

— 加劇不平等(AI 的使用越多,群體受到的影響越大)

— 預測性警務受到的負面影響更大

— 拼車/自動駕駛汽車/等的廣泛採用。 可能會根據使用情況改變影響人口的政策

#2:統計和計算偏差

  • 誰被計算,誰不被計算?

— 抽樣和選擇偏差

— 使用代理變量,因為它們更容易測量

— 自動化偏差

— 李克特量表(分類到序數到基數)

— 非線性與線性

——生態謬誤

— 最小化 L1 與 L2 範數

— 量化語境現象的普遍困難

  • 我們怎麼知道什麼是對的?

— 缺乏充分的交叉驗證

— 倖存者偏差

— 公平的困難

#3:人類偏見

  • 誰被計算,誰不被計算?

— 觀察偏差(路燈效應)

— 可用性偏差(錨定)

——麥克納馬拉謬誤

— 群體思維導致狹窄的選擇

——羅生門效應導致主觀擁護

— 難以量化目標可能導致麥克納馬拉謬誤

  • 我們怎麼知道什麼是對的?

— 確認偏差

— 自動化偏差

在這個重要討論的關鍵時刻,我敢打賭,你會想要一些說明性​​的例子來展示人工智能偏見的三類。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為 AI 專家(包括倫理和法律後果)的身份,我經常被要求找出展示 AI 倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了關於人工智能偏見的三個提議類別,如果是,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能偏見

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在已經準備好深入研究自動駕駛汽車和道德人工智能的可能性,這些可能性涉及三類人工智能偏見。

想像一下,一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且看起來正在安全行駛。 起初,每次你能夠瞥見自動駕駛汽車時,你都會特別注意。 這款自動駕駛汽車因其配備的電子傳感器而脫穎而出,其中包括攝像機、雷達裝置、激光雷達設備等。 自動駕駛汽車在您的社區中巡遊了數週之後,您現在幾乎沒有註意到它。 對您而言,它只不過是本已繁忙的公路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章,請參閱我的分析 這裡這個鏈接。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。

接下來,我們將考慮系統性偏見如何在自動駕駛汽車的背景下發揮作用。

一些權威人士非常擔心,自動駕駛汽車將只屬於富人和精英。 使用自動駕駛汽車的成本可能會非常昂貴。 除非你有大筆錢,否則你可能永遠看不到自動駕駛汽車的內部。 據稱,那些將使用自動駕駛汽車的人必須富有。

因此,一些人令人不安地告誡說,一種形式的系統性偏見將滲透到基於人工智能的自動駕駛汽車的出現中。 整個自動駕駛汽車工業體係將使自動駕駛汽車遠離那些窮人或不太富裕的人。 這可能不一定是出於明顯的意圖,事實證明,唯一可以相信的收回發明自動駕駛汽車的沉重成本的方法是收取高得離譜的價格。

如果你反駁說,今天有這些自動駕駛汽車試用讓普通人可以使用,那麼看起來你本身並不需要富有,反駁的觀點是,這是一種空殼遊戲,因為它是。 據稱,汽車製造商和自動駕駛技術公司願意讓它看起來好像成本不會成為一個實質性的障礙。 他們現在這樣做是出於公共關係的目的,一旦發現問題,他們就會抬高價格。 陰謀論者甚至可能聲稱,作為普通人的“豚鼠”正被有害地利用,以使富人最終變得更加富有。

因此,考慮到這個頗具爭議的問題,並在這個骯髒的話題上花費我自己的兩分錢,我不相信自動駕駛汽車的價格會超過日常使用。 我不會在此處詳細說明我提出此類主張的依據,並邀請您查看我在 這裡的鏈接 也在 這裡的鏈接.

接下來,我們可以考慮與 AI 相關的統計和計算偏差問題。

考慮一下自動駕駛汽車將在哪裡漫遊以接載乘客這一看似無關緊要的問題。 這似乎是一個非常無害的話題。 我們將使用擁有自動駕駛汽車的城鎮或城市的故事來突出與人工智能相關的統計和計算偏差可能令人驚訝的潛在幽靈。

起初,假設人工智能在整個城鎮的自動駕駛汽車中漫遊。 任何想要求乘坐自動駕駛汽車的人基本上都有平等的機會叫到一輛自動駕駛汽車。 逐漸地,人工智能開始主要讓自動駕駛汽車只在城鎮的一個區域內漫遊。 這部分是一個更大的賺錢者,人工智能係統已被編程為嘗試最大化收入,作為社區使用的一部分。

該鎮貧困地區的社區成員不太可能乘坐自動駕駛汽車。 這是因為自動駕駛汽車距離較遠,並且在該地區收入較高的地區漫遊。 當請求來自城鎮的偏遠地區時,來自較近位置(可能位於城鎮“受人尊敬”的地區)的任何請求都將獲得更高的優先級。 最終,除了城鎮較富裕的地區之外,在任何地方獲得自動駕駛汽車幾乎是不可能的,對於那些生活在資源匱乏地區的人們來說更是如此。

你可以斷言,人工智能幾乎落在了一種統計和計算偏差上,類似於一種代理歧視(也通常稱為間接歧視)。 人工智能沒有被編程來避開那些較貧窮的社區。 相反,它通過使用 ML/DL 來“學習”這樣做。

原以為AI永遠不會落入那種可恥的流沙之中。 沒有設置專門的監控來跟踪基於人工智能的自動駕駛汽車的去向。 直到社區成員開始抱怨之後,城市領導才意識到發生了什麼。 有關自動駕駛汽車和自動駕駛汽車將出現的這些類型的全市問題的更多信息,請參閱我的報導 這裡這個鏈接 其中描述了我與他人合著的一項哈佛大學主導的關於該主題的研究。

對於與人工智能偏見相關的第三類人類偏見,我們轉向一個涉及人工智能確定是否停車等待沒有通行權的行人過馬路的例子。

毫無疑問,您一直在開車並遇到等待過馬路的行人,但他們沒有這樣做的通行權。 這意味著您可以自行決定是否停下來讓他們通過。 您可以在不讓他們通過的情況下繼續進行,並且仍然完全符合這樣做的合法駕駛規則。

對人類駕駛員如何決定為此類行人停車或不停車的研究表明,有時人類駕駛員會根據不利的偏見做出選擇。 人類駕駛員可能會看著行人並選擇不停車,即使如果行人有不同的外觀(例如基於種族或性別),他們也會停下來。 我已經在 這裡的鏈接.

想像一下,基於人工智能的自動駕駛汽車被編程來處理是否為沒有通行權的行人停車的問題。 以下是人工智能開發人員決定如何對該任務進行編程的方式。 他們從遍布全市的攝像機收集數據。 數據顯示,人類駕駛員會為沒有通行權的行人停車,而人類駕駛員則不會停車。 所有這些都被收集到一個大數據集中。

通過使用機器學習和深度學習,可以對數據進行計算建模。 然後人工智能駕駛系統使用這個模型來決定何時停止或不停止。 一般來說,這個想法是,無論當地習俗是什麼,這就是人工智能指導自動駕駛汽車的方式。

令城市領導和居民驚訝的是,人工智能顯然是根據行人的年齡來選擇停車或不停車。 怎麼會發生這種事?

仔細查看人類駕駛員判斷力的視頻後發現,許多不停車的情況都是拿著老年人手杖的行人。 人類司機似乎不願意停下來讓老人過馬路,大概是因為假設有人開車需要很長時間。 如果行人看起來可以快速穿過馬路,並最大限度地減少司機的等待時間,司機就會更願意讓行人過馬路。

這深深地埋在了人工智能駕駛系統中。 自動駕駛汽車的傳感器會掃描等待的行人,將這些數據輸入 ML/DL 模型,然後模型會向 AI 發出是停止還是繼續。 任何表明行人過馬路可能很慢的視覺指示,例如使用拐杖,在數學上都被用來確定人工智能駕駛系統是否應該讓等待的行人過馬路。

你可以爭辯說這是對預先存在的人類偏見的依賴。

結論

現在有一些最後的想法。

有一種流行的說法是,你不能改變你拿到的牌,而必須學習如何充分利用你拿到的牌。

在人工智能偏見的情況下,如果我們不熱切地全面建立人工智能倫理,特別是鞏固人工智能偏見的特徵,我們將要處理的手將充滿骯髒的不道德,和可能的非法階層。 首先,我們必須阻止這些牌被發到。 制定和頒佈道德人工智能標準的英勇目標是對抗即將到來的不斷上升的海嘯的關鍵工具 壞的人工智能.

你可以明確地告訴銀行,猖獗的人工智能偏見和不道德的人工智能將像一個脆弱的紙牌屋,自爆,可能對我們所有人造成災難性的後果。

讓我們為勝利而戰,使用合乎道德的 AI 這樣做。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage-人工智能偏見/