人工智能倫理說,當人類偏見很多時,應該特別部署人工智能

人類必須知道它們的局限性。

你可能還記得 1973 年電影《骯髒的哈利》中關於了解我們的局限性的著名台詞,題為 萬能部隊 (根據演員克林特·伊斯特伍德(Clint Eastwood)在他作為檢查員哈里·卡拉漢(Harry Callahan)的令人難忘的角色中所說的話)。 總體概念是,有時我們往往會忽略自己的極限,並相應地讓自己陷入困境。 無論是由於狂妄自大、以自我為中心,還是對我們自己的能力視而不見,意識到並明確考慮我們的傾向和缺點的戒律是非常明智和有益的。

讓我們為聖人的建議添加一個新的轉折點。

人工智能 (AI) 必須了解其局限性。

我所說的受人尊敬的流行語的變體是什麼意思?

事實證明,最初急於將現代人工智能用作解決世界問題的有希望的解決方案,但由於意識到今天的人工智能確實存在一些相當嚴重的局限性,這一點已經變得模糊不清。 我們從令人振奮的頭條新聞中脫穎而出 永遠的人工智能 並且越來越多地發現自己陷入了 壞的人工智能. 你看,許多人工智能係統的開發和部署都帶有各種令人討厭的種族和性別偏見,以及無數其他令人震驚的不平等現象。

有關我對 AI Ethics 和 Ethical AI 的廣泛且持續的報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

在這些人工智能係統中發現的偏見不是我們所說的“故意”類型,我們將其歸因於人類行為。 我提到這一點是為了強調今天的人工智能沒有感知力。 儘管那些引人注目的頭條新聞表明並非如此,但在任何地方都沒有任何人工智能甚至接近於感知。 最重要的是,我們不知道如何讓人工智能進入感知範圍,而且沒有人能確定我們是否會獲得人工智能感知。 也許有一天會發生,也許不會。

所以,我的觀點是,我們不能特別將意圖分配給我們目前擁有的那種人工智能。 話雖如此,我們可以大量地將意圖分配給那些正在製作人工智能係統的人。 一些 AI 開發人員不知道他們設計的 AI 系統包含令人討厭的甚至可能是非法的偏見。 與此同時,其他 AI 開發人員意識到他們正在將偏見灌輸到他們的 AI 系統中,這可能是以一種有目的的不法行為的方式這樣做。

無論哪種方式,結果仍然是不合時宜的,並且可能是非法的。

正在大力宣傳人工智能倫理原則,這些原則將啟發人工智能開發人員,並為避免將偏見嵌入人工智能係統提供適當的指導。 這將以雙重方式提供幫助。 首先,那些製作人工智能的人將不再有現成的藉口,即他們只是不知道應該遵循哪些規則。 其次,那些偏離道德 AI 條件的人將更容易被抓到,並被顯示為避免了他們被預先警告過要做和不做的事情。

讓我們花點時間簡要考慮一些關鍵的道德 AI 準則,以說明 AI 構建者應該從 AI 道德立場思考和嚴格執行的內容。

正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 該部門的人工智能能力將得到開發和部署,以便相關人員對適用於人工智能能力的技術、開發流程和操作方法有適當的了解,包括透明和可審計的方法、數據源、設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的具體細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在建立人工智慧系統時使用,這也是一個棘手的難題。 人們很容易對人工智慧道德準則是什麼以及如何普遍遵守這些準則做出一些手足無措,而當人工智慧編碼必須成為名副其實的橡膠時,情況就複雜得多。

人工智慧道德原則將由人工智慧開發人員、管理人工智慧開發工作的人員,甚至最終部署和維護人工智慧系統的人員共同使用。 整個人工智慧開發和使用生命週期的所有利益相關者都被認為在遵守正在製定的人工智慧道德規範的範圍內。 這是一個重要的亮點,因為通常的假設是「只有編碼員」或那些對人工智慧進行程式設計的人才能遵守人工智慧道德概念。 請注意,人工智慧的設計和應用需要整個村莊的共同努力。 為此,整個村莊都必須對人工智慧道德保持警惕。

無論如何,既然我已經討論了人工智能可以包含偏見,我們也許都同意這兩個明顯的事實:

1. 人類可能有許多令人不快的偏見並可以對其採取行動

2. 人工智能可能有許多令人不快的偏見,並且可以對這些偏見採取行動

在這種情況下,我有點討厭將人類與人工智能相提並論,因為它可能以某種方式暗示人工智能具有與人類同等的感知能力。 這肯定不是這樣。 在本次討論的稍後部分,我將暫時回到對人工智能擬人化的日益關注。

更糟糕的是,表現出不良偏見的人類或表現出這種偏見的人工智能?

我敢說,這個問題是其中一種嚴峻的選擇。 這是眾所周知的兩害相權取其輕,一個人可以抗衡。 我們希望人類沒有表現出令人不快的偏見。 我們進一步希望,即使人類確實有令人不快的偏見,他們也不會對這些偏見採取行動。 人工智能也是如此。 我們希望人工智能沒有嵌入不利的偏見,即使存在這種內部編碼的偏見,人工智能至少不會對它們採取行動。

願望雖然不一定主宰世界(因為我對所謂的上升和令人不安的表象的分析 人工智能願望實現 整個社會,見 這裡的鏈接).

好吧,我們顯然希望人類知道它們的局限性。 當你有不良偏見時,認識到這一點很重要。 努力防止那些不愉快的偏見被注入你的行動和決定中同樣重要。 今天的企業正在嘗試各種方法來防止員工陷入令人討厭的偏見可怕的陷阱。 正在向員工提供有關如何以合乎道德的方式開展工作的專門培訓。 圍繞員工製定流程,以在他們似乎表現出不道德的行為時提醒他們。 等等。

應對人類及其不良偏見的另一種方法是將基於人類的工作自動化。 是的,只需將人從循環中移除。 不要讓人類執行決策任務,您可能不再對人類對任何不良偏見的影響有任何揮之不去的擔憂。 沒有人參與,因此潛在的人為偏見問題似乎得到了解決。

我之所以提出這一點,是因為我們正在目睹以算法決策 (ADM) 方式使用 AI 的漸進和大規模轉變。 如果您可以用 AI 代替人工,那麼很有可能會產生很多好處。 如前所述,您將不再擔心該人類工人(不再從事該工作的人)的人類偏見。 與長期的時間範圍相比,人工智能的總體成本可能會更低。 您免除了與人類工人有關的所有其他各種困難。 等等。

一個正在取得進展的命題似乎是這樣的: 當試圖決定在哪裡最好地放置人工智能時,首先要看看那些已經導致你的員工存在令人不快的人類偏見的環境,而這些偏見正在削弱或過度複雜化特定的決策任務。

底線是,通過直接針對高度暴露的人類決策任務,從不利的偏見註入的角度來看,這些任務很難控制,從而在投資人工智能方面獲得最大的收益似乎是謹慎的。 移除擔任該角色的人工。 用人工智能代替它們。 假設是人工智能不會有這種不利的偏見。 因此,您也可以擁有自己的蛋糕並吃掉它,也就是說,承擔決策任務,並且這樣做減去不利偏見的道德和法律幽靈。

當你把它寫出來時,ROI(投資回報率)可能會使採用人工智能成為一個不費吹灰之力的選擇。

這就是通常的結果。

縱觀整個公司,嘗試找出影響客戶的決策任務。 在這些任務中,如果工人表現出令人不快的偏見,哪些任務最有可能受到不恰當的影響? 如果你已經嘗試控制這些偏見,也許你會讓事情保持原樣。 另一方面,如果偏見不斷再次出現並且消除它們的努力是繁重的,請考慮將一些相關的人工智能投入到該角色中。 不要讓工人參與進來,因為他們可能會超越人工智能或將人工智能推回不良偏見的深淵。 此外,請確保 AI 可以熟練地執行任務,並且您已充分捕捉到執行工作所需的決策方面。

沖洗並重複。

我意識到這似乎是一個直截了當的概念,儘管我確實意識到用人工智能取代人類工人有很多方法很容易出錯。 許多公司急於採取這樣的行動,卻沒有認真考慮如何去做。 結果,他們經常弄得比一開始手頭上的更糟。

我想澄清和強調人工智能不是靈丹妙藥。

說到這一點,看似無偏見的人工智能似乎拋棄了帶有人類偏見的決策者,這是一個巨大的障礙。 問題是你可能只是用一組令人討厭的偏見代替了另一組。 根據較早的跡象,人工智能可能包含不利的偏見,並且可以對這些偏見採取行動。 做出一個厚顏無恥的假設,將有偏見的人類換成無偏見的 AI 並不是所有的事實。

簡而言之,這是從偏見因素嚴格看待問題時的交易:

  • AI 沒有不良偏見,因此基於 AI 的 ADM 易於部署
  • 人工智能與被取代的人類具有相同的不良偏見,因此基於人工智能的 ADM 令人不安
  • 人工智能引入了新的不良偏見,超出了被取代的人類的偏見,並可能相應地使事情變得更糟
  • 人工智能起初看起來很好,然後逐漸搖擺不定,產生不良偏見
  • 其他

我們可以簡要地解開這些可能性。

第一個是可能發生的事情的理想化版本。 人工智能沒有不利的偏見。 你把人工智能放在適當的位置,它就可以出色地完成工作。 對你有益! 當然,人們希望你也以某種熟練的方式處理了由於人工智能的包含而導致的人類工人的流離失所。

在第二種情況下,你安裝了人工智能,發現人工智能表現出與人類工人相同的不良偏見。 怎麼會這樣? 落入這個陷阱的一種常見方法是使用機器學習 (ML) 和深度學習 (DL),因為它基於收集到的有關該角色的人之前如何做出決定的數據。

請允許我解釋一下。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果多年來從事這項工作的人類一直在納入不良偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 建模本身沒有常識或其他有感覺的方面。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 晦澀難懂的數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

總而言之,你最終可能會回到第一方。 人類同樣的不良偏見現在在人工智能係統中得到了計算反映。 你還沒有消除偏見。

更糟糕的是,你可能不太可能意識到人工智能有偏見。 就人類而言,您通常可能會警惕人類有不良偏見。 這是一個基本的期望。 人工智能的使用可以讓領導者相信自動化已經完全消除了任何人類偏見。 因此,他們為自己開槍打中了自己的腳做好了準備。 他們擺脫了看似已知的不良偏見的人類,取而代之的是被認為沒有這種偏見的人工智能,但現在已經投入使用充滿了已知存在的相同偏見的人工智能。

這可能會讓事情變得非常矛盾。 您可能已經移除了與人類工作者一起使用的其他護欄,這些護欄是為了檢測和防止出現那些已經預料到的人類偏見而建立的。 AI現在可以自由發揮了。 在採取行動之前,沒有什麼可以抓住它。 然後,人工智能可以開始引導你走上一條由大量有偏見的行為組成的艱難道路。

而且,您處於尷尬且可能負責任的姿勢,您曾經知道偏見,現在已經讓這些偏見造成嚴重破壞。 從來沒有遇到過任何這種令人不快的偏見,然後突然人工智能突然出現它們,這也許是一回事。 您可能會嘗試用“誰會猜到”這種干擾來原諒這一點(也許不是很令人信服)。 但是,如果現在建立的 AI 會像以前一樣做同樣令人不快的偏見行為,那麼,你的藉口越來越少了。

對此的一個扭曲需要人工智能表現出人類在執行任務時從未遇到過的令人討厭的偏見。 你可以說這可能更難預防,因為它包含了公司以前沒有在尋找的“新”偏見。 然而,最終,藉口可能不會讓你鬆一口氣。 如果人工智能係統冒險進入了不道德和非法的領域,你的鵝可能會被煮熟。

要記住的另一個方面是,人工智能可能一開始還不錯,然後逐漸陷入不利的偏見。 當持續使用機器學習或深度學習以使 AI 保持最新時,這種情況尤其可能發生。 無論 ML/DL 是實時工作還是定期進行更新,都應該關注 AI 是否可能正在攝取現在包含偏差且以前不存在的數據。

對於那些認為他們通過揮動魔杖用人工智能取代有偏見的人類工人來獲得免費午餐的領導者來說,他們正在經歷一個非常粗魯的覺醒。 請參閱我關於通過 AI 道德準則賦予領導者權力的重要性的討論,網址為 這裡的鏈接.

在本次討論的這個關鍵時刻,我敢打賭,您會渴望一些現實世界的例子,這些例子可能會展示用基於 AI 的不良偏見代替(或不)人類不良偏見的難題。

我很高興你問。

有一組特別且肯定很受歡迎的例子讓我很感動。 你看,作為人工智能專家(包括倫理和法律影響),我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易地理解該主題的理論性質。 生動地呈現這種人工智能道德困境的最令人回味的領域之一是基於人工智能的真正自動駕駛汽車的出現。 這將作為對該主題進行充分討論的方便用例或範例。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了人工智能中的不良偏見,如果是這樣,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人為幫助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5級還沒有真正的無人駕駛汽車,我們甚至都不知道是否有可能實現這一目標,也不知道需要多長時間才能到達那裡。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和 AI 存在偏見

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在已經準備好深入研究自動駕駛汽車和倫理人工智能的可能性,這需要探索人工智能和令人不快的偏見。

讓我們使用一個簡單明了的例子。 一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且似乎正在安全駕駛。 起初,您每次看到自動駕駛汽車時都會特別注意。 這輛自動駕駛汽車以其包括攝像機、雷達單元、激光雷達設備等在內的電子傳感器機架而脫穎而出。 在自動駕駛汽車在您的社區周圍巡航數週後,您現在幾乎沒有註意到它。 對你而言,它只是已經繁忙的公共道路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章,請參閱我的分析 這裡這個鏈接。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。

事實證明,對於本來無害且普遍受歡迎的基於人工智能的自動駕駛汽車,開始出現兩個不恰當的擔憂,具體來說:

一個。 人工智能在自動駕駛汽車中漫遊以接車已成為整個社區的焦慮問題

灣。 人工智能如何對待沒有先行權的等待行人也是一個日益突出的問題

起初,人工智能在整個城鎮的自動駕駛汽車中漫遊。 任何想要乘坐自動駕駛汽車的人基本上都有平等的機會叫到一輛自動駕駛汽車。 漸漸地,人工智能開始主要讓自動駕駛汽車僅在城鎮的一個區域內行駛。 這個部分是一個更大的賺錢機器,人工智能係統已被編程為嘗試最大化收入,作為社區使用的一部分。

該鎮貧困地區的社區成員不太可能乘坐自動駕駛汽車。 這是因為自動駕駛汽車距離較遠,並且在該地區收入較高的地區漫遊。 當請求來自城鎮的偏遠地區時,來自較近位置(可能位於城鎮“受人尊敬”的地區)的任何請求都將獲得更高的優先級。 最終,除了城鎮較富裕的地區之外,在任何地方獲得自動駕駛汽車幾乎是不可能的,對於那些生活在資源匱乏地區的人們來說更是如此。

你可以斷言人工智能幾乎是基於一種代理歧視(通常也稱為間接歧視)。 人工智能並沒有被編程來避開那些較貧困的社區。 相反,它通過使用 ML/DL“學會”了這樣做。

事實是,共享出行的人類司機也因做同樣的事情而聞名,儘管不一定完全是出於賺錢的角度。 有些共享出行的人類司機對於在城鎮的某些地方接載乘客存在著不良偏見。 這是一個眾所周知的現象,該市已經採取了一種監控方法來捕捉人類司機的這種行為。 人類司機可能會因為進行令人討厭的選擇行為而陷入麻煩。

人們認為人工智能永遠不會陷入同樣的流沙。 沒有設置專門的監控來跟踪基於人工智能的自動駕駛汽車的行駛方向。 直到社區成員開始抱怨後,市領導才意識到發生了什麼事。 有關自動駕駛汽車和自動駕駛汽車將出現的此類城市範圍問題的更多信息,請參閱我的報導: 這裡這個鏈接 其中描述了我與他人合著的一項哈佛大學主導的關於該主題的研究。

這個基於人工智能的自動駕駛汽車漫遊方面的例子說明了早期的跡象,即在某些情況下,人類可能會產生不良偏見,為此需要採取控制措施,而取代這些人類駕駛員的人工智能卻被忽視了。自由的。 不幸的是,人工智能可能會逐漸陷入類似的偏見之中,並且在沒有足夠的護欄的情況下這樣做。

第二個例子涉及人工智能確定是否停車等待沒有過馬路通行權的行人。

毫無疑問,您一直在開車並遇到等待過馬路的行人,但他們沒有這樣做的通行權。 這意味著您可以自行決定是否停下來讓他們通過。 您可以在不讓他們通過的情況下繼續進行,並且仍然完全符合這樣做的合法駕駛規則。

對人類駕駛員如何決定為此類行人停車或不停車的研究表明,有時人類駕駛員會根據不利的偏見做出選擇。 人類駕駛員可能會看著行人並選擇不停車,即使如果行人有不同的外觀(例如基於種族或性別),他們也會停下來。 我已經在 這裡的鏈接.

想像一下,基於人工智能的自動駕駛汽車被編程來處理是否為沒有通行權的行人停車的問題。 以下是人工智能開發人員決定如何對該任務進行編程的方式。 他們從遍布全市的攝像機收集數據。 數據顯示,人類駕駛員會為沒有通行權的行人停車,而人類駕駛員則不會停車。 所有這些都被收集到一個大數據集中。

通過使用機器學習和深度學習,可以對數據進行計算建模。 然後人工智能駕駛系統使用這個模型來決定何時停止或不停止。 一般來說,這個想法是,無論當地習俗是什麼,這就是人工智能指導自動駕駛汽車的方式。

令城市領導和居民驚訝的是,人工智慧顯然是根據行人的外表(包括種族和性別)來選擇停止或不停止。 自動駕駛汽車的傳感器會掃描等待的行人,將這些數據輸入到 ML/DL 模型中,然後模型會向人工智慧發出是否停止或繼續的訊息。 遺憾的是,該鎮在這方面已經存在著許多人類駕駛員的偏見,而人工智慧現在也在模仿同樣的情況。

好消息是,這引發了一個幾乎沒有人知道存在的問題。 壞消息是,自從人工智能被發現這樣做以來,它承擔了大部分責任。 這個例子說明,人工智能係統可能只是複制了人類已經存在的不良偏見。

結論

有多種方法可以嘗試並避免設計出人工智能,這些人工智能要么一開始就有令人不快的偏見,要么隨著時間的推移收集偏見。 一種方法是確保 AI 開發人員意識到這種情況的發生,從而讓他們保持警惕,對 AI 進行編程以避免問題。 另一種方法是讓 AI 自行監控不道德行為(請參閱我在 這裡的鏈接)和/或擁有另一塊人工智能來監控其他人工智能係統是否存在潛在的不道德行為(我已經在 這裡的鏈接).

回顧一下,我們需要意識到人類可能有不良的偏見,並且他們需要以某種方式了解自己的局限性。 同樣,人工智能也可能有令人不快的偏見,我們需要以某種方式了解它們的局限性。

對於那些熱衷於擁抱人工智能倫理的人,我想現在以另一個每個人都必須知道的著名台詞結束。 即,請繼續使用並分享 Ethical AI 的重要性。 通過這樣做,我會厚顏無恥地說:“來吧,讓我開心。”

資料來源:https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/