人工智能倫理令人不安地詢問人工智能偏見是否在陰險地隱藏社會權力動態,包括人工智能自動駕駛汽車

隱藏在眾目睽睽下。

你以前聽過那句台詞嗎?

可能是這樣。

它可以有多種含義,儘管最普遍的理解似乎是有時我們沒有註意到眼前的東西。 您可能已經經歷過這種現象。

例如,也許您最近有點驚慌,因為找不到智能手機,然後突然尷尬地意識到它被牢牢握在自己的手中,而您卻忽略了它。 發生這種情況是因為您焦急地環顧房間四處尋找您上次離開智能手機的位置,這使您分心,沒有意識到難以捉摸和珍貴的電子設備就在您自己的掌握之中。

它發生在我們所有人身上。

1990 年代後期的一項相關且頗具傳奇色彩的心理實驗生動地記錄了這種類型的人類疏忽,並定期重新引起公眾對這種表面上無意識或我們應該說分心的脆弱性的關注。 在現代,有大量的在線視頻展示了實驗的本質,以及我們可以多麼容易地放棄看到“隱藏”在顯而易見的東西。 在某種正式的基礎上,這件事總體上通常被稱為 無意識失明,儘管已經廣泛描述了其他特徵和變化。

我想告訴你這個實驗和描述它的視頻,但我必須首先提醒你,如果你閱讀了我對此的說明,那麼這個把戲的樂趣就會大大減少。 你可以把這比作魔術表演。 一旦你知道這個技巧是如何工作的,你就永遠不會從同樣的角度看待這個魔術。 只是想給你一個公平的提示。

你準備好了嗎?

它通常是這樣的。 您被要求觀看一個視頻,其中包含幾個鬆散地組合在一起的人。 他們有些無所事事,隨意地互相來回扔球或類似的物體。 折騰沒有特定的模式,他們只是在享受輕鬆愉快的時光。

到目前為止,一切都不錯。

接下來是轉折。

您被要求計算球或物體被扔了多少次。 通常,這個任務被賦予了更多的特異性。 例如,計算穿著紫色襯衫的小組成員擲球的次數,而不要計算穿著白色襯衫的人接球的次數。 正如您稍後會看到的,這是分散您注意力的“偷偷摸摸”的方法,通過讓您的認知過程參與一項狹窄的任務來做到這一點。

要求您認真執行計數任務,並進行最衷心的嘗試。 誠然,這有點難做到,需要高度集中註意力,因為球移動得很快,人們似乎在隨機選擇何時何地扔球。 你的注意力試圖集中在穿紫衫的參與者身上。 你的心在註視著球。 你的思想同時試圖忽略或抹去那些穿白襯衫的成員。 他們在你的方式上幾乎令人困惑。 您不想無意中將它們計入您的計數中(如果您這樣做,這是一個令人惱火的錯誤)。

在投擲序列的最後,你被問到紫衫成員投了多少次球。 您對自己的個人信心和對您準確而準確地進行準確計數的深刻保證感到沾沾自喜。 確實,你毫無疑問 必須的, 計數絕對正確。

實驗雖然還沒有完成(這裡是魔術技巧,所以如果你想或願意知道,請繼續閱讀)。

你被問到你是否注意到在投擲球或其他物體的參與者中間走過一隻大猩猩。

說什麼?

咦?

再來?

對於現場是否有大猩猩的問題,大多數人會笑或嗤之以鼻。 下意識的反應包括頑固地堅持從未出現過這樣的大猩猩。 事實上,這個問題似乎是一個古怪的問題,完全是虛構的。

我有一些人願意在他們的論點上投入大量資金,他們認為在他們密切關注的那個折騰場景中沒有任何種類的大猩猩。 有時我希望我已經接受了那些人的賭注,因為我今天會滾滾現金。 雖然這將是一個完全不公平的賭注,而且很可能會成為一種令人遺憾的朋友轉敵的空洞失誤。

你看,確實有一隻大猩猩走進了那個場景(一個穿著大猩猩套裝的人,就實驗的性質而言,實際上它本質上是一隻大猩猩)。

再次觀看相同的錄製場景時,未能發現大猩猩的人目瞪口呆。 他們通常會在幾秒鐘內通過一系列情緒反應瘋狂地旋轉。 首先,他們驚呆了,不敢相信。 其次,他們會聲稱您正在向他們展示經過修改的場景,而您沒有向他們展示他們觀看的場景。 第三,他們會不情願地承認你正在向他們展示實際場景,但會堅持說你從未告訴他們注意大猩猩。 換句話說,你乖乖地做了你被要求做的事情。 不多也不少。 因此,你是否碰巧注意到一隻大猩猩是完全無關緊要的,對手頭的發人深省的事情沒有任何影響或價值。

我提醒您,這裡的底線是,如果您在沒有任何線索或至少眨眼有用提示的情況下嘗試對熟人進行此操作,您可能會失去朋友或可能永遠惹惱熟人。 小心嘗試這個。 我已經完成了我的職責,並給了你一個適當的預防警告,所以你可以決定是否向你可能認識的任何人發出這個警告。

我確實不得不提到這是一項多麼強大的練習。

對於那些措手不及的人來說,幾乎可以肯定的是,這個人將永遠記得“實驗”,並且永遠記得它,不一定是深情,但他們會非常強烈地記得它。 如果你從來沒有看過這樣的視頻,如果你現在去看,我懷疑你會對這件事有如此尖銳的回憶。 完全沒有意識到這種認知盲點的有趣概念與僅僅通過二手知識了解它之間存在顯著差異。

我們都傾向於以自己敏銳的認知能力為榮。 因錯過看到大猩猩而陷入困境是對我們認知信心的巨大打擊。 這也是為什麼有些人如此堅決地拒絕接受所發生的事情,並且會與實驗結果爭執不休。 如果你事先告訴某人他們即將見證一點魔法,那麼如果他們被騙了,他們通常會沒事的。 當您要求某人看似完成一項嚴肅的任務,然後突然選擇從他們身下拉開地毯時,反應可能在情感和認知上是爆炸性的。

對於那些喜歡文學的人來說,在閱讀埃德加·艾倫·坡 (Edgar Allen Poe) 的著名故事《被盜的信》(The Purloined Letter) 時,你可能會溫和地經歷過類似的這種以思想為導向的分心的例子,該故事講述了一個業餘偵探奮力成為一名成熟的偵探。 我不想透露太多,特別是因為我已經可能為你破壞了大猩猩實驗,所以我們只能說這個發表於 1844 年的精彩故事與隱藏某些東西的想法完全相關(也許這會激發你閱讀這個令人愉快的故事的好奇心)。

讓我們快速回顧一下 隱藏在眾目睽睽下 口頭禪。

以下是一些關鍵要點:

  • 我們有時可以 任何監管機構都不批准 注意我們眼前的事物
  • 當您在認知上全神貫注時,這尤其可能
  • 認知上的關注可能與 隱藏在眾目睽睽之下 方面
  • 認知關注也有可能與“隱藏”方面有關

一些額外的推論值得考慮:

  • 如果你對這種情況保持警覺,你也許能夠克服被誤解的隱藏
  • 隱藏應該合理地公開,否則隱藏是真正隱藏的(對這種特定現象的操縱和不公平的測試)
  • 通過在認知上做好準備,應對這種情況是可行的,儘管仍然會發生意外(各種其他認知因素出現)
  • 這種現像在認知上普遍存在,基本上每個人都是如此

有了在這個引人入勝的問題上建立的基石基礎,我想換個角度與你分享一個可能令人驚訝的角度,包括所有這些都以一種非同尋常的方式與人工智能 (AI) 的出現聯繫在一起。

簡而言之,一些人斷言,人工智能偏見的出現隱藏了一些真正顯而易見的東西。 爭論的觀點是,人工智能偏見通常更多地是社會權力動態的指標,而不是僅僅需要以技術為重點的解決方案的數據畸形怪癖。

請允許我詳細說明這一點。

人工智能係統中的偏差檢測通常被視為一種打地鼠遊戲。 當你設法找到一個嵌入的偏見時,你會消除它,希望如此。 當然,更多這種被灌輸的偏見可能仍然存在,最終會被揭露,或者更糟糕的是,可能永遠不會出現。 儘管如此,所有這一切都是基於對人工智能偏見本身的關注。 那些試圖消除這些人工智能偏見的人很少會深入了解底層,以更廣泛地了解可能發生的事情。

一些人強烈聲稱,這些人工智能偏見很容易成為潛在社會權力動態的線索。 從某種意義上說,人工智能偏見的閃亮本質分散了許多人的注意力,無法仔細觀察。 如果您確實進行了更深入和更有說服力的評估,您很可能會發現各種社會權力安排存在於體現的 AI 偏見的根源。

你正在看著球被來回拋擲,有點機械地計算拋擲次數,卻沒有看到大猩猩,因為你分心了,或者把注意力放在了別處而不是根本原因上。

是的,有些人回應,這令人震驚。 其他人則認為,所謂的社會權力動態的隱藏因素根本不存在。 或者,如果它在那裡,你的任務不是計算大猩猩,而是計算和消除那些人工智能偏見,因此整個大猩猩(“權力動態”)無論如何都不會發揮作用。

那麼,那些直言不諱地支持社會權力動態姿態的人可能會大聲疾呼,對這種令人驚訝且普遍未意識到的人工智能偏見是煤礦中的金絲雀的概念的反應與對那些被抓住的人的反應相同。 - 大猩猩實驗的守衛。 因此,典型的反應需要在懷疑、拒絕前提之間搖擺不定,並為他們可能一直被“欺騙”而感到不安,並且尷尬地沒有意識到他們對人工智能偏見的真正意義視而不見。

其他遇到這種關於人工智能偏見的緩慢滲透理論的人通常對此很感興趣。 我們都一定會發現,迄今為止“以前沒有註意到這一點”的可能性是公開的好奇和潛在的思維擴展。 也許這是一個隱藏在視線中的東西的例子。 對於那些努力尋找和消除人工智能偏見的人來說,找到一種更宏觀的方式來評估和尋求以某種方式解決或防止這種偏見可能是有價值的。

這種聲稱的社會權力動態基礎能否成為重新審視和重新思考導致人工智能偏見的日益嚴重的問題的便捷手段?

正如我稍後將解釋的那樣,有很多與人工智能偏見有關的人工智能倫理和人工智能倫理後果。 這引發了人工智能倫理原則,例如試圖確保人工智能的設計和行為表現出公平、問責、責任等。 稍後我將對此進行更多介紹。 有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接, 僅舉幾例。

我們現在可以帶著強烈的興趣和好奇心深入研究人工智能的偏見和社會權力動態。

在期刊上發表的一篇文章中 性質, 題為“不要問人工智能是好還是公平,問它如何轉移權力”,作者 Pratyusha Kalluri 提出了一個關鍵點,即人工智能偏見作為社會權力動態的明顯大雜燴可能隱藏在顯而易見的地方:“這是現在,人工智能專家詢問人工智能是否“公平”和“永遠”的情況並不少見。 但“公平”和“好”是任何人工智能係統都可以擠入的無限寬泛的詞。 提出的問題是一個更深層次的問題:人工智能如何轉移權力?”

為了更清楚地說明這一點,研究人員提出了這個(對某些人來說)有些令人震驚的建議,即人工智能領域有時可能會在(我們應該說)專注於人工智能偏見作為一個獨立的考慮因素中自欺欺人:“當該領域的 AI 認為它是中立的,它既沒有註意到有偏見的數據,又建立了使現狀神聖化並促進強者利益的系統。”

再一次,有些人對這些建議感到驚訝,或者可能被解釋為指控或某種理論,而另一些人則說他們一直在偷偷摸摸地懷疑,有人終於找到了真正的問題所在。 同時,你也有一些反應說這並不是特別驚天動地。 有一種“那又怎樣?” 反應和一種感覺,沒有什麼特別或有見地的東西被收集到。

為了嘗試和展示為什麼認識到社會權力動態確實是關於人工智能偏見的真正和重要的隱藏因素,正在進行各種努力來幫助展示由於看到或同意大猩猩存在而可以採取的可悲的建設性步驟.

考慮一下 Milagros Miceli、Julian Posada 和 Tianling Yang 最近的一項研究,題為“研究機器學習數據:當我們意味著權力時,為什麼要談論偏見?” 它探討了這些探索性問題:“通過目前的評論,我們旨在通過擴大調查領域來為圍繞數據偏見、數據工作者偏見和數據文檔的討論做出貢獻:從偏見研究到對塑造數據的權力差異的調查。 正如我們將在以下部分中討論的那樣,對偏見的研究將問題定位在技術系統中,無論是數據還是算法,並掩蓋其根本原因。 此外,對偏見和去偏見的理解是銘刻在價值觀、利益和權力關係中的,這些關係表明什麼是偏見,什麼不是偏見,去偏見舉措解決了哪些問題,以及他們打算實現什麼目標。 相反,以權力為導向的觀點著眼於技術系統,但側重於更大的組織和社會背景。 它研究了乾預數據和系統生產的關係,旨在製造可見的權力不對稱,將特定的價值觀和偏好銘刻在其中”(ACM 人機交互的進程,2022 年 XNUMX 月)。

再舉一個例子,Jonne Maas 的一篇題為“機器學習與權力關係”的文章涵蓋了人工智能的道德困境,它存在偏見並且可能與明確需要問責的 AI 倫理準則背道而馳:“事實上,越來越依賴於這種不負責任的權力行使不僅在系統結果被證明不正確時存在問題,而且更普遍地存在問題,因為它打開了道德錯誤的可能性,通過在開發人員和用戶之間建立權力二分法來限制人類的繁榮,一方面是最終用戶,另一方面。 因此,我們應該認真考慮 ML 應用程序的使用增加給社會帶來的潛在政治不對稱,由於問責機制不足,開發人員和用戶與 ML 系統本身相結合,越來越多地獲得對系統最終用戶的更多權力”(in 人工智能與社會,2022 年 XNUMX 月)。

所有這些新興努力似乎都在爭辯說,潛在的社會權力動態正在極大地改變我們對 AI 偏見所做(或選擇不做)的事情,包括:

  • 社會權力動態可能導致人工智能偏見的產生
  • 社會權力動態基本上可以定義我們認為的人工智能偏見是什麼
  • 社會權力動態可以塑造我們處理人工智能偏見的方式
  • 社會權力動態可以指導人工智能的去偏將如何發生
  • 社會權力動態影響所有利益相關者,因為它與人工智能和人工智能偏見有關
  • 社會權力動態尤其會對最脆弱的利益相關者產生不利影響
  • 等。

順便說一句,您可能想知道引用是什麼意思 社會權力動態 這個概念是從哪裡來的。

將時鐘撥回到 1640 年。您可能隱約知道,托馬斯·霍布斯 (Thomas Hobbes) 著名地為分析和理解社會權力的本質奠定了一些重要的基礎,直到今天仍被人們津津樂道地使用。 毫無疑問,他最出名的是 “利維坦” 該書於 1651 年出版,闡述了他關於權力和權力動態的理論的癥結所在。 早些時候,在 1640 年,他在他早期的著作《權力的本質》中就權力的本質發表了這一基石評論。 法律要素 (我已經以某種原始形式展示了這段話,包括今天被認為是古英語的內容):“……因為一個人的力量抵制並阻礙了另一個人的力量的影響,權力根本不再存在,而是一個人的權力超越另一個人的權力。 因為對立的平等力量互相摧毀,這種對立稱為競爭。”

當代字典以一種現代主義的直截了當的方式,傾向於說權力是指某人可以讓其他人服從他們的命令,否則,被執行任務的人不希望這樣做。 從這個意義上說,從定義上看,權力通常會產生一種不對稱的關係。 一個人對另一個人有權力。 我們可以將當事人稱為代理人。 權力在一個或多個代理人之間不對稱分佈。

速記標記為 權力.

在社會權力動態領域,這是否是這種權力的唯一形式存在著激烈的爭論。 例如,另一種觀點認為,權力更重要的是獲得預期的結果,即所謂的 上電. 據說你利用權力來影響特定的尋求結果。 結果可能涉及代理,儘管這幾乎是更廣泛地實現您想要獲得的結果的一種手段。

這個的簡寫版本是 上電.

如果您想更深入地研究社會權力動態主題,那裡有很多有益的材料。 作為一個例子,這位研究人員提出了正在發生的辯論:“如果第一個傳統權力在於代理人影響某些結果的權力,那麼第二個傳統權力在於代理人對其他代理人的權力。 前一種傳統的支持者經常爭辯說,權力只是一種權力。 相比之下,後者的支持者通常認為所有相關的社會權力都存在於權力之上,因此社會權力減少為權力之上”,然後作者提出了七種變體,包括對他人的權力、對權力的-效果-結果、權力-儘管有抵抗力、權力-與他人,等等(根據雜誌 政治研究,“社會權力的語法:Power-to、Power-with、Power-儘管和 Power-over”,Arash Abizadeh,2021 年)。

在整理筆記中,我通常會嘗試仔細聲明,本文上下文中使用的“權力”的速記措辭是指 社會權力動態 (這三個詞組合在一起)。 我這樣做是因為否則,如果我僅使用“功率”一詞,您可能會想到電力,或者可能是由計算處理能力組成的計算機功率。 我相信在接下來的討論中,我可以簡單地使用“權力”這個詞,你就會知道我指的是社會權力動態,謝謝。

在深入了解一些肉類和土豆的作用之前 功率 (社會權力動態)和 隱藏在眾目睽睽下 關於人工智能偏見,讓我們在一些非常重要的主題上建立一些額外的基礎。 關於人工智能偏見的大部分爭論主要發生在人工智能領域,即機器學習 (ML) 和深度學習 (DL)。

我們應該輕鬆地進入 AI Ethics 和 ML/DL 領域。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,我們可以通過探索我所說的機器學習和深度學習的意思來進一步奠定基礎。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

現在讓我們回到權力的話題(社會權力動態).

回想一下,我之前曾宣布過這些關於權力混合和人工智能偏見領域的假設:

  • 權力會導致人工智能偏見的產生
  • 權力本質上可以定義我們認為的人工智能偏見是什麼
  • 權力可以塑造我們處理人工智能偏見的方式
  • 權力可以指導人工智能的去偏將如何發生
  • 權力會影響所有利益相關者,因為它與人工智能和人工智能偏見有關
  • 權力尤其會對最脆弱的利益相關者產生不利影響
  • 等。

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了人工智能偏見如何與潛在的隱藏的社會權力動態交織在一起?如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車與社會權力動力學的作用

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

接下來,我們將考慮人工智能偏見和社會權力動態如何在自動駕駛汽車的背景下發揮作用。 讓我們從關於自動駕駛汽車,尤其是自動駕駛汽車的最透明和最常被引用的“權力遊戲”之一開始。

一些權威人士擔心,自動駕駛汽車將只屬於富人和精英。 使用自動駕駛汽車的成本可能會非常昂貴。 除非你有大筆錢,否則你可能永遠看不到自動駕駛汽車的內部。 據稱,那些將使用自動駕駛汽車的人必須很有錢(我不同意,請參閱我的討論 這裡的鏈接).

這可以被解釋為一種社會權力動態形式,它將滲透到基於人工智能的自動駕駛汽車的出現中。 整個自動駕駛汽車工業體係將使自動駕駛汽車遠離那些窮人或不太富裕的人。 這可能不一定是出於明顯的意圖,事實證明,唯一可以相信的收回發明自動駕駛汽車的沉重成本的方法是收取高得離譜的價格。

這是否是社會權力動態考慮?

你是法官。

接下來,我們可以考慮與 AI 相關的統計和計算偏差問題。

考慮一下自動駕駛汽車將在哪裡漫遊以接載乘客這一看似無關緊要的問題。 這似乎是一個非常無害的話題。

首先,假設人工智能自動駕駛汽車將在整個城鎮漫遊。 任何想要求乘坐自動駕駛汽車的人基本上都有平等的機會叫到一輛自動駕駛汽車。 逐漸地,人工智能開始主要讓自動駕駛汽車只在城鎮的一個區域漫遊。 這部分是一個更大的賺錢者,人工智能已被編程為嘗試最大化收入,作為整個社區使用的一部分。

事實證明,該鎮貧困地區的社區成員不太可能乘坐自動駕駛汽車。 這是因為自動駕駛汽車離得更遠,並且在城鎮收入較高的地區漫遊。 當請求來自城鎮的較遠地區時,來自較近位置的任何其他請求將獲得更高的優先級。 最終,在城鎮較富裕地區以外的任何地方獲得自動駕駛汽車幾乎是不可能的,對於那些生活在現在資源匱乏地區的人來說,這令人惱火。

自動駕駛汽車本應實現的人人享有機動性的夢想破滅了。

你可以斷言,人工智能幾乎落在了一種統計和計算偏差上,類似於一種代理歧視(也通常稱為間接歧視)。 人工智能沒有被編程來避開那些較貧窮的社區。 相反,它通過使用 ML/DL 來“學習”這樣做。 請參閱我關於代理歧視和 AI 偏見的解釋 這裡的鏈接. 此外,有關自動駕駛汽車和自動駕駛汽車將遇到的此類全市或鄉鎮問題的更多信息,請參閱我的報導 這裡這個鏈接,描述了我與他人合著的一項哈佛領導的研究。

在這種情況下,社會權力動態會發揮作用嗎?

你是法官。

對於 AI 偏差的第三個例子,我們轉向一個例子,該例子涉及 AI 確定是否為等待沒有過馬路通行權的行人停車。

毫無疑問,您一直在開車並遇到等待過馬路的行人,但他們沒有這樣做的通行權。 這意味著您可以自行決定是否停下來讓他們通過。 您可以在不讓他們通過的情況下繼續進行,並且仍然完全符合這樣做的合法駕駛規則。

對人類駕駛員如何決定為此類行人停車或不停車的研究表明,有時人類駕駛員會根據不利的偏見做出選擇。 人類駕駛員可能會看著行人並選擇不停車,即使如果行人有不同的外觀(例如基於種族或性別),他們也會停下來。 我已經在 這裡的鏈接.

想像一下,基於人工智能的自動駕駛汽車經過編程,可以為沒有通行權的行人處理是否停車的問題。 以下是 AI 開發人員可能決定如何編寫此任務的方式。 他們從遍布城市各處的城鎮攝像機收集數據。 該數據展示了為沒有通行權的行人停車的人類駕駛員,並捕獲了未停車的人類駕駛員的視頻。 這一切都收集到一個大型數據集中。

通過使用機器學習和深度學習,可以對數據進行計算建模。 然後人工智能駕駛系統使用這個模型來決定何時停止或不停止。 一般來說,這個想法是,無論當地習俗是什麼,這就是人工智能指導自動駕駛汽車的方式。

讓城市領導和居民驚訝的是,想像一下當人工智能根據行人的年齡選擇停車或不停車時他們會感到震驚。

怎麼會這樣?

在仔細查看 ML/DL 訓練數據和人類駕駛員判斷力的視頻後,事實證明,許多不停車的情況是行人拄著拐杖,這可能是老年人的習慣。 人類司機似乎不願意停下來讓一位老人過馬路,大概是因為預計某人可能需要很長時間才能過馬路。 如果行人看起來可以快速穿過馬路並最大限度地減少司機的等待時間,那麼人類司機更願意讓行人過馬路。

這通過 ML/DL 在訓練數據中“發現”了這種模式並因此在計算上盡職盡責地對其進行建模,從而深深地埋藏在 AI 駕駛系統中。 一旦通過使用 OTA (Over-The-Air) 更新將 ML/DL 下載到自動駕駛汽車中,車載 AI 駕駛系統就會繼續使用新提供的 ML/DL 模型。

這是它的工作原理。 自動駕駛汽車的傳感器會掃描等待的行人,將這些數據輸入 ML/DL 模型,然後模型會向 AI 發出是停止還是繼續。 任何表明行人過馬路可能很慢的視覺指示,例如使用拐杖,都被用來從數學上確定人工智能駕駛系統是否應該讓等待的行人過馬路。

你認為這種人工智能偏見隱藏了一種社會權力動態嗎?

你是法官。

結論

現在有一些最後的想法。

讓我們介紹一些高級技巧和重要注意事項。

首先,為了澄清,沒有人特別主張我們應該以某種方式忽略人工智能的偏見,而只考慮社會權力動態。 我之所以提到這一點,是因為有些人似乎會把嬰兒和洗澡水一起扔出去,然後完全跳入權力元素,就好像人工智能的偏見相比之下無關緊要。

不要讓大峽谷那種超大的飛躍。

其次,我們確實需要關注人工智能的偏見。 同時,我們也應該對社會權力動態保持警惕。

是的,我們可以同時做這兩件事,尤其是現在我們知道要時刻關注。 我向你保證,經歷過大猩猩實驗的人在接下來看到任何可能挑戰他們認知敏捷性的事物時,很容易保持警覺。 知道大猩猩可能會在那裡,儘管它可能不一定會出現,但這將確保您無論如何都在關注潛在的出現。

以下是一些有價值的經驗法則(這引起了一些爭議,只是為了讓您知道):

  • 人工智能偏見可以解釋為“隱藏”社會權力動態問題(人工智能偏見不是隱藏者,而是專注於只關注人工智能偏見表面的人)
  • 但並非所有人工智能偏見都必然隱藏著社會權力動態問題
  • 也並非所有的社會權力動態問題都必須只嵌入到人工智能偏見中
  • 人工智能偏見可以是所有與特定社會權力動態問題相關的人工智能偏見集合的一部分
  • 一連串的社會權力動態問題幾乎可以讓任何人工智能係統感到困惑,因為人工智能係統是社會和權力動態的全部反映

思考一下那些。

我會等。

好的,這裡還有一些經驗法則可能也會讓你精神煥發:

  • 當遇到人工智能偏見時,詢問是否與社會權力動態有任何联系
  • 在設計人工智能係統時,詢問社會權力動態是否以及以何種方式塑造人工智能
  • 嘗試檢查社會權力動態如何影響人工智能利益相關者
  • 考慮哪些緩解措施可能適合 AI 和社會權力動態
  • 時刻注意大猩猩,不要忘記大猩猩是可以存在的(我會說這激發了生活中的黑客經驗法則——永遠不要被大猩猩蒙蔽雙眼,這可能會很痛苦,你會希望你見過它來了!)。

談論 功率 讓我想起了社會力量可以產生的影響。 我敢打賭,你熟悉關於權力的最著名或最臭名昭著的台詞之一,根據 Lord Action 的說法,它是這樣的:“權力趨於腐敗,絕對權力絕對腐敗。”

令人嘆為觀止的擔憂。

社會必須不斷發展,人工智能將對社會權力動態產生示範性影響。 這似乎是顯而易見的,也許,但在這個問題上並沒有你認為似乎有必要的那麼多外在的辯論和直言不諱的話語。 幸運的是,人工智能倫理考慮的興起正在推動社會朝著這個方向發展。 無情的,如果不是不情願的話,一次是令人痛苦的一英寸。

我們現在可以給偉大的列奧納多·達·芬奇(Leonardo da Vinci)最後一句話,並花點時間思考這些精明睿智的話:“沒有什麼比沉默更能增強權威了。”

那些冒險進入人工智能偏見和社會權力動態領域的人正試圖帶來陽光直射,並將注意力集中在一個原本安靜或謙遜的事情上,這些事情看似默默地等待著。 讓我們開始說話吧,就像列奧納多·達·芬奇可能會敦促我們那樣做。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/05/22/ai-ethics-unnervingly-asking-whether-ai-biases-are-insidiously-hiding-societal-power-dynamics-包括-人工智能自動駕駛汽車/