人工智能倫理謹慎評估是否提供人工智能偏見狩獵賞金以捕捉和掠奪道德上邪惡的全自動系統是謹慎的還是徒勞的

通緝: 人工智慧偏見獵人.

這可能是一則現代廣告,您將開始看到它出現在社交媒體管道上並出現在各種線上招聘啟事中。 這是一個相對較新的概念或角色。 它伴隨著爭議。 一些熱心的信徒熱切地認為這很有意義,並且應該一直發生,而另一些人則相當緊張地做一些嚴重的令人頭疼的事情,不太確定這是一個好主意。

該角色的要點包括從人工智慧中找出任何隱藏的偏見或嵌入的歧視性做法。 熱切的、完全過去對獵人有偏見的人工智慧來拯救我們。 他們大概是精通電腦的賞金獵人。 更重要的是,希望能夠深入了解人工智慧的能力。

有槍,會旅行,並且可以通過人工智能熟練的敏銳槍法設法揭露那些令人討厭和不愉快的人工智能偏見。

這引發了一系列棘手的問題,即在發現人工智慧偏見時採取這種策略的敏感性。 正如我將立即討論的那樣,請注意人工智慧的出現也帶來了人工智慧偏見的出現。 人工智慧偏見的洪流。 有關我對人工智慧倫理和道德人工智慧的持續和廣泛的報道,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

我們如何發現特定的人工智慧系統有偏見?

您可以委託設計人工智慧的人工智慧開發人員來完成這項工作。 問題是,他們可能深陷偏見,以至於他們自己無法識別他們炮製的人工智慧中的偏見。 對他們來說這一切看起來都很好。 或者,他們可能對人工智慧非常興奮,並對此感到自豪,以至於必須用批判的眼光來檢查它是否存在偏見,這將是困難的,而且是真正令人沮喪的。 許多其他此類原因似乎會削弱人工智慧開發人員承擔這項任務的能力,包括缺乏找出嵌入偏見的技能、專案中缺乏時間來做這件事等。

好吧,那麼請繼續聘請外部顧問來為您做骯髒的工作吧。 事實證明,顧問會很樂意檢查你的人工智慧是否存在偏見,並為此向你收取相當多的費用(很多很多的便士)。 意識到你需要付費讓他們跟上你的人工智慧系統的步伐。 然後你需要讓他們翻箱倒櫃,這可能會花費無數昂貴的勞動時間。 如果您有預算,聘請顧問是一種選擇。

在如何找到那些陰險的人工智慧偏見的潛在「差距」中,英勇而瀟灑的人工智慧偏見賞金獵人出現了。

您通常不會預先向他們付款。 他們試圖利用自己的時間找出人工智慧的偏見,但必須為此付出自己的代價。 只有成功發現偏見,他們才能獲得報酬。 我想你可以很容易地斷言,以適當的思維方式,這就是賞金獵人的傳統定義。 如果你成功了,你就可以得到報酬。 如果你沒有成功,就不要得到報酬。 期間,故事結束。

賞金計劃至少從羅馬時代就已經存在了,因此我們可以推測它們確實有效,並且作為一種實踐成功地延續了這麼多年。

這是為您提供的一段有趣的歷史瑣事。 據報道,羅馬帝國時期,龐貝城發布了一條消息,宣稱需要賞金獵人來尋找一家小商店失踪的銅鍋。 收回銅鍋的獎勵是六十五銅幣,金額不斐。 遺憾的是,我們不知道是否有賞金獵人找到了銅鍋並索取了銅幣,但我們確實知道賞金狩獵自古以來一直在持續。

在更現代的時代,您可能會意識到,在1980 世紀1990 年代,有一些值得注意的賞金活動旨在尋找電腦錯誤或現成軟體包中的錯誤,然後在2010 年代,Netscape 明顯提供了在其Web 瀏覽器中尋找錯誤的賞金(成為當時最著名的公司之一)。 Google和 Facebook 分別從 2013 年和 2016 年開始選擇對漏洞進行賞金狩獵。 幾年後,在XNUMX 年,甚至美國國防部(DoD) 也參與了這項行動,發起了「駭客五角大廈」賞金活動(請注意,公開的賞金是針對在各種與國防部相關的網站中發現的錯誤,而不是在國防關鍵任務系統)。

讓我們更深入地探討錯誤賞金主題。 我意識到我的主要目的是在這次討論中討論賞金狩獵中的人工智慧偏見,但與錯誤賞金領域有一些非常相關的相似之處。

有些人明顯感到困惑的是,任何公司都願意提供獎金來尋找其係統中的錯誤(或在本例中為人工智慧偏差)。

從表面上看,這似乎是一種「你自找的」策略。 如果你讓全世界知道你歡迎那些可能試圖在你的軟體中尋找漏洞的人,這似乎等於告訴竊賊繼續嘗試闖入你的房子。 即使您已經相信自己擁有一套非常好的防盜警報系統,並且沒有人能夠進入您安全的家中,想像一下請求並懇求竊賊全部降臨到您的居住地,看看他們是否可以破解它。 噢,我們為自己編織的煩惱。

要求賞金獵人尋找你的人工智慧中的偏見也是同樣的道理。

首先,這可能意味著你已經相信甚至完全知道你的人工智慧確實存在偏見。 這是一個令人震驚的直率暗示承認,似乎很少人願意這樣做,而且可能會適得其反。

其次,你不確定那些賞金獵人會做什麼。 他們可以選擇告訴全世界,他們發現你的人工智慧有偏見。 人們認為這可能會失去獲得賞金的機會,儘管有些人可能會享受這種關注或旨在提高他們的地位以獲得諮詢工作和其他創造收入的可能性。 這也許是完全無私的。 這可能是人工智慧行動主義的一種形式。 我可以繼續前進。

第三,整個事件可能會出現微妙的轉折。 一個聲稱正在尋找人工智慧偏見的賞金獵人可能會瘋狂地四處尋找攻擊你的人工智慧系統的方法。 整件事情是一場最終要遭受嚴重網路攻擊的猜謎遊戲。 你可能以為他們是想幫忙,但其實他們心裡有錯。 悲傷,但有可能。

第四,我們可以在這個問題上進行更狡猾的扭曲。 一名賞金獵人發現了一些令人尷尬且可能引發訴訟的人工智慧偏見。 賞金是一定數量的美元,我們稱之為 X。賞金獵人並沒有領取賞金,而是進行了一種奇怪的勒索軟體挑釁。 如果你向賞金獵人支付 X 十倍的金額,或者可能是天空的極限,他們會告訴你人工智慧的偏見。 您必須在周日晚上午夜之前回复。 在那之後,人工智慧的偏見將被揭露出來,讓所有人都能看到。 哎呀,陷入了一個卑鄙的困境。

第五,最新的是那些所謂的「駭客返還」網路騙子,他們在偷了一大堆網路錢後,決定悔罪並返還一些他們搶到的不義之財。 獲得部分資金回饋的公司願意將剩餘的被盜金額視為事後獎勵給竊賊的賞金。 似乎每個人都“贏了”,因為大部分資金都被歸還,同時網絡騙子沒有受到法律追捕,而且他們還獲得了海盜賞金。 這是審慎的行為還是陰險地延續錯誤行為?

我意識到你們中的一些人可能會說沒有人應該發布帶有任何偏見的人工智慧。 這似乎解決了關於是否使用人工智慧偏見賞金獵人的整個困境。 只是不要讓自己陷入賞金的境地。 確保您的人工智慧開發人員做正確的事情,並且不允許人工智慧偏見進入他們的人工智慧系統。 也許請顧問進行雙重檢查。 從本質上講,盡你所能,避免考慮或要求那些人工智慧偏見的賞金獵人來到談判桌前。

是的,這看起來完全合理。 問題是它也有點夢幻。 許多人工智慧系統的複雜性是如此之大,以至於試圖確保不出現一丁點人工智慧偏見將是一項艱鉅的任務。 最重要的是,一些人工智慧系統經過專門設計,可以在運行過程中進行調整和「學習」。 這意味著,在未來的某個時間點,你設計的人工智慧(讓我們一開始假設它是純粹乾淨且沒有偏見的)可能會傾向於體現偏見(我並不是說以擬人化的方式,因為我將在我們討論時進一步解釋)繼續討論這個主題)。

那些支持對軟體錯誤進行賞金狩獵的人很容易認為提供此類賞金是有意義的。 我們可以考慮他們的基本原理,看看它是否也適用於人工智慧偏見領域。

錯誤賞金的支持者強調,與其試圖假裝系統中沒有任何漏洞,為什麼不鼓勵以「受控」的方式發現漏洞呢? 相比之下,如果沒有這樣的賞金努力,你可以只是希望並祈禱,隨機的機會沒有人會找到一個洞,但如果你提供賞金並告訴那些發現洞的人他們將得到獎勵,那麼它會提供一個然後你就有機會自己把這個洞堵住,然後防止其他人在以後的某個時間秘密地發現它。

在人工智慧偏見的用例中也可以這樣說。 如果你提供足夠的賞金,希望賞金獵人會讓你注意到人工智慧偏見的發現。 然後,你可以以相對安靜和謹慎的方式來應對人工智慧偏見。 這可能會阻止以後出現一個更大、更令人畏懼的問題,即其他人發現你的人工智慧有人工智慧偏見,並對此大喊大叫。

一般來說,希望進行漏洞賞金活動的公司會制定漏洞揭露政策(VDP)。 VDP 指明瞭如何發現錯誤並向公司報告,以及如何向獵人提供獎勵或賞金。 通常,VDP 會要求獵人最終簽署一份保密協議 (NDA),這樣他們就不會向其他人透露他們的發現。

與賞金獵人使用保密協議的想法存在一些爭議。 儘管對於提供賞金的公司來說,希望對發現的漏洞保持沉默或許是有意義的,但據說這也抑制了人們對此類錯誤的整體認識。 據推測,如果允許談論軟體錯誤,可能有助於其他公司其他系統的安全,從而提高他們的風險敞口。 有些賞金獵人不會簽署保密協議,部分原因是公眾的願望,部分原因是試圖隱藏自己的身分。 還要記住,保密協議方面通常直到獵人聲稱他們發現了錯誤之後才會出現,而不是事先要求它。

一些 VDP 規定 NDA 僅在有限的時間內有效,允許公司先找到明顯漏洞的解決方案,然後再進行更廣泛的揭露。 一旦漏洞被堵住,該公司就會允許放鬆保密協議,以便世界其他地方可以了解漏洞。 據報道,當公司想要立即解決問題時,賞金獵殺的 bug 的典型解決時間約為 15-20 天,而在其他情況下可能會延長至 60-80 天。 在支付賞金獵人方面,即所謂的支付時間,在漏洞被證實確實存在後,據報道,對於較小的實例,賞金支付往往在大約15-20 天內,而在50-60 天內就會支付.較大實例的天數(這些是不斷變化的行業指示,僅作為說明性提及)。

是否應該要求 AI 偏見賞金獵人參與 VDP 並處理 NDA?

對於這個問題,你可以得到肯定和否定。 是的,有些公司應該走這條路。 不,您可能不一定會選擇走那條路。 因素包括人工智慧的規模和性質、涉及的任何人工智慧偏見風險的可能性,以及一系列其他道德、法律和商業考慮因素。

我可能會補充一點,針對人工智慧的人工智慧偏見建立賞金狩獵任務比你乍看之下要高得多。

我們將從一個巨大的可能性開始,即你將被人工智慧偏見的賞金獵人壓垮。

現在,你很難找到很多人擁有這樣的電話卡。 周圍人不多。 從這方面來說,現在是狂野西部的時代。 但如果賞金狩獵中人工智慧偏見的概念流行起來,特別是當賞金充足且回報豐厚時,你可以打賭每個人都會跳入偏見狩獵游泳池。

你想讓各種痞子在你的人工智慧系統中追求人工智慧偏見嗎? 你會得到一些實際上是此類事情專家的接受者。 你會遇到其他業餘接受者,他們可能會搞砸或喊狼來了。 接下來你就會知道,任何能拼出「人工智慧」的人都會來挖掘你的人工智慧系統金礦,尋找那些寶貴的人工智慧偏見金塊。 淘金熱正在進行中。 這對你來說可能不太好。

您需要仔細審查賞金獵人提交的資料。 報告中的說法中將會有很多“噪音”,因為許多聲稱的人工智慧偏見並不存在,儘管賞金獵人堅稱他們發現了一些偏見。 想像一下,您自己的人工智慧團隊將需要多少勞動力來檢查賞金聲明,探索每個賞金聲明的有效性,然後可能與賞金獵人來回討論是否發現了黃金。

有些人會認為這是自己完成整件事的另一個原因。 你可能不可避免地會發現賞金帶來的麻煩比價值更多。

這是另一個需要思考的問題。 賞金獵人如何知道人工智慧的偏見是什麼樣的? 從本質上講,如果沒有某種要尋找的東西的外表,任何閃亮的岩石都可以被認為展示了正在挖掘的人工智慧金礦中的人工智慧偏見。

在舊西部時代,假設您懸賞捉拿比利小子(一個著名的亡命之徒)。 如果你這樣做了,但沒有附上比利長相的照片,想像一下有多少賞金獵人可能會把他們希望或認為是比利小子的人拖進警長辦公室。 您可能會被假比利的淹沒。 這很糟糕,因為你可能需要查看每個人,提出探究性問題,並嘗試確定這個人是否真的是比利。

關鍵是,要設立人工智慧偏見賞金工作,明智的做法是嘗試澄清你認為人工智慧偏見的組成部分。 這需要金髮女孩式的校準。 你不想受到如此的限制,以至於賞金獵人僅僅因為人工智慧偏見不符合你規定的定義而忽視它們,你也不希望他們大喊“尤里卡!” 他們可能發現的每一點人工智慧偏見。

您將需要對人工智慧偏見的構成進行適當的平衡,從而最好提供明確的方向。

許多帶有人工智慧偏見的賞金狩獵將集中在基於人工智慧的機器學習(ML)和深度學習(DL)系統上。 這是有道理的,因為機器學習/深度學習的出現越來越普遍,而且它似乎面臨著一些最有可能包含不當人工智慧偏見的挑戰。

這些研究人員確定了人工智慧偏見賞金狩獵活動的重要性,特別是在機器學習/深度學習背景下:“隨著時間的推移,軟體和安全社區開發了'錯誤賞金',試圖在系統開發人員和批評者之間轉變類似的動態(或駭客)實現更具互動性和生產力的目標。 我們希望,透過故意邀請外部各方發現其係統中的軟體或硬體錯誤,並經常為此提供金錢激勵,一個更健康、反應更迅速的生態系統將會發展。 機器學習社群自然會考慮採用類似的「偏差賞金」方法來及時發現和修復存在偏差或其他不良行為的模型和系統。 外部各方不是被邀請尋找軟體中的錯誤,而是被邀請去尋找偏差——例如,經過訓練的模型表現不佳的(人口統計或其他)輸入子組——並因此而獲得獎勵」(在論文「偏差的演算法框架」中)賞金》作者:Ira Globus-Harris、Michael Kearns 和 Aaron Roth)。

在這篇研究論文中,作者概述了賞金獵人可以尋找哪些類型的人工智慧偏見的建議方法。 還有關於如何評估與如此發現的所謂人工智慧偏見相關的賞金獵人索賠的指示。 根據我之前的評論,你很可能會收到似是而非的說法,並且必須將人工智慧的偏見與穀殼分開。

在深入探討人工智慧偏見狩獵背後的瘋狂和模糊的考慮之前,讓我們先就深刻的整體主題建立一些額外的基礎知識。 我們需要簡單地深入了解人工智慧倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

現在讓我們回到人工智慧偏見搜尋的主題。

對於那些考慮進行人工智慧偏見賞金狩獵活動的人,以下是我建議的七個關鍵步驟,以幫助您最好地進行:

1) 評估。 根據您的人工智慧系統評估人工智慧偏見賞金狩獵活動是否適合您的情況

2) 設計。 設計適當的人工智慧偏見賞金狩獵方法

3) 實施。 實施並宣傳您的人工智慧偏見賞金狩獵活動

4) 。 提出人工智慧偏見的賞金索賠並進行相應處理

5) 固定。 根據這些發現的人工智慧偏見風險修復或調整你的人工智慧

6) 調整。 根據需要調整 AI 偏差賞金狩獵

7) 中斷。 當不再需要時停止人工智慧偏見賞金狩獵

在我上述的一系列步驟中,請注意,我提到您可能希望根據確定您的人工智慧系統中確實存在所聲稱的人工智慧偏見來修復或調整您的人工智慧。 這很有道理。 你幾乎肯定會想要糾正任何已發現的人工智慧偏見。 如果您不這樣做,請考慮法律(和道德)後果。 斷言你不知道人工智慧偏見存在並因此允許它存在是一回事,而記錄下來你意識到人工智慧偏見卻沒有採取任何行動則更加站不住腳。

人工智慧修復或調整的性質和程度當然取決於人工智慧偏見的嚴重程度以及問題的根深蒂固。 如果你幸運的話,也許對人工智慧進行少量的改變就能解決問題。 另一個可能性是你可能需要對人工智慧進行完全重寫。 對於 ML/DL 類型的 AI,這可能需要回到繪圖板並使用一組全新的資料和清理後的 ML/DL 模型重新開始。 我已經討論了人工智慧歸還或人工智慧銷毀的出現,作為針對不良人工智慧的潛在法律補救措施,請參閱 這裡的鏈接.

需要考慮的一個問題是,你是否希望賞金獵人做的不僅僅是識別人工智慧偏見的存在。 例如,您可以透過表明也歡迎建議的修復來增加賞金。 人工智慧偏見 發現 賞金獵人可能會獲得指定的獎勵或獎品。 如果賞金獵人也能提供一個可行的方案 固定 由於人工智慧的偏見,他們可能會獲得額外的獎勵。

有些人認為這座橋太過遙遠。 他們說你應該讓人工智慧偏見賞金獵人專注於尋找人工智慧偏見。 如果你邀請他們提出修復建議,將會造成一連串不良後果。 讓事情變得簡單。 我們的目標是讓盡可能多的人專注於發現人工智慧偏見,以便您可以決定下一步該做什麼。 不要讓水變得混濁。

需要解決的一個棘手問題是,對於真正發現人工智慧偏見的賞金獵人來說,獎勵或獎金的大小。 您希望回報具有示範性。 如果沒有足夠高的獎勵,你不會得到很多賞金獵人,或者他們不會特別渴望找出你的人工智慧系統中的人工智慧偏見。 相反,他們可能會專注於其他人工智慧偏見賞金工作。

此外,正如前面提到的,你想要嘗試抑制賞金獵人將他們的人工智慧偏見發現轉化為其他形式的黃金的衝動。 如果獎勵看起來微不足道,它可能會激怒賞金獵人去尋求其他更高的回報。 他們可能會對您採取勒索軟體攻擊。 他們可能會宣稱他們有一個有趣的人工智慧偏見,競爭對手很想知道這一點,並且可以透過宣揚你的人工智慧中存在著人工智慧偏見來攻擊你的公司。 因此,他們將發現的人工智慧偏見賣給出價最高的人。 等等。

人們認為,如果你將獎勵設定在極高的範圍內,你也會帶來潛在的麻煩。 這可能會吸引各種瘋狂的賞金獵人。 反過來,他們可能會在社群媒體上充斥著模糊的說法,稱他們發現了多種人工智慧偏見,這樣做是為了自我推銷,但實際上並沒有揭露任何人工智慧偏見。 從某種意義上說,你增加的獎勵會無意中照亮你的人工智慧,並刺激大量粗野的飛蛾相應地被發光的光束所吸引。

另一個考慮因素涉及人工智慧的可訪問性。

為了實現人工智慧賞金狩獵的可能性,賞金獵人必須充分存取你的人工智慧。 如果他們完全被排除在外,他​​們就很難找到人工智慧的偏見。 但您不想放棄網路安全保護,因為這樣做可能會完全損害您的人工智慧系統。

您可以嘗試讓賞金獵人簽署各種具有法律約束力的聲明,然後為他們提供所需的存取權。 有些賞金獵人不會喜歡這種方法。 他們的觀點是,他們只會做任何公開且開放的路徑允許的事情。 可以說,他們是自由的特立獨行者,也不喜歡被束縛。 讓他們在令人生畏的法律文件上簽名將導致他們中的許多人避免在你的人工智慧中尋找人工智慧偏見。 或者他們可能會對你的法律挑戰感到惱火,並決定透過公共手段看看他們能找到什麼,這樣做可能是為了向你展示你到底有多脆弱。

我還有一個可能會讓你頭暈的角度。

精通人工智慧的賞金獵人可能會決定設計一個人工智慧系統,可以仔細檢查你的人工智慧,並可能發現你的人工智慧中的人工智慧偏見。 這是工具製造商選擇製造工具來完成工作,而不是自己進行體力勞動。 精通人工智慧的賞金獵人不會費力地檢查你的人工智慧,而是花時間編寫一個能做同樣事情的人工智慧工具。 然後他們在你的人工智慧上使用人工智慧工具。 美妙之處還在於,他們可能可以在其他任何人身上重複使用人工智慧工具,而其他人也可以在各自的人工智慧上提供賞金狩獵機會。

我知道你可能在想什麼。 如果可以設計一種人工智慧工具來檢查人工智慧是否存在偏見,那麼正在接受人工智慧偏見審查的人工智慧製造商應該要么製作這樣的人工智慧工具,要么購買一個供自己使用。 從理論上講,他們一開始就不需要與整個賞金獵人狂歡節抗衡。 只需使用人工智慧來找到他們的人工智慧偏見即可。

是的,這是你可以預期會逐漸出現的事情。 同時,這些努力的支柱可能包括人工智慧開發人員進行賞金狩獵。 他們可能會使用各種工具來幫助他們的工作,但在短期內,他們不太可能簡單地無意識地將人工智慧工具設定為自動,然後小憩一下,以便該工具為他們完成所有人工智慧偏見的搜尋。

我們還沒到那兒。

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智慧的真正自動駕駛汽車的出現是否說明了人工智慧偏見賞金狩獵的使用,如果是的話,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADA 的自動加載項ADA
S(高級駕駛輔助系統)。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智慧偏見賞金狩獵

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

在我的專欄中,我已經詳細討論了在自動駕駛汽車和自動駕駛汽車領域中以錯誤為導向的賞金獵人的使用。 這種方法確實發生在這個利基市場。 關於這個想法是否合理存在常見的爭論。 這些努力通常是有限的,並且通常保持相對安靜。

當焦點轉向尋找人工智慧偏見而不是尋找系統錯誤本身時,類似的討論也會隨之而來。 有些人認為,如果你這樣做了,那就太糟糕了,如果你不提出難題,那就太糟糕了。

這就是原因。

首先,需要明確的是,自動駕駛汽車和自動駕駛汽車會透過多種方式受到人工智慧偏見的影響,請參閱我的報告: 這裡的鏈接這裡的鏈接, 僅舉幾個。 汽車製造商和自動駕駛汽車公司似乎應該明智地嘗試阻止這些人工智慧偏見出現在他們的人工智慧系統中。 針對這些公司的法律和道德風暴無疑將是激烈的。

在這種特定情況下,使用人工智慧偏見的賞金狩獵活動是否是合適的方法?

一個答案是,是的,這會很方便,並提供大量「免費」的新眼睛來嘗試捕捉人工智慧自動駕駛汽車等的任何嵌入式人工智慧偏見。 大多數建造自動駕駛汽車的人工智慧開發人員都忙於開發能夠安全地將汽車從A 點駕駛到B 點的人工智慧。他們專注於這項核心功能,而沒有時間也沒有關注可能存在於某個地方的人工智慧偏見。他們的人工智慧。

另一個答案是不,應該堅決避免以任何理由對自動駕駛汽車和自動駕駛汽車進行賞金,無論是出於錯誤還是人工智慧偏見。 爭論的焦點是這些車輛及其人工智慧具有生死攸關的能力。 以任何方式乾擾人工智慧都可能對人工智慧造成毀滅性影響,並影響人工智慧駕駛系統的功能。

最後一點的反駁是,賞金獵人應該無法改變他們正在檢查的人工智慧。 因此,他們不存在擾亂人工智慧並導致這種情況下的人工智慧突然變成瘋狂的人工智慧駕駛系統的危險。 賞金獵人只有唯讀存取權限。 讓他們走得更遠將是極其愚蠢和巨大的錯誤。

對此反駁的反駁是,透過允許和鼓勵賞金獵人檢查你的人工智慧,整件事情變得很危險。 那些賞金獵人可能會找到利用任何發現的錯誤或偏見的方法。 這些漏洞反過來可能會用於不正當的目的。 可以這麼說,你最好不要邀請「竊賊」進入你的家。 一旦他們把關節拿出來,你最終就會陷入一堆麻煩。

對於那些擁有不至於生死攸關的人工智慧系統的人來說,人們相信,賞金狩獵一旦出現問題,其後果的風險要小得多。 也許是這樣。 另一方面,如果一家公司將資金投入賞金獵人設法篡奪的人工智慧系統中,你可以假設聲譽受損和其他潛在損害仍然會造成傷害。

在人工智慧偏見賞金狩獵方面,沒有免費的午餐。

現在做一個簡短的結束語。

當臭名昭著的亡命之徒傑西詹姆斯在舊西部被追捕時,一張“通緝”海報被印出來,懸賞 5,000 美元捉拿他(註明“死或生”)。 這在當時是一筆相當大的資金。 他自己的一名幫派成員選擇射殺傑西並領取獎勵。 我想這顯示了賞金的效力。

使用人工智慧偏見賞金獵人會是一件好事,還是一件壞事?

如果你選擇進行人工智慧偏見賞金獵人活動,我建議你睜大眼睛,時時警惕。 這對你和你的人工智慧來說都是謹慎的。 你永遠不知道會發生什麼,包括一個縱容的賞金獵人以某種方式偷偷地在你的人工智慧中插入人工智慧偏見,並向全世界喊話他們在你的人工智慧中發現了不擇手段的人工智慧偏見。 也許這樣做是為了尋求賞金獎勵,並且宣稱自己是英雄,這實際上得到了被吹捧的傑西·詹姆斯(Jesse James)。

想想看,一個有感知能力的人工智慧可能不會喜歡這種令人不安的生死攸關的規定,人們可能會懶洋洋地推測。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab -道德上邪惡的完全自治系統是謹慎的還是徒勞的/