當紐約市要求對人工智能偏見進行審計的法律開始生效時,人工智能倫理和迫在眉睫的崩潰

有時,由於嚴重缺乏對細節的關注,最好的意圖會令人遺憾地破滅。

這種聖人智慧的一個典型例子是值得探索的。

具體來說,讓我們仔細看看紐約市一項關於人工智能 (AI) 的新法律,該法律將於 1 年 2023 月 XNUMX 日生效。您可以輕鬆贏得一個相當大的賭注,即會出現各種混亂、驚愕和麻煩一旦法律生效。 儘管這些麻煩不是設計使然,但它們無疑會由於設計不佳或至少對必要細節的規定不充分而發生,這些細節應該而且可以很容易地設計和明確說明。

我指的是去年 11 年 2021 月 2023 日在備受尊敬的紐約市通過的一項當地法律,該法律計劃於 XNUMX 年初開始實施。我們目前距離大覺醒只有幾個月的時間這項新法律將會引起轟動。 我希望我可以說,這項雄心勃勃的法律將無縫地完成它應該做的事情,即處理在製定就業決策領域潛在的人工智能偏見。 唉,雖然這個意圖值得稱讚,但我將帶您了解這些漏洞、遺漏和缺乏特異性,這些漏洞、遺漏和缺乏特異性將削弱這項法律,並使雇主在試圖應對其意外但相當不利的影響時發瘋。

你可能會說,這是一個半生不熟的計劃推進的經典問題。 德懷特·艾森豪威爾(Dwight Eisenhower)的一句受人尊敬的格言是,計劃什麼都不是,而計劃就是一切。 簡而言之,這項特殊的法律將提供一個生動的例子,說明立法者有時會因未能深思熟慮而達不到要求 事先 必要的細節,以使法律達到其值得稱道的目標,並能以絕對合理和審慎的方式被採納。

一場災難正在等待。

藉口已經在排隊了。

一些權威人士說,您永遠無法完全指定法律,並且必須看到它在行動中才能知道法律的哪些方面需要調整(在這種情況下,這是一個被扭曲得不成比例的普遍真理)。 此外,他們激烈地爭辯說,當涉及到人工智能相關法律的新出現時,情況尤其如此。 哎呀,他們勸告,人工智能是我們作為立法者不太了解的高科技魔法,因此,邏輯上認為在法律頁面上放一些東西總比什麼都沒有要好。

從表面上看,這聽起來確實很有說服力。 但是,深入挖掘,您會意識到這可能是胡說八道,尤其是在此特定法律的情況下。 這項法律可以很容易地被更巧妙、更明智地規定。 我們不需要魔法藥水。 我們不需要等到混亂出現。 在製定法律時,可能已經確定了正確的措辭和細節。

讓我們也確保無法事先預測採用方面的不合時宜的、浮動的想法是非常荒謬的。 這是最空洞的一種合法的胡言亂語。 關於處理 AI 偏見和進行 AI 審計有很多已知的考慮因素,這些考慮因素很容易被納入該法律。 對於任何其他打算制定此類法律的司法管轄區也可以這樣說。 不要被欺騙相信我們只能盲目地把合法的飛鏢扔進狂風中並遭受痛苦。 一點法律思維結合對人工智能的適當理解已經是可行的,沒有必要僅僅抓住稻草。

我可以補充一下,還有時間來糾正這個問題。 時鐘還在滴答作響。 有可能在警鐘開始響起之前醒來。 所需的建議可以得到並被告知。 時間緊迫,因此必須給予應有的優先權。

無論如何,請確保您掌握了這裡的重點。

請允許我熱切地澄清,這樣一條關於人工智能偏見的法律確實有其優點。 我會暫時解釋原因。 我還將描述這項新法律存在哪些問題,許多人會說這是有史以​​來第一個被納入法律書籍的法律(存在其他變體,儘管可能不太像這個)。

事實上,您可以期待類似的法律將在全國范圍內逐步實施。 一個值得注意的問題是,如果紐約市的先行者嘗試失敗,可能會導致該國其他地區對頒布此類法律持謹慎態度。 這不是應該吸取的正確教訓。 正確的教訓是,如果您要編寫這樣的法律,請明智地進行並考慮周全。

在沒有經過充分審查的情況下被扔在書本上的法律可能會令人非常不安,並造成各種下游困難。 從這個意義上說,請不要把嬰兒和洗澡水一起扔出去(一句老話,可能應該退休了)。 要點是,如果制定得當,這樣的法律可以真正具有生產力和保護性。

不幸的是,這個特別的人不會在大門外這樣做。

各種驚慌失措的引導,必然來自法律的製定者和執法者。 將您的日曆標記為 2023 月下旬至 XNUMX 年 XNUMX 月,以觀察接下來的爭奪。 指責將非常激烈。

現在沒有人特別大聲疾呼,因為法律還沒有落在那些將被新法律所束縛的雇主的頭上。 想像一下,這是一場比喻性的地震,將在 2023 年的頭幾週發生。很少有人為地震做準備。 許多人甚至不知道地震已經被列入日曆。 話雖如此,一旦地震發生,許多非常震驚和震驚的企業會想知道發生了什麼以及為什麼會發生這種混亂。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。 對於我對 AI 倫理、道德 AI 以及 AI 治理法律方面的 AI 法律的持續和廣泛報導,可以在以下網址找到 這裡的鏈接 這裡的鏈接, 僅舉幾例。

這個悲慘的法律故事與過去對當今人工智能的新興擔憂有關,尤其是機器學習 (ML) 和深度學習 (DL) 作為一種技術形式的使用以及它是如何被利用的。 你看,ML/DL 的一些用途往往涉及讓 AI 被廣大公眾擬人化,相信或選擇假設 ML/DL 是有感覺的 AI 或接近(它不是)。 此外,ML/DL 可能包含不合需要或完全不正確的計算模式匹配方面,或者從道德或法律角度來看是非法的。

首先澄清我在整體上提到 AI 時的意思,並簡要概述機器學習和深度學習可能會很有用。 關於人工智能的含義有很多困惑。 我還想向您介紹 AI 倫理學的規則,這對於本次演講的其餘部分尤其重要。

陳述關於人工智能的記錄

讓我們確保我們對於當今人工智能的本質達成共識。

今天沒有任何人工智能是有感知的。

我們沒有這個。

我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有知覺的人工智能,也無法預測有知覺的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常被稱為奇點,請參閱我的報導: 這裡的鏈接).

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習和深度學習,它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

部分問題是我們傾向於擬人化計算機,尤其是人工智能。 當計算機系統或人工智能似乎以我們與人類行為相關的方式行事時,幾乎有一種將人類品質歸因於系統的強烈衝動。 這是一個常見的心理陷阱,即使是最頑固的懷疑論者也能抓住獲得感知的機會。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。

人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括評估公司如何採用 AI Ethics。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。 例如,請參閱我的報導 這裡的鏈接.

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們腳踏實地,專注於當今的計算非感知人工智能。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

我相信我現在已經準備好充分討論人工智能在安靜戒菸的範圍內的作用。

用於就業決策的人工智能

紐約市法律側重於就業決策這一主題。

如果您最近嘗試在地球上幾乎任何地方申請現代工作,您可能在就業決策過程中遇到了基於 AI 的元素。 當然,你可能不知道它的存在,因為它可能隱藏在幕後,而且你沒有現成的方法來辨別是否涉及人工智能係統。

用於指代這些 AI 系統的一個常見標語是它們被認為是 自動就業決策工具,縮寫為AEDT。

讓我們看看紐約市法律如何定義這些需要就業決策的工具或應用程序:

  • “‘自動化就業決策工具’一詞是指源自機器學習、統計建模、數據分析或人工智能的任何計算過程,它發布簡化的輸出,包括分數、分類或推薦,用於實質性協助或取代自由裁量決定,以做出影響自然人的僱傭決定。 “自動化就業決策工具”一詞不包括不自動化、支持、實質性協助或替代自由裁量決策過程且不會對自然人產生重大影響的工具,包括但不限於垃圾郵件過濾器、防火牆、防病毒軟件、計算器、電子表格、數據庫、數據集或其他數​​據彙編”(NYC, Int 1894-2020, Subchapter 25, Section 20-870)。

我將簡要研究一下這個措辭,因為它對法律的整個性質和範圍至關重要。

首先,正如我在我的著作中多次指出的那樣,在編寫有關 AI 的法律時,最困難的障礙之一是試圖充分定義 AI 的含義。 沒有一個所有人都同意的、所有人都同意的合法的防彈標準。 存在各種定義方式。 有些有用,有些沒有。 請參閱我的分析 這裡的鏈接.

您可能會認為我們如何定義 AI 並不特別重要。 對不起,但你錯了。

問題在於,如果在給定的法律中對人工智能的定義模糊不清,它允許那些開發人工智能的人通過看似聲稱他們的軟件或系統沒有註入人工智能來試圖繞過法律。 他們會非常大膽地爭辯說該法律不適用於他們的軟件。 同樣,使用該軟件的人也可以聲稱法律與他們無關,因為他們使用的軟件或系統不屬於法律規定的 AI 定義。

人類就是這麼棘手。

避免被您不喜歡的法律所打擊的最精明的方法之一是斷言該法律不適用於您。 在這種情況下,您將尋求零碎地分解 AEDT 的定義。 假設您不希望法律對您不利,您的目標是合法地辯稱法律中給出的定義與您的與就業相關的計算機系統是什麼或做什麼是錯誤的。

通過在定義中故意包含排除性規定,既可以幫助這種法律,也可以有時削弱這種法律。

再看一下本法中對 AEDT 的定義。 您希望看到有一個排除條款說“……不包括不自動化、支持、實質性協助或替代自由裁量決策過程並且不會對自然人產生重大影響的工具……”。

一方面,包含此類排除的基礎無疑是有幫助的。

這似乎暗示(在我的外行看來)AEDT 必須提供特定目的並以實質性方式使用。 如果我們應該說 AEDT 是粗略的還是外圍的,並且如果僱傭決定仍然是人工做出的,那麼可能正在使用的軟件系統不應該被解釋為 AEDT。 此外,如果軟件或系統沒有對自然人(人類)產生“實質性”影響,那麼就好像不值得一味地站穩腳跟。

明智地,您不希望法律誇大其範圍併吞沒包括廚房水槽在內的所有東西。 這樣做對那些法律不打算涵蓋的人來說本質上是不公平和負擔的。 他們可能會陷入沼澤,就像那些萬能的漁網之一。 想必,我們的法律應該小心避免將無辜者拖入法律的範圍。

一切都很好。

精明的律師一定會意識到,排除條款可以是一種合法的越獄卡(順便說一句,該特定法律規定的是民事處罰,而不是刑事處罰,因此 出獄 評論只是比喻性的,是為了味道濃郁)。 如果有人爭辯說一家公司在就業處理中使用了 AEDT,那麼嘗試克服這種說法的首要方法之一就是辯稱所謂的 AEDT 實際上是在排他性領域。 你可能會試圖證明所謂的 AEDT 並不 自動化 就業決定,或者不 支持 就業決定,或者不 實質性協助 or 更換 自由裁量的決策過程。

然後,您可以沿著曲折的道路確定“自動化”、“支持”、“實質性協助”或“替換”這些詞在這種情況下的含義。 這是一個非常方便的合法兔子洞。 可以提出一個令人信服的案例,即被指控為 AEDT 的軟件或系統是排除性適應症的一部分。 因此,關於這個特定的法律,沒有傷害,沒有犯規。

顯然,此類事項應諮詢有執照的律師(此處未表明任何法律建議,這完全是外行的觀點)。

我的觀點是,這項新法律將有迴旋餘地。 迴旋餘地將允許一些真正使用 AEDT 的雇主找到一個漏洞來繞過 AEDT 的使用。 硬幣的另一面是,可能有些公司並沒有真正使用 AEDT,而這些公司會被這項法律所困。 可能會聲稱他們使用的任何東西確實是 AEDT,他們將需要找到一種方法來證明他們的軟件或系統不屬於 AEDT 並屬於排除條款。

我們可以做出這樣大膽的預測:

  • 毫無疑問,有些雇主故意使用 AEDT,可能會試圖逃避其法律責任。
  • 不可避免地會有不使用 AEDT 的雇主陷入聲稱他們正在使用 AEDT 的說法,迫使他們不得不做“額外”的努力來證明他們沒有使用 AEDT。

當我們在本次討論中深入討論時,我將進一步闡述這些眾多排列和組合。 我們還有更多的空間可以踏足。

使用 AEDT 本身並不是這個問題引起示範性擔憂的部分,而是 AEDT 如何執行其行動,從而引起法律上的憤怒。 關鍵是,如果 AEDT 也可能引入與就業決策相關的偏見,那麼你可能會陷入困境(嗯,有點)。

我們如何知道 AEDT 是否確實將人工智能偏見引入了就業決策工作?

根據該法律,答案是要進行人工智能審計。

我以前並且經常介紹人工智能審計的性質和它們是什麼,同時指出現有的缺點和不明確的方面,例如在 這裡的鏈接這裡的鏈接,以及許多其他類似的帖子。 簡單地說,這個概念是,就像您可能對公司進行財務審計或進行與計算機系統相關的技術審計一樣,您也可以對 AI 系統進行審計。 使用專門的審計技術、工具和方法,您可以檢查和評估 AI 系統的組成部分,包括例如嘗試確定它是否包含一種或另一種偏見。

這是一個新興的關注領域。

您可以期待這個專門用於 AI 審計的審計子領域將繼續增長。 很明顯,隨著我們將越來越多的人工智能係統投入市場,反過來,人工智能審計的呼聲也會越來越高。 新的法律將有助於激發這一點。 即使沒有這些法律,也會有大量的人工智能審計,因為人們和公司聲稱他們受到了人工智能的委屈,並將尋求提供有形的書面跡象,表明損害存在並與所使用的人工智能相關。

人工智能審計師將變得炙手可熱且需求量很大。

這可能是一項令人興奮的工作。 一個可能令人興奮的元素需要沉浸在最新和最偉大的人工智能中。 人工智能不斷進步。 發生這種情況時,精明的 AI 審計員將不得不保持警惕。 如果您是一名厭倦了日常常規審計的審計師,那麼令人大開眼界的全新人工智能審計領域提供了承諾(我說這是為了部分提升審計師的地位,因為他們通常是在戰壕中工作的默默無聞的英雄,並且他們的努力往往被忽視)。

順便說一句,我是一名經過認證的計算機系統審計員(其中一個是 CISA),並且多年來多次進行 IT(信息技術)審計,包括 AI 審計。 大多數時候,你沒有得到應得的認可。 你大概能猜到為什麼。 總的來說,審計人員傾向於發現錯誤或損壞的東西。 從這個意義上說,它們非常有幫助,儘管這可能被某些人視為壞消息,而且壞消息的使者通常不會被特別放在一個基座上。

回到手頭的事情。

關於紐約市法律,以下是該法律對人工智能審計和尋求發現人工智能偏見的規定:

  • “‘偏倚審計’一詞是指獨立審計師的公正評價。 此類偏見審計應包括但不限於測試自動化就業決策工具,以評估該工具對雇主根據標題第 1e-2000 節 (c) 小節要求報告的任何組成部分 8 類別的人員的不同影響聯邦法規第 42 篇第 1602.7 部分規定的美國法規第 29 條”(NYC,Int 1894-2020,第 25 小節,第 20-870 節)。

回顧一下,這裡是我們迄今為止解開這項法律的地方:

  • 該法律涵蓋自動就業決策工具 (AEDT)
  • 包括分類定義以識別 AEDT 是什麼
  • AEDT的定義還提到了排除條款
  • 要點是法律希望揭露 AEDT 中的 AI 偏見
  • 要確定是否存在 AI 偏差,需要進行 AI 審計
  • 人工智能審計可能會公佈任何人工智能偏見

接下來我們可以深入研究一下法律。

以下是僱傭決定的組成部分:

  • “‘就業決定’一詞是指篩選就業候選人或在城市內晉升的僱員”(NYC,Int 1894-2020,第 25 節,第 20-870 節)。

請注意,“城市”的邊界方面表明該問題僅涉及紐約市內與就業相關的情況。 此外,值得注意的是,定義的僱傭決定需要篩選候選人,這是我們認為的僱傭決定的通常含義,此外它還包括晉升。

這是雙重打擊,因為公司需要意識到他們需要了解他們的 AEDT(如果他們正在使用)如何用於初始就業環境以及在公司內部進行晉升時。 您可能會猜測或假設許多公司也不太清楚促銷元素也在這個標準中。 他們將不可避免地忽視這個額外的結構,後果自負。

接下來,我將提供該法律的額外關鍵摘錄,以闡明該法律被解釋為非法的本質:

  • “自動化就業決策工具的要求。 一個。 在本市,雇主或職業介紹所使用自動僱傭決策工具來篩選候選人或僱員以做出僱傭決策的行為是非法的,除非: 1. 該工具已進行不超過使用該工具前一年; 2. 在使用該工具之前,已在雇主或職業介紹所的網站上公開了該工具的最近一次偏見審計結果的摘要以及該審計適用的工具的分發日期。這樣的工具……”(紐約市,Int 1894-2020,第 25 小章,第 20-871 節)。 如果您對法律措辭非常感興趣,您可能需要查看其他子條款。

懷疑論者和批評者認為,這似乎有點不溫不火。

他們說,法律只是狹隘和最低限度地關注 開展 人工智能審計和 宣貫 結果,而不是關於人工智能審計是否發現了人工智能偏見,以及這對做出該法律範圍內的僱傭決策產生了什麼影響。 從本質上講,這顯然是非法的 任何監管機構都不批准 選擇進行這樣的 AI 審計(如適用,如前所述),此外,如果您確實進行了 AI 審計,但這樣做也是非法的 任何監管機構都不批准 宣傳它。

法律似乎對人工智能偏見是否被發現和存在的問題保持沉默。 同樣,對於人工智能偏見是否影響與重要就業決策活動相關的任何人保持沉默。 關鍵是看似簡單地“僅僅”進行人工智能審計並講述它。

這條法律還不夠嗎?

認為該法律所涵蓋的範圍或範圍似乎令人滿意的部分反駁是,如果人工智能審計確實發現人工智能偏見,並且如果這些人工智能偏見與特定的就業決策實例相關,那麼該人或受到如此傷害的人將能夠根據 other 法律。 因此,沒有必要將這方麵包括在這個特定的法律中。

據稱,該法律旨在揭露此類問題。

一旦這些不良做法被揭露,如果人工智能偏見存在並對人們產生影響,則可以尋求各種其他法律途徑。 如果沒有這項法律,爭論的焦點是那些使用 AEDT 的人可能會在這樣做的同時可能會發瘋,並且可能有大量的 AI 偏見,而那些尋求就業或升職的人不會知道正在發生這種情況。

讓他們浮出水面。 讓他們說出來。 進入引擎蓋下。 看看那個引擎裡面有什麼。 這就是本例中的咒語。 出於這種表面和說明,可以採取額外的行動。

除了因發現人工智能審計可能報告存在人工智能偏見而尋求法律行動外,人們還相信發布這些結果會帶來聲譽影響。 被展示為使用具有 AI 偏見的 AEDT 的雇主可能會遭受社會憤怒,例如通過社交媒體等。 他們將因自己的惡行而被曝光,並因改正自己的行為而感到羞恥,並且由於人工智能偏見阻止招聘或篡奪晉升的疑慮,他們還可能會發現自己失去了尋求在那里工作的人。

與非法相關的規定處罰如下:

  • “處罰。 一個。 任何人違反本分章的任何規定或根據本分章頒布的任何規則,對於第一次違反和在第一次違反的同一天發生的每一次額外違反,將被處以不超過 500 美元的民事罰款,並且不低於後續每次違規 500 美元不超過 1,500 美元”(NYC,Int 1894-2020,第 25 小節,第 20-872 節)。 如果您對法律措辭非常感興趣,您可能需要查看其他子條款。

懷疑論者和批評者認為處罰不夠嚴厲。 一家大公司應該會嘲笑或嘲笑所涉及的微不足道的美元罰款。 其他人指出,罰款最終可能會超出想像,如果一家公司每天有 365,000 美元的違規行為(只有一種情況,還有很多其他情況),一年的價值將在XNUMX 美元,假設該公司一整年無視法律並僥倖逃脫(似乎很難想像,但可能會發生,甚至可能發生更長時間或更高的每日罰款高峰,理論上)。

與此同時,一些人擔心小型企業和相關的罰款。 如果一家勉強維持生計的小企業被罰款,而且據說這樣做不是出於故意規避法律的動機,那麼罰款可能會對他們搖搖欲墜的業務產生重大影響。

Keystone 有問題的考慮因素

我有一個簡單直接的問題要問你。

在該法律的背景下,究竟什麼構成了人工智能審計?

有問題的是,法律的敘述中沒有明確的指示。 我們似乎被告知的是,“偏見審計”將通過“獨立審計師的公正評估”(根據法律的措辭)進行。

您可以駕駛 Mac 卡車穿過那個大洞。

這就是原因。

考慮這個相當令人不安的例子。 騙子聯繫了紐約市的一家公司,並解釋說他們提供的服務是對他們的 AEDT 進行所謂的“偏見審計”。 他們保證會“不偏不倚”地這樣做(無論這意味著什麼)。 他們自稱是一名獨立的審計師,而且他們已經把自己塗成了一個獨立的審計師。 不需要任何類型的會計或審計培訓、學位、證書或任何類似的東西。 也許他們會不厭其煩地打印一些名片,或者匆忙建立一個網站來宣傳他們的獨立審計師的地位。

他們將向公司收取 100 美元的適度費用。 他們的服務可能包括詢問一些關於 AEDT 的問題,然後宣布 AEDT 是無偏見的。 然後,他們發送一頁大小的報告,並宣布所謂審計的“結果”。 該公司盡職盡責地將其發佈到其網站上。

公司是否遵守了這項法律?

你告訴我。

好像他們有。

您可能會立即驚訝於審計是以粗略的方式完成的(在這種特殊情況下這是禮貌和慷慨的)。 您可能會感到不安,因為偏差檢測(或缺乏偏差檢測)可能基本上是預先確定的(瞧,您似乎沒有偏差)。 您可能會因為公佈的結果給人一種已經通過了由經驗豐富、訓練有素、經驗豐富且經過認證的真實審核員嚴格審核的光環而感到不安。

是的,這確實可以擴大規模。

雇主可能會因為他們完成了這個“愚蠢的”要求而鬆了一口氣,並且很高興只花了他們區區的 100 美元。 雇主可能會在內部悄悄地意識到獨立審計是一場騙局,但這似乎不是他們的決定。 他們被介紹了一位聲稱的獨立審計師,審計師做了審計師所說的合規工作,公司為此付費,他們得到了結果,然後他們公佈了結果。

一些雇主會這樣做,並意識到他們正在眨眼間遵守法律。 儘管如此,他們會相信自己完全合規。

其他雇主可能會被騙。 他們只知道需要遵守法律。 對他們來說幸運的是(或者他們認為),一位“獨立審計員”與他們聯繫並承諾只需 100 美元即可獲得投訴審計和結果。 為了避免每天收到 500 美元或更多的罰款,該公司認為他們收到了上天的禮物。 他們支付了 100 美元,進行了“審計”,他們獲得了一份關於他們缺乏人工智能偏見的免費健康單,他們發布了結果,然後他們忘記了這一點,直到下次他們需要進行另一次這樣的審計.

紐約市的每家受此法律約束的公司應該如何知道什麼是善意遵守法律?

如果您的胃還沒有翻騰,我們可以讓事情變得更糟。 我希望你在過去的幾個小時裡沒有吃過飯,因為下一個轉折很難保持完整。

你準備好了嗎?

事實證明,這個虛假的服務提供商比您想像的更加虛假。 他們讓公司註冊了 100 美元的服務,以作為獨立審計員進行公正的偏見審計。 瞧,他們進行了“審計”,發現 AEDT 的每個角落都存在偏見。

他們有像蟑螂一樣的人工智能偏見。

哎呀,公司說,我們能做些什麼呢?

沒問題,他們被告知,我們可以為您解決這些 AI 偏見。 每發現一個這樣的偏見,你只需花費 50 美元。 好的,公司說,請修復它們,謝謝你這樣做。 服務提供商做了一些編碼廢話,並告訴公司他們修復了 5,000 個 AI 偏差,因此將向他們收取 50 美元(即每個要修復的 AI 偏差 100 美元,乘以發現的 XNUMX 個)。

哎呀,公司感覺很緊張,但這仍然比每天面臨 500 美元或更多的違規要好,所以他們向“獨立審計師”付款,然後得到一份新報告,顯示他們現在沒有偏見。 他們自豪地在他們的網站上發布了這個。

他們幾乎不知道這是一個騙局,一個騙局,一個騙局。

您可能會堅持認為該服務提供商應該因其欺騙行為而受到懲罰。 捕捉和阻止這些騙子將比您想像的要困難得多。 就像在美國法律無法控制的外國土地上追逐那些為您帶來財富的外國王子一樣,在這種情況下也可能發生同樣的情況。

由於這項新法律,預計會出現一個家庭手工業。

將有善意的審計員尋求提供這些服務。 對他們有好處。 將有粗略的審計員來完成這項工作。 將會有虛假宣稱的審計員來完成這項工作。

我提到服務提供商的場景涉及要求 100 美元進行所謂的 AI 審計。 那隻是一個虛構的佔位符。 也許有些人會收取 10 美元(似乎很粗略)。 也許大約 50 美元(仍然粗略)。 等等。

假設服務提供商說完成這項工作將花費 10,000 美元。

或者 100,000 美元來做這件事。

這樣做可能需要 1,000,000 美元。

一些雇主不知道這可能或應該花費多少。 這些服務的營銷將是免費的。 對於那些合法提供這些服務的人來說,這是一部賺錢的法律,對於那些在這樣做的人來說也是一個賺錢的人。 很難知道哪個是哪個。

我還會請你考慮另一個大洞。

在該法律的背景下,究竟什麼構成了人工智能偏見?

除了提到美國聯邦法規(這並沒有特別回答人工智能偏見的問題,也不能作為解決這個問題的權宜之計),你很難斷言這個新的法律提供了任何關於人工智能偏見的實質性指示。 再一次,這將完全開放給廣泛不同的解釋,你不會特別知道尋找了什麼,找到了什麼等等。 此外,即使是真正的 AI 審計師所做的工作也幾乎可能無法與其他審計師相比,因此每個人都傾向於使用他們專有的定義和方法。

簡而言之,我們可以懷著恐懼和擔憂的心情觀察雇主會因為這個措辭鬆散但用意良好的法律而遇到的問題:

  • 一些雇主會了解法律,並在力所能及的範圍內認真、充分地遵守
  • 一些雇主會了解法律,並勉強遵守他們能找到的或他們家門口的最簡單、最便宜和可能令人討厭的道路
  • 一些雇主會了解法律並認為他們不在法律範圍內,因此不會對此採取任何措施(儘管事實證明,他們可能在範圍內)
  • 一些雇主會知道法律並斷然決定忽略它,也許認為沒有人會注意到,或者法律不會被執行,或者法律會被認為無法執行,等等。
  • 一些雇主不了解法律,會措手不及,爭先恐後地遵守
  • 一些雇主不知道法律,會被騙子們騙得慘不忍睹
  • 一些雇主不知道法律,他們不在範圍內,但無論如何他們仍然會被騙子騙走,說服他們在範圍內
  • 一些雇主不了解法律,也不會對此採取任何行動,而奇蹟般地從未因他們的疏忽而被抓到或被責罵
  • 其他

要記住的一個重要考慮因素是與這項新法律相關的幅度或規模。

根據有關紐約市企業數量的各種報告統計數據,該數量通常表示為大約 200,000 家左右的企業(我們將其用作一個數量級)。 假設這是一個合理的近似值,那麼作為雇主的那些企業可能會受到這項新法律的約束。 因此,採用上述幾種雇主將對這項法律作出反應的方式,並考慮我剛才提到的各個桶中有多少。

這是一個相當驚人的擴展問題。

此外,根據報告的統計數據,紐約市可能有 4 萬個私營部門工作崗位,加上紐約市政府僱用的大約 300,000 名政府工作人員的估計數量(同樣,使用這些數量級而不是精確數量)。 如果您考慮到新員工似乎都在這項新法律的範圍內,以及與所有現有和未來員工相關的晉升,那麼坦率地說,將以某種方式受到該法律影響的員工數量令人震驚.

大蘋果公司有一項新法律,乍一看似乎是無害的,表面上可以忽略不計或平凡,但當你意識到所涉及的比例因素時,它會讓你頭暈目眩

結論

我在討論開始時提到,這是一個用心良苦的新法律。

我剛才所描述的潛在漏洞、遺漏、差距、問題等等,都可以很容易地預料到。 這不是航天科技。 我可能會補充說,由於本文的篇幅限制,我沒有提到該法律的更多固有問題和令人困惑的方面。

你可以像在桶裡打魚一樣容易地找到它們。

應仔細制定此類法律,以嘗試防止此類偷偷摸摸的結束。 我認為認真的作曲家試圖寫出他們認為相對鐵定的法律,在最壞的情況下,可能會在這里或那裡有一些微小的滴水。 遺憾的是,它是滴水的消防軟管。 將需要大量的膠帶。

是否可以以更清晰的方式編寫法律來關閉這些相當明顯的漏洞和相關問題?

是的,非常多。

現在,既然如此,你可能會憤憤不平地告誡說,這樣的法律無疑會長得多。 總有一個權衡,讓法律持續不斷,變得笨拙,與簡潔和緊湊。 您不希望在失去實質性和有價值的清晰性和特異性的情況下獲得簡潔性。 允許惡作劇的簡短法律充滿了麻煩。 更長的法律,即使看起來更複雜,如果它在採用階段避免、避免或至少最小化下游問題,通常也是值得權衡的。

聖奧古斯丁有句名言:“在我看來,不公正的法律根本就不是法律。”

我們可以提供一個推論,即由有問題的語言組成的正義法律是一條乞求產生嚴峻問題的法律。 在這種情況下,我們似乎只剩下偉大的法學家小奧利弗·溫德爾·霍姆斯(Oliver Wendell Holmes Jr.)的話,即一頁歷史值得一磅邏輯。

敬請關注,因為歷史即將創造。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai-偏見-審計-進入齒輪/