人工智能倫理和人工智能法權衡實施最近發布的人工智能權利法案的關鍵方法,包括徹底使用人工智能

毫無疑問,我們在日常生活中需要藍圖。

如果您要建造您夢想已久的夢想之家,首先制定一個可用的藍圖是明智的。

藍圖以有形和記錄的方式展示了您可能鎖定的任何睜大眼睛的遠見卓識。 那些將被要求建造您珍愛的家園的人將能夠參考藍圖並確定如何完成工作的細節。 藍圖很方便。 對於處理任何類型的複雜雜務或項目,缺乏藍圖必然會成為問題。

讓我們將這種有點感傷但真誠的對藍圖的致敬轉移到人工智能 (AI) 領域。

那些實質上對人工智能感興趣的人可能會模糊地意識到一個重要的政策導向 藍圖 最近在美國發布,顯然與人工智能的未來有關。 非正式地稱為 人工智能權利法案,宣布的白皮書的正式標題是“人工智能權利法案藍圖:讓自動化系統為美國人民服務”,並且可以在線獲取。

該文件是科學和技術政策辦公室 (OSTP) 長達一年的努力和認真研究的結果。 OSTP 是一個聯邦實體,成立於 1970 年代中期,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

人工智能權利法案描述了 人權 就人工智能在我們日常生活中的出現而言,人類應該擁有這一點。 我強調這一點很重要,因為起初有些人感到困惑,這可能是對人工智能具有法人資格的某種承認,這是對有知覺的人工智能和類人機器人的一連串權利。 不,我們還沒有。 正如您稍後會看到的那樣,儘管橫幅標題似乎告訴我們並非如此,但我們離感知 AI 還很遠。

好的,那麼我們是否需要一個藍圖來闡明人工智能時代的人權?

是的,我們肯定會這樣做。

你幾乎需要被鎖在山洞裡,無法訪問互聯網,才能不知道人工智能已經並且越來越多地侵犯我們的權利。 最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

有關我對 AI 法律、AI 倫理和其他關鍵 AI 技術和社會趨勢的持續和廣泛的報導和分析,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

解開 AI 權利法案

我之前討論過 AI 權利法案,將在這裡快速回顧一下。

順便說一句,如果您想了解我對最近發布的 AI 權利法案的深入利弊,我在 律師,見 這裡的鏈接。 “ 律師 是一個著名的法律新聞和評論在線網站,以屢獲殊榮的法律新聞服務而廣為人知,由全球法律學生記者、編輯、評論員、通訊員和內容開發團隊提供支持,總部位於匹茲堡大學匹茲堡的法律,始於 25 年前。 向優秀而勤奮的團隊致敬 律師.

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

請注意,我沒有將它們從 XNUMX 編號為 XNUMX,因為這樣做可能意味著它們處於特定的順序中,或者其中一項權利似乎比另一項更重要。 我們將假設它們是各自的優點。 他們在某種意義上都同樣值得稱道。

作為每個組成部分的簡要說明,以下是官方白皮書的摘錄:

  • 安全有效的系統: “應該保護您免受不安全或無效系統的侵害。 自動化系統的開發應與來自不同社區、利益相關者和領域專家的協商,以識別系統的關注點、風險和潛在影響。”
  • 算法歧視保護:“你不應該面臨算法和系統的歧視,應該以公平的方式使用和設計。 當自動化系統基於種族、膚色、民族、性別(包括懷孕、分娩和相關的醫療狀況、性別認同、雙性人身份和性取向)、宗教、年齡而導致不合理的不同待遇或影響不利於人們時,就會發生算法歧視、國籍、殘疾、退伍軍人身份、遺傳信息或任何其他受法律保護的分類。”
  • 資料私隱: “您應該通過內置保護措施免受濫用數據做法的影響,並且您應該對如何使用有關您的數據擁有代理權。 您應該通過確保默認包含此類保護的設計選擇來保護您免受侵犯隱私的侵害,包括確保數據收集符合合理預期,並且只收集特定上下文所必需的數據。”
  • 通知及說明: “您應該知道正在使用自動化系統,並了解它如何以及為什麼會產生影響您的結果。 自動化系統的設計人員、開發人員和部署人員應提供一般可訪問的簡明語言文檔,包括對整個系統功能和自動化所扮演角色的清晰描述,注意此類系統正在使用中,負責系統的個人或組織,以及對以下方面的解釋明確、及時和可訪問的結果。”
  • 人類選擇、考慮和後備:“您應該能夠在適當的情況下選擇退出,並且可以聯繫能夠快速考慮和解決您遇到的問題的人。 在適當的情況下,您應該能夠選擇退出自動化系統,轉而使用人工替代方案。”

總的來說,這些是在人工智能倫理和人工智能法的背景下已經流傳了很長一段時間的人類權利的各個方面,請參閱我的報導,例如 這裡的鏈接. 白皮書似乎並沒有神奇地把兔子從帽子里拉出來,因為這是迄今為止在人工智能時代背景下尚未闡明的一些新發現或發掘的權利。

沒關係。

您可以斷言將它們編譯成一個整齊打包和形式化的集合提供了一項重要的服務。 另外,通過被任命為廣受讚譽的 人工智能權利法案,這進一步將整個問題公開而巧妙地置於公共領域的意識中。 它將現有過多的不同討論合併成一個單一的集合,現在可以在各種利益相關者之間大肆宣傳和傳達。

請允許我提供這份對已宣布的 AI 權利法案的有利反應列表:

  • 提供基石原則的基本彙編
  • 作為藍圖或基礎
  • 充當發聲的行動號召
  • 激發興趣並表明這些是認真的考慮因素
  • 匯集了眾多不同的討論
  • 激發並促進道德 AI 採用工作
  • 無疑將有助於人工智能法律的建立
  • 其他

我們還需要考慮不太有利的反應,考慮到還有很多工作需要完成,而這只是在艱難的人工智能治理道路上漫長旅程的開始。

因此,對 AI 權利法案提出的有些嚴厲或應該說建設性的批評包括:

  • 不具有法律效力且完全不具約束力
  • 僅供諮詢,不考慮政府政策
  • 與其他已發表的作品相比不太全面
  • 主要由寬泛的概念組成,缺乏實現細節
  • 將其轉化為切實可行的實用法律將具有挑戰性
  • 似乎對在某些情況下可能禁止人工智能的迫在眉睫的問題保持沉默
  • 勉強承認使用精心設計的人工智能的優勢
  • 其他

也許最突出的尖酸評論集中在這樣一個事實,即這項 AI 權利法案在法律上不具有強制執行力,因此在建立明確的球門柱時站不住腳。 有人說,雖然白皮書很有幫助,也很鼓舞人心,但它顯然缺乏說服力。 他們質疑一套據說是空心的漂亮戒律會帶來什麼。

我稍後會談到這些尖刻的言論。

同時,白皮書大量闡述了這項人工智能權利法案的局限性:

  • “人工智能權利法案的藍圖不具約束力,也不構成美國政府的政策。 它不會取代、修改或指導對任何現有法規、法規、政策或國際文書的解釋。 它不構成對公共或聯邦機構具有約束力的指導,因此不需要遵守此處描述的原則。 這也不能決定美國政府在任何國際談判中的立場。 採用這些原則可能不符合現有法規、法規、政策或國際文書的要求,或執行它們的聯邦機構的要求。 這些原則無意也不禁止或限制政府機構的任何合法活動,包括執法、國家安全或情報活動”(根據白皮書)。

對於那些迅速削弱 AI 權利法案不具有法律約束力的人,讓我們對這一令人痛心的指控進行一些思想實驗。 假設白皮書發布並具有法律的全部效力。 我敢說,結果將是災難性的,至少在法律和社會對公告的反應程度上是這樣。

立法者會因為在製定此類法律時沒有採取規範程序和法律程序而感到憤怒。 企業會被激怒,這是理所當然的,因為在沒有足夠的通知和了解這些法律是什麼的情況下出現了新的法律。 各種各樣的驚愕和憤怒將接踵而至。

在人工智能時代,這不是一個加強人類權利的好方法。

回想一下,我早些時候通過提出藍圖的價值和活力來開始這個討論。

想像一下,有人跳過了製作藍圖的步驟,立即開始建造你夢想中的房子。 你覺得房子會是什麼樣子? 看來這所房子不會特別符合您的想法,這似乎是一個公平的賭注。 由此產生的宅基地可能一團糟。

要點是我們確實需要藍圖,我們現在有一個藍圖,以便繼續制定明智的 AI 法律並賦予合乎道德的 AI 採用權。

因此,我想談談如何將這個 AI 權利法案藍圖變成一座房子。 我們將如何利用藍圖? 合適的後續步驟是什麼? 這份藍圖是否足夠,還是需要更多的骨頭上的肉?

在我們開始討論這些重大問題之前,我想首先確保我們都對人工智能的本質以及今天的現狀有什麼看法。

直接記錄當今的人工智能

我想發表一個非常強調的聲明。

你準備好了嗎?

今天沒有任何人工智能是有感知的。

我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

現在我已經奠定了有用的基礎,我們準備進一步深入研究 AI 權利法案。

實施 AI 權利法案的四種基本方法

有人遞給你一張藍圖,告訴你開始工作。

你做什麼?

以 AI 權利法案為藍圖,請考慮以下四個向前邁進的基本步驟:

  • 作為製定 AI 法律的輸入: 使用該藍圖來幫助制定人工智能法律,希望在聯邦、州和地方各級保持一致(也許也有助於國際人工智能法律工作)。
  • 幫助更廣泛地採用人工智能倫理: 使用該藍圖來製定 AI 道德規範(有時稱為“軟法律”,而不是具有法律約束力的“硬法律”),以此激勵和引導企業、個人、政府實體和其他支持者實現更好、更一致的道德人工智能成果。
  • 塑造人工智能發展活動: 使用藍圖來推動人工智能開發方法和培訓方面的創建,這樣做是為了讓人工智能開發人員以及那些從事或使用人工智能的人更加認識到如何按照理想的人工智能道德準則和預期設計人工智能即將頒布的人工智能法律。
  • 激發人工智能的出現以協助控制人工智能: 使用該藍圖來設計 AI,該 AI 將用於嘗試和製衡其他可能進入不利領域的 AI。 這是宏觀觀點之一,我們可以利用我們發現表面上令人擔憂的事物來(具有諷刺意味的是,有人可能會說)幫助保護我們。

在我的專欄文章中,我已經討論了上述四個步驟中的每一個。

對於本文的討論,我想重點關注列出的第四步,即人工智能權利法案可以作為人工智能出現的動力,以幫助控制人工智能。 對於許多尚未完全進入這個人工智能推進領域的人來說,這是一個有點令人震驚或令人驚訝的步驟。

請允許我詳細說明。

一個簡單的類比應該可以解決問題。 如今,我們都習慣了網絡安全漏洞和黑客入侵。 幾乎每天我們都會聽到或受到我們計算機中一些最新漏洞的影響,這些漏洞將使邪惡的作惡者竊取我們的數​​據或在我們的筆記本電腦上放置一個卑鄙的勒索軟件。

與這些卑鄙企圖作鬥爭的一種方法是使用專門的軟件來阻止這些入侵。 幾乎可以肯定,您在家或工作的計算機上安裝了防病毒軟件包。 您的智能手機上可能有類似的東西,無論您是否意識到它在那裡。

我的觀點是,有時您需要以火攻毒(請參閱我對此的報導,例如 這裡的鏈接這裡的鏈接).

在人工智能進入禁區的情況下 壞的人工智能,我們可以尋求使用 永遠的人工智能 與惡意抗衡的 壞的人工智能. 這當然不是靈丹妙藥。 如您所知,在試圖闖入我們計算機的作惡者與網絡安全保護方面取得的進步之間,一直存在著貓捉老鼠的遊戲。 這是一場幾乎沒完沒了的遊戲。

我們可以使用 AI 來嘗試處理走上禁忌道路的 AI。 這樣做會有所幫助。 它不會特別是靈丹妙藥,因為幾乎可以肯定會設計出針對不利的 AI 來避免任何此類保護。 這將是 AI 與 AI 的持續貓鼠遊戲。

無論如何,我們用來保護自己的 AI 將提供一定程度的保護,防止不良 AI。 因此,我們無疑需要設計可以保護或保護我們的人工智能。 我們還應該尋求製作保護性 AI,以便在不良 AI 調整時進行調整。 將會出現閃電般的貓捉老鼠的兇猛外表。

並不是每個人都喜歡人工智能角色的這種擴大。

那些已經將 AI 視為同質的無定形集團的人,會在這種假裝的 AI 與 AI 的博弈中起雞皮疙瘩和噩夢。 如果我們試圖以火對抗火,也許我們只是在製造更大的火。 人工智能將變成一場巨大的篝火,我們不再控制它,它將選擇奴役人類或將我們從地球上抹去。 當談到將 AI 視為一種生存風險時,我們通常被引導相信所有 AI 都會聯合起來,請參閱我對這些問題的討論 這裡的鏈接. 你看,我們被告知,每一個AI都會抓住它的兄弟AI,成為一個大霸王單一家族。

這就是感知人工智能作為無縫的一體式和一體式黑手黨的可怕且絕對令人不安的場景。

儘管你可以自由地做出這樣的推測,即這可能有一天會發生,但我向你保證,就目前而言,我們今天擁有的 AI 由大量不連貫的不同 AI 程序組成,這些程序沒有特定的方式相互勾結。

話雖如此,我相信那些狂熱地相信人工智能陰謀論的人會堅持認為我故意這樣說是為了隱瞞真相。 啊哈! 也許今天的 AI 已經在計劃大規模的 AI 收購,這讓我得到了回報(是的,陛下,一旦 AI 霸主統治,我將沐浴在財富中)。 或者,我當然不贊成另一個角度,也許我一味地不知道人工智能是如何在我們背後暗中謀劃的。 我想我們將不得不等待,看看我是否是 AI 政變的一部分,還是 AI 的可憐蟲(哎呀,這很痛)。

回到世俗的考慮,讓我們簡要探討一下如何利用當代人工智能來幫助實施人工智能權利法案。 我將方便和概括地把它稱為 好人工智能.

我們將使用 AI 權利法案中體現的五個基石:

  • 用於推廣的好 AI 安全有效的系統: 每當您受制於或使用 AI 系統時,Good AI 都會嘗試確定所使用的 AI 是否不安全或無效。 檢測到此類後,Good AI 可能會提醒您或採取其他措施,包括阻止 Bad AI。
  • 提供良好的人工智能 算法歧視保護: 在使用可能包含歧視性算法的 AI 系統時, 好人工智能 試圖確定對您的保護是否不足,並試圖確定正在使用的人工智能中是否確實存在不當偏見。 好的 AI 可以通知您,也可能會按照 AI 法律和法律要求的規定自動向各個機構報告其他 AI。
  • 用於保存的好 AI 數據隱私: 這種類型的 Good AI 試圖保護您免受數據隱私侵犯。 當另一個 AI 試圖向您請求可能並不真正需要的數據時,Good AI 會讓您意識到越界行為。 Good AI 還可以潛在地掩蓋您的數據,這種方式在被提供給其他 AI 後仍會保留您的數據隱私權。 等等。
  • 建立良好的人工智能 通知及說明: 我們都可能會遇到嚴重缺乏提供適當和適當通知的 AI 系統,並且遺憾地未能對其行為進行充分解釋。 好的 AI 可以嘗試解釋或詢問其他 AI,這樣做可能會識別應該提供的通知和解釋。 即使在特定情況下這不可行,Good AI 至少會提醒您其他 AI 的故障,並可能根據規定的 AI 法律和法律要求向指定當局報告該 AI。
  • 提供良好的人工智能 人類選擇、考慮和後備: 假設您使用的是人工智能係統,而人工智能似乎無法勝任手頭的任務。 您可能沒有意識到事情正在惡化,或者您可能有些警惕並且不確定如何處理這種情況。 在這種情況下,優秀的 AI 會默默地檢查其他 AI 正在做什麼,並可以警告您對該 AI 的重大擔憂。 然後,系統會提示您請求 AI 的人工替代方案(或者 Good AI 可以代表您這樣做)。

為了進一步了解這種 好人工智能 可以開發和部署,請參閱我流行且評價很高的 AI 書籍(很榮幸地說它已被稱為“前十名”)關於我通常所說的 AI 守護天使,請參閱 這裡的鏈接.

結論

我知道你在想什麼。 如果我們有設計用來保護我們的好 AI,假設好 AI 被破壞成為壞 AI。 著名或臭名昭著的拉丁流行語似乎與這種可能性完全相關: Quis custodiet ipsos custodes?

這句話歸功於羅馬詩人尤維納爾,可以在他的作品中找到,題為 諷刺,並且可以粗略地翻譯為誰將守衛或看守自己的意思。 許多電影和電視節目,例如 星際迷航 反複利用這條線。

那肯定是因為這是一個很好的觀點。

果然,任何制定的人工智能法律都需要包含壞人工智能,甚至是壞人工智能。 這就是為什麼編寫明智而全面的人工智能法律至關重要的原因。 只是試圖將隨機的法律術語扔在牆上並希望它遵守人工智能法律的立法者會發現自己深深地錯過了目標。

我們不需要那個。

我們既沒有時間也無法承擔社會費用來應對設計不充分的人工智能法律。 我曾指出,令人遺憾的是,我們有時會看到新的人工智能相關法律,這些法律結構很差,並且充斥著各種法律弊端,例如,請參閱我對紐約市 (NYC) 人工智能偏見審計法的探索性分析,網址為 這裡的鏈接.

讓我們確保我們適當地使用我們現在掌握的關於 AI 的 AI 權利法案藍圖。 如果我們忽視藍圖,我們就失去了加強我們的遊戲。 如果我們錯誤地執行了藍圖,我們會為篡奪一個有用的基礎而感到羞恥。

受人尊敬的羅馬詩人 Juvenal 說了其他一些我們可以在這種情況下利用的東西: 體薩諾中的阿尼瑪薩那。

一般來說,這轉化為一種斷言,即同時擁有健全或健康的頭腦和健全或健康的身體是明智的。 根據 Juvenal 的說法,這使我們能夠忍受任何形式的辛勞,並且肯定是通往和平或美德生活的唯一道路。

是時候讓我們使用健全的思想和健全的身體來確保我們正在確保人類在無處不在且有時令人不快的人工智能的新興世界中保護和鞏固我們的人權。 這是羅馬人提出的合理建議,在當今人工智能混亂的時代和充滿好壞人工智能的未來,我們應該遵守這一建議。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai-完全使用人工智能的權利法案,包括和驚人地/