AI 倫理和 AI 法律將法律推理植入 AI 可以巧妙地實現人類價值的一致性

在今天的專欄中,我將把無數看似完全不同的 AI 相關主題編織在一起,編織得很好。

你準備好了嗎?

想像一下,您正在使用 AI 驅動的應用程序來幫助您執行某種重要任務。 也許這件事是財務上的,或者可能與健康有關。 本質是你依賴人工智能做正確的事情並以假定的安全和可靠的方式執行。

假設人工智能轉向不道德的領域。

你可能沒有意識到人工智能正在這樣做。

例如,AI 可能依賴於潛在的隱藏歧視因素,例如種族或性別,儘管您可能沒有任何可行的方法來辨別不良用法。 在那裡,你獨自一人,通過人工智能獲得了短板,這個人工智能要么是從一開始就以有問題的方式設計的,要么已經設法轉向冒險和邊緣道德危害(我會說更多關於稍後)。

對於選擇走不道德道路的 AI,您能做些什麼或能做些什麼?

除了嘗試預先構建 AI 以使其不會執行這種陰險的操作外,我之前也詳細說明了人們對嵌入 AI 的興趣越來越大。 人工智能道德檢查 成為狂野西部蓬勃發展的泥沼的一部分,任何東西都被扔進市場的人工智能係統。 我們的想法是,為了嘗試防止注入 AI 的應用程序超出道德範圍,我們可以使用額外的 AI 來進行製衡。 這個添加的 AI 可能在目標 AI 應用程序之外,或者可能是嵌入或直接植入我們想要進行雙重檢查的 AI 中的組件。

正如我之前所說,請參閱 這裡的鏈接:“最近出現的趨勢包括嘗試在 AI 中建立道德護欄,當 AI 系統的其餘部分開始超越預設的道德界限時,這種護欄將會趕上。 從某種意義上說,目標是利用人工智能本身來防止自己在道德上出現偏差。 你可以說我們的目標是讓 AI 自我修復”(Lance Eliot,“製作道德 AI 來監控不道德的 AI 並試圖阻止壞 AI 的行為”, 福布斯,28 年 2022 月 XNUMX 日)。

您可能還會對我的書感興趣 AI守護機器人,有時被稱為守護天使,涵蓋了這種最先進的 AI 內嵌 AI 嵌入式雙重檢查器的技術基礎,請參閱 這裡的鏈接.

最重要的是,你的培根可能會幸運地通過使用嵌入式人工智能雙重檢查道德衡量元素來保存,該元素已經設計並植入你正在使用的人工智能應用程序中。 但這是否足以真正確保 AI 不會讓您完全僵硬並冒險進入甚至更有害的領域?

你看,人工智能應用程序表面上可以執行 非法 行為。

讓人工智能進入我們認為道德或不道德行為的灰色地帶是一回事。 同樣令人不安的行為和可能惡化的擔憂需要 AI 跳入鯊魚,並陷入完全非法行為的劣質黑暗中。

非法人工智能是壞事。 允許非法人工智能無人看管是不好的。 一些法律學者公開擔心人工智能的出現和普及將逐漸地、可怕地削弱我們的外表 法律規則,請參閱我的分析 這裡的鏈接.

等一下,你可能會說。

你可能會想 AI 開發者會 決不 對他們的 AI 進行編程使其違法。 難以想像。 只有邪惡的惡棍才會這樣做(順便說一句,請記住,有些人故意設計和使用 AI 用於邪惡目的,犯罪分子和其他希望將 AI 用於邪惡活動的人越來越感興趣)。

抱歉,假設所有非邪惡的 AI 開發人員都將嚴格確保他們的 AI 完全守法是一廂情願的想法。 可能是人工智能自我調整併誤入非法活動。 當然,也有可能 AI 開發人員希望 AI 進行非法行為,或者他們在製作 AI 時並沒有意識到什麼是非法行為,什麼是合法行為(是的,這很有可能,即低頭的全技術 AI 團隊可能不知道他們的 AI 的法律惡作劇,這是不可原諒的,但發生的頻率驚人)。

關於這個還能做什麼?

再一次,除了試圖確保 AI 的安全和合法之外,另一種獲得動力的方法涉及嵌入或植入一個 AI 組件,該組件對 AI 應用程序的其餘部分進行合法的雙重檢查。 這個增加的 AI 靜靜地坐著並且經常無人問津,它正在觀察 AI 的其餘部分,以試圖辨別 AI 是否會變得無賴或至少跨過法律或監管施加的限制的限制。

我們現在有兩種可能嵌入到 AI 應用程序中的 AI 雙重檢查:

  • 人工智能道德雙重檢查器: 該組件或 AI 插件實時評估 AI 的其餘部分是否存在 AI 表現出的道德和不道德行為
  • AI 法律雙重檢查器: 該組件或 AI 插件實時評估 AI 的其餘部分,以確保保持在合法基石範圍內,並通過 AI 捕獲新出現的非法活動

澄清一下,這些是相對較新的概念,因此您今天使用的人工智能可能處於以下任何一種現狀:

  • 完全不包含雙重檢查器的 AI
  • 包含 AI 道德雙重檢查器但沒有其他雙重檢查器的 AI
  • 包含 AI Legal 雙重檢查器但沒有其他雙重檢查器的 AI
  • 同時具有 AI 道德雙重檢查器和 AI 法律雙重檢查器的 AI
  • 其他

讓 AI 道德雙重檢查員和 AI 法律雙重檢查員作為親兄弟姐妹在 AI 應用程序中並肩工作有一些明顯棘手的方面。 這是一種二元論,可能比你想像的更難協調(我想我們都知道兄弟姐妹可以有最緊密的聯繫,儘管他們有時也可以像狄更斯一樣戰鬥並強烈反對意見)。

我已經詳細討論了這種艱鉅的 二元論:“一種被忽視的二元論正在為社會公益而存在的人工智能中出現,涉及在先進的人工智能係統中缺乏包含人工道德代理和人工法律推理的作用。 AI 研究人員和 AI 開發人員的努力往往集中在如何製作和嵌入人工道德主體以在 AI 系統在該領域運行時指導道德決策,而沒有關注和耦合人工法律推理能力的使用,這對於穩健的道德和法律結果同樣必要”(Lance Eliot,“AI 中被忽視的人工道德代理和人工法律推理的二元論造福於社會,”哈佛大學 CRCS 2020 年年會, 哈佛研究與計算中心)

如果您想了解為什麼 AI 道德雙重檢查員和 AI 法律雙重檢查員之間可能存在緊張關係,您可能會發現這句令人費解的概念價值的名言:“法律可能允許某些特定行為,即使該行為是不道德的; 法律可能會禁止某種行為,即使這種行為在道德上是允許的,甚至是道德上需要的”(Shelly Kagan, 道德的界限,1998)。

讓我們稍微轉移一下我們的注意力,看看這些雙重檢查器如何與另一個高度審查的 AI 主題相吻合,即 負責任的AI 或協調一致地考慮人類價值觀和人工智能的一致性。

一般的觀念是,我們希望 AI 遵守適當和可取的人類價值觀。 有些人將此稱為 負責任的AI. 其他人也有類似的討論 負責任的人工智能, 值得信賴的人工智能人工智能對齊,所有這些都觸及相同的基石原則。 有關我對這些重要問題的討論,請參閱 這裡的鏈接 這裡的鏈接,僅舉幾例。

我們如何才能讓人工智能與人類價值觀保持一致?

如前所述,我們希望 AI 開發人員能夠認識到開發 AI 以實現 Responsible AI 的遵守。 遺憾的是,根據前面闡明的原因,它們可能不會。 此外,他們可能會嘗試這樣做,但儘管如此,人工智能最終還是會自我調整,超出道德行為的顯著領域,或者可能進入非法水域。

好吧,然後我們需要考慮我們得心應手的花花公子雙重檢查器作為支撐這些風險和風險的一種手段。 使用精心設計的 AI 道德雙重檢查器可以極大地幫助使 AI 與人類價值觀保持一致。 同樣,使用精心設計的 AI 法律雙重檢查器可以極大地幫助使 AI 與人類價值觀保持一致。

因此,尋求實現負責任的 AI、可信賴的 AI、負責任的 AI、AI 對齊等的關鍵且尚未廣為人知的方法將涉及使用 AI 雙重檢查器,例如 AI 道德雙重檢查器和AI Legal double-checker 會不知疲倦地工作,作為對其嵌入的 AI 的雙重檢查。

在此討論中,我想進一步詳細介紹可能嵌入 AI 中的 AI 法律雙重檢查器的性質和構造。 為此,與您分享關於整個主題的一些額外背景可能會有所幫助 人工智能與法律.

有關 AI 和法律如何相互混合的嚴肅檢查,請參閱我的討論 這裡的鏈接. 在我挑剔的目光中 人工智能與法律 耦合,我提供了將 AI 和法律相互關聯的兩種主要方式的簡單概念:

  • (1) 適用於人工智能的法律: 適用於我們社會中人工智能的監管或治理的法律的製定、頒布和執行
  • (2) 人工智能應用於法律: 人工智能技術被設計並應用到法律中,包括基於人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技應用程序中,以自主或半自主地執行律師任務

第一個列出的觀點包括考慮現有的和新的法律將如何管理人工智能。 第二個列出的觀點與將人工智能應用於法律有關。

後一類通常涉及在律師使用的各種在線工具中使用基於 AI 的法律推理 (AILR)。 例如,AI 可能是合同生命週期管理 (CLM) 包的一部分,該包通過識別對起草新合同有用的合同語言來幫助律師,或者可能檢測到合同中的法律含糊不清的語言可能會導致事故或法律漏洞(關於我對 AI 可以識別的所謂“法律氣味”的看法,請參閱 這裡的鏈接).

我們將不可避免地將 AI 應用於可供公眾使用且不需要律師參與的法律。 目前,由於包括 UPL(未經授權的法律實踐)在內的各種限制,提供基於 AI 的法律諮詢應用程序是一個棘手且有爭議的問題,請參閱我在 這裡的鏈接.

我提出了關於 AI 和法律的介紹,以指出將 AI 應用於法律的另一種工具性用途是創建 AI Legal double-checkers。

是的,將 AI 應用於法律所涉及的同類技術實力能夠通過使用 AI 作為嵌入式或植入的 AI 法律雙重檢查器來充當雙重職責。 AI Legal double-checker 是一個必須精通法律方面的組件。 當 AI 應用程序的其餘部分執行各種操作時,AI Legal 雙重檢查器正在衡量 AI 應用程序是否合法並在合法限制範圍內這樣做。

AI Legal 雙重檢查器組件不一定需要涵蓋有關法律的全部知識。 根據 AI 應用程序的性質以及 AI 的整體目的和行為,AI Legal 雙重檢查器在其包含的法律專業知識方面的範圍可能要窄得多。

我已經確定了一個有用的框架,用於展示法律領域中的 AI 如何跨越一系列自主能力,稱為自主水平 (LoA)。 有關概述,請參閱我的 福布斯 21 年 2022 月 XNUMX 日的專欄文章,“為什麼律師需要了解人工智能和法律的嚴肅而全面的令人信服的案例”在 這裡的鏈接,有關詳細的技術描述,請參閱我在 麻省理工學院計算法雜誌 7 年 2021 月 XNUMX 日,見 這裡的鏈接.

該框架闡明了在法律工作中使用的五個級別的人工智能:

  • 0 級:基於 AI 的法律工作沒有自動化
  • 級別 1:基於 AI 的法律工作的簡單輔助自動化
  • 級別 2:基於 AI 的法律工作的高級輔助自動化
  • 級別 3:基於 AI 的法律工作的半自主自動化
  • 第 4 級:基於 AI 的法律工作的領域自治
  • 第 5 級:基於 AI 的法律工作完全自主

我將在這裡簡要描述它們。

級別 0 被認為是非自動化級別。 法律推理和法律任務通過人工方法進行,主要通過紙質方法進行。

級別 1 包括用於 AI 法律推理的簡單輔助自動化。 此類別的示例包括使用基於計算機的日常文字處理、使用基於計算機的日常電子表格、訪問以電子方式存儲和檢索的在線法律文件等等。

第 2 級包括用於 AI 法律推理的高級輔助自動化。 此類別的示例包括使用查詢式基本自然語言處理 (NLP)、機器學習 (ML) 的簡單元素、用於法律案件預測的統計分析工具等。

第 3 級包括用於 AI 法律推理的半自主自動化。 此類別的示例包括使用先進的基於知識的系統 (KBS) 進行法律推理、使用機器學習和深度學習 (ML/DL) 進行法律推理、高級 NLP 等。

第 4 級由用於人工智能法律推理的域自治計算機系統組成。 此級別重用了操作設計域 (ODD) 的概念概念,該概念用於自動駕駛汽車,但也適用於法律領域。 法律領域可以按功能領域分類,例如家庭法、房地產法、破產法、環境法、稅法等。

第 5 級由完全自主的基於計算機的人工智能法律推理系統組成。 從某種意義上說,就涵蓋所有可能的法律領域而言,第 5 級是第 4 級的超集。 請意識到這是一項艱鉅的任務。

在討論自動駕駛汽車和自動駕駛車輛時,您可以將這些自治級別與類似用途相提並論(也基於官方 SAE 標準,請參閱我的報導 這裡的鏈接). 我們還沒有 SAE 5 級自動駕駛汽車。 我們正在逐步進入 SAE 4 級自動駕駛汽車。 大多數傳統汽車都處於 SAE 2 級,而一些較新的汽車正在進入 SAE 3 級。

在法律領域,我們還沒有 5 級 AILR。 我們正在觸及一些 4 級,儘管 ODD 非常狹窄。 3 級開始出現,而今天 AILR 的支柱主要在 2 級。

最近一篇關於人工智能應用於法律的研究文章提出了一種被稱為 法律通知代碼。 研究人員指出:“該研究的主要目標之一 法律通知代碼 議程是教 AI 遵循法律精神”(John J. Nay,“Law Informs Code:A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, 西北技術與知識產權雜誌,第 20 卷,即將出版)。 有一些基本的考慮因素 法律通知代碼 咒語出現了,我將帶您了解其中的幾個關鍵戒律。

在深入探討該主題之前,我想首先奠定一些關於 AI 的基本基礎,尤其是 AI 倫理和 AI 法律,這樣做是為了確保討論在上下文中是合理的。

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

既然我已經為這些相關的 AI 倫理和 AI 法律主題打下了有用的基礎,我們就可以進入令人興奮的 AI 法律雙重檢查器和領域 法律通知代碼.

AI 法律雙重檢查器嵌入 AI 以實現人類價值對齊

我有時會提到 人工智能法律雙重檢查器 通過 AI-LDC 的縮寫。 對於那些不熟悉首字母縮略詞的人來說,這在視覺上有點刺耳。 因此,我不會在本次討論中使用這個特定的首字母縮略詞,但想提醒大家注意一下。

為了解開 AI Legal 雙重檢查器的一些複雜性,讓我們解決以下要點:

  • 使用 AI Legal double-checkers 作為 AI 人類價值觀對齊機制
  • 更廣泛的 AI 將相應地需要更強大的 AI Legal double-checkers
  • AI Legal double-checkers 制定法律,特別是不制定法律(大概)
  • AI Legal 將法律體現為規則與標準之間的微妙平衡
  • 在人工智能遵守法律方面需要布丁證明

由於篇幅所限,我現在只介紹這五點,但請留意我的專欄中的進一步報導,包括關於這些快速發展和向前發展的問題的其他同樣值得注意的考慮因素。

現在,係好安全帶,準備好開始一段充滿活力的旅程。

  • 使用 AI Legal double-checkers 作為 AI 人類價值觀對齊機制

有許多方法可以嘗試實現人工智能與人類價值觀之間的和諧統一。

如前所述,我們可以製定和頒布 AI 道德規範,並努力讓 AI 開發人員以及那些部署和操作 AI 的人員遵守這些基石。 不幸的是,僅此一項並不能解決問題。 你有一些設計者不可避免地不會得到消息。 你有一些發明者會炫耀道德人工智能並試圖規避有些鬆散的規定原則。 等等。

使用涉及 AI 倫理的“軟法”方法幾乎必須與“硬法”途徑結合使用,例如通過法律和法規,這將向所有創造或使用 AI 的人發出強烈信號。 如果你沒有明智地利用人工智能,法律的長臂可能會來找你。 監獄門的叮噹聲會引起強烈的注意。

不過,一個大問題是,有時穀倉門已經讓馬出去走動了。 投入使用的 AI 可能會產生各種非法行為,並且會繼續這樣做,直到不僅被抓獲,而且還會在某些執法部門最終採取行動阻止非法行為的發生時發生。 所有這些都需要時間。 與此同時,人類正以一種或另一種方式受到傷害。

AI Legal double-checker 進入了這次嘗試。

通過駐留在 AI 應用程序中,AI 法律雙重檢查員能夠立即檢測到 AI 似乎在違反法律。 AI 法律雙重檢查員可能會阻止 AI 在其軌道上。 或者該組件可能會提醒人們注意已識別的非法活動,及時這樣做可能會促使監督者採取緊急糾正措施。 該組件還可以創建經過深思熟慮的正式日誌記錄,提供一種有形的審計跟踪表象,用於編纂 AI 的不利行為。

據說我們的法律是一種多主體聯合體形式,因此法律不可避免地是社會試圖在對適當和不適當的社會行為的可能相互衝突的觀點之間尋求平衡的混合物。 因此,基於我們法律的 AI Legal 雙重檢查器體現了這種混合。

值得注意的是,這不僅僅是編制一份明確的法律規則清單。 法律往往更具可塑性,並力求制定總體標準,而不是規定最細微的微觀規則。 複雜性很多。

回到之前提到的研究論文,以下是關於 AI 對齊追求的這些考慮因素:“法律,多代理對齊的應用哲學,獨特地滿足了這些標準。 對齊是一個問題,因為我們不能 事前 指定完全且可證明地指導良好 AI 行為的規則。 同樣,法律合同的當事人不能預見他們關係中的每一個偶然事件,立法者也不能預測他們的法律將適用的具體情況。 這就是為什麼很多法律都是標準的集合”(同上)。

將法律融入 AI 法律雙重檢查器比您最初想像的要困難得多。

隨著人工智能的進步,我們將需要相應地利用這些進步。 事實證明,對鵝有好處的東西對公鵝也有好處。 我們這些在適用於法律的 AI 方面取得進展的人正在推動 AI 的發展,並且無疑會取得新的進展,最終可以共同推動 AI 的進步。

  • 更廣泛的 AI 將相應地需要更強大的 AI Legal double-checkers

一個貓捉老鼠的策略面對這個話題。

很有可能隨著人工智能的進一步發展,任何人工智能法律雙重檢查組件都會發現越來越難處理的問題。 例如,正在接受審查的 AI 應用程序可能新設計了超級偷偷摸摸的方法來隱藏 AI 正在採取的非法行動。 即使 AI 沒有走陰險的路線,AI 的整體複雜性本身也可能成為尋求 AI Legal 雙重檢查評估的艱鉅障礙。

這就是這變得特別重要的原因。

假設 AI 開發人員或某些使用 AI 的公司宣稱有一個 AI Legal 雙重檢查器已嵌入到基於 AI 的應用程序中。 瞧,他們現在似乎已經不再擔心任何進一步的問題了。 AI Legal 雙重檢查員將處理一切。

不是這樣。

對於所涉及的 AI 應用程序的性質,AI Legal 雙重檢查器可能是不夠的。 AI Legal 雙重檢查器也有可能過時,可能沒有更新與 AI 應用程序相關的最新法律。 可以預見的原因有很多,為什麼僅僅存在 AI 法律雙重檢查員不會成為靈丹妙藥。

考慮一下前面引用的研究的這些見解:“隨著 AI 的最新技術進步,我們可以反復設置更高的法律理解能力標準。 如果開發人員聲稱他們的系統在任務上具有先進的能力,他們應該展示人工智能相應的高級法律理解和法律、推理能力,在考慮跨時間、先例和管轄範圍的法律法規泥潭時,這些能力幾乎沒有難度上限”(同上)。

  • AI Legal double-checkers 制定法律,特別是不制定法律(大概)

我敢肯定,你們中的一些人對擁有這些 AI Legal 雙重檢查員的想法感到震驚。

一個經常表達的擔憂是,我們顯然將允許人工智能為我們決定我們的法律。 天哪,你可能在想,某種自動化將取代人類。 那些該死的嵌入式 AI 法律雙重檢查員將成為我們法律的默認國王。 無論他們做什麼,都將是法律所認為的那樣。

人類將被人工智能統治。

而這些 AI Legal 雙重檢查器是讓我們到達那裡的滑坡。

一種反駁認為,這種談話是陰謀論的內容。 您正在瘋狂地假設並讓自己陷入困境。 現實情況是,這些 AI 法律雙重檢查員沒有知覺,他們不會接管地球,大肆宣傳他們存在的風險顯然是荒謬的,而且被誇大了。

總而言之,保持冷靜和理性的姿態,我們確實需要注意 AI Legal 雙重檢查器的作用是適當地反映法律,而不是有意為之,也不是偶然地進一步以某種方式默認進入受人尊敬的製作領域法律。 撇開感知外推不談,我們當然可以同意,人工智能法律雙重檢查器可能最終會歪曲特定法律的真實性質,這是一個真正且緊迫的擔憂。

反過來,您可以聲稱,因此,特定的“歪曲”​​法律實際上是在重新制定,因為它不再恰當地表示實際法律的意圖。 我相信你能坦率地看到這是一個微妙但有說服力的考慮。 在任何時候,AI 法律雙重檢查員都可以在虛擬的基礎上通過制定或我們應該說“幻覺”新法律,簡單地通過 AI 組件如何解釋 AI 中最初規定或體現的法律(對於我的報導所謂的AI 幻覺,見 這裡的鏈接).

必須嚴格注意這一點。

在這個話題上,上述研究在尋求避免越過那條神聖的界線方面提出了這種平行的想法:“我們的目標不是讓人工智能具有製定法律、樹立法律先例或執行法律的合法性。 事實上,這會破壞我們的方法(我們應該投入大量精力來防止這種情況發生)。 相反,Law Informing Code 最雄心勃勃的目標是對現有法律概念和標準的普遍性進行計算編碼並將其嵌入到經過驗證的 AI 性能中”(同上)。

  • AI Legal 將法律體現為規則與標準之間的微妙平衡

法律是混亂的。

對於幾乎任何一本書上的法律,在實際實踐中可能對法律規定的內容有多種解釋。 用 AI 領域的說法,我們將法律稱為語義模糊的。 這就是使開發適用於法律的人工智能如此令人興奮但同時又令人煩惱的挑戰的原因。 與您可能會在面向金融的 AI 應用程序中看到的精確數字運算不同,將我們的法律體現到 AI 中的願望需要處理語義歧義的海嘯。

在我基金會關於 AI 法律推理基礎知識 (AILR) 的書中,我討論了之前僅僅將法律編纂成一組有界規則的嘗試如何沒有讓我們達到我們想要進入法律領域的程度(見 這裡的鏈接). 今天的 AILR 必須包含規則的使用與法律所代表的所謂總體標準之間的整合。

這種重要的平衡可以用這種方式來表達:“在實踐中,大多數法律規定介於純規則和純標準之間,法律理論可以幫助估計“規則性”和“標準性”的正確組合在指定 AI 系統的目標時”(同上)。

  • 在人工智能遵守法律方面需要布丁證明

想要某樣東西與擁有某樣東西是不同的。

當提出雖然我們可能希望擁有 AI Legal 雙重檢查器,但我們非常需要確保它們正常工作並且正常工作時,這種智慧就出現了。 請注意,這提出了另一個艱難而艱苦的障礙。 我之前介紹過 AI 驗證和確認方面的最新進展和挑戰,請參閱 這裡的鏈接.

正如研究論文中指出的那樣:“為了解決這一差距,在人工智能模型以越來越多的代理能力部署之前,例如主要道路上的全自動駕駛汽車,部署方應展示系統對人類目標、政策和法律標準的理解。 驗證程序可以說明人工智能對法律概念“含義”的“理解”(同上)。

結論

我敦促您考慮加入我這個建立和部署 AI 法律雙重檢查器的崇高任務。 我們需要更多的關注和資源投入到這種美好的追求中。

如前所述,這也提供了雙重職責,以實現 AI 法律推理 (AILR),可用於協助律師並可能直接由公眾使用。 事實上,一些人強烈爭辯說,實現更充分的訴諸司法意識 (A2J) 的唯一可行方法是通過打造具有法律能力並可供所有人使用的 AI。

現在有一個快速的最後一點。

到目前為止的討論都強調人工智能法律雙重檢查器將嵌入或植入人工智能。 這確實是那些研究和從事這一新興領域的人的主要關注點。

這是一個值得深思的問題。

戴上你的思維帽。

為什麼不在所有軟件中使用 AI Legal 雙重檢查器?

要點是,與其在 AI 中專門使用 AI Legal double-checkers,不如拓寬我們的視野。 各種軟件都可能合法地誤入歧途。 由於 AI 通常的使用方式,例如做出影響人類日常生活的令人痛心的決定,AI 無疑獲得了最大的關注。 你可以很容易地認為有很多非人工智能係統也這樣做。

從本質上講,我們不應該讓任何軟件搭便車來逃避或規避法律。

還記得之前我提到過人工智能和法律相結合的兩個範疇。 我們在此重點關注人工智能在法律中的應用。 硬幣的另一面是法律對人工智能的應用。 假設我們制定了要求使用 AI Legal 雙重檢查器的法律。

這可能最初僅限於人工智能係統,尤其是那些被評為特別高風險的系統。 逐漸地,相同的 AI Legal 雙重檢查器要求也可以擴展到非 AI 軟件。 同樣,沒有免費乘車。

當你對上述考慮不以為然時,我會把事情作為結束預告片來調味。 如果我們要嘗試要求 AI 法律雙重檢查員,我們不妨也對 AI 道德雙重檢查員做同樣的事情。 使用 AI 法律雙重檢查器只是故事的一半,我們也不能忽視或忘記 AI 道德問題。

我將用我最喜歡的名言之一來結束這個活潑的演講。 用曾任美國首席大法官的著名法學家厄爾·沃倫 (Earl Warren) 的名言來說:“在文明生活中,法律漂浮在道德的海洋中。”

如果我們想讓我們的頭腦遠離可能威脅到我們安全的不良 AI 和陰暗的非 AI 系統,那麼最好將那些嶄露頭角和冒泡的 AI 法律雙重檢查器和 AI 道德雙重檢查器投入狂熱的使用中.

它們可能是人類的救生衣。

來源:https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics-和艾法律/