為什麼律師需要了解人工智能和法律的嚴肅綜合令人信服的案例

手套已經扔了。

你看,我是一個重要的法律行業會議的受邀主題演講者,我的主題完全是在我的駕駛室裡,即人工智能 (AI) 和法律(通常被稱為 人工智能與法律).

與其完全被宣傳,或許更恰當的措辭是說這個話題受到了一些人的興奮和另一些人的徹底懷疑。 數百名律師事務所合夥人和同事齊聚一堂,低聲嘀咕著,微妙地質疑人工智能和法律是否特別需要他們了解。 人工智能通常被認為是一個天上掉餡餅的話題。 最重要的是,當人工智能與法律相結合時,它同樣甚至更遠超出了日常辛勤工作的辛勤工作的律師們所思考的範圍。

我熱切地冒險進入這個有點雙臂交叉的展示我的坩堝。

我很高興地說,我的發言得到了很好的接受,並且反應非常積極,包括這是他們中的許多人第一次聽到一個嚴肅的、令人信服的、全面的案例,說明為什麼律師應該了解人工智能和法律。 討論讓那些具有法律意識的一流裝備開始了,與會者有很多值得思考的地方。

讓我們看看對於那些可能感興趣或至少對 人工智能與法律 話題。

在這裡,我們走了。

首先,要知道的一個重要方面是 人工智能與法律 由兩個相互交織的概念組成。

簡單地說,它們是:

  • (1) 適用於人工智能的法律: 適用於我們社會中人工智能的監管或治理的法律的製定、頒布和執行
  • (2) 人工智能應用於法律: 人工智能技術被設計並應用到法律中,包括基於人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技應用程序中,以自主或半自主地執行律師任務

我想明確指出,這些都是人工智能和法律結合的真正且迅速擴展的方式。

許多律師只熟悉這兩種觀點中的一種,或者常常不熟悉這兩種觀點中的任何一種。

根據您的律師偏好,專注於兩者中的一個而不特別關注另一個是完全可以的。 總的來說,似乎不太傾向於對技術感興趣的律師必然會密切關注適用於人工智能的法律,在這種情況下,你不一定需要接觸技術本身。 那些似乎喜歡將高科技注入法律領域的律師更傾向於將人工智能領域應用於法律領域。

歡迎您擁抱這兩個方面,並昂首挺胸地這樣做。

法律適用於 AI 的注意事項

我將首先在這裡對適用於 AI 的法律進行一些深入的解讀。

當提到適用於 AI 的法律時,您應該立即考慮正在出現的一系列新法律,旨在管理 AI 系統的出現。 法律如野火般湧現。 國際法即將出台 人工智能與法律、聯邦法律、州法律和大量地方法律,請參閱我的持續報導 這裡的鏈接這裡的鏈接,僅舉幾例。

為什麼我們會突然目睹與人工智能相關的法律迅速出現?

這很容易回答。

就在幾年前,人工智能的最新時代被稱讚為提供 永遠的人工智能. 這意味著人工智能被認為是為了社會的利益而提供的。 那並沒有持續很長時間。 例如,人們開始發現基於 AI 的面部識別技術很容易產生錯誤的指示並以看似歧視性的方式執行(請參閱我在 這裡的鏈接)。 用於招聘目的的人工智能也是如此。 擔憂開始增加。

壞的人工智能 已經到了(嗯,它一直都在那裡,但現在很明顯)。

我們該如何應對 壞的人工智能?

快速反應是確定 軟法 由 AI 道德準則組成。

這些關於人工智能設計和人工智能部署的道德人工智能指南在某種程度上是權宜之計,而更多的努力則在努力製定 硬法. 我不想留下這樣的印象,即一旦存在大量的書面法律,人工智能倫理和道德人工智能將不再需要。 一點也不。 我們將持續且始終需要人工智能倫理作為正式法律的必要補充伴侶。 AI Ethics 現在發生的一切都必須保持原樣,並成為最終的粘合劑,以使 AI 朝著正確的方向前進。

以下是我之前在專欄文章中密切探討過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接. 我還深入研究了許多國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

將我們的討論轉移到硬法律的舞台上,正在發生很多事情。

在美國, 算法問責法 正在通過國會一次一寸地徘徊,而歐盟及其提議的 人工智能法 (友邦保險)正以看似更加尖銳的速度前進。 您可能還感興趣的是所謂的 人工智能權利法案 最近由現有的美國白宮政府公佈,旨在定義人工智能時代的人權,請參閱我的分析 這裡的鏈接 (請注意,該聲明不具約束力且缺乏法律效力)。

一位普通的律師可能會聳聳肩,說所有這些與人工智能倫理相關的能量以及關於人工智能的逐漸落地的法律都是無趣的。 整個事情當然有點有趣,但對他們現有的努力沒有顯著影響。

讓我們來談談這個。

假設您的客戶是一家大型企業,並且您正在向該客戶提供外部法律服務。 事實證明,該客戶一直在採用多種人工智能係統來提高他們的業務效率和效率。 對他們有好處,你可能會想,儘管這與你無關。

真的嗎?

客戶採用了這些人工智能應用程序,但在使用了一段時間後,發現自己捲入了客戶的訴訟,這些客戶聲稱人工智能以歧視性或不當偏見的方式行事。 此外,讓我們繼續設想,地方、州和聯邦層面的幾項針對人工智能的法律已經頒布。 客戶不僅面臨民事訴訟,而且現在還因採用和部署人工智能而犯下的潛在犯罪行為而受到追捕。

當這一切發生時,你在哪裡?

顯然,一點也不關心人工智能以及人工智能和法律是否即將到來。

你太無恥了。 更糟糕的是,您可能會立即被客戶拋棄。 更糟糕的是,您可能會因為在公司跳入人工智能泥潭時沒有及時、明智地合法地為公司提供建議而面臨法律瀆職的指控。

你在合法的輪子上睡著了。

精通人工智能的律師很快指出,美國律師協會 (ABA) 已經就人工智能使用和法律實踐的主題提供了官方建議。 根據 2019 年 3 月通過的 ABA 決議(是的,你沒看錯,這發生在 XNUMX 年前),這是關於 AI 的交易:

  • “已解決,美國律師協會敦促法院和律師解決與在法律實踐中使用人工智能 (“AI”) 相關的新出現的道德和法律問題,包括 (1) 自動化決策的偏見、可解釋性和透明度由人工智能製造; (2) 人工智能的道德和有益使用; (3) 對人工智能和提供人工智能的供應商的控制和監督。”

從這個意義上說,可以提出一個有點說服力的論點,即律師有責任了解人工智能並確保他們為客戶提供相應的法律建議(有關我對此的詳細分析,請參閱 這裡的鏈接).

如果您仔細閱讀上述聲明,那麼它無疑是空洞的,因此您可以依賴它只是“敦促”您解決 AI 問題而不是強迫您這樣做的措辭。 這可能讓人鬆了一口氣。

但這可能是短暫的喘息。

首先,可以說你被 ABA 通知了人工智能在法律中的重要性。

其次,如果您完全忽略了該指導,那麼一位聰明的瀆職律師可能會代表您的脾氣暴躁且財力雄厚的客戶追捕您,這可能會對您不利。

第三,儘管您顯然會試圖反駁說,所主張的規則在其措辭寬鬆的情況下是不具有約束力的,但法院可能不會這樣認為,陪審團也可能不會特別同情您試圖扼殺的話. 他們可能會解釋決議的精神,並權衡宣言的準確措辭。

轉動輪子,看看它是怎麼回事。

另請注意,儘管該場景涉及您作為外部法律顧問的法律服務,但請記住,首席法律官 (CLO)、總法律顧問 (GC) 或其他公司法律顧問等內部法律顧問也與此密不可分。 對於那些提供內部法律顧問的人來說,讓人工智能在公司內部被大肆設計或採用會捲土重來並困擾著你。 這是一個有保證的不祥預兆的結果。

對這種人工智能考慮治理的最常見反應是,它肯定必須 任何監管機構都不批准 申請你,因為你不為科技公司做法律工作(假設是這樣)。 當然,如果你沉浸在一家科技公司,所有這些都可能是相關的。 但您是非科技公司的法律顧問或在其中擔任法律顧問。 該公司不生產人工智能。 他們不是面向技術人員的。

返回並仔細重新閱讀場景的內容。

鑑於對人工智能的關注最初涉及高科技公司,這些公司 運籌帷幄 人工智能,更大的圖景是幾乎每家任何規模或形狀的公司都在逐步增加 採用 人工智能係統。 他們是人工智能的用戶。 反過來,他們的產品和服務也依賴於人工智能。

我猜你會嘗試爭辯說,由於這些公司只採用人工智能,所以當人工智能出現問題時,它們會神奇地擺脫困境。 你需要做的就是告訴任何敲門的人,他們應該沿著街道走到設計人工智能的公司。

很好的嘗試,但毫無疑問是行不通的。

使用人工智能的公司很有可能會捲入任何法律糾紛,特別是如果他們是一家大公司而人工智能製造商是一家小公司。 把你的腳放在試圖起訴的律師的立場上。 大公司有大筆錢。 抓住小公司,追趕大公司。 當然,關於許可和其他方面的各種爭論都會發生。 儘管如此,大公司是多汁的目標,沒有一個稱職的律師會放棄追求它。

火上澆油的是,大公司有可能選擇進行定製或讓人工智能“訓練”以利用大公司的數據。 哎呀,您不再與 AI 製造商公司相距甚遠。 你引入了人工智能,基本上把它變成了你自己的。 你是無辜的表面上的保護已經一去不復返了。 你的公司故意修改或定制了人工智能,人工智能現在是你大公司的一部分。

忍受它,擁有它。

還有更多可以讓您的頭進一步旋轉。

像飛機在主要機場的飛行模式中一樣不斷增加的新法律將嵌入各種混亂的法律問題。 立法者正在通過立法管道干擾這些法律混亂的噩夢。 每個人都想成為第一個展示他們正在壓制的人 壞的人工智能. 榮耀在等待,同時幫助那些受到惡意 AI 傷害的人。

但問題在於這種香腸製作。 法律語言通常設計得不好。 漏洞是存在的。 錯誤的措辭盛行。 等等。

您可以將其解釋為合法的泥潭或合法的頭獎,這取決於您在尋求解釋這些法律時可能站在哪一邊。 例如,請參閱我對紐約市 (NYC) 關於人工智能偏見審計的模糊且令人不安的法律的分析,該法律計劃於今年 XNUMX 月生效,這將成為紐約成千上萬家企業(無論大小)的一個巨大問題市,見 這裡的鏈接.

因此,我們看到大量專注於人工智能的法律。

那不是全部。 我們將有看似專注於人工智能的法律,此外,人工智能也將在看似與人工智能相切的法律中被深刻或謙虛地提及。 如果你認為你不必擔心 人工智能與法律 因為它是一個非常狹窄的法律領域,我建議你重新調整這種短視的想法。

另一個轉折是,我們將製定新的法律,其中包含一些關於人工智能的合法胡言亂語,這幾乎肯定會與未提及人工智能的現有法律相衝突。 簡而言之,您可能對某些現有法律完全滿意,對它瞭如指掌。 接下來發生的事情是一些晦澀的新法律出現並提到了人工智能。 事實證明,新法律與您熟記的心愛的非 AI 法律相交。

您準備好應對包含人工智能的新法律與未提及人工智能的現有法律有何不同嗎?

想像一下這個場景。

年復一年,您最喜歡的客戶之一對您的法律服務感到滿意。 您完全且沒有任何資格地認真了解與該客戶有關的法律。 你可以蒙著眼睛背誦法律。

一項新法律獲得通過,其中包括與人工智能相關的各個部分。 您沒有關注這項新法律,因為法律的主題或重點似乎與您認為與客戶相關的法律沒有直接關係。

一位仔細研究過這項新法律的聰明律師意識到,人工智能元素為您打開了通往法律領域的大門。 突然之間,令您震驚和驚訝的是,另一位律師設法找到了一個客戶,該客戶認為他們在法律上受到了您的客戶的傷害。 連接這些點的通道就是這條新法律,它可以延伸到您通常沉寂的法律領域。

你從來沒有看到它的到來。

如果你認為你的法律專業在某種程度上不受人工智能法律爭論的入侵,那麼在做出這種傲慢和最終錯誤的假設時要小心。 說出一個法律專業,我可以很容易地指出人工智能是如何進入那個城鎮的。 刑法? 當然。 家規? 是的。 稅收法? 明顯地。 海商法? 是的。 名單還在繼續。

抱歉,如果這看起來令人生畏並且有點不知所措。

毫無疑問,很少有律師知道這一點。

地震即將來臨,但很少有人為此做準備。 有些人不知道地震開始隆隆作響。 其他人認為這不會影響他們。 當地震來襲時,人工智能法律導向的確認才會點亮一些燈泡。

好吧,到目前為止,我一直在錘擊 硬法 方面。 我相信軟法方面正在嫉妒。 這就是我的意思。

想像一下。 您一直在為其提供法律服務的客戶選擇接受 AI 道德規範。 讓我們暫時假設沒有任何硬性法律強制採用這種道德人工智能。 客戶想做“正確的事”,因此決定向世界展示他們完全支持 AI 道德規範。

真好。

你可能不知道他們決定將 AI 道德融入他們的公司文化。 或者,您可能知道它,但認為它不是您感興趣的東西。 這只是一種軟法方法。 誰在乎它? 不是你。

幾個月下來,公司倒閉了。 他們只是口頭上支持那些道德人工智能原則。 這主要是一個宣傳噱頭。 與此同時,他們帶入公司的人工智能充滿了各種違反道德人工智能的行為。

這不好。

一位希望合法地處理您的客戶的聰明律師可能會感謝他們的幸運星,因為 AI Ethics 所擁抱的事情發生了。 如果您的客戶從未說過任何有關道德 AI 的事情,那麼他們可能會玩弄不知道自己不知道的事情的機會。 相反,他們對了解人工智能倫理大驚小怪。 在某種程度上,他們對自己使用人工智能所做的事情承擔了更高級別的責任。

你有沒有在一開始就引起他們的注意,你有沒有幫助他們合法地考慮人工智能倫理的性質以及他們作為一家公司將如何利用它們?

該死,不在你的管轄範圍內。

我可以繼續說下去,但我相信主題是響亮而清晰的。

處於警覺狀態的律師事務所開始意識到提供圍繞人工智能的法律服務所帶來的財富。 他們開始在他們的律師事務所內建立新的實踐, 人工智能與法律 作為專業。

那些在 人工智能與法律 專業能夠就他們的人工智能採用向現有和潛在客戶提供建議。 此外,具有人工智能意識的合作夥伴和同事試圖在公司的所有其他法律領域或專業領域進行協作和提供信息,以確保這些其他領域不會被新的人工智能法律(包括相關法律)所蒙蔽。

內部法律顧問也在慢慢增加精通法律的人才 人工智能與法律 (主要是在意識到自己充斥著人工智能的公司中)或指派渴望獲得訓練有素的律師,這些律師成為人工智能法律主題的便捷內部資源。 他們可能仍會使用外部法律資源來處理更大規模的 AI 相關事務,儘管通過擁有內部人才,他們擁有值得信賴的法律團隊內部成員,可以作為公司之間的重要聯繫以及外部法律顧問可能更深入的人工智能精通法律能力。

我不想暗示這是一夜之間發生的,就好像一根魔杖被揮動了一樣。

律師事務所是著名的,或者我們應該說是因為改變緩慢而臭名昭著。

此外,直到市場要求 人工智能與法律 人才方面,大部分律所都會採取觀望態度。 如果市場出現,瞧,他們可能會採取全面的方法並獲得所需的任何新人才。 這是交易和交易法律服務的經典即時 (JIT) 策略。

規模較小的律師事務所或單獨執業的律師事務所必然會發現自己陷入困境。 一方面,如果有錢可賺 人工智能與法律 域,這似乎很有吸引力。 如果市場還沒有充分滲透,他們幾乎承擔不起冒險的代價。 你必須賺到足夠的錢才能讓事情繼續下去。 保持你所知道的任何現有法律領域的搖錢樹,並在市場對喧囂的要求開放時做好準備 人工智能與法律 法律服務。

它是某種 Catch-22。

律師事務所和律師不會將精力和注意力花費在 人工智能與法律 除非他們的客戶和市場對它的需求旺盛。 問題是,大多數客戶不太可能意識到他們需要 人工智能與法律 相關法律服務。 他們在 AI 肉汁列車和 AI 潮流中疾馳而過,完全不知道前方的法律坑洼和陡峭的懸崖。

也許是先有雞還是先有蛋。

那些陷入各種法律困境的客戶理所當然地因為沒有得到關於他們使用人工智能的法律建議而感到厭煩,然後相應地憤怒地與他們的法律服務提供商對抗。 或者我們是否應該讓精明的律師站在即將到來的海嘯面前,並嘗試讓他們的客戶參與肯定很難進行的討論,因為許多客戶會對人工智能法律的警鐘充耳不聞?

這就提出了一個值得考慮的相關概念。

請注意,一些權威人士堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們進一步警告說,如果我們真的製定了這些人工智能法律,我們將扼殺人工智能的進步,因為它可以帶來巨大的社會優勢。 有時,這種觀點或觀點被表示為被創造為 人工智能例外論 (這意味著我們應該允許在法律上限制人工智能方面有很大的自由度,因為人工智能提供了這樣的 異常 對社會的重要利益)。

你肯定會聽到你今天的許多客戶說同樣的話。

如果你盲目地與你的客戶進行激烈的討論,並試圖解釋他們採用人工智能的法律後果,這通常會被認為是法律方面再次阻止了好事。 哎呀,你會很快被告知,請停止所有那些狂野而睜大眼睛的法律噩夢般的場景。

我們會接受人工智能,他們會堅持的。 這將降低我們的成本,我們可以減少員工人數,我們最終可以擴大規模,為越來越多的消費者或客戶提供我們的產品和服務。 其他人也在做同樣的事情。 如果他們這樣做,我們也必須這樣做。 如果您的法律謹慎的話有任何意義,那麼我們的那些競爭對手就不會採用人工智能,因為它是自切片麵包以來最好的東西。

去過也做過。

確保盡可能以有利於業務的條款表達您的 AI 法律警告。 我發現指出高度宣傳的 AI 失誤很有用,這些失誤已經通過失去商業聲譽和/或通過代價高昂的訴訟來懲罰公司。 我想你也可以試試我們小時候都學過的那句老話,就是因為別人盲目地跳崖,那他們也應該這樣做嗎?

您將希望通過強調採用人工智能的正確方法和錯誤方法來構建人工智能討論。 如果你給人留下的印像是,你正在把 kibosh 完全放在使用 AI 上,那麼,這將是一個破壞政黨的斷言。 它似乎沒有為利用人工智能留下空間。 這不是你會發現成功傳達的信息。

更好的方法是闡明法律需要如何成為人工智能採用生命週期不可或缺的一部分。 對於 AI 開發、定製或採用的每個階段,法律都應該參與進來。所有這些都不是遲到的事後要求法律在最後進行最終簽字的事情。 為時已晚。 這匹馬已經快要離開穀倉了。

接下來想到的是眾所周知的胡蘿蔔加大棒。

您可以說胡蘿蔔是適用於人工智能的法律將成為律師的一大筆錢(促使許多寶貴的計費時間),而大棒是律師不注意可能會發現自己陷入困境客戶在法律上被與人工智能相關的法律風險和責任壓得喘不過氣來(可能導致律師聲譽價值的損失,並可能面臨瀆職或類似的判例弊病)。

如果可以的話,我想明智地在這堆胡蘿蔔中添加另一個胡蘿蔔。

一些律師的動機是未解決的法律挑戰的新穎性。

這些類型的律師旨在探索新的法律領域。 他們希望在法律領域留下印記,而不僅僅是將相同的法律細節從一個法律場所推到另一個法律場所。 對他們來說,儘管計費時間無疑是至關重要的,但他們卻以最真誠的方式充分地渴望利用他們來之不易的寶貴法律意識來解決特別令人煩惱或具有挑戰性的法律難題。

對於那些冒險的法律尋求者,我真誠地歡迎您進入適用於人工智能的法律領域。

這是交易。

我將從一個可能導致您吐槽的問題開始。 做好準備。

人工智能(AI)的定義是什麼?

讓我稍微但重要地改述一下這個問題:什麼是 法律 人工智能(AI)的定義?

當提到我們稱之為“人工智能”的東西時,你肯定會假設法律界已經確定了具體的定義和含義(順便說一句,現在有些人更願意說 人工智能 (AGI),試圖帶回實現真正人工智能的目標,而不是今天不那麼令人印象深刻的非感知人工智能)。

不是這樣。

正如我已經廣泛介紹的那樣,人工智能的法律定義確實是一毛錢,請參閱我的分析 這裡的鏈接.

這樣想想。

國際、聯邦、州和地方各級所有那些閃亮的新人工智能法律可能都集中在人工智能上,但事實證明,沒有任何完全一致的、完全標準化的、法律上完全固化的人工智能定義。 取而代之的是,每個人在製定一條法律時幾乎都是在製定他們的人工智能定義,或者他們藉用了別人的定義,即使沒有人能具體說明它是否能夠經受住時間的考驗並經受住法庭鬥爭的嚴酷考驗。

想一想。

如果您選擇在新法律中使用過於狹窄的 AI 定義,那麼所有本應屬於該範圍的 AI 都有可能逃脫該法律(尤其是精通 AI 的律師在法律上認為意識到漏洞的存在)。 另一方面,如果人工智能的定義過於寬泛,它可能會將大量軟件和系統納入新法律,而這些軟件和系統可能沒有真正的基礎可以屬於該法律的範圍。 簡而言之,適用於人工智能的法律混亂的部分原因在於,我們最終將獲得一系列新法律,這些法律涵蓋了被稱為“人工智能”的模糊事物,但這將對截然不同的法律解釋持開放態度。

律師會發現自己處於與人工智能法律定義變幻莫測的這些姿勢:

  • 為聲稱法律不適用於他們所謂的公司設計的“人工智能”的客戶辯護
  • 為聲稱法律不適用於公司正在使用或採用的所謂“人工智能”的客戶辯護
  • 代表聲稱法律確實適用於設計了所謂的有害“人工智能”的公司的客戶
  • 代表客戶聲稱法律確實適用於使用或採用所謂的有害“人工智能”的公司
  • 其他

作為一名律師,您如何做一些事情來幫助應對這個迅速擴大的問題,並試圖阻止肯定會隨之而來的代價高昂和拜占庭式的法律下游糾紛?

幫助與立法者合作找出人工智能的定義細節。 如果您對此感興趣,也許可以成為一名立法者。 成為找出有意義的人工智能法律的領導者,明確規定,可以無爭議(嗯,沒有這樣的事情),或者至少減少爭議出現的差異,並尋求防止法律漩渦一旦所有這些新的人工智能法律都被寫入書籍並且馬離開了穀倉,這種情況就會到來。

作為一個法律上有趣的提議,這如何讓你印象深刻?

你們中的一些人可能會說,從您的角度來看,人工智能定義問題並不是一個特別有趣的挑戰。 您可能想知道案卷上還有什麼。 我有一蒲式耳裝滿了它們,但現在讓我們再舉一個例子。

兩個詞: 法人資格.

人工智能可以或應該被賦予某種形式的法人資格嗎?

你必須承認這似乎是一個推動者和震動者。 假設我們共同決定讓人工智能具有法人身份。 想想後果。 一些國家已經開始走這條路,比如主張人工智能可以擁有人工智能生產的人工製品的知識產權(IP)權利,如新發明、新藝術等。

有人說這很有道理,其他人則非常憤怒,並認為今天的人工智能根本不值得擁有一丁點法人資格。

這是一個巨大的爭議。

到目前為止,在美國,與知識產權相關的一般法律落地是知識產權法規定合法所有者必須是人,請參閱我在此的報導 這裡的鏈接. 從某種意義上說,這種通過簡單地表明唯一適用的知識產權所有者必須具有人類法律地位,就默默地迴避了人工智能法人資格的問題。

與法人問題有些相關的是一個緊密配對的主題,其中包含 人工智能的責任 (有時稱為 人工智能的責任)。 問責製或責任是指試圖合法地將 AI 與誰或什麼應該負責或負責,當 AI 造成傷害時,請參閱我的分析 這裡的鏈接.

簡單的答案似乎是,設計人工智能的人應該受到指責。 人編寫代碼,因此人承擔責任或義務。 但假設人工智能被編寫為自我調整。 這樣做可能是出於明顯有益的原因。 與此同時,冒犯性的人工智能已經偏離了其最初設計的機械化。 我們還要追究程序員的責任嗎?

渾濁出現。

例如,程序員編寫了 AI,然後部署 AI 的其他人更改了 AI。

現在,誰負責? 更令人困惑的是,人工智能經過了幾十隻人的手,伴隨著幾十次自我調整的捲積,所產生的人工智能變體與之前的版本完全不同。 每個人都受到指責嗎? 沒有人受到責備嗎? 你甚至可以追溯 AI 的血統,以明確規定哪些人參與其中,以及他們各自參與的內容是什麼?

這是一個額外的踢球者,也許人工智能會受到指責。

如果我們要為人工智能提供一些法人資格,我們大概也可以合法地追究人工智能的責任。 但是,這是什麼意思? 人工智能是否會合法擁有資產,並被受害者搶奪並獲得應有的賠償? 人工智能會被監禁嗎? 我已經在 這裡的鏈接這裡的鏈接,在我關於這些主題的許多著作中。

我希望這些不同的預告片足以激起您的法律興趣。

底線是,對於那些夢想有朝一日能夠在法律上取得成功並正在努力沉浸在非凡的法律挑戰和法律難題中的人來說,請考慮將法律應用於人工智能。

接下來是時候看看適用於法律的同盟兄弟人工智能了。

考慮人工智能的興起適用於法律

我在本次討論開始時說過,有兩種主要方式可以將 AI 和法律互連起來(人工智能與法律),其中又包括:

  • (1) 適用於人工智能的法律: 適用於我們社會中人工智能的監管或治理的法律的製定、頒布和執行
  • (2) 人工智能應用於法律: 人工智能技術被設計並應用到法律中,包括基於人工智能的法律推理 (AILR) 被注入到 LegalTech 高科技應用程序中,以自主或半自主地執行律師任務

我們現在已經快速瀏覽了關於適用於人工智能的法律的第一項。

無論你做什麼,請不要忽視或忽略另一個同樣重要的支柱,即在法律中使用人工智能。 我向你保證,將人工智能應用到法律上的胡蘿蔔與討論適用於人工智能的法律時一樣多。 另外,雖然我不想顯得陰沉,但也有與人工智能相關的棍子適用於法律領域,所以也要做好準備。

應用於法律的人工智能需要嘗試利用人工智能的最新和持續進步來幫助執行法律任務。 其目的是提供可以在某種程度上類似於人類律師的技術,儘管目前以相當受限的方式。

總的來說,這是一個難題。

一個非常難的問題。

事實證明,設計能夠盡職盡責地執行法律推理的人工智能比許多人想像的要困難得多。 你看,法律充滿了語義上的歧義,到目前為止,各種常規的編程和數據結構表示方式都無法完全掌握人類律師在律師工作中所體現的認知。 對於尋求重大挑戰的熱心計算機科學家來說, 人工智能與法律 是明顯肥沃的土地。 想要在法律史上取得飛躍的律師也將樂於成為這些努力的一部分。

許多人堅持認為這是一個登月類型的問題。 我同意。 好消息是,類似於人工智能自動駕駛早先被稱為登月計劃,並且已經取得了很大進展,基於人工智能的法律推理的目標也是如此。 有了足夠的虔誠關注和資源,這個難題在計算上是可以解決的,我們最終將登陸月球,就像它一樣。

你可能會想說,我們永遠無法讓 AI 做律師所做的事情。 律師永遠不能“自動化”是一種常見的說法。

正如您很快將在這裡看到的那樣,辯論往往集中在一個全有或全無的設計上。 斷言是,人工智能要么完全取代人類律師和人類律師,要么它什麼也不做,似乎沒有增加價值。

有點古怪。

任何稱職的律師都知道這些邪惡的論點。 你試圖建立一個稻草人,然後將其擊倒。 瞧,你贏了爭論。 除非其他同樣精通論證的人出現並指出稻草人是用來迎合弱論點的虛假技巧。

我們可以以特定的方式和特定的法律任務使用人工智能,而不必專門註冊能夠以所有想像的方式一次完成所有律師任務。

話雖如此,對於人工智能正在做什麼以及它是否能夠充分執行手頭的任務,當然存在嚴重的擔憂。 您可能很清楚,在美國執業的一個方面是 未經授權的法律實踐 (UPL) 是一個相當嚴格的條件。 從表面上看,UPL 保護那些尋求法律建議的人,確保只有獲得適當許可擔任律師的人才會這樣做。 一個迫在眉睫的問題是,蜿蜒從事法律任務的人工智能是否違反了 UPL,這是我在 這裡的鏈接.

我相信你們中的一些人正在等待聽到我們是否已經獲得了完全取代人類律師的人工智能。 這是在法律行業會議上經常聽到的scuttlebutt。 我們還在那裡嗎,這個問題在空氣中揮之不去。

當然,取代人類律師是一個有爭議的熱點。

業內人士認為,與其專注於人工智能是否會“取代”人類律師,近期更現實的情況是人工智能武裝的律師可能會“取代”沒有人工智能的律師。

我將在討論結束時對此進行更多說明。

適用於法律的人工智能領域中一個特別繁重的話題涉及到有一天會有機器人律師、機器人法官,甚至可能是機器人陪審員的各種故事。 我不是機器人標籤的粉絲。 問題在於,與機器人標籤相關的先入為主的包袱太多,以至於一旦機器人概念被混入其中,您就無法與某人進行認真的對話。 我會猶豫地將 Robo-trio 包括在這個討論中,並要求你拋開你可能有的任何瘋狂或瘋狂的先入為主的觀念。

感謝您願意重新審視適用於法律的人工智能主題。

第一個也是最重要的基石包括讓你的頭腦圍繞一個重要的框架,我以在自治水平 (LoA) 的背景下對人工智能法律推理 (AILR) 的看法而聞名,請參閱我的研究論文麻省理工學院計算法雜誌 這裡的鏈接.

我將暫時向您簡要介紹該框架。

要點是,大多數律師似乎立即陷入了這樣的心理陷阱,即如果人工智能將用於法律推理目的,那麼人工智能要么存在要么根本不存在。 這是一種錯誤的二分法。 這是一個假設,人工智能要么開啟,要么關閉。 看起來,你要么有人工智能,要么沒有人工智能。 但這不是事情的運作方式。

我將把這種開或關的謬誤與自動駕駛汽車的出現進行比較,讓您更清楚地了解為什麼考慮不同級別的自主性至關重要。

您幾乎可以肯定知道,在設計基於人工智能的自動駕駛汽車方面,人們正在進行大量努力,通過人工智能來進行駕駛,而不需要人類駕駛員來駕駛。 在美國的幾個主要城市正在進行自動駕駛汽車的試驗。在某些情況下,人類駕駛員仍在駕駛,作為安全或備用駕駛員。 同時,在有限的基礎上,自動駕駛汽車在沒有任何人類後備司機的情況下被使用。

我敢打賭,也許你隱約知道有各種各樣的 各級 人工智能自動駕駛汽車。

存在一個標準,該標準建立了 0 到 5 的等級,表示 自治程度 那可能存在。

刻度的底部是零(0 級),基本上沒有自動駕駛,駕駛完全由人類駕駛員手動操作。 量表的另一端是 5 分(5 級)的最高分。 最高分錶示完全由人工智能驅動的車輛,沒有人類駕駛員,並且可以在人類駕駛員可以處理的幾乎任何駕駛環境中運行。

大多數人會考慮 0 和 5,但不會考慮最低和最高得分之間的重要級別。 今天的汽車通常被認為是 2 級,它們提供了一些自動化駕駛。 儘管如此,人類駕駛員在法律上仍被視為車輛的駕駛員。 3 級汽車剛剛出現,包括半自動駕駛安排。 人類駕駛員仍有望在需要時做好準備,儘管大部分駕駛可能由人工智能承擔。

對於許多人來說,4 級是一個有點令人困惑的類別。 Level 4 被認為是完全自動駕駛的汽車,但它只能在特定的指定條件下駕駛,稱為操作設計域 (ODD)。 例如,我可能會說我有一輛 AI 自動駕駛汽車,它只能在舊金山安全駕駛,只有在白天,而不是在大雨等惡劣天氣時。 這是一個特殊的 ODD,它限定了 AI 駕駛系統能夠正確駕駛自動駕駛汽車的範圍或界限。

現在我們已經介紹了自治水平的基礎知識,我們準備採用相同的方法,看看它如何也適用於法律推理行為。

以下是我聲明的基於人工智能的法律推理的自治級別:

  • 0級:人工智能法律推理沒有自動化
  • 級別 1:AI 法律推理的簡單輔助自動化
  • 第 2 級:人工智能法律推理的高級輔助自動化
  • 第 3 級:人工智能法律推理的半自主自動化
  • 第 4 級:人工智能法律推理的領域自治
  • 第 5 級:完全自主的人工智能法律推理

級別 0 被認為是非自動化級別。 法律推理和法律任務通過人工方法進行,主要通過紙質方法進行。

級別 1 包括用於 AI 法律推理的簡單輔助自動化。 此類別的示例包括使用基於計算機的日常文字處理、使用基於計算機的日常電子表格、訪問以電子方式存儲和檢索的在線法律文件等等。

第 2 級包括用於 AI 法律推理的高級輔助自動化。 此類別的示例包括使用查詢式基本自然語言處理 (NLP)、機器學習 (ML) 的簡單元素、用於法律案件預測的統計分析工具等。

第 3 級包括用於 AI 法律推理的半自主自動化。 此類別的示例包括使用先進的基於知識的系統 (KBS) 進行法律推理、使用機器學習和深度學習 (ML/DL) 進行法律推理、高級 NLP 等。

第 4 級由用於人工智能法律推理的域自治計算機系統組成。 此級別重用了操作設計域 (ODD) 的概念概念,該概念用於自動駕駛汽車,但也適用於法律領域。 法律領域可以按功能領域分類,例如家庭法、房地產法、破產法、環境法、稅法等。

第 5 級由完全自主的基於計算機的人工智能法律推理系統組成。 從某種意義上說,就涵蓋所有可能的法律領域而言,第 5 級是第 4 級的超集。 請意識到這是一項艱鉅的任務。

花點時間在您的法律服務和法律活動的背景下考慮這些自治級別。

今天的大多數法律實踐都在使用某種形式的基於計算機的軟件包來幫助他們開展法律工作。 這些應用程序的流行命名是它們被認為是 法律科技 (你可能知道醫療技術有 MedTech,金融技術有 FinTech,教育技術有 EdTech 等)。

我幾乎每天都被問到 LegalTech 是否包括 AI 或不包括 AI。

我的回答是,這不是一個開或關的事情。 您需要考慮自治級別。

一些 LegalTech 軟件包已將 AI 功能添加到其軟件包中(或者,在某些情況下,首先使用 AI 作為核心),這樣做的程度不同。 您需要仔細檢查添加了哪些 AI 以及它完成了什麼。 小心那些經常使用的關於人工智能的厚顏無恥和未經證實的說法。

最受歡迎的領域之一是使用人工智能處理法律合同。 您可能會獲得合同生命週期管理 (CLM) 軟件包,以在法律審查過程中跟踪和處理您的法律合同。 例如,如果人工智能可以識別合同草案中潛在的法律缺陷或狂笑,或者可能將擬定的給定合同的法律語言拼接在一起,那麼添加人工智能可能會很有用。

進行電子發現時,人工智能的另一個重點出現了。 在發現過程中,您可能會遇到大量電子文檔。 可以使用各種人工智能來搜索語料庫並嘗試識別相關項目。 此外,人工智能可能能夠總結或以其他方式分析找到的材料對手頭案件的價值。

等。

如果 AI 僅進行最低限度的任何實質性法律推理或法律處理,您會將其歸類為在我的規模上使用的 AI 級別 2。當 AI 設計得更穩健時,LegalTech 可能會在級別 3 上使用 AI。一般來說,級別4 現在只存在於相當狹窄的 ODD 中。 5 級是有抱負的,我們需要繼續努力,看看我們是否能達到它(就像人工智能自動駕駛汽車領域存在同樣的懸而未決的問題一樣)。

所以,是的,我們今天確實在 LegalTech 中使用了人工智能,並且人工智能在它能做什麼和不能做什麼方面差異很大。

與此同時,正在努力推動人工智能的邊界,並尋求將其結合到執行法律任務和執行各種範圍和深度的法律推理中。 在我的研究實驗室(見 這裡的鏈接),我們正在利用大語言模型 (LLM) 的出現,並將這項最新的新技術應用於法律,同時匯集各種人工智能技術和技術,以嘗試協同和整體破解如何實現的持續謎團提高基於人工智能的法律推理的自主性。

回到 Robo-lawyer 的綽號(我不想這樣做,但為了完整起見,我覺得我必須這樣做),這是一個需要考慮的問題:

  • “機器人律師”在範圍和能力方面構成什麼?

通常的回答是,Robo-lawyer 是一種基於人工智能的法律推理系統,可以做人類律師可以做的所有事情。 句號,句號。 如果是這樣的話,我們似乎會說機器人律師必須是自治等級的 5 級。 當然,這有點爭論,因為您可以質疑是否有任何選擇 並致力透過創新科技結合虛擬空間和實體互動,持續為藝術家擴闊觀眾群,優化觀眾欣賞藝術的體驗,從而推廣藝術與文化。 律師真的可以在法律的各個領域全面運作,這不是特別現實。 大多數律師通常屬於特定的法律領域或專業,類似於 4 級 ODD。

讓我們看一下 4 級上下文中的 Robo-Lawyer。

假設我們設計了一個人工智能係統,可以為合法地處理停車罰單進行“法律推理”。 人工智能能夠執行類似的法律職能,就像受僱就傳統停車罰單進行法律爭論的律師一樣。

這個類似停車罰單律師的 AI 是不是機器人律師?

從某種意義上說,是的,因為它正在承擔一項律師任務,儘管它是在非常狹窄的法律領域或子領域內。 另一方面,如果您將其與基於 5 級自主人工智能的律師能力(我們還沒有)進行比較,您可能會強烈地說這不是機器人律師。

你明白我為什麼不喜歡機器人律師的名字嗎?

這是模棱兩可的。 它攜帶行李。 它暗示了不一定明確表達的事物。 標語很糟糕,最好不要使用它。 不幸的是,這句話很吸引人。 它具有粘性,不會輕易消失。 可悲的是,一些 LegalTech 供應商的廣告試圖利用 Robo-lawyer 標籤,因此,名稱很快就會過期或被刪除似乎值得懷疑。

換檔,我們應該檢查適用於法律的與人工智能相關的胡蘿蔔和大棒。

如果法律實踐採用基於 AI 的 LegalTech 軟件包,由於 AI 能夠顯著提高人類律師的生產力,這似乎是一件好事。 律師事務所普遍歡迎提高其人力勞動的生產力。

一個反駁的觀點是,生產力增強器將減少計費時間。 您的律師原本需要 20 小時才能完成一項特定的法律任務,現在可以在 15 小時內完成。 哎喲! 這意味著您剛剛放棄了 5 小時的計費時間。 當然,這是對這種情況的狹隘觀點,忽略了尋求生產力助推器的商業敏銳度。

例如,您可以通過使用律師來獲得新客戶或更快地完成其他現有客戶的工作(可能會提高對這些客戶的滿意度),從而利用這些“節省的”時間。 還有競爭的角度需要考慮。 如果您的律師事務所效率較低,那麼尋求法律服務的公司很可能會對此有所了解。 他們是選擇以高效著稱的律師事務所還是效率較低的律師事務所?

您還應該超越生產力並查看其他關鍵指標,例如 質量 的法律建議。

如果基於人工智能的法律推理元素引發法律選擇或引發法律爭論,那麼使用這種人工智能的人類律師很可能會識別出更高質量的法律解決方案。 從某種意義上說,這就像有一位資深合夥人擔任導師一樣。 合作夥伴和同事能夠在白天或晚上的任何時間、任何地點利用人工智能,促使他們更加謹慎地考慮更全面的法律途徑。

這些是一些胡蘿蔔。

棍子的一面可能很明顯。

提出的一個挑釁性論點是,不採用這種人工智能的律師將篡奪他們對客戶的職責。 作為律師,他們沒有利用最好的方式為客戶提供建議。 他們正在削弱作為法律服務提供者的宣誓義務。

您可能還看到了所謂的 沙箱 在法律領域。 一些人認為,這可能是讓人工智能進入法律遊戲的關鍵手段。 爭論的焦點是,如果傳統律師事務所不願意更積極地轉向人工智能,也許需要另一種途徑。

有人認為,與那些使用人工智能的律師相比,不使用人工智能的律師似乎處於劣勢。 這尤其令一些法律行業協會感到擔憂。 令人擔憂的是,小型律師事務所或獨立律師將無法負擔人工智能法律推理工具。 他們將被擁有進行此類投資的資金的大法進一步黯然失色。

一個反駁的觀點是,如果人工智能法律推理工具的成本足夠低,這可能會使小型律師事務所和獨立律師與 Big Law 更具競爭力。 否則,可能會通過人工智能增強來說服那些認為小型律師事務所或個人沒有足夠法律資源的客戶。

最大的啟示之一涉及這樣一種假設,即如果可以以可承受的價格廣泛使用具有自主性的人工智能法律推理,這將可能有助於解決 A2J(訴諸司法)的壓倒性問題。 大量的人沒有現成的律師和律師服務。 他們不知道如何應對法律生態系統。 想像一下,一個 24×7 的基於人工智能的法律推理系統可以做些什麼來使法律民主化並增強對法治的感知。

最後幾點觸及了一些令人興奮的法律難題或法律挑戰,等待那些可能選擇參與適用於法律的人工智能的出現。

更有趣的是,我們可以使用人工智能來幫助準備或起草法律。 這是想法。 很多時候,法律的組成很差。 法律語言的缺陷導致對法律的混淆。 這削弱了法治。 人工智能正被用於分析擬議的法律,並試圖找出可能不那麼明顯的差距和問題。 除了檢測這些問題(有時稱為 法律氣味),人工智能可以建議重新措辭以減少歧義。

另一個頭腦扭曲者援引了以下論點: 法律就是代碼.

換句話說,如果您查看大多數法律,它們與計算機編碼有些熟悉的相似之處。 正在努力將法律自動轉換為純編程代碼或其等效代碼。 這反過來可能允許與我們的法律相關的計算和數學導向的證明。

你也可以在意念上拉麵 法典.

如果法律將基於某種計算機算法,那麼您可以建議程序代碼本身就代表法律。 代碼就是法律。 設想去法庭爭論一段被合法地視為法律的逐字指示的編程代碼。

思考這些誘人的問題:

  • 我們可以通過什麼方式最好地設計出更全面地包含法律推理的人工智能?
  • 人類律師與人工智能法律推理系統之間的哪種類型的在線交互最有利於使用?
  • AI 法律推理需要 XAI(可解釋 AI),但機器學習和深度學習如何提供合適的可解釋性?
  • 我們如何讓沒有足夠 A2J 的人可以使用 AI 法律推理?
  • 當涉及到基於人工智能的法律推理時,我們能否弄清楚 UPL 問題?
  • 我們的法院也會採用人工智能嗎?如果是,這將如何影響全面的裁決?
  • 等等

一些律師認為自己本質上是企業家。

LegalTech 領域有很多初創公司,其中有許多正在嘗試發明人工智能或將人工智能應用於法律任務。 您可能已經看到最近的招聘廣告要求 法律知識工程師 或簡單地列為 法律工程師.

一些律師是進入這個領域的技術人員。

一些律師不是進入應用於法律領域的人工智能的技術人員,他們為此提供法律領域的專業知識來幫助開發人工智能法律推理系統。 我提到這一點是因為許多律師和法學院學生的假設是,他們必須是技術人員才能進入這個領域。 這本身不是要求。 在與技術人員堅定地合作工作的同時,以迄今為止您尚未檢查和這樣做的方式探索法律的意願是最近的上昇路徑。

結論

你一直堅持到這篇論文的結尾。

對你有好處。

我真誠地希望你會發現這個討論內容豐富,甚至可能是適度的鼓舞人心的。

為什麼律師不衝 人工智能與法律?

很少有人知道你現在知道的。

大部分律師對什麼一無所知或知之甚少 人工智能與法律 由組成。 這是法學院很少涉及的主題,儘管我已經預測,一旦 人工智能與法律 海嘯來襲,我們很可能會看到發生在哪裡的重大變化 人工智能與法律 需要覆蓋。

我之前也提到過,有一隻雞或一隻雞蛋 人工智能與法律. 客戶還不知道 人工智能與法律 將是一個重大的法律問題。 律師事務所傾向於等到客戶開始要求提供法律服務。 目前,只有一些律師事務所看到了牆上的文字。 同樣,只有一些客戶看到牆上的文字。 通常很少有人知道地震,而為地震做準備的人更少。

顛覆即將來臨。

我意識到這些天“顛覆”這個詞被廣泛流傳。 儘管過度使用,但我確實認為法律領域正處於與人工智能相關的顛覆的風口浪尖。 這不會是一夜之間。 你不會在一天早上醒來,而在晚上,一場徹底的轉變莫名其妙地發生了。 我會說這將是一個穩定的前進。 一次一隻腳,一次一步。

千里之行始於足下。

根據威廉·倫道夫·赫斯特 (William Randolph Hearst) 的名言:“你必須把注意力放在目標上,而不是障礙上。”

資料來源:https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai-和法律/