加密貨幣和人工智能:律師角色的未來

其中之一是人類可能會找到與我們今天所習慣的不同的角色和位置。

因此,如果為了論證的緣故,要製造一台機器,它可以對法律問題給出一個不可避免的準確答案,從而對爭議的可能結果提供一個幾乎不可避免的回應,理論上律師的角色可能會轉變為解決問題的答案以外的領域。 也許,知道如何向機器提出正確的問題,然後機器會提供答案。 因此,他會擔心是否為機器提供了所有最合適的元素和參數以生成預期的答案。

或者他可能會進入“訓練”法律機器的那個領域,然後提供或確保將進行評估所需的所有法律數據和信息提供給機器。

由於這個機器,根據這個假設,將能夠提供不可避免的精確性來做出我們認為是“公平”的判決,法官的角色也許可以變成確保當事人在提供機器具有作出判決的必要要素,並且機器輸入和適用的判斷標準符合公平性、合理性、相稱性、非歧視性等。

順便說一句,所有這一切似乎都符合著名的五項原則 CEPEJ – 歐洲司法效率委員會(即歐洲委員會司法效率委員會,代表 47 個國家的 CoE 機構,其目的是測試和監督歐洲司法系統的效率和運作)在道德規範中在司法系統中使用人工智能憲章: (i) 尊重基本權利的原則; (ii) 非歧視原則 (iii) 質量和安全原則; (iv) 透明、公正、公平原則 (v) 用戶控制原則。

現在,即使接受人工智能在法律領域大量使用的未來人類的角色可能僅轉移到監督領域的想法,也有其他的考慮因素。 主要是因為當我們想像一個由這些看似中立和萬無一失的工具管理的司法系統時,我們對自己來說代表了一個僅僅執行法律和規則的機構。 僅僅是戒律的執行者。

然而,這種正義的表現在實際現實中並不存在,因為,在違反任何原則和權力分立原則的情況下,做出判決的人實際上在某種程度上確實有助於產生法律並改變其結構。 也就是說,司法職能常常具體地在規則的創建和鞏固中發揮作用。

當然,這種程度因立法和憲法制度而異。 在英美法系國家,這種情況肯定更大,因為在這些國家,法律是通過先例設定的決定形成的。

然而,在意大利、法國、德國等成文法國家也是如此。在這些制度中,事實上,通過司法判決給出的解釋有時會強制甚至彎曲正式法律,並在發現漏洞時予以補充,當存在使其與更高級別的原則不一致的情況時,就會忽視它並將其置於虛無之中。

也就是說,司法職能,無論是直接還是間接,往往最終會侵犯監管職能領域,而且這種情況可能發生在不同層面。

注意:這並不排除這樣一種可能性,即抽像地講,被要求制定法規的機器甚至無法比人類做得更好。 如果只是因為歷史上充滿了糟糕的人類監管者這一事實。 舉一個極端的例子,想想大屠殺和種族清洗的慘痛經歷:這些恐怖是基於宏觀非人道原則的立法體系在法律上支持的,但卻是人類自己創造和強加的。

規範生產與人工智能的相遇

另一個關鍵點是:我們真的確定要讓機器進入規範生產過程嗎? 到什麼程度? 我們必須牢記,這種進入也可以通過管轄職能半開的大門以“爬行”的方式進行。

由於人強加的道德和形式上的障礙(例如,機器人法則、阿西莫夫法則,或者實際上是在歐洲背景下闡述的關於在司法系統中使用 AI 的原則)都可以令人欣慰。

在這種情況下,這些規則直接由人指示給機器,並在廣義上響應人類自身存在使命的滿足。 也就是說,它們在某種程度上都對人類的發展和保存具有保守性和功能性。

正是在這裡,有點哲學上的困境被觸發了,如果你願意的話:如果我們曾經允許一個非人類實體完全進入規範形成的過程,鑑於它,恰恰作為一個實體被內在地賦予了它自己的存在使命,什麼能阻止它編寫不響應人類存在使命的規則?

舉一個極端的例子,如果我們要在全球範圍內提出人口過剩和食物和能源資源短缺的問題,作為人類,受制於某些病態的意識形態漂移,在道德層面上我們會拒絕作為解決問題的手段假設大規模滅絕或謀殺人類的解決方案。

同樣的問題,從一個可能不承認相同道德原則的非人類實體的角度來看,可能會導致大規模滅絕的解決方案,也許是基於旨在消除最弱主體的選擇性標準(那些人類倫理的規定應作為優先事項予以保留)作為嚴格而冷酷的邏輯層面上最合理的解決方案。

馬西莫·基里亞蒂, 在領先的專家中 人工智能 在意大利,他在他的許多著作中闡明了他對人工智能的局限性以及人類在使用這些技術時必須以鐵定的方式保持監督作用的觀點,他在他的“人工無意識”中寫道:

“有一個非常重要的點需要考慮:每個 AI 預測都是定量評估,而不是定性評估,而對我們人類來說,選擇幾乎從來不是簡單的計算。 我們根據無法衡量且因此無法計算的價值做出決定。 我們是機器的老師。 當他們吸收我們創建的數據、構建模型並給我們答案時,我們就隱含地如此。 

當我們給他們關於如何做工作的指示時,我們明確地如此。 出於這些原因,我們必須關注他們的學習方式,因為這樣做他們就會進化。”

除了剛剛給出的極端例子之外,雖然反對技術發展是徒勞和虛幻的,但必須以最大的意識來治理這種過程。

今天,我們正在討論人工智能對法律職業的影響,在這些情況和價值觀方面,與智力成熟度、創造力以及我們喜歡追溯到人類無形本質的所有組成部分相關的極端微妙和特殊性。

然而,同樣的問題勢必會對數百種工作產生大規模影響,機器將在很短的時間內以無限低的成本完成與人類一樣好甚至更好的工作。

我們應該感到受到加密貨幣和人工智能 (AI) 的威脅嗎?

隨著工作世界和經濟的社會和政治觀點將發生革命性變化,這個問題的巨大比例應該促使我們反思將影響現實世界和我們閱讀現實的能力的後果。

如果問一些關於法律職業世界的問題是合法的,那麼有必要考慮到在工作世界的大部分地方都必須問類似的問題。

對我們來說,最直接的問題是,“人類、法官和律師會發生什麼,他們今天扮演明天可能由機器扮演的角色和功能? 他們將如何謀生?”

但在集體利益的層面上,還有更多:“誰來繳納社保費,誰來為社區提供所有被機器取代的人類工人的收入所產生的稅收?” 再一次,“所有那些為這些運營商的活動績效做出貢獻的人物(助手、合作者、從業者等)會發生什麼?當他們的貢獻和稅收也損失時會發生什麼?”

好吧,這些問題也會出現在所有其他工作類別中,這些工作類別可能會在比可能影響法律工作者的時間更短的時間內受到機器人和數字革命的打擊。

出現的情景可能會使當今已知的社會學、經濟學、人類學和政治學觀點過時:社會主義、自由主義、自由意志主義、主權主義等將失去其概念基礎。

許多,如果不是全部,將不得不從頭開始重新考慮。

但回到法律領域的 AI 話題,我個人的看法是律師的角色(職業不僅是規範的解釋者,也是事實的解釋者,在某種程度上是人類的解釋者)將無法僅限於遷移到法律服務生產週期的不同區域。

我的想法是,律師,以及更普遍的法律從業者,可以被賦予更高的角色:也就是說,確保技術發展治理中的意識始終與人類的真正福利目標相稱,並得到適當的引導,必要時,也要自覺合理地加以遏制。

中國有句名言,“風起雲湧,有人設壁壘,有人造風車”。

現在,雖然我喜歡認為我可以算作那些“當變革之風吹來時”熱情地投身於建造風車的人,但我不想達到風車不再需要人類存在的地步,因為它們的存在致力於其他風車的需要。

如果真到了那個地步,人類還需要這樣的風車嗎?

現在,根據定義,律師是被稱為 (ad vocatum) 為一項事業辯護和辯護的人。 這是他的事業:他將必須確保人類牢牢掌握規則,並確保機器繼續扮演它們被創造出來的角色:為人類服務。

而在必要的時候,他將不得不站出來戰鬥,所以這就是它的樣子,並且會一直這樣。

為人類的利益而戰。 就像著名的日本動畫片中的 Mazinga Zeta,對於那些記得它的人來說。

聽起來不錯,但是 Mazinga Zeta 不也是一個機器人嗎?

 

來源:https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/