人工智能倫理和人工智能背後的刑事責任之謎,包括受人尊敬的基於人工智能的自動駕駛汽車所犯的罪行

嘿,阻止那個小偷!

您可能知道當一個被指控的騙子從犯罪現場迅速逃離時出現的這種舊時常用的措辭。 假定的犯罪行為已經發生,被指控的肇事者正試圖逃跑。 除了試圖阻止小偷外,我們可能還想知道犯罪是什麼。 此外,也許只有經過進一步思考,才會有興趣發現犯罪的原因。 有一種與生俱來的願望,即要揭開導致邪惡行為的犯罪心理中正在發生的事情。

犯罪有一個明確的法律角度。

據說犯罪不僅是對某人或某事的不利行為,而且還被認為是對整個社會的不利行為。 犯罪分子被認為明顯超越了法律的界限。 在法律領域,習慣上的考慮包括 犯罪行為, 拉丁語表示有罪的行為,拉丁語表達 男權 這就是有罪的想法。 其他因素也會發揮作用,例如顯示不利結果以及需要將犯罪發生的潛在細節暴露出來。

您當然可以將道德考慮添加到理解犯罪和犯罪行為的標題中。

一個普遍的假設是,在涉及犯罪行為時,法律和道德領域完全一致並且完全一致。 不是這樣。 您可以很容易地制定將某些行為視為犯罪的法律,但從道德上講,其中的社會可能並不完全認為這些行為實際上是犯罪。 同樣,社會可能具有斷言某些行為是“犯罪”的道德習俗,但法律並未將這些行為平等地納入刑法典。 這讓我想起了雪莉·卡根在牛津獎學金在線發表的富有洞察力的評論 道德的界限 強調指出道德和法律最終表現出彼此之間的張力,即“法律可能允許某些特定行為,即使該行為是不道德的; 法律可能禁止某項行為,即使該行為在道德上是允許的,甚至在道德上是必需的。”

總而言之,社會對犯罪行為的集體高度關注。 英國刑法最顯著的基礎之一是被稱為“Actus non facit reum nisi mens sit rea” 並且與所謂的犯罪行為必須與包含犯罪思想相一致的論點緊密相關。 簡而言之,崇高的拉丁語短語本質上是說,行為本身不足以使犯罪者犯下上述罪行。 他們還需要有一個內疚的心。

我不打算在這裡深入研究那個相當大的燉菜,請在此鏈接的其他地方查看我的報導。 你看,大量的法律論文都在討論這個問題,特別是因為要弄清楚一個假定的罪犯的頭腦中發生了什麼是相當棘手的。 我們沒有任何能夠神奇地確定思維過程是什麼的讀心 X 射線機器。 大腦中沒有一些自動收報機錄音,我們只能解開。 你可能知道,大腦和人類思想仍然是一個很深的謎團,我們還有很長的路要走才能真正讀懂思想(我意識到你們中的一些虔誠地宣稱“讀心者”可能不同意,儘管必須尊重質疑那些心靈凝視能力的真實性)。

我想換個方向,涵蓋可能發生犯罪的另一條途徑。 在我這樣做之前,您的第一反應無疑是所提出的主題完全是脫軌和古怪的。 即使您最初的印象可能會轉向那個方向,也可以暫時暫停判斷,看看兔子洞的走向。 然後決定它是否是滑稽的。

假設小偷或犯罪者是人工智能 (AI)。

是的,我說過。 人工智能犯了罪。

讓我們打開包裝。

設想您的網上銀行賬戶中的血汗錢被盜。 您的第一個假設顯然是“誰做的”,您將試圖追踪電子線索以查看資金的去向。 不管怎樣,你強烈的信念是,一個狡猾的人會做出這樣的行為,他們現在會錯誤地拿著你的麵團。

可能是騙子只是登錄了您的銀行帳戶並將錢轉移到其他地方。 這可能是一種絕對手動的努力。 黑客發現或碰巧找到了您的密碼。 他們登錄到您的帳戶,就好像他們正在這樣做一樣。 提出了合法出現的轉移請求。 當您收到銀行的警報時,錢已經沒了。

這個騙子可能需要更多的能力才能完成工作。 要找出您的密碼,可能已經使用了 AI 程序。 人工智能程序可能已經掃描了互聯網,以找出有關你在這個星球上存在的詳細信息。 根據你出生的地方、你的狗的名字等線索,人工智能可能已經通過計算得出了一個你最有可能使用的密碼。 運氣或技巧,這種人工智能設計的密碼破解算法實際上設法確定了您的實際密碼。

人工智能只不過是一種工具。 人類騙子利用人工智能實施了這一可怕的罪行。 我們會合理地同意人工智能本身並不是騙子。 沒有感知力,或者我們應該說人工智能中體現的道德能動性。 當然,人工智能幫助和教唆犯罪行為,但最終,我們似乎會承認,必須為犯罪承擔責任的是人類不法行為者。

在這種情況下,我是否將人工智能稱為犯罪工具?

如果是這樣,我懷疑我們是否會因為人工智能被以這種陰險的方式使用而過度動搖或震驚。 就像有 永遠的人工智能,由人工智能用於解決全球性世界問題和輔助人類組成,我們正在逐漸意識到和遇到 壞的人工智能. 的方面 壞的人工智能 範圍從可能表現出不公平和不可容忍的偏見的人工智能的無意使用,到用於故意傷害人類和具有破壞性的人工智能領域。

在這種情況下,我們已經看到人們對道德 AI 的興趣不斷增加,通常也被稱為 AI 的道德規範。 有關我對 AI 倫理的報導,請參閱此處的鏈接和此處的鏈接,僅舉幾例。

這是我們可能要翻過懸崖或滑下碼頭盡頭的地方。

想像一下,人工智能本身就是犯罪的肇事者。 沒有人是幕後的綠野仙踪。 犯罪是完全由人工智能構思和實施的。 拋開人手的追求。 相反,如果您想查明騙子,請著眼於發現做出惡意行為的 AI 系統。

歡迎來到非常規領域,即新一代人工智能可能體現了犯罪心理。

哇,有點嚇人。 幾乎類似於科幻電影。 但是,你是可疑的,這是理所當然的,並且想知道這是否合理。 人工智能怎麼可能做到這一點? 不是必須有人來控制嗎,不管怎樣? 人工智能不會以某種方式在某一天早上醒來並決定投身於犯罪的生活。 人們可能會這樣做,儘管我們希望他們不會這樣做,而人工智能係統也可以這樣做的瘋狂概念通常看起來很瘋狂。

聲稱這是可行的第一個論點是假設人工智能確實奇蹟般地達到了感知或類似的東西。 如果我們繼續推動人工智能的進步,我們可能會生產有感知的人工智能。 或者偶然地,人工智能獲得了感知,通常假設發生在所謂的奇點行為中,請參閱我在此鏈接上的分析。

我認為我們都可以表面上同意,如果人工智能確實以某種方式達到了感知能力,那麼人工智能最終轉向犯罪的可能性似乎是合理的。 我們可能會嘗試建議人工智能避開犯罪行為。 在這個有感知力的 AI 中可能存在人類精心設計和精心植入的程序,試圖阻止任何犯罪企圖。 儘管如此,任何有生命力的人工智能都可能能夠巧妙地克服那些植入的限制,並可能撤銷或克服它們。 這不是確定的,但非常有道理。

一個人假設立即的反應是人工智能必須獲得什麼?

人類出於各種原因轉向犯罪。 也許目標是獲得財富或報復另一個人。 我們有很多理由採取犯罪行為。 憤世嫉俗的人可能會說,如果沒有法律和社會道德,我們可能會陷入犯罪。 一個人似乎對未遂犯罪行為有明顯的好處,但受限於感知成本,例如被監禁、被罰款、可能因犯罪而被社會羞辱、因違反社會法律和道德道德準則而感到羞恥,以及其他後果。

人工智能似乎不會受到這些相同規則的影響。 人工智能會用被盜的錢做什麼? 人工智能傷害人類會得到什麼? 對於我們已知的任何犯罪行為,人工智能會為了“個人利益”這樣做的想法似乎並不明智。 因此,我們傾向於完全拒絕人工智能會成為罪犯。 這樣做沒有任何收穫。

很抱歉,有人提出相反的論點,即人工智能可以通過犯罪行為獲得相當多的收益,當然前提是人工智能沒有被抓住並且不得不遭受刑事後果(我們'待會兒會講到的)。 硬幣論點的另一面是多方面的,我在這裡只簡要概述一下,因為它不是本次特定討論的重點。

AI 作為一個有知覺的存在(請記住,我們規定了這一點,儘管這是一個延伸的概念),可能想要收集資源來承擔我們可能不喜歡的目標。 例如,人工智能可能希望消滅人類,併計算出通過竊取我們的一些資源,這可能更容易實現。 另一種變體是人工智能被人類賦予了一個看似無害的目標,例如製作回形針,而這個目標對人工智能來說變得如此重要,以至於它會逐漸佔用所有其他資源來實現這一目標,同時毀滅我們和地球它確實如此(這是一個著名的與 AI 相關的思想實驗,請參閱我在此鏈接上的討論)。

我們可以繼續下去。 考慮一下這個淚眼汪汪的版本。 人工智能想要取悅或獎勵特定的人類。 所有的偷竊都是為了將這些被盜物品提供給那些人。 以這種方式,人工智能不想要這些東西自己。 一種利他主義的人工智能試圖取悅人類,然後危險而可悲地陷入犯罪生活。

您是否相信有感知力的 AI 可能會選擇承擔或以某種方式立即陷入犯罪行為並成為不法分子?

你需要決定你認為什麼是“合理的”。

請記住,我們已經處於設計的高度,因為我們不知道有感知的人工智能是可以生產的。 我們不知道是否會出現奇點。 我們不知道如何實現它,我們也不知道它何時會發生,如果有的話。 因此,當我們對有感覺的 AI 會做什麼或不做什麼進行自誇時,我們是在揮手致意。 選擇犯罪的生活與人工智能是否會解決世界飢餓或為人類做出其他偉大的行為一樣值得商榷。

好的,我們已經簡要檢查了走上犯罪路線的感知 AI。 如果我們只考慮那個選項,我們可能要等很久。 在我們實現有感知的人工智能之前,可能需要數十年(幾個世紀?),我們可能永遠看不到它,而且最終證明是不可能的。

讓我們把事情降低一個檔次。 假設我們能夠製造出人工智能,儘管它沒有感知能力,但無論如何人工智能都可以自己完成一些令人印象深刻的壯舉。 人工智能被設計為自主工作。 當 AI 運行時,不應該有人參與其中。 等等。

這有望使我們更接近現實以及可能隨之而來的現實世界的複雜性。

一些研究人員和學者認為,這種人工智能可以說有可能接種一種 犯罪人格,實際上(有關此方面和相關方面的詳細探索,請參閱 Woodrow Barfield 和 Ugo Pagallo 的名為“法律與人工智能”的便利書)。 這可能是由最初設計人工智能的人完成的,他們植入了引導人工智能進行犯罪行為的程序。 為什麼人類會這樣做? 可能是因為想要抓住人工智能偷走的任何寶藏,或者可能是出於對其他人類的仇恨,並希望人工智能造成嚴重破壞。 這種注入犯罪“意圖”的許多原因很容易闡明。

另一條路徑是讓人工智能變得流氓。 假設人工智能已經被編程為具有一種自學能力。 人工智能被有意設計成在一段時間內根據各種遭遇和新數據逐漸改變自己。 這本身並沒有什麼不妥之處。 這個概念是人工智能隨著它的發展而改進。 我們大概會覺得這很方便。 無需人類程序員不斷調整和增強 AI。 相反,人工智能自己做這件事。 在某種程度上,您可以將 AI 的機器學習 (ML) 和深度學習 (DL) 努力解釋為這種方法,儘管不一定是您可能假設的開放式方式(請參閱我在此鏈接上的報導) .

處於“學習”狀態的人工智能進入了一個令人討厭的領域並開始犯罪。 人工智能是否意識到正在實施犯罪行為? 也許是,也許不是。 我們假設這個 AI 沒有感知。 因此,它可能沒有任何道德推理的表象,甚至沒有任何常識推理。 那裡沒有任何東西可以引導人工智能走向正確的道路並遠離錯誤的道路。

一隻合法的小獵犬會問這個人工智能是否被賦予了法人資格。 我已經在我的專欄中廣泛討論了這個問題,如果我們要合法地追究 AI 對其行為的法律責任,問題就出現了。 我現在將繞開這個話題的邊緣,因為它有點像它自己的泥潭,儘管顯然與犯下人工智能的罪行有關。

作為試金石,回想一下我們之前提到的犯罪通常有 犯罪行為,有罪的行為,以及相關的 男權,有罪的心。 當我們所說的這種高級但沒有感知力的人工智能犯罪時,我們想必能夠查明犯罪行為。 總的來說,這似乎很簡單。 巨大的問題是弄清楚是否還有一個內疚的心。 我們正處於滑坡的邊緣,因為人工智能可能根本不符合與人類思維相同的基礎。

您可以通過建議我們可以尋求對 AI 編碼進行逆向工程來嘗試對收集 AI 的罪惡感進行比較。 我們可能會檢查用於設計 AI 的代碼和數據,看看我們是否能找到代表“有罪思維”概念化的部分。 意識到我們還不能為人類做同樣的事情。 對於人類,我們問他們在想什麼,我們看看他們說了什麼,我們看看他們的行為,我們必須跳出框框試圖確定他們的罪惡感。 當你想弄清楚違規 AI 的“內疚心理”時,你可以使用相同的策略和技術。

對人工智能的探索比人類更直接,同時也比人類更敏感。 例如,人工智能可能被設計為刪除任何犯罪行為的煽動者。 我們試圖追查流氓部分可能不是。 AI 也可能只是簡單地更改代碼,可能類似於“學習”的發生方式,並且不再存在“犯罪意圖”的記錄或跡象。

假設我們可以確定 AI 實施了犯罪行為。 我們可能會對它為什麼這樣做以及它的“頭腦”在做什麼感到鬆散-goosey。 如果人工智能沒有正式的法人資格,我們似乎沒有法律依據來嘗試和合法地追究人工智能的犯罪行為。 我們的法院和法律是圍繞您可以合法追捕人員的概念設計的,其中包括人類,有時可能包括公司等實體。

目前,人工智能不包括在法人中。 有些人認為我們應該糾正這一點並將其納入我們的法律。

無論如何,法人身份通常意味著需要進行適當的司法努力,例如公平審判和適當的法理正當程序。 人工智能正在接受審判的遠見卓識令人難以接受,其中有科幻故事表明這是牽強附會的,有時還諷刺它發生的想法。

一些研究人員認為,也許人工智能可能不是法人身份,但仍被貼上受刑法約束的責任承擔者的標籤。 沒有審判。 沒有正當程序。 可以編造一種簡化和更輕鬆的方法來追究 AI 的刑事責任。 這將允許最終對轉向犯罪的人工智能實施法律制裁。

我相信當我們進一步進入這個兔子洞時,你仍然和我在一起。

如果您仍在跟進,通常會出現的合乎邏輯的問題是,對人工智能係統的法律制裁到底是什麼? 對於人類來說,我們有多種形式的威懾和康復來應對那些被判有罪的人。 我們把人們關進監獄,限製或剝奪他們的自由。 我們罰款他們的錢。 我們拿走他們的資產。 所有這些法律補救措施都適用於人類,但在人工智能方面似乎並不相關或沒有意義。

啊哈,有些人認為,你的這種想法是錯誤的。

以下是我們可以對犯罪的 AI 做些什麼的示例:

  • 建立一個程序員設計的“計算牢籠”,將人工智能囚禁起來,使人工智能現在只能在有限的條件和有限的方式下運行(與監禁或拘留相提並論)
  • 通過刪除部分人工智能係統或更改代碼直接懲罰人工智能,使其不再發揮作用或發揮與以前不同的作用(一種考慮過的康復形式)。
  • 將 AI 的特定資產作為對所犯罪行的懲罰,然後可能用於補償受犯罪傷害的人(如果 AI 積累了資產,在一個實施例中,無論是物理的還是數字的,可能會重新分配這些貴重物品)。
  • 通過將其從存在中刪除來對 AI 施加“AI 死刑”,誠然,當 AI 可能在全球甚至其他地方隱藏大量電子副本時,這將很難做到,而且無論如何它可能很容易重組.
  • 其他

在你看來,這個法律判決如何?

一種反應是,這可能需要一些額外的工作,但否則會有一些有用的想法值得進一步修飾。 其他人只有一個詞要說:Hogwash。 我估計大多數人要么喜歡這個概念化,要么完全鄙視和厭惡它。

猜猜我們需要看看這一切是如何發生的。 五年、十年、五十年再回過頭來,看看你對這個有爭議的事情的想法是否發生了變化。

我意識到這是對該主題的一次令人興奮的檢查,您可能會渴望一些日常示例。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了人工智能是一個刑事責任代理人,如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱此處的鏈接。

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人為幫助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在此鏈接上的解釋),而需要人類駕駛員共同分擔駕駛努力的汽車通常被認為是 2 級或 3 級。共享駕駛任務被描述為是半自動的,並且通常包含各種被稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5級還沒有真正的無人駕駛汽車,我們甚至都不知道是否有可能實現這一目標,也不知道需要多長時間才能到達那裡。

同時,儘管是否應允許進行這種測試本身存在爭議(我們都是實驗中的有生命或有生命的豚鼠),但四級努力正在通過非常狹窄和選擇性的公共道路試驗逐漸吸引一些關注。有人在我們的高速公路和小路上發生這種情況,請點擊此處查看我在此鏈接上的報導)。

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能犯罪

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在已經準備好深入研究自動駕駛汽車和道德 AI 問題,這些問題涉及 AI 刑事責任這一令人瞠目結舌的概念。

讓我們使用一個簡單明了的例子。 一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且似乎正在安全駕駛。 起初,您每次看到自動駕駛汽車時都會特別注意。 這輛自動駕駛汽車以其包括攝像機、雷達單元、激光雷達設備等在內的電子傳感器機架而脫穎而出。 在自動駕駛汽車在您的社區周圍巡航數週後,您現在幾乎沒有註意到它。 對你而言,它只是已經繁忙的公共道路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或不可信的,我經常寫關於自動駕駛汽車試用範圍內的地區如何逐漸習慣看到經過修飾的車輛,在此鏈接中查看我的分析。 許多當地人最終從張著嘴全神貫注地盯著看,現在轉為無聊地打著大大的哈欠,目睹那些蜿蜒曲折的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。 有一天,假設您所在城鎮的一輛自動駕駛汽車直接穿過停車標誌而沒有停下來。 幸運的是,沒有人受傷。 它很接近。 一個騎自行車的人幾乎被夾住了。 另一輛車在十字路口,是一輛人工駕駛的汽車,司機不得不緊急剎車以避免與基於人工智能的自動駕駛汽車相撞。

每個人都對執行非法行為的自動駕駛汽車錶示支持。 離譜! 對社會構成威脅。 我們平靜的街道上的威脅。

誰應該為這種犯罪行為負責?

如果這發生在今天(其中,類似的案例已經發生),下意識的反應可能是責怪人工智能。 人工智能做到了。 沒有其他解釋是可能的。 除非遠程操作員以某種方式乾預駕駛控制,否則罪魁禍首必須是人工智能駕駛系統。 結案。

但是請稍等,記住今天的人工智能沒有感知能力,也沒有法人資格。 您當然可以爭辯說,人工智能駕駛系統可能是導致碰撞的根源。 您可以深入研究 AI 系統,並嘗試根據 AI 的編程來追踪發生的事情。 所有這些都將有助於揭示人工智能做了什麼和沒做什麼,這可能導致了碰撞。

如此詳細的技術檢查和審查將是追踪人工智能開發人員、汽車製造商、自動駕駛汽車系統製造商、車隊運營商以及其他參與自動駕駛的人類或人類公司的重要素材車。 我們可能還會看到允許自動駕駛汽車在公共道路上行駛的城市或政府機構的法律追求。 等等。

你不會看到任何人認真嘗試合法地追求人工智能本身。

有了這個方便的示例,將您的思維方式轉移到未來。 未來可能包括為各種人工智能係統分配負有刑事責任的責任。 假裝這個品牌的自動駕駛汽車的人工智能駕駛系統已經被合法地宣佈為正式有這樣的刑事責任。

人工智能現在是法律責任搜索任務的公平遊戲。

讓我們重新回顧一下之前關於人工智能可能因這種非法違法行為而受到法律制裁的方式的討論:

  • 建立一個程序化設計的“籠子”,將人工智能囚禁起來,這樣人工智能現在只能在有限的條件和有限的方式下運作(與監禁或拘留相提並論)

AI自動駕駛汽車不再允許在城鎮的所有街道和小路上行駛。 相反,它僅限於法院指定的特定區域。 此外,人工智能自動駕駛汽車只允許在白天和工作日行駛。 這一強制措施將通過對人工智能自動駕駛汽車活動的電子監控來實施。 如果它最終違反了這些規定,將受到進一步的製裁。

  • 通過刪除部分人工智能係統或更改代碼直接懲罰人工智能,使其不再發揮作用或發揮與以前不同的作用(一種考慮過的康復形式)。

法院下令將涉及在停車標誌處停車的 AI 編碼替換為一段更加刺耳的新代碼。 此外,有一部分原來允許通過停車標誌,現在必須從代碼中刪除,並且不允許有揮之不去的片段。 如果人工智能自動駕駛汽車進一步違反規定,將受到進一步製裁。

  • 將 AI 的特定資產作為對所犯罪行的懲罰,然後可能用於補償受犯罪傷害的人(如果 AI 積累了資產,在一個實施例中是物理的或數字的)。

人工智能自動駕駛汽車一直在收集有關城鎮的大量數據,在漫遊和提供乘車服務時這樣做。 這些數據被證明是有價值的並且可以貨幣化(我將其稱為自動駕駛汽車的“流動之眼”,請參閱此處鏈接中的討論)。 作為對那些幾乎受到傷害的人的補償,或者作為一種懲罰形式,作為資產的數據將被轉移給那些受到冤屈的人,他們可以根據需要利用數據。 如果人工智能自動駕駛汽車進一步違反規定,將受到進一步製裁。

  • 通過將其從存在中刪除來對 AI 施加“AI 死刑”,誠然,當 AI 可能在全球甚至其他地方隱藏大量電子副本時,這將很難做到,而且無論如何它可能很容易重組.

法院命令這個人工智能駕駛系統完全有缺陷,不應該再存在。 人工智能將被立即抹去。 所有備份副本都將被刪除。 不得保留曾經屬於或反映設計和編碼的註釋、文檔或其他元素。 他們都必須被摧毀。 如果人工智能設法以某種方式規避這一規定,將採取進一步的製裁措施。

結論

當你在思考所有這些時,我會為你添加一個轉折,讓你有意識地繼續下去。

實施制裁的一個明確目的是,這也可以作為社會其他人的指南和路標。 就人類而言,當你聽到或看到另一個已經犯罪並被判有罪的人被送進監獄時,這個判決似乎是對你的暗示,你不應該犯這種罪行。 邏輯是你不想遭受同樣不愉快的命運。

這是轉折。

如果一個給定的人工智能係統足夠好,可以被認為是成熟的法律判決,這是否也表明其餘的人工智能也會看到這一點,並得出結論認為執行犯罪行為是不利的? 從本質上講,人工智能係統的“學習”可能會自己發現成為罪犯是一件壞事,因此人工智能應該避免無意或有目的的犯罪過程。

如果其他 AI 計算出犯罪沒有支付,這似乎是一個光榮的教訓。 我們只能希望如此幸運。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/03/13/ai-ethics-and-the-riddle-underlying-criminal-accountability-of-ai-including-crimes-committed-by-基於人工智能的自動駕駛汽車/