人工智能倫理考慮法律強制贖罪基金的優點,以確保對人工智能行為不當的問責制

誰應該受到責備?

這似乎是一個直截了當的問題,儘管在傳奇的阿博特和科斯特洛二人組關於棒球隊的著名喜劇片中,“誰”可能會令人困惑。 你可能隱約熟悉 誰先上 他們製作的喜劇套路是有史以來最持久的短劇之一(對於那些沒有聽過的人來說,劇透警報)。

雅培告訴科斯特洛誰在第一,什麼在第二,我不知道在第三。 巧妙的詭計是一壘手的名字叫Who,二壘手的名字叫What,三壘手的名字叫I Don't Know。 當然,這些短語也有其傳統含義,因此試圖解釋雅培所說的話可能完全令人困惑。 事實上,科斯特洛問了一個看似無關緊要的問題,即誰先上,答案是肯定的。 但這對科斯特洛來說沒有意義,因為他期待一個名字,而是得到一個令人困惑的“是”作為答案。

換檔,當談到人工智能 (AI) 的出現時,不斷被問到的最令人煩惱的問題之一是當人工智能誤入歧途時,誰或可能會追究什麼責任。

我之前討論過人工智能導致或進行犯罪行為時的刑事責任,請參閱我的報導 這裡的鏈接. 還有民事責任問題,例如當 AI 對你做錯時你可能會起訴誰或什麼,這是我將在本文中討論的主題。 所有這些都具有重要的人工智能倫理考慮。 有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括(可能令人驚訝或具有諷刺意味地)評估 AI Ethics 如何被公司採用。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

一場激烈的辯論是現有法律是否能夠充分解決人工智能係統在整個社會中出現的問題。 法律責任通常要求您可以將尾巴釘在驢身上,以確定誰應對有害行為負責。 在人工智能的情況下,可能有一條相當不清楚的路徑將一個或多個特定的人與執行某些有害行為的人工智能聯繫起來。 人工智能可能在很大程度上無法追溯到組成人工智能的來源或發明者。

另一個考慮因素是,即使人工智能的根源可以追溯到某人,問題是這個人是否可能無法合理地預見人工智能最終產生的不利結果。 可預見性的關鍵是評估法律責任時通常需要注意的一個因素。

您可能會想,您可以簡單地追踪 AI 本身,並將 AI 命名為對據稱所造成的任何傷害負責或負責的法律方。 總的來說,流行的法律觀點是人工智能尚未達到法人地位。 因此,嚴格來說,您將無法尋求讓 AI 支付費用,並且需要找到在幕後操縱槓桿的人類(關於我對 AI 的法人身份的分析,請參閱 這裡的鏈接).

在所有這些潛在的法律泥潭中,有一個想法被提出來作為一種可能的補救措施,無論是短期的還是長期的。 這個想法是,也許應該建立一個特殊的補償基金,為那些受到人工智能傷害的人提供經濟救濟。 如果您無法讓 AI 補償您,並且您無法確定應該承擔責任的人,那麼下一個最佳選擇可能是利用旨在幫助受 AI 傷害的人的補償基金。

這樣的基金類似於某種形式的保險,正如一篇發人深省的研究論文所述:“這本質上是一種針對不確定性的保險機制:一個清晰透明的框架,用於在責任訴訟存在的情況下快速賠償由於破壞性行為的不可預見性、損害本身的(類型)或程序的過度成本和/或複雜性,不確定或沒有成功的前景”(Olivia Erdelyi 和 Gabor Erdelyi 的文章,“人工智能責任之謎以及基於基金的解決方法”, 人工智能研究雜誌,2021)。

補償基金將成為總體 AI 擔保計劃 (AIGS) 的一部分,並伴隨對有關法律責任的現有法律的一些輕微改動。 如果對現有的法律制度進行一系列更令人痛心的示範性改變,那麼輕觸可能會更容易實施,並且不需要那種艱難的法律和社會焦慮。 根據研究人員的說法:“這反映了我們的信念——儘管這種快速修復的解決方案很有吸引力—— 不變 將現有的責任規則應用於人工智能或 保護主義動機 訴諸嚴格責任以不惜一切代價確立責任並不是正確的答案,原因有以下三個:首先,忽略這些規則是針對不同情況量身定制的,因此可能不適合人工智能,它們違反了《人工智能》的微妙平衡目標。法律責任制度。 其次,他們通過採取過度懲罰性的方法來抑制人工智能創新。 第三,不正當訴諸嚴格責任只是以教條不一致的方式規避可預見性和過錯問題,而不是對其進行補救”(根據上面引用的論文)。

支持這種人工智能補償基金的論點包括:

  • 減少了應對人工智能造成的傷害的冗長和昂貴的法律審判的需要
  • 讓人類放心,他們可以利用人工智能並在受到傷害時得到賠償
  • 通過減輕 AI 創新者面臨的法律不確定性來促進 AI 創新
  • 可以比對現有法律進行大規模修改更快地投入使用
  • 提供相對明確的補救措施,可靠且隨時可用
  • 其他

與此同時,那些反對人工智能補償金做法的人說:

  • 讓 AI 製造商過分脫困,讓他們逃避責任
  • 將鼓勵人工智能製造商製造缺乏安全和適當控制的人工智能
  • 可能會促使人們錯誤地聲稱 AI 危害,以便他們可以利用資金
  • 迴避並破壞了徹底改革法律以充分管理人工智能的真正需要
  • 可能成為陷入困境並濫用資金的官僚噩夢
  • 其他

顯而易見,這個完全有爭議的概念既有支持者也有反對者。

你將很難立即排除人工智能補償基金作為一種潛在的方法來解決對人工智能造成傷害的日益增長的擔憂。 提議的解決方案也不是灌籃。

一種觀點是,人工智能製造商在設計和推廣人工智能時需要將資金投入基金,作為他們努力的一部分。 這可以解釋為他們必須承擔的一種費用或稅收,作為能夠向世界發布他們的人工智能的一部分。 但是,這種增加的成本是否會抑制試圖突破當今人工智能界限的初創公司的努力? 確保人工智能製造商支付費用或稅款的執法將如何處理?

出現了一系列問題,需要解決:

  • 人工智能補償基金在哪些國家最可行?
  • 是否可以建立全球範圍內相互關聯的人工智能補償基金?
  • 與此類資金相關的詳細和可行的機制是什麼?
  • 人工智能補償基金如何籌資(公共、私人、慈善)?
  • 這會是無過錯保險的基礎,還是會採取其他方法?
  • 等等

一個已經有人工智能補償基金想法的領域包括自動駕駛系統,如自動駕駛汽車和自動駕駛汽車。 有關我對自動駕駛汽車和 AI 自主系統的報導,請參閱 這裡的鏈接.

這是一個關於這可能如何適用於基於人工智能的自動駕駛汽車的草圖。

假設一輛自動駕駛汽車撞到一個騎自行車的人。 騎自行車的人受傷了。 騎自行車的人可能會通過追究自動駕駛汽車的汽車製造商來尋求法律補救。 或者他們可能會瞄準製造人工智能駕駛系統的自動駕駛技術公司。 如果自動駕駛汽車作為車隊運營,另一個法律途徑是追究車隊運營商。 由於人工智能的法人身份尚未確立,因此在這個關頭試圖起訴人工智能不是一種選擇。

與其對任何一方採取法律行動,另一種方法是向適當的人工智能補償基金提出申請或索賠。 該基金將製定涉及索賠審查的正式程序,然後確定是否可以向索賠人提供任何補償付款。 可能有一個上訴程序來幫助那些認為他們被基金錯誤地拒絕或基金沒有充分補償的索賠人。

從理論上講,人工智能補償基金將是一條更快獲得所造成傷害補償的途徑。 你可以想像訴訟可能是多麼費力,被起訴的公司可能會試圖拖延案件。

不過,律師們可能會強調,人工智能補償基金可以讓人工智能製造商等其他各方避免任何明確的懲罰,因為他們在公共道路上放開了他們的自動駕駛汽車,最終撞到了騎自行車的人。 這些公司可能會選擇“不小心”做什麼? 如果沒有法律之劍懸在他們頭上的若隱若現的幽靈,我們會發現自己每天都在面對充滿危險能力的人工智能。

一輪又一輪的爭論去。

結論

AI Ethics 提醒我們,我們應該始終考慮 AI 的道德和法律後果。 在這種人工智能補償基金的案例中,提議的類似保險的資金池的概念似乎很有吸引力。 這些資金似乎就在那裡等著,隨時可以動用,並提供盡可能快的補償。

權衡這是否可能打開閘門,使人工智能的安全控制越來越少,這是一個令人生畏且非常現實的問題。 我們可能不需要為可能已經在某種程度上發生的火災添加燃料。

我們還能以某種方式讓 AI 製造商設計適當的 Ethical AI 並同時建立這些 AI 補償基金嗎?

有人會說是的,我們可以。 通過重新調整現有法律以與 AI 補償基金保持一致,那些受到 AI 傷害的人可能會有一條雙重途徑來尋求他們的公正補償。

誰先上?

是的,這就是(就像我們所有人一樣)首先註意到我們應該考慮人工智能補償基金的潛在用途並修改現有法律,即使只是輕微的修改,提供一種方法來應對優秀人工智能和糟糕的人工智能。

對這一重要考慮沒有任何混淆。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai-問責制/