AI 美德作為負責任 AI 缺失的基石成分說 AI 倫理和 AI 法

你有德行嗎?

在你回答這個問題之前,讓我們解開美德的含義,然後你就可以齊心協力地闡明你的美德。

此外,您可能會驚訝地發現,美德是人工智能 (AI) 領域的一個新興話題,尤其是在 AI 倫理和 AI 法律領域。 我將首先介紹一些關於美德的基礎知識,然後跳入關於美德的最新思考 人工智能美德. 是的,簡而言之,AI 美德作為道德 AI 和最終 AI 法律的先驅被廣泛傳播。 有關我對 AI 倫理和 AI 法的持續和廣泛的全面報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

首先,思考什麼是德行。

有人會說,美德是展示傑出道德的品質或特徵。 一個有德行的人遵守最高的倫理或道德標準。 拉丁詞 維特斯 據稱,羅馬人用它來強調道德正直,特別是勇敢或英勇的行為。 這些都是與有德相關的相當高尚的概念和重要的內涵。

縱觀歷史,關於什麼構成美德的核心或基石,有很多令人費解的地方。 有三塊基石、五塊基石、十塊基石,或者到底有多少?

例如,所謂的 樞機主教 美德被稱為這四戒:

1) 謹慎

2) 堅韌

3) 節制

4)正義(公平)

也許你應該在這四個基石的基礎上,通過認真的自我反省來審視你自己的美德。 你表現出一流的審慎嗎? 你表現出一流的毅力嗎? 你表現出一流的節制嗎? 您是否在努力中展示了一流的公平(正義)?

請注意,我一直說您必須“展示”這些基本措施。 也許將這些藏在你的腦海中是一回事,而將它們引入現實世界的行動和行為可能是完全不同的事情。 僅僅在你的頭腦中保持美德的可能性並不是我們在這裡要考慮的。 你必須把你的想法變成現實。

說話,加上你需要真正說話。

另一個方面是你大概需要遵守 全部 一套經過深思熟慮的基石,才能真正有德行。 如果你在審慎方面是一流的,但在剛毅、節制和正義的其他三方面卻不及格甚至邋遢,你似乎無法勸說你實際上是有德的。 你只是部分如此。 我們要堅持,唯有遵守一切戒律,才能高傲地高舉德行的旗幟。 因此,僅滿足這四戒中的一、二或三戒是不夠的。 您可能會獲得所有四個。

我要加大賭注,所以你最好坐下來等待下一個轉折。

研究過在文藝復興時期和其他歷史時期似乎有些突出的美德清單的研究人員傾向於聲稱當時有七種美德:

1) 謙卑

2) 仁慈

3) 節制

4) 貞潔

5)耐心

6) 慈善

7) 勤奮

如果幸運的七種確實如此,並且如果您打算將其用作規定的美德標準,那麼我很遺憾地通知您,先前的四種必需美德清單已擴展為七種。 這意味著,雖然您之前只有四個要遵守,但現在您要應對的卻是多達七個。

再次開始對這七個基石進行自我反省。

我敢說酒吧似乎在不斷上升。 也許你一開始認為你當然是有德行的,但現在隨著這七大基石的障礙不斷出現,要大膽地宣揚你的美德能力可能會困難得多。

基石的數量可能會很高。

本傑明富蘭克林著名地指出,他認為有十三個基石是品德高尚的,包括(如他的自傳中所述):

1) 節制

2) 沉默

3) 訂購

4) 分辨率

5) 節儉

6) 工業

7) 真誠

8) 正義

9) 適度

10) 清潔度

11) 寧靜

12) 貞潔

13) 謙卑

哎呀,這是一個令人生畏的清單。

還要記住,我們正在製定一個挑戰,斷言你必須是所有這些基石,並且不能在其中任何一個方面都不理想。 這是一個全有或全無的命題。 我們可能會承認你可能是 部分 遵守十三條中的一些而不是全部。 我們也可能願意承認,如果你有時在所有這些方面都完全有德,但在其他時刻你沒有達到這樣的完整性,那麼你是部分有德的。

不過,金星只屬於那些在任何時候都達到所有基石的人。

我們當中有多少人能夠滿足這個嚴格的定義?

我想,如果你舉起手來達到這個程度的覺悟,我們必須向你致以誠摯的祝賀。 只是為了讓您知道,懷疑論者和憤世嫉俗者一定會質疑您聲稱的誠意。 如此勸告。

既然我們已經將美德擺在桌面上,那麼您可能想知道美德與道德有何關係。

我很高興你問。

一個熱心的信念是 美德是道德的源泉.

在這個經過深思熟慮的框架中,你的美德會引起道德上的努力。 因此,當有人喋喋不休地列出他們的道德原則或規則時,只有在也植根於美德的情況下,這些原則或規則才會被認為是真誠的。 你的美德趨向於你的道德外表。

我想一個方便的類比可能會有所幫助。

我們種一些種子來種花。 土壤對於這些花朵的生長至關重要。 我們可能願意說,土壤是美德的集合,而種子和花朵是從基岩中流淌出來的倫理。 如果沒有合適的床上用品,其他任何東西都不會獲得牽引力。 你可以整天喋喋不休地談論種植這些花,但如果土壤不好或不利於手頭的事情,你需要預料到開花錯誤或其他相關疾病會隨之而來。

歡迎您對粗略的類比提出異議。 只是想就這種美德與道德難題達成一種總體觀點。 請注意,有些人會說美德和道德是一回事。 其他人會說他們不同。 在那些說他們不同的人中,有一個陣營認為美德是基石,道德是露頭(同時也存在其他觀點不同的陣營)。

為了清楚地表明這一點,並不是每個人都同意看待這些問題的基岩和露頭方式。 儘管如此,我們將在此特定討論的基礎上繼續進行。 你當然可以對這樣一個推定的推定進行詳細的辯論,但至少要認識到這是一個假設,只是為了富有成效的討論而進行的。

作為速記,讓我們將其稱為 美德倫理 設計。

稍微改變一下,仔細考慮當今美味的道德表達和讚美的趨勢。

這些天來,關於道德的爭論很多,並公開詢問我們要遵守哪些道德規則或原則。 人們的行為方式就是如此。 此外,正如您稍後會看到的那樣,人工智能也應該遵守一些提議的道德規則或原則。

關於道德規則和道德原則的思考的關鍵在於,也許我們正專注於錯誤的事情。 美德倫理陣營的人會爭辯說,與其陷入無盡的道德規則清單等,我們更明智地關注美德。 先把美德理順,道德準則自然會從中流露出來。

回到我的比喻,我們可以整天就想要種的花進行激烈的討論,但如果我們不首先檢查並確保我們擁有合適的土壤,那麼任何種花的野心都不會成為有很多實際用途。 想像一下,你已經決定要種一束看起來很吸引人的花,但事實證明,在播下這些種子後,它們永遠不會開花結果,因為土壤沒有首先得到糾正。

你甚至可能暗示,對遵循什麼道德規則的持續喧囂已經成為一種過度的痴迷。 它越來越熱,越來越捲入。 反過來,我們也越來越遠離必須首先關注美德的內在真理。

在一篇題為 道德與美德 由研究人員 Manuel Velasquez、Claire Andre、Thomas Shanks、SJ 和 Michael J. Meyer 提出,他們提供了這一值得注意的評論,即我們可能能夠扭轉這種固執的態度:“幸運的是,這種對原則和規則的痴迷最近受到了挑戰幾位倫理學家認為,強調原則忽略了倫理的一個基本組成部分—— 美德. 這些倫理學家指出,通過關注人們應該做什麼或人們應該如何行動,“道德原則方法”忽略了更重要的問題——人們應該成為什麼樣的人。 換句話說,倫理學的根本問題不是“我應該做什麼?” 但“我應該成為什麼樣的人?” 根據“美德倫理”,我們應該努力實現某些理想,例如卓越或奉獻於共同利益,並讓我們的人性得到充分發展”(發佈於聖克拉拉大學馬庫拉應用倫理中心)。

你可能隱約意識到,人工智能領域已經有大量關於人工智能倫理原則和規則的提案。 你可以很容易地找到各種方式和一些明顯的道德 AI 戒律。 有人可能會說,它們是名副其實的一角錢。

如果你願意的話,更令人震驚的是,最近出現的爭論是,也許,只是也許,我們應該對 AI 美德給予應有的關注。 停止對 AI 道德規則和原則的瘋狂和憤怒的指責,轉而將您的願景投向 AI 美德。 如果我們能弄清楚 AI 的美德,剩下的就很容易了(嗯,有點,或者至少更明智地進行)。

在進入 AI 美德主題之前,我想首先為 AI,特別是 AI 倫理和 AI 法律奠定一些基本基礎,這樣做是為了確保討論在上下文中是合理的。

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

現在我已經為這些相關的 AI 倫理和 AI 法律主題奠定了有用的基礎,我們準備好進入 AI 美德這個令人興奮的話題。

人工智能美德被調整以幫助道德人工智能

當我提到 AI 美德時,請意識到我是 任何監管機構都不批准 談論有感知的人工智能。

如果(或有些人會爭辯 什麼時候) 我們到達有感知的人工智能,有感知的人工智能可能有也可能沒有一套美德。 我們可以爭論直到奶牛們回家,關於有感知的人工智能是否會包括它自己的美德外表。 一些權威人士會堅持認為,美德是人類獨有的元素,毫無疑問,有感知力的人工智能將完全不存在。

其他專家則宣稱完全相反,即有感知力的人工智能當然會有優點。 在後一種情況下,我們應該擔心如何確保感知人工智能具有正確的美德。 也許我們可以將我們的美德注入人工智能,讓它變得有知覺。 如果這行不通,我們希望有感知力的 AI 足夠聰明,能夠意識到美德的重要性,並根據自己的意願來判斷它們。

旋轉木馬轉來轉去。

對於今天的觀點,我想繼續關注當代非感知人工智能。

作者 Thilo Hagendorff 在一篇題為“支持將 AI 倫理付諸實踐的基於美德的框架”的研究論文中提出 美德倫理 因此可能會得出這樣的信念,即有四種基本的 AI 美德:

1) 正義

2) 誠實

3)責任

4) 護理

該論文認為,“許多道德倡議都為人工智能領域的良好技術發展規定了一套原則和標準。 然而,一些人工智能倫理研究人員指出,這些原則缺乏實際實現。 此後,人工智能倫理經歷了一個實際的轉變,但沒有偏離原則性的方法。 本文提出了一種基於美德倫理的原則方法的補充。 它定義了四種“基本的人工智能美德”,即正義、誠實、責任和關懷,所有這些都代表了構成人工智能領域道德決策的前提條件的特定動機設置。 哲學與技術,2022 月 XNUMX 日)。

人工智能的四大美德是如何衍生出來的?

根據研究人員的說法,檢查大量的 AI 道德準則是可行的,並且幾乎可以追溯到基本的關鍵 AI 美德必然是什麼。 你需要做的只是一些有意識的分析,你就可以把泥潭變成漂亮整潔的東西。 如前所述:“在篩選所有這些原則時,可以通過使用簡化方法並將它們分組,提煉出涵蓋所有這些原則的四種基本美德”(同上)。

包括各種圖表和圖形,當涉及到 AI 倫理原則或規則時,我們可以將四種 AI 美德解釋為由這些實施例組成:

  • 人工智能的正義美德:人工智能倫理準則包括算法公平、非歧視、偏見緩解、包容、平等、多樣性等。
  • AI誠信美德:AI道德準則包括透明度、開放性、可解釋性、可解釋性、技術披露、開源、承認錯誤和錯誤等。
  • 人工智能的責任美德:人工智能倫理準則包括責任、義務、問責、可複制性、合法性、準確性、考慮長期技術後果等。
  • AI 關懷美德:AI 道德準則包括非惡意、傷害、安全、隱私、保護、預防、隱藏成本、慈善、福祉、可持續性、和平、共同利益、團結、社會凝聚力、自由、自治、自由、同意等

讓自己置身於不得不做這種逆向工程的境地,這就是研究論文建議應該在心理上執行的內容:“美德 A 是否描述了當被人工智能從業者內化時,會內在地激勵他們採取行動的性格傾向?一種“自動”確保或更有可能使他們的行動結果(除其他外)產生滿足原則 X 規定的要求的技術製品嗎? 或者,簡而言之,美德 A 是否會轉化為可能導致符合原則 X 要求的結果的行為?” (同上)。

可以肯定地說,我們可能不會都得出相同的結論。

似乎有足夠的空間來爭論一個特定的 AI 道德準則屬於某個特定的 AI 美德,或者合理地置於其他一些美德中,或者可能屬於多個,等等。這可以很容易地來回移動,這樣做以文明和彬彬有禮的語氣(無需轉變為憤怒的兩極分化焦慮)。

您可以通過提出超出上述四個方面的其他 AI 美德並合理地聲稱還有更多 AI 美德可以擁有,從而更深入地了解這種切片和切割。 有人假設你也可以嘗試減少計數,只說三到兩個 AI 美德,儘管這可能會讓你陷入相當不穩定的哲學和半不切實際的基礎。

在你開始過度分析這四個 AI 美德之前,你應該知道研究論文表明還有兩個額外的 二階 混入其中的 AI 美德。 新增的兩個二階 AI 美德是:

這些似乎包括:

  • AI 審慎美德:AI 道德規範包含系統 1 思維、隱性偏見、群體內偏袒、自私偏見、價值行動差距、道德脫離等。
  • AI 堅韌美德:AI 道德準則涉及情境力量、同伴影響、權威等。

這兩個二階 AI 美德的基本原理或基礎部分基於這個概念:“雖然這兩種美德可能有助於克服有限的道德,但它們同時也是實現基本美德的推動力。 個人的心理偏見和情境力量可能會妨礙公正、誠實、負責任或關懷他人的行為。 審慎和堅韌是對可能限制基本人工智能美德的許多力量的答案,審慎主要針對個人因素,而堅韌解決可能損害人工智能研發中道德決策的超個人問題”(同上)。

總而言之,如果我可以嘗試回顧一下提議的 AI 美德集,它們是:

  • 正義
  • 誠實
  • 尊重他人
  • 關心
  • 慎重 (二階)
  • 堅忍不拔 (二階)

這通常傾向於由這種與人工智能倫理規則或原則的耦合組成:

  • AI正義美德:人工智能倫理準則包括算法公平、非歧視、偏見緩解、包容、平等、多樣性等。
  • AI 誠實的美德:人工智能倫理準則包括透明度、開放性、可解釋性、可解釋性、技術披露、開源、承認錯誤和錯誤等。
  • AI 責任美德:人工智能倫理準則包括責任、義務、問責、可複制性、合法性、準確性、考慮長期技術後果等。
  • 人工智能護理美德:人工智能倫理戒律包括非惡意、傷害、安全、隱私、保護、預防、隱藏成本、慈善、福祉、可持續性、和平、共同利益、團結、社會凝聚力、自由、自主、自由、同意等。
  • AI 審慎美德 (二階):包含系統 1 思維、隱性偏見、群體內偏袒、自我服務偏見、價值行動差距、道德脫離等的 AI 道德規範。
  • AI 堅韌美德 (二階):AI 道德準則涉及情境力量、同伴影響、權威等。

對所有這一切的激烈辯論很容易被推動採取行動。

我敢肯定,你們中的一些人現在已經對所提供的一種或另一種 AI 美德發狂了。 這不是美德,有些人可能會大喊大叫。 你們中的一些人可能會大喊大叫,但措辭不夠充分。 可能會出現一場大喊大叫的比賽。

在研究探索的各種預期的批評和疑慮中,在我看來特別值得注意的一個與所涉及的以代理為中心與以行為為中心的經典問題有關。 以主體為中心的觀點基本上是我們希望代理人或演員具有某種思想,而以行為為中心的觀點傾向於關注所採取的行動。

也許,有人會說,AI 美德更多地是關於以代理或代理為中心的方面,而 AI 倫理則更多地是關於以行為為中心的成分。 我們希望 AI 開發人員和 AI 系統植根於 AI 美德作為一種“思維方式”(在 AI 的情況下是編程),並且 AI 開發人員的行為和 AI 的行為通過道德 AI 戒律來表示.

還有一種危險是,有些人會歪曲這一點,好像使用 AI 美德意味著 AI 永遠不會做錯任何事。 或者,我們可能會陷入設計 AI 美德的困境,同時忽視 AI 倫理原則或規則。 很多動機都可以用來削弱 AI 美德作為一個框架,該框架要么沒有太多好處,要么做得更糟,因此會分散和混淆流離失所的評論員可能真正需要做的工作。

結論

我們需要 AI 美德嗎?

如果是這樣,它們是否會被那些已經沉浸在 AI 倫理中的人所使用和熱情地接受,或者 AI 美德是否會被視為重複的、虛假的誘餌、令人討厭的分心,或者以其他方式被描繪成一些誘人但不合適的分裂已經讓道德人工智能進入設計和使用人工智能的公司的思想和手中的努力不堪重負。

許多 AI 道德倡導者在讓商業領袖傾聽和讓 AI 採用者認真考慮道德 AI 戒律方面已經負擔過重(有關我對 AI 道德委員會的報導,請參閱 這裡的鏈接,對於那些打著 Ethical AI 旗幟的工人倦怠分析,請參閱 這裡的鏈接)。 你可以想像,對 AI 美德的普遍反應是,盤子裡已經充滿了 AI 道德規則,因此,在我們冒險進入 AI 美德的平流層之前,讓我們充分利用這些規則。

一個反駁是我們無意中跳過或忽略了基礎知識。 AI 美德早就應該佈局了。 雖然我們不能讓時光倒流,但我們可以努力彌補失去的時間。 人工智能倫理同樣強大的機械化當然可以吸收遲來的人工智能美德。

去吧,別抱怨了。

弗里德里希·尼采說:“在我們注意到對手完全沒有美德之前,我們不會特別重視擁有美德。” 你可能會同意, 壞的人工智能 不僅激發了我們對 AI 道德需求的認識,而且同樣(或應該)激發了我們對 AI 美德的興趣和可能的接受。

對此,羅馬政治家馬庫斯·圖利烏斯·西塞羅說的最後一句話,據報導,他為此驚呼:“敵人在城門之內; 我們必須與我們自己的奢侈、我們自己的愚蠢、我們自己的犯罪行為抗爭。” 你看,惡習已經在人工智能的大門之內,我們可能需要提高對美德的關注,以對抗不斷上升的惡習。

AI 美德在大門口耐心但堅持不懈地等待。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/11/15/ai-virtues-as-missing-bedrock-ingredient-for-responsible-ai-says-ai-ethics-and-ai-法律/