AI 道德和法律 AI 被稱為 AI Ethics-Washing 的欺騙性藉口所困擾

讓我們探索“wash”和“washing”這兩個詞可以延伸和利用的無數種方式來傳達各種智慧的珍珠。

例如,我們知道人們有時會預先警告您不應在公共場合洗髒衣服。 我記得小時候,大人經常警告說,不恰當的言論可能會導致你的嘴被肥皂洗掉。 另一個經常被引用的短語是,一切似乎最終都會水落石出。

如果你擔心一些你不希望與之相關的事情,建議你看看你是否可以不去管它。 各種與洗滌相關的注意事項經常被提及,包括您可能會立即被洗掉或被洗過。 洗掉臉上的雞蛋是一句古老的格言,似乎仍然偶爾出現在談話中。

使用顏色來表示洗滌的變化也是相對眾所周知的。 據說,粉飾的概念至少可以追溯到1500年代。 有人對紅洗、紫洗等表示擔憂。 我敢說,“漂綠”也許是當今最常用的流行語之一,表面上指的是在宣揚可持續發展時的空洞行為,但卻沒有用任何言行一致的實質內容來支持所主張的言論。

您可能不知道最新版本的洗滌之一,即人工智能倫理洗滌。

有些人喜歡將措辭縮短為“道德清洗”,儘管這可能會產生一些混亂,因為這種看似替代的措辭可能指的是幾乎任何類型的以道德為導向的清洗。 我將在本文中討論的道德清洗的特定形式包括以人工智能為中心的道德和所有相關的道德考慮。 為了清楚起見,我想建議道德清洗涵蓋了各種各樣的道德清洗,這些道德清洗可能與人工智能本身幾乎沒有關係或根本沒有關係。 人工智能道德清洗是一種特殊的道德清洗,專門針對人工智能領域。

你可能想知道,人工智能道德清洗到底包括什麼?

我的總體定義是AI道德清洗可以定義如下:

  • 人工智能道德清洗需要口頭上或粉飾表面,聲稱對人工智能道德準則表示關心,有時不僅沒有特別遵守人工智能道德方法,甚至甚至顛覆或削弱人工智能道德方法。

有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

人工智能道德清洗的一個簡單例子可能會對您有所說明。

假設一家正在開發人工智能係統的公司希望讓世界知道他們的人工智能有多麼出色。 該公司認為,獲得有關人工智能的大量正面媒體和社交媒體關注的一種方法是宣傳人工智能的運作方式是完全公平和平衡的。 人工智能是完全值得信賴的。 公司嚴格遵循創建所謂的宗旨 負責任的AI,請參閱我的報導 這裡的鏈接。 其斷言是,所有流行的人工智能倫理原則都已完整地融入到人工智能係統中。

聽起來很棒!

只是一個小問題。

事實證明,該公司沒有做這些事情。

他們沒有遵守人工智能道德準則。 他們說他們做了,但他們並沒有這樣做。 該公司的領導者和營銷團隊認為,聲稱他們嚴格遵守人工智能道德考慮因素可能會對業務有利。 不需要真正做艱苦的工作來處理那些煩人的人工智能道德準則,而只需說你做到了。

瞧,他們立即能夠通過加入人工智能道德潮流來推廣他們的人工智能。

十分簡單。

但這是一條危險的道路,實際上可能會產生大問題。

當公司和領導者在遵守人工智能道德方面幾乎沒有採取任何行動時,決定錯誤地援引人工智能道德,可能會給自己帶來很多後果。 首先,如果有一天他們的人工智能道德謊言被曝光,他們將面臨嚴重聲譽反彈的風險。 他們謊稱自己具有人工智能道德意識。 此外,一旦被揭穿謊言,無論是否與人工智能倫理有關,也會讓他們陷入更大的困境。 這是一種雙重的謊言。

其次,許多法律後果可能會對他們及其公司造成影響。 一是他們沒有按照他們所說的去做,可能會因其虛假陳述而被追究法律責任。 另一個原因是,他們的人工智能最終可能會違反涉及社會敏感領域的法律,例如表現出不當偏見和以歧視性方式行事。 法律問題清單很長,最終可能迫使公司陷入代價高昂的法律訴訟,甚至可能沉沒整艘船。

到底為什麼一家公司及其領導者會選擇使用人工智能道德清洗?

嗯,納入道德人工智能實踐的成本可能會有些高,但反對意見是,最終,擁有真正的、在遵守人工智能道德方法方面具有更高水平的人工智能所帶來的好處很容易超過成本。 儘管如此,一些公司還是希望盡快推出他們的人工智能,然後他們會擔心在開發過程中沒有考慮道德人工智能帶來的後果。

老話似乎開始生效,包括現在付錢給我或稍後付錢給我。 一些領導者和公司認為,擲骰子是值得的,並希望當他們選擇避免​​“立即付款”方面時,不必承擔“稍後付款”的價格。 我認為,在人工智能倫理方面,沒有免費的午餐。 你要么儘自己的一份力量,要么承擔後果。

這並不是說這一切沒有太多迴旋餘地。

公司可能會涉足人工智能倫理,然後試圖誇大他們所做的事情。 他們的潛在假設是,他們將有足夠的辯護來反駁任何關於他們根本沒有納入人工智能道德的指控。 他們可以指出某種形式的半心半意的人工智能道德活動,這可能會讓他們擺脫困境。 因此,爭論從他們沒有做出任何人工智能倫理努力轉向他們是否做得足夠。

這是一個幾乎可以無休無止的爭論,並為人工智能道德洗滌供應商提供了很大的迴旋餘地。

部分鬆散的方面是,目前還沒有關於人工智能道德的公認的普遍且明確可實施的標準。 如果沒有一套連貫且全面的指標,任何關於人工智能道德是否得到適當遵守的討論都將是脆弱和混亂的。 該公司將堅稱他們做得足夠了。 外部人士或其他聲稱該公司做得不夠的人將面臨一場艱苦的戰鬥,以展示這種反駁。 歧義可能會占主導地位。

在深入探討人工智能道德清洗背後的瘋狂和模糊的考慮之前,讓我們先就深刻的整體主題建立一些額外的基礎知識。 我們需要簡單地深入了解人工智能倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

現在讓我們回到AI道德清洗的話題。

我通常看到的人工智能道德清洗有四種主要變體(我稍後會解釋這些):

1) 不知道自己是誰的人工智能道德清洗者: 人工智能倫理因對人工智能和/或人工智能倫理的無知或文盲而被洗刷

2) 陷入其中的人工智能道德清洗者: 儘管人工智能倫理和人工智能在其他方面是真實的,但人工智能倫理卻因無意中的滑倒而被洗刷

3) 人工智能道德清洗機的薄弱拉伸: 人工智能道德有目的地清洗,儘管只是一點點,有時幾乎可以原諒(或不可原諒)

4) 知道並公然兜售人工智能道德規範的人: 人工智能道德通過陰險且常常令人髮指的設計徹底清洗

我一般會建議四種變體,從最無辜的到最有罪的,關於人工智能道德清洗的意識。 讓我們逐一介紹這四個,從第一個開始,一直到相當可恥的第四個。

首先,有些人有些不道德,他們不知道什麼是人工智能道德,他們不知道什麼是人工智能道德清洗,他們甚至可能對人工智能也不太了解。 你可以說他們對這些話題無知或文盲。 對他們來說,他們可能正在進行人工智能道德清洗,但盲目而幸福地沒有意識到他們正在這樣做。

這真是難過;這真是傷心。

如果人工智能道德清洗是由一家主要新聞機構或知名社交媒體影響者進行的,情況也可能特別糟糕。 他們可能被灌輸了謊言,但他們沒有審查這些謊言。 與此同時,他們利用自己的影響力和影響力來延續人工智能道德清洗的主張。 可悲的是,更糟糕的是,它對社會造成了損害。 那些讓自己被愚弄的人感到羞恥。 他們需要明智起來。 請記住,被愚弄和看起來愚蠢是近親。

接下來是人工智能道德清洗,這是一個失誤。 想像一下,一家公司在遵守人工智能道德準則方面做得相當好。 我們可以祝賀他們做到了這一點。 不幸的是,假設在某個時刻他們發布了有關其人工智能的公告,但從人工智能倫理的角度來看,該公告並沒有得到很好的支持。 如果這是一個相對無害的陳述或無意的錯誤,我們可能會給予他們一些自由度。 當然,如果他們提出的觀點嚴重超出了底線,那麼滑點就不會那麼容易被忽視。 有一句名言說,建立聲譽需要永遠的時間,但徹底摧毀它只需要短暫的時間。

接下來我們進入四個類別中的最後兩個。

這些罪魁禍首充分意識到人工智能道德清洗,並有意識地、公開意圖地決定利用它,也許作為公司戰略的一部分或通過其他神聖手段。 後兩者之間的主要區別在於,人工智能道德清洗可能是次要的,也可能是重大且關鍵的。 有些人選擇拉伸事物並稍微超出界限。 還有一些人則熱衷於將人工智能道德清洗髮揮到極致。

你可能會想,任何極端的人工智能道德清洗肯定都是顯而易見的,極端分子會把手伸進餅乾罐裡被抓住。 大家都會看到皇帝沒有穿衣服。 遺憾的是,鑑於當今世界對人工智能和人工智能倫理的整體混亂,存在著足夠的模糊性,即使是極端的人工智能倫理清洗也能獲得免費通行證。

對於那些對人工智能道德持嚴肅和清醒態度的人來說,這可能會非常令人厭煩。 他們看著其他人亂扔各種污水,這在人工智能道德清洗中非常明顯。 極端分子引起了媒體的廣泛關注。 他們有眾所周知的15分鐘成名經歷。 當市場上其他人肆無忌憚地進行人工智能道德清洗時,那些在人工智能道德問題上做真正工作和正確事情的人可能會感到憤怒和不安。

這幾乎可以比作體育運動中的榨汁和興奮劑。 如果其他人能夠通過使用違禁的提高成績的藥物來達到相同水平,那麼一個全心全意自然成為一流運動員的運動員可能會完全垂頭喪氣。 你應該指出另一個劇透嗎? 您是否應該悄悄選擇也服用這些藥物,以毒攻毒? 這是一個難題。 關於我關於人工智能領域的榨汁或興奮劑如何發生的討論,請參閱 這裡的鏈接.

現在我們已經介紹了一些關於人工智能道德清洗的內容,我們可以介紹一些同樣在同一領域的其他相關流行語。

以下是我們可以簡要探討的一些內容:

  • 人工智能倫理劇場
  • 人工智能道德購物
  • 人工智能道德抨擊
  • AI道德屏蔽
  • 人工智能道德公平清洗

讓我們簡要地檢查一下每一個流行語。 並不是每個人都同意每個短語的確切含義,因此我將與您分享我的總體印象。

人工智能倫理劇場

人工智能倫理劇場與人工智能倫理洗滌有些相似,其理念是以經過深思熟慮的舞台和儀式方式,大規模展示遵守人工智能倫理戒律的情況。 如果舉辦馬戲團或人工智能道德劇院的公司確實遵守人工智能道德實踐,你可以說他們理應能夠這樣做。 事實上,您可以進一步爭辯說,這將有望激勵其他人也遵守人工智能道德規範。

另一方面,人工智能倫理劇場似乎往往太過分了。 擁有所有這些小馬和大象的馬戲表演往往會誇大真正進行的事情。 這又開始進入前面提到的人工智能道德清洗的第二、第三或第四類。 這部戲劇到底是好大於壞(比如鼓舞人心),還是壞大於好(可能會刺激人工智能道德被其他人清洗),還有待觀察。

人工智能道德購物

設想一家公司要構建一個人工智能係統,並意識到他們應該在人工智能的開發生命週期中納入人工智能道德方面的內容。 他們應該使用眾多人工智能道德準則中的哪一個?

一次選擇其中的幾個可能會令人困惑,並使他們的人工智能工作過於龐大。 如果有一個內部採用的一套所有人都可以輕鬆參考和理解的人工智能道德實踐,那麼開發工作將更有可能遵守人工智能道德實踐。

好吧,制定人工智能倫理原則的一種方法是從眾多可用的原則中選擇一個。 另一種方法是採取幾組並嘗試將它們合併在一起。 合併的問題可能是您花費了大量寶貴的精力和時間來討論如何最好地將這些集合合併為一個綜合整體。 這種關注可能會分散你的注意力,讓你無法繼續開發過程,而且還可能會讓人工智能團隊僅僅因為人工智能道德合併活動期間可能發生的激烈辯論而感到憤怒。

總體而言,您還可以嘗試將注意力轉向您認為最容易採用的人工智能道德準則集。 這看起來完全沒問題。 為什麼要讓生活變得比現在更困難呢? 與此同時,假設你選擇了一套被淡化的人工智能道德規範。 你的目標是盡你所能做最少的事情。 你想昂首闊步地表明你遵守人工智能道德準則,同時暗中選擇極簡主義甚至更少的極簡主義。

有些人將此稱為人工智能道德購物。

您正在四處尋找人工智能道德原則,這將為您提供聲稱遵守人工智能道德的最簡單途徑。 這確實有道理,因為為什麼你必須做超出必要的事情呢? 然而,通過找到一套幾乎不加掩飾的人工智能倫理並堅持它,就好像它是強大和真誠的,而現實是它是稀疏和邊緣的,這種情況可能會被扭曲。

人工智能道德抨擊

人工智能道德攻擊的概念有些簡單。

您抨擊或詆毀人工智能道德準則的本質和使用。 一種常見的抨擊形式是堅持認為人工智能道德準則毫無價值,不值得印在紙上。 另一個流行的批評是,人工智能倫理是一種與現實世界無關的學術活動。 甚至有人勸誡人工智能道德是不好的,大概是因為它為那些想要看起來自己正在正確開發人工智能的人提供了虛假掩護。 從這個意義上說,人工智能倫理是一個掩蓋計劃。

我不會詳細闡述對人工智能道德的攻擊現象,並建議你看看我的報導,解釋為什麼這些攻擊要么是錯誤的,要么至少是誤導的,請參閱 這裡的鏈接.

人工智能道德屏蔽

人工智能道德屏蔽通常是指人工智能道德是一種欺騙性的盾牌,可以隱藏或掩蓋不良行為者和不良人工智能道德努力。 我在本文的討論中多次提到了這一點。

人們一直存在一種疑慮,一些人會自豪地展示他們正在使用人工智能道德,但潛在的現實是他們幾乎沒有做任何此類事情。 對於那些說我們應該完全擺脫防護罩的人,我傾向於反駁說,這就像把嬰兒和洗澡水一起倒掉一樣。

人工智能道德公平清洗

公平很重要。

您可能還記得,當我討論人工智能道德準則時,最常見的人工智能道德準則之一是努力確保人工智能公平或表現出公平的外表。 這引發了“公平清洗”的流行語,它有時被用來喚起人工智能係統被認為或聲稱公平的可能性,而實際上它可能不公平,或者幾乎沒有證據支持它是公平的。 這是人工智能倫理與人工智能公平的概念考慮的一點混搭,因此表達這一點的捷徑是說存在潛在的 公平清洗 這可能會發生。 研究人員這樣描述此事:“特別是,由於機器學習中公平概念的重要性日益增加,公司可能會試圖進行公平清洗,我們將其定義為宣揚公司使用的學習模型的錯誤認知公平,但也可能不公平”(作者:Ulrich Aiıvodji、Hiromi Arai、Olivier Fortineau、Sebastien Gambs、Satoshi Hara 和Alain Tapp,《公平清洗:合理化的風險》)。

關於人工智能道德清洗還有另一個值得你考慮的問題。

從宏觀角度來看,人們擔心人工智能倫理的興起會成為更宏大事物的盾牌或掩護。 您可能知道,正在做出許多努力來製定有關人工智能治理的法律。 這種情況在全球各地都在發生。 歐盟正在做出強有力的努力,我在我的專欄中對此進行了報導,美國以及許多國家也正在進行同樣的努力。

一些人認為,擁抱人工智能倫理可能是避免這些法律頒布的一種手段。 公司似乎可以令人信服地辯稱,不需要新的法律,因為人工智能道德的使用可以適當地處理任何人工智能問題。 人工智能道德通常被歸類為“軟法律”的一種形式,並且通常是自願的(其他條件相同)。 有關人工智能的法律被歸類為所謂的“硬法”,並且(通常)不是自願制定的。

人們普遍認為,相對於硬法,企業更喜歡軟法,從而給予它們更多的自由和迴旋餘地。 並非所有人都同意這種觀點。 有人說,軟法允許企業做出不當行為,而解決這些問題的唯一方法是製定硬法。 其他人指出,公司有時更喜歡硬性法律,因為這可以提供更清晰的競爭環境。 硬性法律有可能使所有參與者遵守相同的規則。 軟法律允許某種挑選,從而造成混亂並擾亂競爭環境。

以下是研究如何描述人工智能道德在這種對可能發生的事情的更宏觀的看法中受到的影響:“一方面,該術語已被公司用作可接受的外觀,證明放鬆管制、自我監管或市場驅動的治理是合理的,並且人們越來越認同科技公司出於自身利益而採用道德行為的表現。 我們將科技公司這種日益工具化的道德語言稱為“道德清洗”。 除了人工智能道德委員會之外,道德清洗還包括簡化道德工作價值的其他嘗試,這些嘗試通常構成公司溝通策略的一部分:僱用幾乎沒有權力製定公司內部政策的內部道德哲學家; 注重人性化設計——例如促使用戶減少在應用程序上花費的時間——而不是解決產品本身存在的固有風險; 對“公平”機器學習系統工作的資助,積極地掩蓋了圍繞這些系統對社會的更廣泛影響的更深層次的質疑”(作者:Elettra Bietti,“從道德清洗到道德打擊:道德哲學中對技術道德的看法”, 2020 年公平、問責和透明度會議論文集).

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否闡明了人工智能道德清洗的任何問題?如果是,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能道德清洗

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

您幾乎肯定已經看到過一些頭條新聞,大膽宣稱自動駕駛汽車已經到來,並且自動駕駛汽車已經很完善。 這通常意味著自治方面已經得到解決。 我們衍生出的人工智能與人類司機一樣好,甚至可能比人類更好。

只是為了確保戳破泡沫並澄清事實,但事實並非如此。

我們確實知道,美國的人類駕駛員每年會發生約 2.5 萬起車禍,導致每年超過 40,000 人死亡,請參閱我的統計數據: 這裡的鏈接。 如果人工智能駕駛系統能夠像人類駕駛員一樣安全或更安全地駕駛,那麼任何看似合理的人都會歡迎人工智能駕駛系統。 此外,我們希望我們能夠體驗到全民出行,讓那些今天行動不便的人擁有人工智能驅動的車輛,為便捷且廉價的交通提供現成的通道。

一些專家令人震驚地“加倍努力”,並聲稱自動駕駛汽車不會崩潰,這是可恥的。 這絕對是瘋狂且完全錯誤的。 更糟糕的是,它提出了無法滿足的更高期望。 如果你能讓民眾相信自動駕駛汽車不會撞車,那麼一旦發生與自動駕駛汽車相關的碰撞事故,他們就會大喊大叫。 有關我對為什麼不可駁回的索賠是瘋狂的並且對社會造成損害的詳細解釋,請參閱我的報導: 這裡的鏈接.

所有這些誇大或其他謊言都可以說是被人工智能倫理戒律所涵蓋的,因為如果你遵守人工智能倫理原則,你就不應該做出這些類型的瘋狂和未經證實的主張。 因此,這些歪曲和謊言很容易屬於人工智能道德清洗的範疇。

令人遺憾的是,與自動駕駛汽車和自動駕駛汽車相關的人工智能道德清洗非常普遍。 在互聯網上進行隨意的即興搜索,你會發現無數關於自動駕駛汽車的滑稽且未經證實的說法。 這不僅僅局限於那些在自己的博客上的人。 各大新聞機構都陷入了困境。 各大公司都陷入了困境。 初創公司陷入了困境。 風險投資公司陷入了困境。 股東們深陷其中。 等等。

我懷著悲觀的高度信心說,人工智能道德在這個特定領域的洗禮非常猖獗。

關於人工智能道德清洗的流行語的一個特殊變體是“自動清洗”的概念,它需要自治和自治系統。 作者麗莎·迪克森(Liza Dixon) 對此進行了描述:“自動清洗適用於自動化,被定義為做出未經證實或誤導性聲明的做法,這些聲明歪曲了部分或半自主產品、服務或技術所需的適當人類監督水平。 如果系統功能超出了在所有條件下都能可靠執行的範圍,自動清洗也可以擴展到完全自主的系統。 自動清洗讓某些東西看起來比實際情況更加自主。 自動清洗的目的是通過使用膚淺的措辭來傳達與系統技術能力不相符的系統可靠性水平,從而為實體提供差異化​​和/或提供競爭優勢。 當一個人在不知不覺中向另一個人重複有關自動化系統功能的錯誤信息時,自動清洗也可能會無意中發生。 自動清洗是虛假信息的一種形式,從某種意義上說,它是病毒式的”(交通研究跨學科視角,“Autonowashing:車輛自動化的綠色清洗”,2020 年)。

根據我之前的指示,我經常看到人工智能道德清洗有四種主要變體,它們在自動駕駛汽車領域也很容易找到:

  • 不知道自己是誰的人工智能道德清洗者:人工智能道德因對人工智能和/或自動駕駛汽車中的人工智能道德的無知或文盲而被洗刷
  • 陷入其中的人工智能道德清洗者: 儘管人工智能倫理和自動駕駛汽車中的人工智能在其他方面是真實的,但人工智能倫理卻因無意中的滑倒而被洗刷
  • 人工智能道德清洗機的薄弱拉伸: 人工智能道德在自動駕駛汽車中是有目的的,儘管只是一點點,有時幾乎可以原諒(或不可原諒)
  • 知道並公然兜售人工智能道德規範的人: 人工智能道德在自動駕駛汽車中被陰險且常常令人憤慨的設計徹底洗刷

此外,您還可以很容易地看到自治領域其他類型的人工智能道德清洗和相關清洗弊病的實例,包括:

  • 人工智能倫理劇場 在自動駕駛汽車和自動駕駛汽車中
  • 人工智能道德購物 在自動駕駛汽車和自動駕駛汽車中
  • 人工智能道德抨擊 在自動駕駛汽車和自動駕駛汽車中
  • AI道德屏蔽 在自動駕駛汽車和自動駕駛汽車中
  • 人工智能道德公平清洗 在自動駕駛汽車和自動駕駛汽車中

結論

人工智能道德清洗就在我們身邊。 我們正在其中沐浴。

我希望,通過讓您關注這個嚴肅且看似永無休止的問題,您將能夠辨別自己何時正在被人工智能道德清洗。 可能很難弄清楚。 那些進行人工智能道德清洗的人可能非常聰明和狡猾。

一個方便的技巧是在洗滌中混入一些與謊言或誇大事實混合在一起的事實。 因為您可能很容易發現並同意真實的部分,所以您可能會相信其他不真實或欺騙性的部分也是真實的。 一種俏皮而令人討厭的欺騙形式。

我們姑且稱之為廢話吧。

我們能洗掉那些徹底進行人工智能倫理清洗的人嗎?

遺憾的是,這並不像人們希望的那麼容易完成。 話雖這麼說,只是因為抓住並呼籲人工智能道德清洗可能是艱鉅的,有時就像西西弗斯將一塊重石推上山,我們需要嘗試。

如果你不知道的話,宙斯讓他永遠地推動這塊巨石,一旦到達頂峰,巨石就會永遠滾落下來。 我認為在人工智能道德清洗方面我們也面臨著同樣的困境。

總會有更多的人工智能道德清洗需要被清洗掉。 這是一個萬無一失的保證,絕不是空穴來風。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics -清洗哪些是關於遵守人工智能道德的虛假聲明,包括自動駕駛汽車/