AI 倫理和 AI 法稱,大規模醞釀“信任衰退”旨在削弱負責任的 AI

我相信您對這句老話很熟悉,即水漲船高。 這枚硬幣還有另一面,也許不那麼為人所知,即退潮會使所有船隻沉沒。

歸根結底,有時潮汐決定了你是上漲還是下跌。

潮水會做它做的事。 在這件事上你可能沒有任何特別的發言權。 如果您的船在潮汐中停靠或拋錨,您就會隨波逐流。 關鍵是要意識到潮汐的存在,並預測它的走向。 運氣好的話,您可以渡過難關而毫髮無損。

讓我們考慮一下所有這些關於船隻和潮汐的航海話題如何與人工智能 (AI) 相關聯。

首先給大家介紹一下現在越來越流行的流行語 負責任的AI. 一般的觀念是,我們希望 AI 遵守適當和可取的人類價值觀。 有些人將此稱為 負責任的AI. 其他人也有類似的討論 負責任的人工智能, 值得信賴的人工智能人工智能對齊,所有這些都觸及相同的基石原則。 有關我對這些重要問題的討論,請參閱 這裡的鏈接 這裡的鏈接,只是我在福布斯專欄中對 AI 倫理和 AI 法律的持續和廣泛報導中的幾個例子。

引發 AI 對齊難題的一個關鍵因素是表面上的信任。 我們能相信 AI 會安然無恙嗎? 我們能相信那些設計人工智能的人會以負責任和適當的方式尋求這樣做嗎? 我們可以信任那些從事人工智能領域並從事人工智能運維的人嗎?

這是很大的信任。

AI Ethics 和 AI Law 一直在努力增強對 AI 的信任感。 人們相信,通過建立合適的“軟法”,將其規定為一套指導方針或道德人工智能戒律,我們可能有機會讓人工智能開發者和人工智能運營商遵守道德規範。 此外,如果我們制定和製定足夠細心的法律法規來監督或管理 AI,由於被列入官方法律書籍而被視為“硬法”,則很有可能引導 AI 走上一條法律允許的直接道路。

如果人們不信任 AI,他們將無法獲得優秀 AI 帶來的好處。 我會暫時指出有 永遠的人工智能 遺憾的是還有 壞的人工智能. 糟糕的人工智能會以無數不利的方式影響人類。 有些人工智能以歧視性的方式行事,並表現出不當的偏見。 有人工智能可以間接或間接地傷害人。 等等。

所以,我們有 永遠的人工智能 我們熱切地希望被設計出來並投入使用。 同時,有 壞的人工智能 我們想要減少並試圖阻止。 壞的人工智能 往往會削弱對人工智能的信任。 永遠的人工智能 通常會增加對人工智能的信任。 一場艱苦的鬥爭接踵而至,不斷增加的信任不斷被殘酷破壞的信任所削弱。

AI 信任向上,隨後被擊垮。 然後,較低水平的 AI 信任會再次提升。 來來回回,人工智能信任的水平在拉鋸。 這幾乎足以讓你頭暈目眩。 你的胃在攪動,類似於暈船,就像在海中搖晃的船上一樣。

當這場戰鬥正在進行時,您可能會斷言還有另一個宏觀因素對信任擴展進程起到更大的作用。 有更重要的事情在起作用。 人工智能信任的起伏是海怪浪潮的一時興起。 是的,AI 信任就像漂浮在一個領域中的小船,最終比兩者之間發生的戰鬥和小衝突更為明顯 永遠的人工智能 壞的人工智能.

我到底指的是什麼,您可能會疑惑地問?

我指的是 大規模的“信任衰退” 我們的社會目前是持久的。

請容許我解釋一下。

今天媒體上有很多關於經濟衰退的討論。

在經濟意義上,衰退被認為是經濟收縮,通常與經濟活動下降有關。 我們通常會看到或經歷經濟衰退,例如實際收入下降、GDP(國內生產總值)下降、就業疲軟和裁員、工業生產下降等。 我不打算深入討論經濟衰退,因為關於什麼構成真正的衰退與聲稱的或有爭議的衰退有很多爭論(你可以找到很多會談的人就這個話題展開激烈的辯論)。

“衰退”的概念已經擴大到包括社會的其他方面,而不僅僅是經濟焦點。 您可以將某件事或另一件事的任何放緩稱為可能陷入衰退。 這是一個有多種應用的方便的詞。

為一種您可能還沒有特別聽說過的用法做好準備。

信任衰退。

沒錯,我們可以談論一種被稱為 信任衰退.

要點是整個社會可能正在經歷信任的放緩或下降。 你無疑已經感覺到了這一點。 如果您使用任何類型的社交媒體,那麼您對我們的主要機構(例如我們的政府或主要實體)的信任肯定會急劇下降。 事情肯定是這樣的。

您並不是唯一一個感受到全社會信任度下降的令人毛骨悚然的人。

一篇文章 大西洋 去年題為“信任的終結”的文章提出了以下關於我們社會前進方向的重要發現:

  • “我們可能正處於信任衰退之中”
  • “信任螺旋,一旦開始,就很難逆轉”
  • “未見其衰,先隱見其衰”

信任衰退悄悄降臨到我們所有人身上。 一英寸一英寸,信任減弱。 建立信任的努力越來越難實現。 懷疑主義至高無上。 我們懷疑是否應該給予信任。 我們甚至不相信可以特別賺取信任(從某種意義上說,信任是一個幽靈,一個謊言,無法具體化和可靠化)。

問題是,我們需要信任我們的社會。

根據同一篇文章:“信任。 沒有它,亞當·斯密那隻看不見的手就會留在口袋裡; 凱恩斯的“動物精神”是無聲的。 諾貝爾經濟學獎得主肯尼思·阿羅 (Kenneth Arrow) 在 1972 年寫道:“實際上,每筆商業交易本身都包含信任因素”(引自“信任的終結”,《大西洋月刊》,24 年 2021 月 XNUMX 日,傑里·尤西姆)。

研究表明,經濟績效與社會信任因素之間存在近乎直接的聯繫。 這也許是一個有爭議的說法,儘管它在直覺上似乎確實站得住腳。 考慮一下這個值得注意的論點:“經濟學家保羅·扎克和斯蒂芬·納克在 1998 年發表的一項研究中發現,一個國家對‘大多數人都可以信任’的信念每增加 15%,每年的經濟增長就會增加整整一個百分點” (同上)。

花點時間反思一下您自己對信任的看法。

今天,您對以下各個領域的信任程度更高還是更低:

  • 信任政府
  • 對企業的信任
  • 信任領導者
  • 對國家的信任
  • 信任品牌
  • 相信新聞媒體
  • 信任個人

如果您真的可以說您對所有這些方面的信任度都比以往更高,那麼您將得到一個令人震驚的帽子尖(您生活在一個毫不掩飾的幸福世界中)。 總的來說,我敢說地球上的大多數人會表達相反的看法,因為他們相信那些神聖的標誌性元素已經消失。

很明顯。

數據似乎支持信任在我們的社會中受到侵蝕的說法。 選擇上述任何領域。 就我們對政府能力的信念而言:“根據皮尤研究中心的說法,“對政府的信任從 1964 年的高峰期急劇下降,並且,除了少數例外,此後一直在下降”(同上)。

您可能會爭辯說,對個人的信任不應該列在清單上。 當然,我們仍然相互信任。 我們不再信任那些大的壞機構。人與人之間,我們的信任必須與以往一樣。

很遺憾地告訴你:“關於美國人之間信任的數據更難獲得; 據皮尤研究中心稱,調查對所謂的人際信任問題的詢問不太一致。 但是,根據一項估計,直到 45 年代中期,認為“大多數人都可以信任”的美國人的比例一直徘徊在 80% 左右; 現在是 30%”(同上)。

殘酷,但真實。

最近對信任專家的採訪導致了這樣的闡述:

· “壞消息是,如果信任是這種寶貴的自然資源,它就會受到威脅。 因此,在 1972 年,大約一半的美國人同意大多數人是可以信任的。 但到 2018 年,這一比例已降至 30% 左右。 我們對機構的信任遠不如 50 年前。 例如,在 1970 年,80% 的美國人信任醫療系統。 現在是38%。 1970 年代的電視新聞為 46%。 現在是11%。 國會,42% 對 7%。 我們正在經歷一場巨大的信任衰退,這在很多方面傷害了我們,而大多數人可能完全沒有意識到這一點”(Jonathan Chang 和 Meghna Chakrabarti 的採訪,“基本信任:信任的大腦科學”,WBUR,29 月2022 年 XNUMX 日,並引用了斯坦福大學心理學副教授兼斯坦福社會神經科學實驗室主任 Jamil Zaki 的言論)。

各種國家和全球信任研究已經確定了與社會信任水平相關的晴雨表。 即使粗略地瀏覽一下結果,也會發現信任正在下降、下降、再下降。

典型的其他平均版本 信任衰退 已經“升級”為被標記為 大規模 信任衰退。 我們不只是有普通的信任衰退; 相反,我們有一場全面的大規模信任衰退。 重要時刻。 越來越大。 它滲透到我們存在的方方面面。 這場大規模的信任衰退觸及我們所做事情的每個角落以及我們生活的方方面面。

包括人工智能。

我猜你已經看到了。 我之前提到過一場戰鬥 永遠的人工智能 壞的人工智能 正在發生。 AI 倫理和 AI 法律領域的大多數人每天都在處理那些往日爭鬥的起伏。 我們希望 Responsible AI 獲勝。 令許多處於這些激戰陣痛中的人感到驚訝的是,他們沒有意識到大規模信任衰退造成的影響,從某種意義上說,這種衰退壓倒了 AI 信任戰場上發生的一切。

潮流是大規模的信任衰退。 人工智能的戰鬥信任是一艘自行上下的小船,隨著退潮而整體遺憾地走下坡路。 隨著整個社會受到大規模信任衰退的影響,對人工智能的信任也是如此。

我不希望這看起來是失敗主義者。

為贏得對 AI 的信任而進行的鬥爭必須繼續下去。 我想強調的是,隨著這些鬥爭的持續,請記住,作為一個整體的信任正在從社會中流失。 對信任的打擊或支持越來越少。 剩下的微不足道的信任將使贏得 永遠的人工智能 信任野心。

這該死的浪潮正在摧毀所有船隻,包括對人工智能的信任。

花點時間思考一下這三個相當引人注目的問題:

  • 我們能為無處不在的社會做些什麼 大規模信任衰退 什麼時候涉及到人工智能?
  • 無論 AI 倫理或 AI 法律如何規定,AI 都注定要獲得最低限度的信任嗎?
  • AI 領域的人應該完全放棄 AI 信任嗎?

我很高興你問。

在深入探討該主題之前,我想首先奠定一些關於 AI 的基本基礎,尤其是 AI 倫理和 AI 法律,這樣做是為了確保討論在上下文中是合理的。

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

既然我已經為這些相關的 AI 倫理和 AI 法律主題打下了有益的基礎,我們準備好進入令人興奮的話題,探索正在進行的令人厭煩的事情 大規模信任衰退 及其對 AI 信任度的影響。

獲得更大的船來建立對人工智能的信任

讓我們回顧一下我之前關於這個主題的假設問題:

  • 我們能為無處不在的社會做些什麼 大規模信任衰退 什麼時候涉及到人工智能?
  • 無論 AI 倫理或 AI 法律如何規定,AI 都注定要獲得最低限度的信任嗎?
  • AI 領域的人應該完全放棄 AI 信任嗎?

我將採取樂觀的態度,並認為我們可以為此做點什麼。

我還要強烈地說,我們不應該認輸。 相反,關鍵是要更努力、更聰明地處理對人工智能的信任問題。 關於變得更聰明的部分需要意識到我們正處於一場巨大的信任衰退中,並清醒地考慮到這一宏觀迫在眉睫的因素。 是的,對於我們在採用和支持 AI 倫理和 AI 法的熱切努力中所做的一切,要注意並根據整體信任的下降趨勢進行調整。

在我進一步討論樂觀或笑臉的選擇之前,我想提供對比的觀點是公平的。 好的,給你。 對於大規模的信任衰退,我們無能為力。 正如他們所說,試圖向風車傾斜是沒有意義的。 因此,繼續戰鬥,無論潮流如何,就這樣吧。

在那個悲傷的表情場景中,你可以暗示這是聳聳肩和投降潮流就是潮流。 希望有一天,大規模的信任衰退會減弱,並成為信任衰退的一種正常形式。 然後,如果運氣好的話,信任衰退會慢慢過去,信任會恢復。 我們甚至可能最終會產生強烈的信任感。 可以說是信任繁榮。

我會將您的選擇分為以下五個選項:

1) 無意識的. 這些是 AI 倫理和 AI 法律領域的倡導者,他們不知道有 大規模信任衰退. 他們甚至不知道他們不知道。

2) 知道但不在乎. 這些是 AI 倫理和 AI 法律的倡導者,他們知道大規模的信任衰退但擺脫了它。 渡過難關,不要做任何新的事情。

3) 知道並應對它. 這些是 AI 倫理和 AI 法律的倡導者,他們知道大規模的信任衰退並選擇應對它。 他們調整消息傳遞; 他們調整了他們的方法。 有時,這包括將信任衰退融入他們的戰略和努力中,以進一步增強對 AI 的信任並尋求難以捉摸的 Responsible AI。

4) 知道並無意中使事情變得更糟. 這些是 AI 倫理和 AI 法律的倡導者,他們知道大規模的信任衰退,而且他們選擇對此做點什麼,但他們最終搬起石頭砸自己的腳。 通過對社會趨勢做出不當反應,他們錯誤地惡化了負責任的人工智能,並將對人工智能的信任降到了更低的深度。

5) 其他 (待解釋,暫時)

你屬於這五個選項中的哪一個?

我特意為那些不喜歡其他四個選項的人提供了第五個選項,或者您真的相信還有其他可能性,並且所列的選項都不能充分說明您的立場。

您不必被硬塞進任何選擇。 我提供這些選擇只是為了對有價值的話題進行深思熟慮的討論。 我們需要談論 大規模的信任衰退, 我相信。 由於與社會大規模信任衰退有關,因此在負責任的人工智能和可信賴的人工智能努力的細節方面還沒有太多深入的分析。

是時候打開那些閘門了(好吧,這些雙關語和文字遊戲可能有點過頭了)。

如果您想知道第五個選項可能包含什麼,這裡有一個您可能會感興趣。

AI 例外論.

人工智能領域有一群人認為人工智能是事物正常規則的例外。 這些 AI 例外論的支持者斷言,您不能例行地將其他社會惡作劇應用於 AI。 AI 沒有受到影響,因為它是一個巨大的例外。

在那種有點教條的觀點中,我將潮汐和 AI 信任類比為上下擺動的小船將被拋出窗外作為類似的考慮。 AI 信任大於潮水。 無論在大規模信任衰退中發生什麼,AI 信任都會去到它去的地方。 如果潮水上漲,人工智能信任可能會上漲,也可能會下跌。 如果潮水退去,AI 信任度可能會上升,也可能會下降。 不管潮流如何,AI信任都有自己的命運,自己的命運,自己的道路。

我為你準備了另一個花樣。

有些人可能會爭辯說,人工智能將對 大規模信任衰退.

你看,這個討論的其餘部分已經把事情搞砸了,據說。 這並不是說大規模的信任衰退會影響人工智能信任,相反,情況恰恰相反。 根據我們對 AI 的處理方式,信任衰退可能會加深或恢復。 AI信任將決定潮汐的命運。 我想你可以斷言,人工智能作為一種潛在的力量是如此強大,以至於它在​​決定潮汐的走向方麵類似於太陽、月亮和地球。

如果我們弄清楚 AI 信任方面,如果人們信任 AI,也許這將扭轉信任衰退。 人們將改變對生活所有其他方面的信任。 他們將開始增加對政府、企業、領導人等的信任,這一切都是因為擁有無處不在且值得信賴的人工智能。

牽強?

也許,也許不是。

不要讓你心情低落,要意識到關於人工智能信任的相反觀點也可能出現。 在那個用例中,我們都陷入了對人工智能完全缺乏信任的境地。 我們變得如此不信任,以至於不信任蔓延到我們本已巨大的信任衰退中。 反過來,這使得大規模的信任衰退變成了超級巨大的超級大規模信任衰退,比我們想像的要嚴重很多倍。

將這個想法與人工智能作為存在風險的廣泛概念相吻合。 如果 AI 開始看起來好像極端風險正在實現,即 AI 將接管人類並奴役我們或將我們全部消滅,那麼你似乎肯定有充分的理由支持大規模的信任衰退一個相當沉悶的螺旋式下降。

我明白了。

無論如何,讓我們希望事情有更快樂的一面,好嗎?

結論

現在您知道了 大規模信任衰退,關於人工智能信任,你能做什麼?

首先,對於那些沉浸在 AI 倫理和 AI 法律領域的人來說,一定要計算你的 負責任的AI 和特魯值得信賴的人工智能 通過與信任衰退相關的社會背景進行追求。 如果您自己為提高對 AI 的信任所做的努力似乎受到阻礙或未能完全成功而感到沮喪,您應該小心,因為您的預期會發生。 可能是您的努力至少有所幫助,同時您還不知道,信任的排水管正在以無聲且可悲的有害方式搶奪您的英勇活動。 不要絕望。 如果信任衰退沒有發生,你可能會看到巨大的進步和非常值得稱讚的結果。

其次,我們需要對如何衡量信任衰退以及如何衡量人工智能信任度的起伏進行更多分析。 如果沒有可靠和廣為接受的指標,我們就會盲目地漂浮在海洋中,我們不知道自己失去或獲得了多少英尋。

第三,考慮如何表達對人工智能的信任正在受到大規模信任衰退的影響。 很少有人知道這一點。 AI 業內人士應該對這個話題進行深入思考。 廣大公眾也應該跟上速度。 有兩個信息要傳達。 一是存在大規模的信任衰退。 其次,對人工智能的信任受信任衰退變化無常的影響,我們必須明確考慮到這一點。

最後一點,我想您現在應該知道關於魚缸裡的魚的著名笑話。

這是怎麼回事。

兩條魚在魚缸裡來回游動。 一圈又一圈,他們走了。 最後,其中一條魚轉向另一條魚,說它在水里待累了。 另一條魚思考著這個評論。 沉思片刻後,有心的魚好奇地回答,水到底是什麼?

這有點老笑話了。

重點應該是你周圍的任何東西都可能不容易被認出來。 你習慣了。 它就在那裡。 你沒有註意到它,因為它無處不在,而且它的存在並不引人注目(順便提一下,一些憤世嫉俗的人不喜歡這個笑話,因為他們堅持認為真正的魚確實知道它們確實在水中,並且“認知地”意識到”,包括能夠躍出水面進入空中等)。

作為一個方便的魚故事或寓言,我們可以使用這個方便的花花公子寓言來指出我們可能沒有意識到我們正處於一場巨大的信任衰退中。 它就在我們身邊,我們本能地感受到它,但我們並沒有意識到它就在這裡。

是時候摘下眼罩了。

深吸一口氣,深吸一口氣,因為我們存在巨大的信任衰退。 反過來,對於那些日復一日努力培養負責任的 AI 並贏得對 AI 的信任的人,請睜大眼睛看看信任衰退是如何干預你的勇敢努力的。

正如莎士比亞的名言:“我們必須順應潮流,否則就會失去我們的事業。”

來源:https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai-法律/