AI 炒作的狼嚎時刻是無益的

儘管我是研究人類末日情景的人,但我認為建議 AI 暫停 6 個月的“專家信”或最近關於 AI 風險處於大流行和核風險水平的聲明都被誇大了。 我們需要關閉 AI 的更瘋狂的觀點是不負責任的。 任何擔憂都必須與我們面臨的風險成正比。 現在,我們沒有立即受到 AI 的威脅。

當前的人工智能無法接管社會。 他們沒有感情,不應該像人類一樣受到保護。 它們不是超級智能,也不會以任何一般方式超越人類。 事實上,他們根本不思考。 現在,如果提供大量數據,人工智能非常擅長計算和預測等特定任務。 這並不令人擔憂,這些是這些系統設計的特點。 AI 的前景包括解決癌症、轉變工業生產、模擬未來情景以及管理環境挑戰。 話雖如此,我們有正當理由批評當前人工智能的資源使用、透明度、偏見、網絡安全及其對就業的未來影響。

AI 的計算成本很高——這意味著它們是對稀缺化石能源的巨大浪費。 這必須立即解決。 但這不是生存問題,而是合理利用資源的問題。 依賴大而低效數據模型的 AI 變得過於昂貴,無法由學術界或政府進行跟踪和調查,這是一個真正的問題。 但它是可以立即修復的。 精英學術機構或政府的聯盟可以像他們為超級計算所做的那樣聯合起來共享計算資源。

大型語言模型 (LLM) 是可以從大量數據生成自然語言文本的 AI 模型。 一個問題是這些文本直接來自其他人誠實的智力貢獻。 它們實際上是被盜的。 尤其是生成式 AI,它會在嚴重侵犯版權的情況下重新組合消費者和組織數據以及創意內容。 這是嚴重的,但不是存在的,而且,歐盟、好萊塢的遊說者和“五大”圖書出版商已經在處理此事。 預計這會減緩 AI 的影響力。 按照目前的速度,人工智能在接近感知能力之前就會耗盡良好的訓練數據。

已經用於計算我們的稅收、選擇我們的在線提要或將人們關進​​監獄的算法明顯缺乏透明度。 然而,多年來一直如此,與最新的人工智能發展無關。 AI 偏見是一項功能,而不是錯誤。 事實上,刻板印像是此類模型發揮作用的主要方法。 除了偏見隱藏在人類(無論專家與否)難以理解的機器推理的堅不可摧的層次中。 我們應該質疑的是開發此類系統的開發人員的智慧,而不是他們創建的系統的能力,這是給定的。 系統很少會比構建或運行它的人的智慧或意圖更好。

人工智能訓練數據反映了收集這些數據的社會中存在的偏見。 重複使用不良訓練數據是一種令人擔憂的做法,它已經污染了 AI 模型。 當前的人工智能方法只是簡單地放大偏見以快速得出結果。 誠然,這與我們想要的相反。 我們要做的是用技術來保護人為錯誤。 擔心機器出錯是對人類智慧的浪費。

儘管有“神經網絡”的比喻,但無論怎麼想,當前的 AI 都不像大腦。 當前的人工智能係統不能像人類那樣通過類比推理。 這很好。 我們可能實際上並不想要狂熱者提倡並試圖效仿的那種 AI 結盟。 機器應該不同於人類。 這樣我們才能最大限度地發揮彼此的優勢。 以及我們如何讓機器與眾不同。 機器不應該有任何利益可以對齊。

作為犯罪分子和敵對國家的資產,人工智能日益成為一種重大的網絡安全威脅。 但網絡安全是一個成熟的行業,擁有大量能夠應對挑戰的專家。 沒有理由因為網絡安全擔憂而關閉人工智能。

人工智能導致的就業中斷多年來一直是一個政策問題,首先是機器人,現在是基於軟件的人工智能係統。 這意味著政府將準備好應對它。 麻省理工學院未來工作研究發現,對機器人導致失業的擔憂被誇大了。 人類總能找到工作的方法,將來也會這樣做。 人工智能會改變製造業嗎? 它已經在發生,但以一種相當可控的方式發生。

AI 有時會遭受關於當前功能或未來範圍的過度承諾。 第一個 AI 寒冬始於 1974 年至 1980 年,當時美國政府撤回了資金。 第二次是從 1987 年到 1993 年,隨著成本的上升,人工智能未能兌現其崇高的承諾。

等待新範式的到來,在 2025-2030 年期間,我們可能會進入第三個 AI 冬天。 至少與我們承諾的火熱的 AI 夏天相比。 原因是,儘管大肆宣傳,但由於上述所有原因,大型語言模型即將達到其最大效用,最終需要被計算上更優雅、更透明的方法所取代。

其中一個候選者是超維計算,它可以使機器更有效地推理,因為它們賦予機器語義理解、處理真實世界信息背後的意義和上下文的能力。 目前,人工智能係統不理解單詞和短語之間的關係,它們只是擅長猜測。 那是不夠的。 我們最終將需要具身人工智能,因為思維與空間感知息息相關。 在高度體力遊戲的製造業中,情況絕對如此。 我們還需要具有人類記憶功能的 AI,例如基於某些信息的前景和其他信息的背景來確定優先級。 遺忘是人類用於抽象思維、擺脫過時的組織實踐、做出決策以及活在當下的一種工具,而不僅僅是一種缺陷。 目前還沒有機器能很好地做到這一點。

與此同時,我們確實需要監管,但不是這一刻。 而且,當我們進行監管時,我們最好做好。 對人工智能的監管不力可能會使情況變得更糟。 喚醒監管機構應對這一挑戰可能會有所幫助,但我不確定當前這一代監管機構是否準備好應對做好這項工作所需的那種徹底變革。 這將需要削減強大的公司(可能是所有上市公司),限制人工智能在治理中的使用,並意味著對消費市場當前運作方式的巨大改變。 從本質上講,我們將不得不重新佈線社會。 它會讓我們比我們希望的早幾十年進入退化。 圍繞 AI 的透明度挑戰可能比每個人都非常擔心的控制變量更可怕,當然並不是說它們不相關。

此外,我們不能在每次達到 AI 基準時都同樣擔心。 我們需要為級聯風險的真正重要時刻保存能量。 他們會來的,公平地說,我們還沒有準備好。 我設想的未來情景(請參閱 2075 年的滅絕情景)包括大規模數據洩露,使整個國家無法進入自己的進程數月之久。 我還擔心受到犯罪集團或國家行為者幫助的人工智能。 最重要的是,我擔心人工智能、納米技術、合成生物學和量子技術的結合——能力未知的近乎隱形的準有機智能,也許只有幾十年的時間,就在世界將被氣候的連鎖效應吞噬之時發生改變。

目前的人工智能模型還不夠好,不足以對人類構成威脅。 在我們考慮關閉它們之前,我們需要更好的人工智能。 不僅如此,我們還需要更明智的開發商、更敏感的公民和更知情的政策制定者。 我們還需要一個關於如何監管 AI 的概念。 但這可以在不減慢任何速度的情況下完成。 這將是所有人的教育之旅。 關於 GPT 4 (2023) 的暫停信是一個哭狼時刻,與人類在未來幾十年面臨的級聯風險只有微弱的相似之處。 將 AI 風險置於 2023 年的大流行風險和核風險級別還為時過早。 我們會到達那裡嗎? 也許。 但是狼來了是有後果的。 它從即將到來的關於真正恐慌的辯論中吸取了氧氣。

來源:https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/