Meta AI 推出注入 AI 的外交魅力,將 AI 倫理和 AI 法律攪入不雅的爭端

受人尊敬的魅力和外交世界常常被粗魯和無禮所玷污。

偉大的幽默家和社會評論員威爾·羅傑斯 (Will Rogers) 有句名言,外交就是說“好狗”的藝術,直到你找到一塊石頭。

明顯的暗示是,有時您必須堅決阻止任何迫在眉睫和危險的力量,直到您找到合適的防禦解決方案。 在絕境時做你需要做的事。 故意和有目的地安撫那些危害你的人,用你撫慰和迷人的話語,爭取寶貴的時間來武裝自己更實際和明顯的有形立場。

ADVERTISEMENT

一些人斷言,戰爭不可避免地是外交失敗的結果。 從這個深思熟慮的觀點來看,持續不斷的外交鼓動將避免戰爭。 繼續說話,戰鬥就不會開始了。 其他人則強烈反對這種有問題的觀點。 也許,據說,外交實際上是讓我們捲入戰爭的原因。 最重要的是,外交可能會延長戰爭並使戰鬥無休止地進行。

我們將再給威爾·羅傑斯一次機會,從外交對戰爭的發生或持續的影響是好是壞的問題中體會一些幽默:“把外交從戰爭中拿出來,事情會在一周內平息”(他據報導)。

外交的共同定義強調國家之間的關係。 外交官代表特定的國家或民族國家,在履行其神聖職責時行使外交。 我們希望我們的外交官能夠沉著冷靜地傳達他們的外交政策。 信使不應該是引發敵意的人,而只是信息可能會引發敵意。 即使是最令人震驚的信息,大概完美無瑕的外交描述也能明顯減輕原本有害的要求或威脅所帶來的打擊。

ADVERTISEMENT

當然,外交並不僅限於正式外交官的崇高工作。 我敢說,在我們的日常生活中,我們都不得不接受一些外交的表象。 如果您希望朋友在您出差時照看您心愛的狗,您肯定會委婉地提出照顧這隻狗的請求。 直接提出這樣做的要求很可能會以沉悶的砰砰聲落地。

也許與其說是科學,不如說是一門藝術,外交是人類用來潤滑滑板、保持照明和防止社會完全失控的東西。 談判開始發揮作用。 綏靖政策可能需要出現。 有時你使用胡蘿蔔,有時你使用大棒。 如果你必須這樣做,你可能會嘗試所謂的砲艦外交,你試圖恐嚇你周圍的人。 或者,您可以走溫和的調解和人道主義路線,而不是強力武裝。 這一切都取決於。

好的,所以我們很容易同意外交是一種重要的人與人之間的交流方式。 它包括與運用機智、調解、談判、調解和一系列社會巧妙的政治活動相關的實踐或舞台技巧。

ADVERTISEMENT

讓我們在該等式中添加其他內容。

你準備好了嗎?

我們將添加您可能尚未考慮過的其他內容。

人工智能(AI)。

是的,人工智能正在進入外交策略。 這似乎是完全明智的。 如果我們要讓 AI 融入我們生活的方方面面,最終必須輪到外交。 我們可能期望人工智能能夠通過使用適當的外交措辭和禮儀來履行它的任何職責。

ADVERTISEMENT

人工智能作為自主或半自主的外交官。

我意識到這可能看起來相當令人生畏和完全可怕。 我認為我們中的任何人都沒有準備好讓人工智能作為我們各自國家的代表四處走動。 想像一下 AI 代表我們談判我們的國際立場並確認我們的全球政治姿態。 哎呀! 這是那些世界末日科幻故事的素材。

好吧,暫時鬆一口氣,因為現在還不可能。

相反,想想你用來完成銀行業務或幫助指導你買房的人工智能。 今天與人互動的人工智能通常非常簡單。 只看事實,只看事實。 一些 AI 已經用可愛的措辭蒙上了一層陰影,讓你認為它是友好的或夥伴,儘管這很快就會被識破。 僅僅因為人工智能係統用你的名字來稱呼你,或者發出像“你好”而不是“你好”這樣的詞,我們大多數人馬上就意識到這是一個字謎遊戲。

AI 開發人員熱切追求的下一步是嘗試將外交特徵注入我們日常的 AI 中。 總體目標是整合程序方面,讓人工智能展示外交和類似外交的行為。 使用各種算法,尤其是最新的生成式 AI 或大型語言模型 (LLM),在這方面取得了顯著進展。

ADVERTISEMENT

我們將看一個這樣的例子,CICERO,一個由 Meta AI 團隊發布的新 AI 系統。

如果您正在度假並且沒有跟上有關 AI 的最新消息,那麼最近宣布和揭幕的 AI 系統被稱為 CICERO,它提供了一個重要的路標,表明當今注入 AI 的外交舞台所處的位置。 Meta AI 團隊經過深思熟慮並獲得了良好的信譽,公開提供了他們開發的 CICERO AI 系統。 您可以在已發布的研究論文中閱讀技術細節 科學,見 這裡的鏈接. 你可以訪問他們建立的網站,通過簡短的視頻剪輯來溫和地傳達 CICERO 的整體細微差別,以說明它的作用(見 這裡的鏈接). 對於那些尋求低頭實際程序代碼和軟件的人,您可以在 GitHub 上找到源代碼: 這裡的鏈接.

如果您選擇深入研究這個問題,我確實想快速澄清一個可能看起來令人困惑的方面。

Meta AI 設計的特定 AI 系統目前被設置為玩一種有點流行的遊戲,稱為 外交 (也許您已經看過孩之寶和其他遊戲製造商的棋盤遊戲)。 我提出這個問題是因為“外交”這個詞在這種情況下將具有雙重職責。 一方面,設計的人工智能試圖注入企業的特徵並展示 外交 本身。 同時,這個特定的 AI 系統發生的環境是在專門玩(現在)著名的棋盤遊戲時 外交.

您是否看到這可能會使某些人感到困惑?

如果有人對你說這個特定的人工智能在“外交”方面做得很好,你可能不確定他們是否指的是人工智能非常擅長玩棋盤遊戲的概念 外交 或者他們可能是在暗示人工智能體現了與人類外交行為相關的核心本質。 另外,這兩個方面可能同時意味著(即 AI 擅長玩 外交 並且同時擅長將外交作為一種技能或行為來行使或展示)。

ADVERTISEMENT

在這裡,我將嘗試通過將第一個字母大寫並以斜體顯示棋盤遊戲的名稱來解決這個問題, 外交. 其餘時間,我將使用非斜體字的“外交”措辭來表示外交或展示外交的總體概念(看,我就是在那裡做的)。

回到手頭的問題,你可能會思考一下表現出外交能力的人工智能是我們應該渴望還是應該避免的。

讓人工智能展示外交有很多積極的方面。 儘管你生活在一個淺薄的泡沫中,但你會認為人工智能執行外交將完全是一件好事。 AI 似乎具有外交技能並且可以讓我們相信它具有外交能力,但它也充滿了我們需要提出來的令人不安的問題。 從本質上講,以這種方式使用人工智能會引發大量人工智能倫理和人工智能法律問題。 對於那些對 AI 倫理和 AI 法感興趣的人,您可以看看我對 AI 倫理和 AI 法的廣泛和持續的報導,網址為 這裡的鏈接這裡的鏈接,僅舉幾例。

在跳入人工智能作為某種形式的外交之前,我想首先奠定一些關於人工智能的重要基礎,特別是人工智能倫理和人工智能法律,這樣做是為了確保討論在上下文中是明智的。

ADVERTISEMENT

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

ADVERTISEMENT

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

ADVERTISEMENT

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

ADVERTISEMENT

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

ADVERTISEMENT

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

ADVERTISEMENT

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

ADVERTISEMENT

既然我已經為這些相關的 AI 倫理和 AI 法律主題奠定了有益的基礎,我們就可以進入令人興奮的 AI 注入的基於機器的外交主題。

人工智能外交的所有榮耀和潛在的垮台

首先,讓我們確定此處考慮的 AI 類型是無感知 AI。

我這樣說是因為如果,或者有人說 什麼時候 當我們實現有感知力的 AI 時,整個主題可能會被徹底顛覆。 想像一下,以某種方式進入一個以前從未見過且毫無疑問得到驗證的領域,可能會造成混亂和社會混亂 人造的 體現感知力的智能(關於我對著名的 AI 測試圖靈測試的分析,請參閱 這裡的鏈接). 你可以合理地打賭,我們現有的許多文化、法律和日常規範將徹底動搖。

也許有感知力的 AI 會成為我們的伙伴,或者有感知力的 AI 會成為我們最大的敵人。 我們如何能夠判斷人工智能將走哪條路?

你可能會想說我們大概能夠與 AI 交談並從它所說的內容中弄清楚它所持有的意圖。 啊哈,你掉進了一個令人不安的陷阱。 假設人工智能特別擅長某種形式的人工智能外交能力。 當你嘗試與 AI 交談時,它可能會用最迷人、最雄辯的語言說話。 這對人類來說可能是非常安慰的。

ADVERTISEMENT

但這真的是人工智能關於其基於人工智能的計算意圖的“想法”嗎?

AI 可能正在進行經典的外交一二拳。 談論一場精彩的比賽,讓我們相信 AI 是我們有史以來最好的伙伴。 這可能會讓人工智能有時間積累資源以超越人類,或者可能正在幕後努力工作以削弱我們用來維持人類生存的其他一切。 在那個聰明的外交停頓之後,砰的一聲,人工智能把我們都打昏了。

記住 Will Rogers 所說的話,在這種情況下可能是 AI 告訴我們“Nice doggie”,我們給 AI 足夠的呼吸空間,然後將我們從地球上抹去。 長期以來,這種將人工智能視為存在風險的概念一直廣為流傳。 一些人認為,通過在人工智能中註入外交手段,我們將被打敗。 AI 會巧妙地使用我們幫助訓練 AI 的所有註入的外交材料,最終,我們將被盲目地愚弄,讓 AI 成為我們的霸主。

對我們感到羞恥。

對於那些對未來人工智能這個高度推測領域更感興趣的人,請參閱我對人工智能作為生存威脅的觀點的報導 這裡的鏈接.

ADVERTISEMENT

回到現實,我將在此強調我們現有的非感知人工智能中註入人工智能的外交途徑。

讓我們做一些歷史追踪。

自 AI 早期以來,就一直在嘗試設計以某種方式體現外交和外交行為的計算風格的 AI。 你可以很容易地回到 1950 年代、1960 年代和 1970 年代,並找到渴望將 AI 應用於該領域的基礎研究。 有人認為博弈論是關鍵。 其他人專注於心理學和相關的認知因素。 其他人則嘗試利用經濟學、運籌學和無數看似相關的努力領域。

最初的鼎盛時期出現在 1980 年代。 當時,一種主要方法包括使用專家系統 (ES) 或基於知識的系統 (KBS) 來構建與外交相關的人工智能係統。 結果相當生硬,並傾向於證明這將是一項多麼艱鉅的任務。

ADVERTISEMENT

在這個初步調查的時代,一個棘手的難題是需要一個穩定的平台,在這個平台上,或者在這個平台上,一個據稱能夠以某些外交相關方式執行的人工智能可以得到充分的測試和探索。 這種需要也許是顯而易見的。 如果有人想辨別人類或人工智能是否可以行使外交,就必須建立有利於這一探索的環境。

進入這張照片是棋盤遊戲 外交.

我意識到棋盤遊戲 外交 遠不如 壟斷, 風險, 或者 西洋陸軍棋 (您可能聽說過這些遊戲)。 儘管如此,有一種戰略棋盤遊戲被稱為 外交 於 1954 年首次設計並於 1959 年商業發行。除了面對面播放外, 外交 遊戲通常通過蝸牛郵件進行。 你會把你的動作寫在一張紙上,然後把這張紙寄給你的對手。 想像現在有點瘋狂。 後來,使用了電子郵件。 最終,該遊戲可以在線使用,並允許玩家彼此實時參與。

外交 隨著遊戲在微型計算機上可用,AI 專家開始使用該遊戲作為測試他們注入 AI 的外交混合物的便捷手段。 這 外交 遊戲作為在 PC 上運行的應用程序提供,這樣人類就可以與機器(即設計的 AI)對戰。 1990 年代為玩而編寫的 AI 外交 眾所周知,它緩慢、神秘,並且幾乎可以被任何玩遊戲的人輕易打敗。

ADVERTISEMENT

這是 1999 年的評論 外交 正如雅虎上發布的那樣,生動地描述了作為人類玩家對手的人工智能外交能力的悲慘狀態:

  • “然而, 外交最突出的問題是遊戲中的人工智能絕對可怕。 即使是在最高難度設置下,任何技能水平的遊戲玩家都不會遇到任何問題。 勝利只是時間問題和對界面的耐心。 這並不是說計算機不會在你背後策劃——它確實會,而且它經常與盟友合作從你手中奪走一兩塊領土——但這樣的策劃是斷斷續續的,而不是連續的或特別的具有挑戰性的威脅。”

人工智能設計的一個特別令人煩惱的弱點是它似乎缺乏同時計算多個動作或策略的能力:“在更基本的層面上,計算機似乎無法管理多個戰略動作。 雖然人類玩家可以同時對希臘和比利時發動攻擊,但計算機似乎總是一次只關註一件事。 因此,計算機根本無法與人類玩家競爭”(同上)。

我還沒有向你解釋什麼 外交 棋盤遊戲包括,所以讓我們花點時間來建立基本規則。

有一篇關於 AI 和遊戲的便捷研究論文 外交 簡明扼要地描述了遊戲的本質:“遊戲發生在 1901 年的歐洲地圖上,該地圖分為 75 個省。 每個玩家扮演當時的七大強國之一:奧地利 (AUS)、英格蘭 (ENG)、法國 (FRA)、德國 (GER)、意大利 (ITA)、俄羅斯 (RUS) 和土耳其 (TUR),每個玩家以三個或四個單位(軍隊或艦隊)開始,它們被放置在地圖上固定的初始位置。 在遊戲的每一輪中,每個玩家都必須為其每個單位“提交命令”,告訴這些單位如何在地圖上移動並允許他們征服地圖的省份”(Dave de Jonge、Tim Baarslag、Reyhan Aydogan 、Catholijn Jonker、Katsuhide Fujita 和 Takayuki Ito,“外交遊戲中談判的挑戰”, 協議技術:第六屆國際會議, 在 2018)

ADVERTISEMENT

您還需要了解遊戲的獲勝方式和失敗方式:“某些省份是所謂的 供應中心 玩家的目標是征服那些補給中心。 當一名玩家失去他或她的所有補給中心時,他或她將被淘汰;當一名玩家征服 18 個補給中心中的 34 個或更多(單人勝利)時,他或她將贏得比賽。 但是,當所有倖存的玩家都同意平局時,遊戲也可能結束”(同上)。

我相信你能看到 外交 是一個簡單的遊戲,最多有 XNUMX 名玩家試圖從戰略上戰胜對方。 在此操作過程中,玩家可以互相商議,而其他玩家不知道他們在做什麼。 外交行為通過能夠讓其他玩家同意你的計劃而脫穎而出。 你可能會透露你的真實計劃,也可能不會。 你可能會提出錯誤的計劃。 您可以與其他玩家協商。 您可以欺騙其他玩家。 您可以與其他玩家結成聯盟。 等等。

正如他們所說,在愛情和戰爭中一切都是公平的。

我選擇了那篇特定的研究論文,因為它有助於建立計算機化版本的變體 外交遊戲 作為測試人工智能外交能力的前進平台:“長期缺乏共享應用領域來測試多代理系統中的高級研究模型和代理協商架構。 在本文中,我們為此目的介紹了一個友好的測試平台。 試驗台是基於 外交遊戲 其中談判和參與者之間的關係發揮著至關重要的作用”(同上)。 這個和許多其他變體 外交 已被製作並可用於研究和玩耍。

ADVERTISEMENT

研究人員解釋了為什麼他們認為 外交 是一款非常有用的遊戲,可以幫助 AI 探索融入 AI 的外交:“The game of 外交 為這類複雜的談判形成了一個很好的測試案例,因為它是一個包含許多在現實生活中的談判中也必鬚麵對的困難的遊戲。 它涉及約束滿足、聯盟形成、博弈論、信任,甚至心理學。 既然現代國際象棋和圍棋計算機已經遠遠優於任何人類棋手,我們預計 外交 將作為計算機科學的下一個重大挑戰開始引起更多關注”(同上)。

快速回顧一下,棋盤遊戲 外交 提供了一種已知且頗為流行的工具,用於讓人類以各種外交方式行事。 通常,人類與其他人類比賽(在這種情況下,最多 XNUMX 名人類玩家)。 我們可以設計出嘗試在遊戲中扮演玩家角色的人工智能。 因此,您可能有六名人類玩家和一名人工智能玩家。

設想演奏 外交 線上。

如果我們不告訴人類玩家他們中間有一個人工智能,他們可能會自然而然地認為第七名玩家只是另一個人類玩家。 為了嘗試防止任何人類玩家猜測 AI 正在玩遊戲,我們可以將游戲方面限制為要求所有玩家相互發送面向文本的消息。 您無法直接看到其他玩家。

ADVERTISEMENT

您可能會認為這與玩在線國際象棋似乎並沒有什麼特別不同。 為什麼大驚小怪 外交 作為遊戲?

回想一下,我們關注的是玩家之間的互動。 這個遊戲的前提是玩家互相調用外交。 這不同於傳統的國際象棋。 如果我開發一款基於人工智能的國際象棋應用程序,它通常會與一個人對弈。 下棋的 AI 和人類棋手之間沒有任何協商或討論。 他們只是下棋並試圖超越對方。 這通常是在完全安靜的情況下完成的。

外交 允許我們進行直言不諱的計算和以人為本的外交(可能以書面形式而不是大聲說出來):“兩者之間的主要區別 外交 與國際象棋和圍棋等其他確定性遊戲的不同之處在於,在外交中,玩家可以相互協商並結成聯盟。 在每一輪中,在玩家提交訂單之前,玩家有時間相互協商並就他們將提交的訂單達成一致。 談判是私下進行的,達成的每項協議只有參與該協議的參與者才知道”(同上)。

你能想出其他一些利用互動外交而不是依賴遊戲的遊戲嗎 外交?

絕對。

ADVERTISEMENT

有各種各樣的遊戲。

選擇一款特定遊戲的便利之處在於,AI 開發人員可以將注意力集中在該特定遊戲上。 你可以圍繞設計在特定環境中執行外交的 AI 進行集會。 您可以分享方法並對比它們。 您可以根據與該遊戲相關的指標對 AI 的各種實例進行評分。 等等。

話雖這麼說,反駁或表達的擔憂是,這就像把所有的雞蛋放在一個籃子裡。 有些人擔心,如果許多 AI 開發人員變得專注於某個特定平台或環境,例如在這種情況下 外交,他們將尋求針對特定領域優化 AI。 不利的一面是人工智能不會被推廣。 我們不會在人工智能外交的總體能力方面取得太大進展。

如果你願意的話,有點像只見樹木不見森林。

另一個經常表達的擔憂是遊戲,例如 外交 僅僅是遊戲。

ADVERTISEMENT

棘手的問題是,玩遊戲的人是否正在做他們在現實世界外交中所做的相同事情。 當民族自豪感或國家利益不受威脅時,您可能不會以同樣的方式行事。 當然,你可能會在玩遊戲時擔心你的個人尊嚴,或者可能會擔心成為最佳射手,甚至可能會贏得獎金,但這仍然等於在聯合國談判世界和平或為哪些國家討價還價應該擁有或不擁有核武器。

有些人認為這些外交遊戲是現實世界的縮影。 其他人則感嘆,這些運動會很有用,但沒有擴大到國際口徑的眾所周知的橡膠遇到道路的外交。 人工智能外交的遊戲版本可能只是遊戲的成功。 天哪,在玩涉及外交的遊戲時,設計出的 AI 可以獲勝或做得非常好,但事實證明,在真正的外交環境中使用相同的 AI 是非常缺乏的,而且會動搖或慘敗。

暫時假設 AI 是為玩遊戲而設計的,例如 外交 確實值得。 你可以合理地爭辯說,無論是只適合玩遊戲還是適合現實世界的行動,這個想法都需要擴展 AI 的邊界並在 AI 方面取得進步,這可能有助於外交或可能在創造 AI 方面取得其他有利的突破。

ADVERTISEMENT

現在喜歡笑臉。

接下來我們將研究 Meta AI 如何選擇創建一個可以在遊戲中執行的 AI 注入的外交玩家 外交.

抓住你的帽子。

元人工智能和基於外交機器的外交官西塞羅

如前所述,有一篇研究論文發表在 科學 它描述了新宣布和公開發布的 Meta AI 應用程序,創造了 Cicero(在整個討論中,我將互換地稱其為“Cicero”,同樣地,“CICERO”的全大寫綽號也是如此):

ADVERTISEMENT

  • “我們展示了 Cicero,這是一個在策略遊戲中達到人類水平表現的人工智能代理 外交. 。 In在 外交,七名玩家進行私人自然語言協商以協調他們的行動,以便相互合作和競爭。 相比之下,多代理 AI 先前的主要成功是在純粹的對抗環境中,例如國際象棋、圍棋和撲克,在這些環境中,交流沒有價值。 由於這些原因, 外交 已成為多主體學習的具有挑戰性的基準”(Meta Fundamental AI 研究外交團隊,“通過將語言模型與戰略推理相結合,在外交遊戲中進行人類水平的遊戲”, 科學,22 年 2022 月 XNUMX 日)。

我將引用這篇論文,然後提供各種見解,希望您會感興趣。

鑑於 AI 剛剛可用,我可能會在有機會對代碼進行一些深入的實踐評估並進行一些實驗性遊戲以評估 AI 能力(例如主要優勢和劣勢)。

請注意稍後的發布!

不管怎樣,我相信你可能已經在我剛才引用的那段話中觀察到,有一句話說人工智能“在戰略遊戲中達到了人類水平的表現” 外交

ADVERTISEMENT

仔細考慮一下。

首先,能夠設計出能夠發揮 外交 以類似於人類的所謂性能水平進行遊戲。 這是非常重要的。

我們有很多 外交 與玩 AI 的人類相比,玩 AI 的效果不佳 外交 遊戲。 超過你可以動搖的棍子。 朝著可以更好地玩遊戲的 AI 發展是令人欣慰和興奮的。 不過,我們確實需要謹慎地就此得出任何快速結論。

例如,假設我設計了 AI 來玩 外交 我將它與以前從未玩過遊戲的人類玩家進行了對比。 如果我的 AI 打敗了他們,那麼說我的 AI 已經達到了人類水平的表現就有點誇張了。 它對不熟悉遊戲的人類這樣做的事實有點令人側目和可疑。

ADVERTISEMENT

我提出這個問題是為了預先警告你要始終仔細檢查任何看似過分的關於 AI 的說法。 之前關於人工智能倫理和人工智能法律的討論可能會讓你看到關於人工智能的錯誤主張的可能性。 有完全錯誤的說法,也有那些陰險的部分真實和部分誤導性的說法特別棘手。 關鍵是要問為什麼那些聲稱他們的 AI 的人會這樣做。

哪裡的牛肉?

以下是 Meta AI 團隊就其人類水平性能聲明的基礎不得不說的內容(有關更多詳細信息,請參閱論文):

  • “從 40 年 19 月 13 日到 2022 月 10 日,西塞羅在 webDiplomacy.net 的“閃電戰”聯盟中匿名參加了 2 場外交比賽。這個聯盟進行了五分鐘的談判; 這些時間控制允許遊戲在兩個小時內完成。 西塞羅在參加超過一場比賽的參與者中排名前 19%,在參加 5 場或更多比賽的聯盟 40 名參與者中排名第二。 在所有 25.8 場比賽中,西塞羅的平均得分為 12.4%,是其 82 名對手平均得分 8% 的兩倍多。 作為聯賽的一部分,西塞羅參加了一場 21 場比賽,共有 6 名參賽者參加,其中 5 人至少參加了 6 場比賽。 參與者最多可以玩 3 場比賽,他們的排名由他們最好的 1 場比賽的平均值決定。 西塞羅在這次比賽中排名第一”(同上)。

ADVERTISEMENT

看到他們在這種情況下認真地嘗試支持他們的 AI 主張,我感到非常欣慰(請注意,並非 AI 中的每個人都這樣做)。

您可以建議他們進行一項實驗。 該實驗由人類玩家組成,他們大概不知道他們正在與他們中間的 AI 玩家一起玩(該論文討論了為什麼這似乎是合理的推斷,即人類沒有公開意識到其中一名玩家是 AI,儘管一個有趣的旁白涉及一個玩家的故事,他有點懷疑但不是特別如此)。 這些人類球員是根據實驗設計的性質預先選擇的,因此他們是聯盟球員 外交 我們可以合理地推斷他們很清楚如何玩這個遊戲。 他們不是新手。

根據報告的統計數據,我們將按照以前的表面價值進行適當收集和報告(補充材料中提供了各種數據和代碼),AI 似乎已經玩了足夠多的遊戲以做出看似合理但范圍狹窄的結論對於這個變體,它達到了人類的表現水平 外交 遊戲以及在所述聯賽的背景下與看似精通玩家的人類比賽。

我敢肯定,你們中的一些人可能想對玩這款遊戲的次數提出異議,也許會爭辯說它太少了,無法做出大膽的聲明。 另一個狡辯可能是,在參與者的前 10% 之內還不夠高,因此在達到前 1% 之前,人們不應該吹噓人工智能的表現。

ADVERTISEMENT

那些狡辯似乎有點刺耳。

我這麼說是因為幸運的是沒有援引“超人”的說法。 讀者無疑知道我對 AI 中那些不斷誇大其 AI 已經達到超人地位的人的看法。 我不會在這裡抱怨超人的叫囂,請看 這裡的鏈接 我的意見。

我在這個例子中的觀點是,我相信人類水平表現的指示可能通常是允許的,假設每個人都記住這是在一個極其狹窄的範圍內並且我們不試圖使它成為所謂的超人。 我也一遍又一遍地重複受限的上下文,原因我將在接下來闡明。

我可以想像,一些社交媒體或天真的(可能聲名狼藉的)記者將完全斷章取義人類水平的表現概念。

這就是我害怕的。

ADVERTISEMENT

屏住呼吸。

有些人會聲稱人工智能已經掌握了外交。 是的,一項針對外交人工智能係統的研究毫無疑問地證明,人工智能可以而且現在有能力完成人類為外交所做的一切事情。

把外國外交官送回家。 我們可以用人工智能代替它們。

我們所知道的世界已經改變。 我們已經生產出在外交方面與人類完全平等的人工智能,我們可以在思想上“合乎邏輯”地飛躍到人工智能現在可以做人類可以做的任何事情。 瞧,我們現在已經證明人工智能與人類不相上下。 顯然,這項研究為有知覺的人工智能提供了明確的證據。

記住我的話,這肯定會成為一些作家的古怪、不負責任、令人厭煩的看法。

我不會強調這一點。 我們繼續前進。

ADVERTISEMENT

人工智能是如何工作的?

以下是該論文的簡要總結:“Cicero 將可控對話模塊與戰略推理引擎相結合。 在遊戲的每一點,西塞羅都會根據遊戲狀態和他們的對話來模擬其他玩家可能採取的行動。 然後,它計劃參與者如何協調以實現互惠互利,並將這些計劃映射到自然語言消息中”(同上)。

那個簡短的總結中包含了很多內容。

請允許我拆包。

玩遊戲的人類玩家 外交 必須預測其他人類玩家將要做什麼。 您想嘗試與其他玩家協商並讓他們同意您的計劃。 他們會嘗試對你做同樣的事情。 他們可能在騙你。 你可能在騙他們。 您必須與其他六名玩家競爭,他們都有自己的計劃和方法。

ADVERTISEMENT

該遊戲的多代理方面對於設計玩遊戲的 AI 的難度級別至關重要。 人工智能必須跟踪每個人可能想做什麼,以及他們所說的他們想做什麼,以及他們對其他玩家所做的任何詭計。 這必須與他們告訴你他們將要做的事情以及你告訴他們你將要做的事情進行權衡。

令人眼花繚亂,但通常對人類來說足夠容易。

用 AI 領域的說法,我們將其稱為心智理論 (ToM)。 想想你,作為一個人,傾向於對其他人的想法進行理論化。 你不能撬開某人的腦袋看他們的想法。 你必須猜測他們的想法是什麼。 你可以問他們,但他們告訴你的可能是他們的想法,也可能是他們想法的偷偷摸摸的版本。

除了心理理論的複雜性之外,我們還需要將人類語言添加到這種模糊的組合中。

當一個人用他們的自然語言與您交流時,比方說英語,就會有很多錯誤和誤解的餘地。 我告訴你我要接管 X 國,但我錯說了 Y。哎呀。 或者,我說的是 X 國,但你誤以為我說的是 Y 國。如果你認為如果每個人都使用短信就不會發生這種混淆,那你就大錯特錯了。 我可能會輸入一條消息,說我要攻擊一個國家,但我沒有提到是哪個國家。 也許這暗示了我“顯然”會攻擊哪一個。 收到我消息的玩家可能會認為我一定是在暗示 X 國家,但也許我希望他們這麼想。

ADVERTISEMENT

繼續進行。

關鍵在於我們在自然語言處理 (NLP) 方面的 AI 最新進展,尤其是最新的生成 AI 和大型語言模型 (LLM) 使這種自然語言情況幾乎可行。 過去,NLP 通常不夠好,同樣,LLM 也沒有更成熟。

過去,AI 會發送您幾乎肯定會立即認出是由腳本化 AI 系統編寫的消息。 措辭不流暢。 它被模板化了。 這很明顯表明 AI 就是 AI。 如今,在這些情況下更難辨別人工智能不是人類玩家。

正如上面的引述所提到的,這個特殊的人工智能被設計成包含一個“帶有戰略推理引擎的可控對話模塊”(同上)。 對話來自於:“西塞羅使用預先訓練的語言模型生成對話,該模型進一步訓練了來自人類游戲的對話數據。 外交. 至關重要的是,除了基於對話歷史和遊戲狀態之外,對話模型還經過訓練,可以通過意圖進行控制,我們在這裡將其定義為代理及其說話夥伴的一組計劃動作。”

ADVERTISEMENT

在那裡,請注意域設置是至關重要的。 如果你只接受了互聯網上正常性質的對話的訓練,這不一定適合 外交 遊戲上下文。 玩遊戲的人習慣於用一種速記的方式來討論遊戲和提議的走法。 你希望 AI 也這樣做。 因此,在特定領域的對話數據上訓練語言模型是一種值得注意的方法。

對於所述的戰略推理引擎,他們是這樣說的:“西塞羅使用戰略推理模塊來智能地選擇意圖和行動。 該模塊運行一個規划算法,根據到目前為止的遊戲狀態和對話預測所有其他玩家的策略,同時考慮不同動作的強度及其在人類游戲中的可能性,並根據這些預測為西塞羅選擇最佳動作. 規劃依賴於通過 self-play RL 訓練的價值和政策功能,它會懲罰偏離人類行為太遠的代理,以維持與人類兼容的政策”(同上;請注意 RL 是強化學習的縮寫)。

在遊戲中,玩家在每次移動後都會重新校準自己的位置。 你不能用一個固定的、僵化的、一成不變的預定義策略進入這個遊戲。 你必鬚根據其他玩家的行為來改變你的行為。 人工智能應該被編程為做同樣的事情。 本身沒有靜態策略。 相反,要不斷了解情況,一步一步,找出下一步應該採取的最佳步驟。

AI 的技術基礎是這樣設計的:“我們獲得了 125,261 個遊戲的數據集 外交 在 webDiplomacy.net 上在線播放。 其中,40,408 個遊戲包含對話,玩家之間交換的消息總數為 12,901,662 條。 玩家帳戶被取消識別,個人身份信息 (PII) 的自動編輯由 webDiplomacy 執行。 我們在下文中將此數據集稱為 WebDiplomacy”(同上)。

類似於你訓練 AI 下棋的方式,你可以抓住無數的棋局,讓 AI 對棋局進行模式匹配,這個 AI 外交 遊戲玩法相對成立。

那些精通 AI 的人可能很好奇他們使用了哪些基礎模型,你看:“我們將 R2C2 (22) 作為我們的基礎模型——一個 2.7B 參數的基於 Transformer 的編碼器-解碼器模型在來自互聯網的文本使用 BART 去噪目標。 然後,通過標準最大似然估計,在 WebDiplomacy 上進一步訓練基礎預訓練模型”(同上)。

此外,他們採取了一種有點不尋常且有趣的方法來對其他參與者的模型進行建模,以考慮他們的推定政策:“合作遊戲中的一種流行方法是通過對人類數據的監督學習來模擬其他參與者的政策,這通常是被稱為行為克隆(BC)。 然而,純 BC 是脆弱的,特別是因為監督模型可能會學習對話和動作之間的虛假相關性。 為了解決這個問題,Cicero 使用 piKL (26) 的變體來模擬參與者的策略。 piKL 是一種迭代算法,它通過假設每個參與者 i 尋求最大化其策略 πi 的期望值並最小化 πi 與 BC 策略之間的 KL 差異來預測策略,我們稱之為錨策略 τi(同上)。

我認為這涵蓋了最重要的方面,並讓您大致了解 AI 做了什麼以及它如何完成指定的任務。

結論

還有很多我想提的,但我在這個討論上跑了很長時間,並會嘗試只涵蓋幾個關鍵方面。 我的目標是在隨後的帖子中介紹更多內容。

你聽說過囚徒困境嗎?

這是一個經典的決策相關問題。

囚徒困境涉及您必須決定是出賣還是向其他囚犯吐槽。 另一個囚犯也可能出賣你。 有一個獎勵功能,如果你出賣了另一個囚犯而他們沒有出賣你,這對你來說是一種勝利。 如果他們出賣你而你不出賣他們,這對他們來說是一種勝利,對你來說是一種失敗的姿態。 如果你們都互相出賣,你們基本上都輸了。 詳細見我的報導 這裡的鏈接.

面對囚徒困境時,你會想出什麼策略?

如果這是一次性交易,您幾乎可以拋硬幣。 如果這種情況一次又一次地重複,而你面對的是同一個囚犯,你可能會發現一種可能出現的模式。 最受歡迎和經常推薦的模式之一被稱為 針鋒相對. 無論其他囚犯做了什麼,你的下一步都會做同樣的事情。 如果他們不出賣你,你就不會出賣他們。 如果他們真的出賣了你,你就可以在下一步中出賣他們。

你可能會感到困惑,這與玩遊戲時注入 AI 的外交有什麼關係 外交.

這是交易。

在與他人的談判中,你常常不得不決定是告訴他們真相還是對他們撒謊。 說謊的一個問題是,如果你被騙了,對方可能從此不再信任你。 他們可能一開始並沒有完全信任你,但現在你已經證明你確實在撒謊,他們肯定會認定你是個騙子。

一些球員的 外交 經常撒謊。 他們認為這是最好的策略。 謊言,謊言,還有更多的謊言。 其他玩家則完全相反。 他們爭辯說,如果可以的話,你想避免說謊。 只在最需要的情況下使用謊言。 通過避免說謊,您可以與其他玩家建立信任。 一旦你走上說謊的道路並被發現,沒有人會相信你說的話。

描述西塞羅的論文提到了這一考慮:“最後,外交是一個特別具有挑戰性的領域,因為成功需要在鼓勵玩家不信任任何人的環境中與他人建立信任。 在不具約束力的私下談判之後,每個回合的行動同時發生。 為了取得成功,經紀人必須考慮到球員可能不守信用的風險,或者其他球員自己可能會懷疑經紀人的誠實度的風險”(同上)。

根據論文和短視頻,研究人員最終發現,讓 AI 盡可能多地說實話似乎是更好的整體策略。 從某種意義上說,你可以把這比作囚徒困境中的針鋒相對。 從說實話開始。 如果你的對手說真話,你就繼續說真話。 如果他們開始說謊,您需要評估是堅持說實話還是轉而說謊。

人們認為這是一個令人心動的發現。

請記住,棘手和有趣的部分 外交 是您針對其他六個玩家執行此操作(稱為多代理問題)。 你可能對他們所有人都非常誠實。 或者,也許對某些人誠實但對其他人不誠實。 還有一個方面是,一旦您對其他玩家撒謊並被騙,其他玩家可能會觀察到或推斷出這一點。 因此,你被認為或被認為在撒謊,即使你沒有對某個特定玩家撒謊,你希望他認為你是誠實的並且你正在努力對他誠實。

人類在行使外交時往往會弄清楚並發展他們的謊言真相方法。 情境依賴性可能是一個很大的因素。 線路上的利害關係是至關重要的考慮因素。 有多種因素在起作用。

注入 AI 會很有趣 外交 基於機器的玩家玩了大量的遊戲,主要是看結果可能暗示什麼。

我們可能還想讓 AI 與少於 XNUMX 名其他玩家進行較量,看看這會如何改變事情。 我們還可以將 AI 添加到組合中,使其成為多個玩家。 例如,假設我們有五個人類玩家和兩個 AI 玩家(我們將 AI 玩家設置為單獨的實例,這樣他們在計算上就不會相同)。 四個人和三個人工智能呢? 六個人工智能和一個人類怎麼樣?

另一種途徑是讓 AI 單獨對抗 AI。 以這種方式,我們可以快速完成無數場比賽。 七個不同的 AI 實例的設置。 每個都是自己獨立的播放器。 由於這一切都在計算機內,我們可以不間斷地運行它們並產生數千或數百萬個遊戲實例。

當然,AI 與 AI 的問題在於我們已經移除了人類玩家。 我們不知道 AI 對 AI 是否反映了人類玩家的行為。 無論如何,可能會發現一些有趣的結果。

我之前說過,這類 AI 的一個局限性是它通常專注於狹隘的領域。 我們無法輕易知道播放的 AI 外交 將適用於現實世界的外交。 此外,也許適用於 外交 在其他以外交為導向的在線遊戲中不會做得特別好。 它可能不會移植過來,而是一種只會一招的小馬。

正如有關配方的研究所述 遊戲:

  • “我們認為,在真正的談判中,了解領域很重要,而且應該能夠對此進行推理。 例如,一個人不能指望在沒有任何古董知識的情況下在古董業務中做出有利可圖的交易,無論一個人多麼擅長討價還價。 此外,一個好的談判者還應該能夠推理對手的願望。 例如,一名優秀的汽車銷售員會嘗試找出最適合其客戶需求的汽車類型,以增加達成有利可圖的交易的機會”(如前所述:Angela Fabregues 和 Carles Sierra,“DipGame:具有挑戰性的談判試驗台”, 人工智能的工程應用, 2011 年 XNUMX 月)。

一旦掌握了人工智能 外交 發生這種情況時,所有的目光都應該集中在使用或重複使用 AI 來處理其他與外交相關的遊戲上。 此外,應探索在現實世界的外交環境中使用人工智能的努力。

我將暫時結束一些關於道德 AI 的考慮。

首先,令人欣慰的是,Meta AI 團隊認識到他們的工作包含 AI 倫理分支。 發人深省的問題出現了。 在不告訴人們他們正在這樣做的情況下“愚弄”人們與 AI 對戰是否合適? 人工智能生成的自然語言是否會無意中包含傳達給人類玩家的冒犯性措辭? 等等。

一定要看看他們如何在他們論文的補充材料 (SM) 中處理那些緊迫的人工智能倫理問題:“我們在 SM 中進一步討論了這項研究的倫理考慮,包括數據使用的隱私考慮 (SM, § A.1)、有毒或有偏見的語​​言生成造成的潛在危害(SM,§A.2)、濫用面向目標的對話技術的途徑(SM,§A.3)以及向人類玩家披露 AI 代理(SM , §A.4)”(同上)。

我們需要更多的 AI 開發人員和他們的領導層認識到有道德的 AI,並在他們所做的 AI 工作中採取謹慎和明智的步驟。 此外,他們需要確保他們對他們採取的道德人工智能行動以及他們所做的假設保持透明。

我現在的最後一項是對 擬人化 AI。

如果我們改進 AI 使其看起來具有敏銳的外交能力,這是否會誤導人類假設或相信 AI 在最充分的方面與人類不相上下?

這是一個容易滑的斜坡。 與你互動的笨重 AI 正在提供一個明顯的線索,表明它可能是 AI 而不是人類。 一個平滑迭代的人工智能,表面上有至高無上的外交姿態,很可能會讓人毫不猶豫地陷入人工智能是人類的陷阱,包括好像它具有人類的常識和人類的所有理解能力。

順便說一句,還要意識到這可能會如何在 外交 遊戲。 一個人類玩家看到來自另一個玩家的近乎詩意的消息可能會意識到這一定是人工智能(現在遠遠超過了之前笨拙的人工智能),而其他人則不會如此清晰地撰寫消息。 當然,如果 AI 繼續調整,它可能會改變詩意的措辭,以更接近地反映真實人類玩家的簡潔和鬆散的措辭。 反過來,人類玩家可能會轉而使用詩意的語言,試圖表明他們是人類。 這個想法是,也許其他人類玩家會願意在 AI 問題上與人類同胞結盟。

接下來你知道,遊戲開始轉變為試圖弄清楚誰是人類,誰是人工智能。 如果你能弄清楚哪個是哪個,也許這會給你帶來優勢。 另一方面,它可能不是。 人工智能最終可能會像人類一樣精通遊戲。 你猜測哪個是哪個對你沒有多大好處。 無論是人工智能玩家還是人類玩家,它都可能會分散注意力,無法專注於贏得比賽。

對於希望對這種令人費解的概念進行人為因素研究的研究人員,您可以考慮使用注入 AI 的 外交 玩家並尋找願意 外交 聯賽調查人類與人工智能的識別和出現的行為適應策略。

讓我們總結一下。

馬克吐溫談到外交時這樣說:“給予和接受的原則就是外交的原則——給予一個,得到十個。” 這是對人類如何運作的誠實評估,還是只是一種玩笑式的幽默,憤世嫉俗但錯誤地評估了人類狀況?

進一步思考這些問題:

  • 如果我們可以將外交融入人工智能,這是否會告訴我們人類如何實例化外交並可能讓人類提高外交藝術?
  • 我們是否會製造一種虛假的 AI,當它根本不是那種東西時,它似乎是有知覺的,所有這些都是由於通過計算從帽子里拉出一隻兔子來看似展示類似人類的外交?
  • 是否可以在讓 AI 充滿外交能力之間找到平衡點,以便同時提醒我們這仍然只是日常 AI,因此不要將其擬人化?

他們說外交是讓別人為所欲為的藝術。 讓我們確保我們的方式是人類方式,而不是人工智能方式。 雖然是外交,但現在我仔細考慮了一下,如果我們最終成為 AI 霸主,也許我們應該允許我們的方式成為 AI 方式,這有望與合適的人類方式相吻合。

只是想運用一點巧妙的外交手段。

來源:https://www.forbes.com/sites/lanceeliot/2022/11/23/meta-ai-unveils-ai-infused-diplomatic-charmer-which-stirs-ai-ethics-and-ai-law-進入-indelicate-tiff/