各國將人工智能作為地緣政治談判籌碼進行交易引發了對人工智能倫理和人工智能法律的擔憂

分享和分享。

每個人都有很多值得去的地方。

一些人認為,那些流傳已久的智慧之珠適用於人工智能 (AI)。 你看,一些國家在 AI 進步方面比其他國家走得更遠。 令人擔憂的是,這表明將存在 AI 富人與 AI 窮人之爭。 或許正確或文明的做法是確保所有國家都能平等地分享人工智能蛋糕。

等一下,有人憤怒地反駁,想一想勝利者獲得戰利品的名言。

如果一個特定的國家大力投資於推進人工智能,那麼與沒有進行相同投資的其他國家相比,他們將受益更多,這似乎是適當且非常公平的。 你真的相信其他國家應該免費搭上那些將人工智能作為首要任務的國家的尾巴嗎? 記住那個經典的故事 小紅母雞,母雞獨自製作麵包,並不斷請其他農場動物幫忙,但他們沒有,最後,美味的新鮮出爐的麵包給了母雞,而其他人則錯過了。

這個世界上沒有吃白食的人。

因此,如果共享國家在契約本身的製定中並非都平等共享,那麼共享和相似共享就沒有意義。 這樣看。 如果每個國家都確實在人工智能進步方面做出了自己的貢獻,那麼他們都會有一些東西可以與其他國家進行貿易。 結果將是交易者的天堂。 我用我的 AI 交易你,你用你的 AI 交易我。 就好像這隻母雞和農場裡的其他人各自做了一些麵包,最後選擇給對方一點他們各自做的東西。

這提出了一個還沒有多少人深入研究的話題。

我說的是 全球地緣政治 國家間和國家間的 AI 交易.

一口。

你打賭,這都是因為人工智能在全球範圍內廣泛交易。

請意識到並不是所有的人工智能都是一樣的。 有玩遊戲的AI。 有用於醫療保健和醫療用途的 AI。 有用於財務分析和貨幣計算的 AI。 有用於農業和農業目的的人工智能。 我可以繼續下去。 各種各樣的人工智能都存在,並且還在進一步編程和設計中。 今天已知或探索的 AI 用途還只是冰山一角。 可以肯定的是,人工智能將不斷擴展和進步。 人工智能將不可避免地出現在地球的每一個角落。 說人工智能將無處不在並不過分。

各國都在為廣泛應用的人工智能做準備。

我之前已經討論過,有一個持續的,有時是激進的 人工智能競賽 國家之間關於哪個國家將擁有最好或最先進的 AI 的爭論——請參閱“AI 倫理和地緣政治角力賽,看誰將贏得這場獲得真正 AI 的競賽”,網址為 這裡的鏈接 (蘭斯艾略特,福布斯,15 年 2022 月 XNUMX 日)。

此外,我已經指出有很大的潛力 政治力量 由於持有或囤積最新的 AI 進步而可能在一個國家中出現——參見“AI 倫理和人工智能作為地緣政治強國的製造者或破壞者的隱現政治潛力”,網址為 這裡的鏈接 (蘭斯艾略特,福布斯,22 年 2022 月 XNUMX 日)。

所有這些人工智能陰謀都帶有非常重要的人工智能倫理和人工智能法律後果。 我們希望 AI 遵守關於 AI 的組成和使用方式的各種 AI 道德準則或“軟法”。 與此同時,關於人工智能的法律法規正在緩慢但肯定地進行辯論並付諸實施。 AI Law 將成為嘗試處理 AI 以及我們作為一個社會與 AI 走向何方的巨大工具。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

今天的專欄將討論一個相關的挑戰和機遇,即從一個民族國家到另一個民族國家的 AI 交易。 你可以把這比作馬匹交易,儘管我們擁有先進的人工智能而不是馬匹,以及幫助人類擺脫困境或潛在破壞人類未來的相當可怕的機會(被稱為 兩用 AI,請參閱我的分析 這裡的鏈接).

這真是一個交易難題。

如今,人工智能是相當大的東西。 你肯定讀過或聽說過 AI 是一種存在風險,請參閱我對此的報導 這裡的鏈接. 人工智能變得瘋狂有可能會讓我們陷入非常不幸的境地。 此外,還有人擔心,如果我們能夠以某種方式獲得有感知力的 AI(我們顯然還沒有實現),有感知力的 AI 可能會像人類一樣聰明,甚至比人類更聰明。 超級聰明的人工智能可能想出辦法成為我們的霸主。 我們可能會成為人工智能的奴隸。 有人認為,如果人工智能願意,它可能能夠消滅我們。

要點是,如果一個國家將人工智能王國的鑰匙交給另一個國家,我們無法確定另一個國家會用它做什麼。 讓它自由,讓 AI 進步並摧毀整個地球。 嘗試將 AI 關在籠子裡,讓它不再作惡。 可能性的範圍是無限的。 結果從好到壞不等,包括可怕的和毀滅性的壞。

人們很容易斷言每個國家都應該將 AI 緊緊抱在自己的胸膛。

或許每個國家都將其 AI 封閉起來才是最明智的做法。 這在某種程度上是民族國家瘋狂爭奪 AI 的潛在困境。 一個民族國家可能認為精明的做法是找出人工智能並利用人工智能為該國服務。 想像一下,一個民族國家可以通過在人工智能方面領先於其他所有人而獲得什麼樣的政治權力。 這類似於核軍備競賽,儘管問題和區別在於 AI 更加狡猾。

讓人工智能遍及另一個國家並不是什麼大不了的事。 我們擁有互聯網作為電子連接,在大多數國家/地區通常都可以訪問。 您可以穿著睡衣坐在臥室裡,將您的 AI 偷偷帶入另一片土地。 沒有大型卡車或重型運輸箱。 只需按下一個按鈕,即可以電子方式傳輸您想要與另一個國家共享的 AI。

一完成。

另外,您不能特別改變主意並收回 AI。 複製 AI 通常是可行的。 那樣的話,當某個國家強調你最好把AI歸還的時候,你可以發給他們,然後聲明你已經歸還了。 同時,存在無數個副本,您可以隨心所欲地使用它們。

有很多方法可以加密 AI。 有一些方法可以包含密碼。 你可以偷偷地在 AI 中插入某種後門,這樣你以後也許可以用它來禁用它。 我提到這一點是因為你們中的一些人現在可能正在勸告,如果需要的話,一旦 AI 被移交,通常可以將其關閉。 問題是,有很多方法可以規避或削弱這些預防措施,從而導致一場耗費精力且代價高昂的網絡安全貓捉老鼠遊戲。

總的來說,您必須接受這樣一種觀念,即一旦將 AI 提供給另一個國家,您很可能永遠無法取回它。 他們也很有可能繼續使用它,儘管你作為一個國家希望他們停止這樣做。

當然,一個國家可以使用各種其他高壓地緣政治壓力讓另一個國家停止使用人工智能係統。 威脅可以是軍事性質的,也可以是經濟性質的。 談判和另一場民族國家談判可以進行。

這裡有一個你可能沒有想到的轉折點。

如果一個國家向另一個偏愛的國家提供 AI,是否洩露了秘密?

令人擔憂的是,一個被認為是盟國的國家可能會無意中讓人工智能與另一個不在首選名單上的國家共享。 除了無意中這樣做,盟國還可能有意將 AI 交給非優先國家。 到底為什麼一個盟國會做出這種“背叛”的行為,將寶貴的 AI 提供給一個不在首選名單上的國家?

討價還價的籌碼。

人工智能可以成為一個非常有用的討價還價籌碼。 一個想要看起來很大的小國可以用 AI 換取其他東西。 需要更多的油嗎? 交易你的人工智能。 需要食物和用品嗎? 交易你的人工智能。 想獲得其他國家的最惠國待遇嗎? 通過提供一些他們還沒有其他方式可用的有趣的 AI 來吸引國家。

人工智能是造幣。 人工智能就像金條。 人工智能是一種可以來回交易的資源。 美妙之處在於它是電子的,可以在沒有人特別注意的情況下完成。 如果一個國家將成箱的黃金放在輪船或大型飛機上,肯定有人會注意到。 將人工智能係統傳輸到另一個國家是在黑暗中完成的,並且沒有簡單的方法來追踪它。

讓我們回到富人和窮人。

一個沒有人工智能的國家可能被歸類為 缺乏人工智能. 設計人工智能通常會產生相當大的成本,包括昂貴的勞動力成本,以及使用龐大的計算機服務器。 有些國家有這個,但很多國家沒有。 他們有限的資源正用於更基本的生存目的。

一些人認為,聯合國最終將不得不權衡全球範圍內的人工智能平衡問題。 聯合國已經在考慮 AI 倫理和 AI 法律,稍後我會詳細介紹。 聯合國可能成為一種關於人工智能交易和共享的人工智能信息交換所。

荒謬的,有些人堅持。

激烈的爭論表明,各國可以隨心所欲地使用人工智能。 中介是不必要的,而且很麻煩。 任何想要與任何其他國家交易任何特定人工智能的國家都應該能夠自由地這樣做。 開放和自由的世界市場應該決定人工智能的去向。

一個反駁的觀點是,如果 AI 有可能破壞人類,那麼對誰獲得 AI 進行某種形式的控制不是很合理嗎? 只有負責任的國家才應該擁有特定種類的人工智能。 通過建立一個由假定的中立第三方運營的全球票據交換所,也許我們可以防止人工智能落入壞人之手。

能夠將 AI 從一個國家轉移到另一個國家的多孔方面使得這樣的論點更難以接受。 人工智能國家間信息交換所可能只是一個瓶頸。 這是一個官僚機構,可以假定會抑制使用非常需要的 AI,並且不會在預防或減輕有害的 AI 方面做太多事情。

這些關於 AI 的激烈全球辯論勢必會繼續下去。

花點時間思考一下這三個相當引人注目的問題:

  • 對於各國與其他國家之間的人工智能全球貿易,我們應該怎麼做?
  • AI 倫理和 AI 法對這個令人煩惱的問題有什麼補充價值嗎?
  • 可以設想什麼樣的人工智能交易安排(現在和將來)?

我很高興你問。

在深入探討該主題之前,我想首先奠定一些關於 AI 的基本基礎,尤其是 AI 倫理和 AI 法律,這樣做是為了確保討論在上下文中是合理的。

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

既然我已經為這些相關的 AI 倫理和 AI 法律主題打下了有益的基礎,我們就可以進入探索全球民族國家 AI 交易這一令人興奮的話題了。

貿易國家貿易人工智能的福音

讓我們回顧一下我之前關於這個主題的假設問題:

  • 對於各國與其他國家之間的人工智能全球貿易,我們應該怎麼做?
  • AI 倫理和 AI 法對這個令人煩惱的問題有什麼補充價值嗎?
  • 可以設想什麼樣的人工智能交易安排(現在和將來)?

第一個問題通常用幾句簡潔的話來回答。

提出的問題: 對於各國與其他國家之間的人工智能全球貿易,我們應該怎麼做?

一些精闢的回答: 沒事.

沒錯——別做該死的事。 涉足國家間的 AI 交易不是任何人的事。 國家做他們想做的事。 別理他們。

事實上,有時有人爭辯說,如果試圖打壓民族國家的 AI 交易,那麼這樣做會阻礙 AI 的發展。 你會阻止人工智能的新創新。 觀點是人工智能現在必須不受限制。 我們正處於人工智能發展的階段,只有讓所有人都參與進來,才能讓我們獲得真正的通用人工智能 (AGI)。

我相信你知道反駁。 我們在玩火。 AI 是一場可以燒毀我們所有房屋的大火。 你需要製定 AI 倫理,以防止 AI 成為破壞性的漩渦。 制定人工智能法律也是如此。 人工智能具有造成巨大傷害的巨大潛力。 馬已經在穀倉外面戳了一下,別讓它跑完剩下的路。

我們可能會制定一項要求,要求任何交易 AI 的國家都必須展示他們已經制定了國家 AI 道德政策。 AI 道德政策必須是堅定的並且被證明是被遵守的(沒有空洞的努力)。 同樣,任何交易 AI 的國家都必須制定適用的 AI 法律,而且法律必須得到執行(否則就是造假)。

當一個國家希望與另一個國家進行人工智能交易時,必須首先滿足並批准人工智能倫理和人工智能法律的要求。 一個中立的第三方,例如在聯合國的支持下,可以擔任此職務。 希望這將防止或至少減少以破壞性方式交易和使用 AI 的巨大風險。

一個值得注意的重大問題籠罩著這一概念。

似乎所有國家都同意這種安排的可能性很小。 因此,不參與的“流氓”國家將能夠按照他們認為合適的方式進行 AI 交易。 所有這些其他國家都在努力做正確的事。 不幸的是,他們將陷入做正確事情的泥潭,而其他異類國家卻為所欲為。

惡棍、惡棍、不滿者。

或者他們可能認為自己在 AI 交易實踐和安排中是正當的、敏捷的和英勇的。

說到人工智能交易安排,這裡有十種我在這個主題上確定的基石方法:

  • 人工智能贈品: 一個國家無償將其 AI 提供給另一個國家(很難想像沒有任何期望、罕見或不存在)
  • 人工智能直接交易: 國家將其 AI 提供給另一個國家以換取另一個國家擁有的一些 AI(直接的 AI-for-AI 貿易)
  • 槓桿人工智能交易: 國家將其 AI 提供給另一個國家以換取其他非 AI 性質的東西(例如,石油、穀物、食品、汽車、武器等)。
  • 發展中國家人工智能貿易: 國家將其 AI 提供給發展中國家,作為促進或幫助發展中國家的一種手段
  • Over-The-Top 人工智能交易: 一個國家將其 AI 提供給另一個國家,但通過交出 AI 的皇冠上的寶石以換取微薄的回報而搞砸了交易
  • 人工智能交易詐騙: 一個國家出於某種交易目的將其 AI 提供給另一個國家,但另一個國家不知道該 AI 是一個啞彈(這是一個騙局)
  • 多方面的人工智能貿易: 一個國家將其 AI 提供給另一個國家,以換取一組複雜的實際和預期交易項目作為回報
  • 多米諾骨牌人工智能貿易: 國家將其 AI 提供給另一個國家,而接受國家將 AI 交易給其他國家,並且該國家提供某種東西作為對開始序列的國家的回報(一組複雜的相互關聯的交易或一系列交易)
  • 特洛伊木馬人工智能交易: 一個國家將其 AI 提供給另一個國家,儘管該 AI 包含某種特洛伊木馬,使得提供國家將對接受國家有一些影響力或詐騙
  • 其他人工智能交易實踐

仔細考慮這些類型的人工智能交易安排。

我敢肯定,我們會看到這些 AI 交易實踐在起作用,儘管它可能會保密,而且廣大公眾不會知道這些惡作劇正在發生。

結論

我想我們幾乎都同意我們應該這樣做 東西 關於 AI 的國與國交易。

棘手的問題是我們能夠或將會做什麼。

有人說我們應該隨和。 其他人驚呼我們需要加強各國的人工智能交易。 然而,另一種觀點是,在考慮交易實踐時,也許我們應該只關注某種人工智能。 例如,歐盟 AI 法案規定了 AI 的各種風險級別,請參閱我的報導 這裡的鏈接. 可以說民族國家人工智能交易僅適用於最高級別的人工智能風險。

也許我們現在要做的只是手擰。 無論如何,請將我的 AI 交易安排清單放在手邊。 一旦各國的 AI 貿易成為熱門話題(它將標記我的話),您將需要該列表。

我希望很明顯,AI 倫理和 AI 法律是整個主題不可或缺的一部分。 那些在人工智能倫理和人工智能法律方面做嚴肅而發人深省的工作的人可以實質性地幫助解決民族國家人工智能交易難題。 在涉及 AI 時,用於檢查社會考慮因素的相同類型的技能無疑適用於這個特定的用例。

現在做最後的評論。

馬商有自己的語言。

如果一位交易員告訴您,一匹馬特別體貼,不會放過任何東西,您可能會認為這意味著這匹馬特別專心並且敏銳地意識到周圍的環境。 看起來很理想。 另一方面,一個更精明的艱苦訓練學派的解釋是,這匹馬可能很膽小,會對最小的干擾因素做出反應。 想像一下,試圖騎這樣一匹馬,因為它經常被一頭站立的牛或一隻懶洋洋地從頭頂飛過的鷹偏離軌道。

交易者可能會嘗試的另一個快速的俏皮話是,馬相對溫順,很少雄鹿。 當然,這可能是一個微妙的線索,表明這匹馬可能會在最糟糕的時候興奮地衝撞。 當您在仙人掌叢中或小跑通過快速流動的溪流時,您可能正在騎馬,但您的駿馬出人意料地將您甩開。

關於馬的所有諺語中最著名的一句是,你不應該在嘴裡看禮物馬。

我提出這個問題是為了將這句話納入人工智能領域。 如果我們從另一個國家得到與他們交易 AI 的報價,如果他們告訴我們他們的 AI 很理想而且很少賺錢,請確保我們仔細看看那個 AI 野獸的嘴。 它可能是我們肯定不想要的人工智能。

或者,可能是 AI 決定它肯定不需要我們(如果你明白我的意思,這是一個糟糕的結果)。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/12/09/nations-trading-their-ai-as-geopolitical-bargaining-chips-raises-angst-for-ai-ethics-and-艾法律/