人工智能倫理和人工智能法律通過跳舞機器人製造商說他們將避免人工智能武器化提出關於新承諾的難題

您可能在上週的新聞中看到或在社交媒體上註意到一些機器人製造商宣布的承諾,即他們聲稱的目標是避免通用機器人的人工智能武器化。 稍後我將向您介紹詳細信息,所以如果您沒有聽到這件事,請不要擔心。

對這一宣言的反應是迅速的,也許在我們這個兩極分化的社會中,像往常一樣,既是讚美的,有時是嘲弄的批評或徹頭徹尾的懷疑。

這是一個兩個世界的故事。

在一個世界裡,有人說這正是我們所需要的 負責 AI機器人開發商申報。

謝天謝地,你站在一個問題的正確一邊,這個問題將逐漸變得更加明顯和更加令人擔憂。 那些可愛的跳舞機器人令人不安,因為很容易重新調整它們以攜帶武器並以最壞的方式使用(您可以通過訪問社交媒體自己查看這一點,並且有大量視頻展示了配備機槍的跳舞機器人和其他武器)。

這枚硬幣的另一面說,所謂的承諾只不過是一種營銷或公共關係的策略(作為旁注,有沒有人熟悉承諾和捐贈之間的區別?)。 無論如何,懷疑者告誡說,在跳舞機器人的背景下,這是肆無忌憚的美德信號。 你看,哀嘆通用機器人可以被武器化的事實當然是值得和認真尋求的考慮,儘管僅僅聲稱製造商不會這樣做可能是一個空洞的承諾,一些人堅持認為。

總而言之,整個事件引發了相當多的 AI 倫理和 AI 法律考慮。 我們將一絲不苟地解開這個話題,看看這是一個道德和法律的人工智能泥潭的雙重打擊。 有關我對 AI 道德和 AI 法的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

在整個討論過程中,我還將參考我之前對人工智能武器化危險的分析,例如我在 這裡的鏈接. 您可能想查看該演講以了解更多幕後細節。

打開一罐蠕蟲的公開信

讓我們通過對最近由六家相對知名的先進機器人製造商(即波士頓動力、Clearpath Robotics、ANYbotics、Agility Robotics、Open Robotics 和 Unitree)發布的公開信進行仔細的逐步探索來開始此分析。 總的來說,我猜你主要看到的是波士頓動力機器人,比如那些四肢騰騰的機器人。 它們看起來像狗一樣,我們很高興看到它們四處亂跑。

正如我之前反复警告過的那樣,使用這種“跳舞”機器人來說服公眾相信這些機器人是可愛的,令人遺憾的是會產生誤導,並且會陷入將它們擬人化的大量陷阱。 我們開始認為這些硬化的金屬和塑料件就好像它們相當於一隻可愛忠誠的狗。 我們願意接受這些機器人是基於一種錯誤的安全感和保證感。 當然,你必須賺錢,並且通過在跳舞機器人周圍遊行來增加這樣做的機率,但遺憾的是,這忽略或似乎隱藏了這些機器人是機器人以及控制機器人的人工智能可能被錯誤設計的真實事實或出錯。

考慮人工智能的這些後果(摘自我關於人工智能武器化的文章,見於 這裡的鏈接):

  • AI可能會遇到導致誤入歧途的錯誤
  • AI 可能不堪負荷並無響應地鎖定
  • 人工智慧可能包含導致不穩定行為的開發人員錯誤
  • AI可能會被植入的邪惡病毒所破壞
  • 人工智慧可能會被網路駭客即時接管
  • 由於複雜性,人工智慧可能被認為是不可預測的
  • 人工智慧可能會透過計算做出「錯誤」的決定(相對而言)
  • 等等

這些都是關於人工智能的觀點,它是真正在一開始就設計出來做正確的事情的類型。

除了這些考慮因素之外,您還必須包括從一開始就製作的用於做壞事的 AI 系統。 您可以擁有為有益目的而製造的 AI,通常稱為 永遠的人工智能. 您還可以擁有故意為不良目的而製造的 AI,稱為 壞的人工智能. 此外,您可以擁有 永遠的人工智能 被破壞或重新調整成為 壞的人工智能.

順便說一句,這一切都與人工智能變得有知覺沒有任何關係,我提到這一點是因為有些人一直在驚呼,今天的人工智能要么是有意識的,要么即將成為有意識的。 不是這樣。 在我的分析中,我將這些神話拆開 這裡的鏈接.

讓我們確保我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

現在我已經為進入公開信奠定了有用的基礎,我們準備好深入研究了。

公開信的正式主題標題是這樣的:

  • 致機器人行業和我們社區的公開信,通用機器人不應該被武器化”(根據網上發布的內容)。

到目前為止,一切都不錯。

標題幾乎看起來像冰淇淋和蘋果派。 怎麼會有人質疑這是從前的呼籲,以避免人工智能機器人武器化?

繼續閱讀以查看。

首先,作為考慮的素材,這是公開信的正式開頭段:

  • “我們是一些世界領先的公司,致力於將新一代先進的移動機器人技術引入社會。 與前幾代相比,這些新一代機器人更易於使用、更易於操作、更自主、更實惠且適應性更強,並且能夠導航到以前無法使用自動化或遠程控制技術的位置。 我們相信,先進的移動機器人將作為行業的同事和我們家中的伙伴為社會帶來巨大的利益”(根據網上發布的內容)。

這些類型的機器人出現的積極一面是,我們可以預期會出現很多巨大的好處。 毫無疑問。 您的家中可能有一個機器人,它可以執行類似 Jetson 的活動,例如打掃房子、洗碗和其他家務活。 我們將擁有用於工廠和製造設施的先進機器人。 機器人可能會爬行或移動到狹窄的空間中,例如當建築物倒塌並且人命危在旦夕時。 等等。

順便說一句,你可能會感興趣我最近對特斯拉人工智能日的眼睛批判性報導,埃隆馬斯克將某種步行機器人描繪成特斯拉和社會的未來,見 這裡的鏈接.

回到手頭的事情。 在認真討論跳舞機器人或步行機器人時,我們需要仔細考慮權衡或這種使用人工智能的總投資回報率(投資回報率)。 當還要考慮成本時,我們不應該讓自己過分迷戀利益。

閃亮的新玩具可能有相當鋒利的邊緣。

所有這些都引發了一個重要但有些沉默的觀點,即現在出現人工智能武器化問題的部分原因是人工智能向自主活動方向發展。 我們通常期望武器通常是人工操作的。 人類決定是開火還是使用武器。 我們大概可以讓那個人對他們的行為負責。

被設計為自主工作或可以被欺騙這樣做的人工智能似乎會將人類從循環中移除。 然後人工智能通過算法做出可能最終殺死或傷害人類的計算決策。 除了對人工智能缺乏控制的明顯擔憂之外,你還擔心我們可能會在一段時間內對人工智能的行為承擔責任。 我們沒有明顯的煽動者。

我意識到有些人認為我們應該簡單直接地讓 AI 對其行為負責,就好像 AI 已經獲得了知覺或以其他方式被授予了法人資格(請參閱我關於 AI 獲得法人資格的辯論的報導 這裡的鏈接)。 這暫時行不通。 我們將不得不將人工智能追溯到設計它或部署它的人類。 毫無疑問,他們將試圖通過爭辯說人工智能超出了他們的設想,從而在法律上逃避責任。 這是我們需要處理的一個日益嚴重的爭論(請參閱我的 AI 法律著作,了解所涉及的有爭議問題的見解)。

根據在線發布的官方報告,聯合國 (UN) 通過日內瓦的《特定常規武器公約》 (CCW) 制定了 XNUMX 項關於致命自主武器的非約束性指導原則(包括對相關國際人道法或國際人道法但書的引用) , 包含:

(a) 國際人道法繼續全面適用於所有武器系統,包括致命性自主武器系統的潛在開發和使用;

(b) 必須保留人對武器系統使用決策的責任,因為責任不能轉移給機器。 應在武器系統的整個生命週期中考慮這一點;

(c) 人機互動可以採取多種形式,並在武器生命週期的各個階段實施,應確保基於致命性自​​主武器系統領域新興技術的武器系統的潛在使用得到充分考慮遵守適用的國際法,特別是國際人道法。 在決定人機互動的品質和程度時,應考慮一系列因素,包括作戰環境以及整個武器系統的特徵和能力;

(d) 必須根據適用的國際法確保在《特定常規武器公約》框架內開發、部署和使用任何新興武器系統的責任,包括透過在負責任的人類指揮和控制鏈內運作此類系統;

(e) 根據各國依國際法承擔的義務,在研究、開發、取得或採用新武器、作戰手段或方法時,必須確定其使用在某些或所有情況下是否會受到影響。國際法禁止;

(f) 在開發或取得基於致命自主武器系統、實體安全、適當的非實體保障(包括針對駭客或資料欺騙的網路安全)領域的新興技術的新武器系統時,恐怖組織取得的風險應考慮擴散風險;

(g) 風險評估和緩解措施應成為任何武器系統新興技術的設計、開發、測試和部署週期的一部分;

(h) 應考慮在致命性自主武器系統領域使用新興技術,以遵守國際人道法和其他適用的國際法律義務;

(i) 在製定潛在的政策措施時,致命性自主武器系統領域的新興技術不應擬人化;

(j) 在《特定常規武器公約》範圍內進行的討論和採取的任何潛在政策措施不應妨礙智慧自主技術的進展或和平利用;

(k) 《特定常規武器公約》為在《公約》的目標和宗旨範圍內處理致命自主武器系統領域的新興技術問題提供了適當的框架,力求在軍事必要性和人道主義考慮之間取得平衡。

這些和其他各種戰爭法和武裝衝突法,或國際人道法(國際人道法)作為一個重要且永遠有希望的指南來考慮我們可能會嘗試對武器化的自治系統的出現做些什麼,無論是通過基石設計或事後的方法。

有人說我們應該徹底禁止那些可武器化的人工智能自治系統。 沒錯,世界應該放低姿態,強烈要求人工智能自治系統永遠不會被武器化。 將實施全面禁令。 故事結局。 句號,句號。

好吧,我們可以真誠地希望嚴格和順從地遵守對致命武器化自主系統的禁令。 問題是,在任何最真誠的禁令中,一定會狡猾地找到很多迴旋餘地。 正如他們所說,規則是用來打破的。 你可以打賭,在事情鬆散的地方,痞子會找出差距並試圖眨眼眨眼以繞過規則。

以下是一些值得考慮的潛在漏洞:

  • 非致命聲明. 製造非致命的自主武器系統(看起來沒問題,因為它在禁令邊界之外),然後你可以很快變成致命的(你只會在最後一分鐘超出禁令)。
  • 僅自治系統的聲明。 堅持禁令,不要製造以致命為重點的自主系統,同時,在設計尚未武器化但可以立即改裝為武器化的日常自主系統方面取得盡可能多的進展。
  • 未整合為一體的主張。 製作完全沒有武器化的自主系統,並在時機成熟時搭載武器化,這樣你就可以嘗試激烈地爭辯說它們是兩個獨立的元素,因此爭辯說它們不屬於一體式的範疇自主武器系統或其近親。
  • 聲稱它不是自治的。 製造一個似乎沒有自主能力的武器系統。 在這個可能是非自治的系統中為基於人工智能的自治留出空間。 需要時,插入自治權,您就可以滾動了(在此之前,您似乎沒有違反禁令)。
  • 其他

試圖徹底禁止致命自主武器系統還存在許多其他明顯的困難。 我將介紹其中的更多內容。

一些專家認為禁令並不是特別有用,相反應該有監管規定。 我們的想法是,這些裝置將被允許,但受到嚴格監管。 列出了一系列合法用途,以及合法的目標方式、合法的能力類型、合法的比例等等。

在他們看來,直接的禁令就像把頭埋在沙子裡,假裝房間裡的大像不存在。 然而,這一論點讓那些反對這一論點的人熱血沸騰,因為透過實施禁令,你可以大大減少追求此類系統的誘惑。 當然,有些人會炫耀這項禁令,但至少希望大多數人不會。 然後,您可以將注意力集中在炫耀者上,而不必將注意力分散到每個人身上。

這些爭論周而復始。

另一個經常被關注的問題是,即使好人遵守禁令,壞人也不會。 這使好人處於糟糕的狀態。 壞人將擁有這些武器化的自主系統,而好人則不會。 一旦事情被揭露,壞人有他們,好人趕上來就太晚了。 簡而言之,唯一精明的事情就是準備以火攻毒。

還有經典的威懾爭論。 如果好人選擇製造武器化的自主系統,這可以用來阻止壞人試圖捲入爭鬥。 要么好人會得到更好的武裝,從而勸阻壞人,要么當壞人揭露他們一直在暗中設計這些系統時,好人就會做好準備。

與這些計數器相反的是,透過製造武器化的自主系統,你正在發動一場軍備競賽。 另一方也會尋求同樣的結果。 即使他們在技術上無法重新創建這樣的系統,他們現在也能夠竊取「好」系統的計劃,對高科技核心進行逆向工程,或者模仿任何他們認為經過考驗的系統完成工作的方法。

啊哈,有人反駁說,所有這一切都可能通過一種相互的表象來減少衝突。 如果 A 方知道 B 方擁有那些致命的自主系統武器,而 B 方知道 A 方擁有這些武器,他們可能會坐穩,不會發生衝突。 這具有明顯的相互確保破壞 (MAD) 氛圍的光環。

等。

仔細看第二段

我們已經在這裡討論了很多內容,到目前為止只考慮了公開信的第一段或開頭段(總共有四段)。

是時候看看第二段了,給你:

  • “與任何提供新功能的新技術一樣,先進移動機器人的出現提供了濫用的可能性。 不值得信任的人可能會利用它們來侵犯公民權利或威脅、傷害或恐嚇他人。 一個特別令人擔憂的領域是武器化。 我們認為,將武器添加到遠程或自主操作、公眾廣泛使用、能夠導航到人們生活和工作的以前無法到達的地方的機器人會帶來新的傷害風險和嚴重的道德問題。 這些新能力機器人的武器化應用也將損害公眾對該技術的信任,從而損害它們將為社會帶來的巨大利益。 由於這些原因,我們不支持將我們的先進移動通用機器人武器化。 對於我們這些過去就這個問題發表過講話的人,以及第一次參與的人,鑑於最近幾個月公眾對少數人明顯宣傳他們的臨時行動引起了越來越多的關注,我們現在感到新的緊迫感努力將商用機器人武器化”(根據在線發布的內容)。

閱讀第二段後,我希望你能看到我之前關於人工智能武器化的論述是如何脫穎而出的。

讓我們檢查一些額外的點。

一些人對某個引起皮屑的特定措辭方面有些疑慮是,敘述似乎強調“不值得信賴的人”可能會濫用這些人工智能機器人。 是的,確實,可能是壞人或作惡者帶來了“濫用”人工智能機器人的卑鄙行為。

同時,正如本次討論開始時所指出的,我們還需要明確人工智能本身可能會出錯,這可能是由於嵌入的錯誤或錯誤以及其他此類並發症。 表達的擔憂是,只強調 不信任的人 是它似乎忽略了其他不利的可能性。 儘管大多數人工智能公司和供應商都不願承認這一點,但仍有大量人工智能係統問題可能會削弱自主系統的安全性和可靠性。 有關我對 AI 安全的報導以及對嚴格和可證明的保護措施的需求,請參閱 這裡的鏈接, 例如。

審查公開信的人中提出的另一個值得注意的觀點是,其中包含的斷言可能最終會削弱與人工智能機器人相關的公眾信任。

一方面,這是一個有效的斷言。 如果人工智能機器人被用來做壞事,你可以打賭公眾會很生氣。 當公眾感到憤怒時,你可以打賭立法者會加入進來,並尋求制定法律來打擊人工智能機器人和人工智能機器人製造商。 如果法律包羅萬象,並阻止涉及人工智能機器人利益的努力,這反過來可能會削弱人工智能機器人行業。 從某種意義上說,嬰兒可能會和洗澡水一起被扔掉(這是一個古老的表達方式,可能應該被淘汰)。

提出的一個明顯問題是,這種關於避免公眾對 AI 機器人信任度降低的斷言是否是一種自私的信條,或者它是否是為了我們所有人的利益(可以兩者兼而有之嗎?)。

你決定。

我們現在來到公開信中特別豐富的部分:

  • “我們保證不會將我們的先進移動通用機器人或我們開發的支持先進機器人技術的軟件武器化,我們不會支持其他人這樣做。 如果可能,我們將仔細審查客戶的預期應用,以避免潛在的武器化。 我們還承諾探索可以減輕或減少這些風險的技術功能的開發。 需要明確的是,我們不會對國家及其政府機構用來保護自己和維護法律的現有技術提出異議”(根據網上發布的內容)。

我們可以解壓這個。

坐下來做好相應的準備。

你準備好迎接激烈的兩極分化了嗎?

從好的方面來說,一些人大聲疾呼這些人工智能機器人製造商會做出這樣的承諾。 謝天謝地,這些機器人製造商似乎不會將他們的“先進移動通用”機器人武器化。 此外,公開信中說他們不會支持這樣做的其他人。

批評者想知道是否有一些巧妙的文字修飾正在進行。

例如,“高級移動性”從哪裡開始和結束? 如果機器人製造商正在設計一個 簡單明瞭的操作方式- 移動人工智能機器人而不是先進的機器人(這是一個未定義的技術術語),是否會被排除在什麼範圍內 任何監管機構都不批准 被武器化? 因此,顯然,將簡單移動的 AI 機器人武器化是可以的,只要它們不是所謂的 先進.

通用機器人的措辭也是如此。 如果人工智能機器人是專門為武器化而設計的,因此我們不是應該說 一般用途 機器人,這是否成為可行的排除範圍?

你可能會用這些狡辯來狡辯,並激烈地爭辯說這只是一封公開信,而不是一份 XNUMX 頁的法律文件,它闡明了每一個角落和縫隙。

這給我們帶來了一些人表達的看似更宏觀的疑慮。 本質上,“承諾”意味著什麼?

有人問,牛肉在哪裡?

做出這樣的承諾的公司似乎在沒有任何真正的賭注的情況下這樣做。 如果簽署此承諾的任何公司的高層決定不再履行該承諾,該公司會發生什麼? 高管們會被立即封殺嗎? 公司是否會因違反承諾而關閉並深表歉意? 等等。

據可以推斷,對於任何違反承諾的行為都沒有特別的處罰或處罰。

您可能會爭辯說存在聲譽受損的可能性。 一家承諾公司可能會因為做出不再遵守的承諾而在市場上受到抨擊。 當然,這也假設人們會記得做出了承諾。 它還假設會以某種方式檢測到違反承諾的行為(如果公司這樣做,顯然不太可能會告訴所有人)。 違反承諾的人將不得不被點名,但在關於人工智能機器人製造商的新聞海嘯中,這樣的問題可能只是噪音。

考慮另一個已經出現的角度。

一家質押公司被一些更大的公司收購。 較大的公司選擇開始將先進的移動通用機器人變成人工智能武器化版本。

這是否違反了承諾?

較大的公司可能會堅持認為這不是違規行為,因為他們(較大的公司)從未做出過承諾。 與此同時,這家小公司拼湊和設計的無害人工智能機器人似乎帶著最無私的意圖,幾乎在一夜之間就被改造成了武器化。

有點破壞了承諾,儘管你可能會說這家小公司不知道有一天會發生這種情況。 他們對自己的願望很認真。 對於較大的採購公司選擇做什麼,這是他們無法控制的。

也有人問這是否有任何法律責任。

一家承諾公司在幾個月後決定不再兌現承諾。 他們已經改變了主意。 該公司是否可以因放棄其做出的承諾而被起訴? 誰會起訴? 訴訟的依據是什麼? 一系列法律問題隨之而來。 正如他們所說,您幾乎可以起訴任何人,但您是否會勝訴完全是另一回事。

換個方式想想這個。 一家有承諾的公司有機會做一筆真正的大交易,將其一大堆先進的移動通用機器人出售給一家願意為獲得機器人付出高昂代價的大公司。 這是千載難逢的巨額購買交易之一。

AI機器人公司應該怎麼做?

如果這家 AI 機器人承諾公司公開交易,他們幾乎肯定會以出售為目標(私人控股公司也可以這樣說,但並非完全如此)。 想像一下,承諾公司擔心買家可能會試圖將機器人武器化,儘管假設桌面上沒有任何這樣的討論。 只是有傳言說買家可能會這樣做。

因此,承諾公司在他們的許可中規定機器人不會被武器化。 買家對這種語言猶豫不決,並遠離購買。

承諾的人工智能機器人公司剛剛離開了多少利潤?

是否存在現有利潤超過包含許可限制要求的點(或者,也許是法律上的限制,以允許迴旋餘地並仍然使交易發生)? 我認為你可以看到所涉及的困境。 很多這樣的場景很容易被想像出來。 問題是這個承諾是否會生效。 如果有,什麼樣的牙齒?

簡而言之,正如在本次討論開始時所提到的,有些人對正在做出這種類型的承諾感到樂觀,而另一些人則對承諾是否成立持較淡的看法。

我們繼續前進。

做出承諾

公開信的第四段也是最後一段是這樣說的:

  • “我們明白,僅憑我們的承諾不足以完全解決這些風險,因此我們呼籲政策制定者與我們合作,促進這些機器人的安全使用並禁止它們的濫用。 我們還呼籲機器人社區中的每個組織、開發人員、研究人員和用戶做出類似的承諾,不製造、授權、支持或允許將武器附加到此類機器人上。 我們相信,這些技術對人類的好處遠遠超過了濫用的風險,我們對人類和機器人並肩工作以應對世界上的一些挑戰的光明未來感到興奮”(根據網上發布的內容)。

公開信的最後一部分有幾個引起憤怒的額外元素。

一些人斷言,呼籲政策制定者可能是明智的,也可能是不明智的。 你可能會得到不精通這些問題的政策制定者,然後他們會執行經典的倉促判斷並製定篡奪人工智能機器人進展的法律法規。 根據前面的觀點,推動人工智能機器人進步的創新可能會受到干擾或被踩踏。

批評者說,最好確保你知道你在要求什麼。

當然,反駁的觀點是,敘述清楚地表明政策制定者應該與人工智能機器人公司合作,以弄清楚如何合理地制定此類法律和法規。 與反駁相反的是,如果政策制定者迎合他們的心血來潮,他們可能會被視為對人工智能機器人製造商的關注。 與反論點相反的是,與那些了解該技術的人合作自然是必要的,否則結果可能會變得不平衡。 等等。

或許在狡辯的基礎上,有些人已經對呼籲每個人做出類似承諾的線路感到胃灼熱,不要 附上 武器裝備到先進移動的通用機器人。 關鍵字就是這個詞 附上. 如果有人正在製造一個結合或無縫嵌入武器的人工智能機器人,這似乎繞過了措辭 附上 某物。 你現在可以看到,有人激烈爭辯說這個武器沒有附加,它完全是人工智能機器人的一部分。 克服它,他們驚呼道,我們不在該承諾的範圍內,他們甚至可以說他們是。

這引發了另一個關於承諾缺乏粘性的抱怨。

選擇做出此承諾的公司或任何人是否可以在他們希望這樣做的任何時候以及出於他們如此渴望的任何原因宣布自己未做出承諾?

顯然是這樣。

有很多關於做出承諾以及他們所灌輸的牽引力的爭論。

結論

哎呀,你可能會說,這些試圖做正確的事情的公司正在因為試圖做正確的事情而受到指責。

我們的世界發生了什麼?

任何做出這樣承諾的人都應該得到懷疑的好處,你可能會熱情地堅持。 他們正在走出公共領域,做出大膽而重要的貢獻。 如果我們開始詆毀他們這樣做,那肯定會使事情變得更糟。 沒有人願意做出這樣的承諾。 公司和其他人甚至不會嘗試。 他們會躲起來,而不是預先警告社會那些可愛的跳舞機器人可能會危險地變成什麼樣子。

懷疑論者宣稱,讓社會變得更聰明的方式需要採取其他行動,例如放棄展示嬉戲跳舞的 AI 機器人的奇思妙想。 或者至少使它成為一個更平衡的行為。 例如,不僅僅是模仿心愛的寵物忠誠狗,而是說明跳舞機器人如何更類似於野性釋放的憤怒狼,它們可以毫不猶豫地將人類撕成碎片。

他們懇求,這將比承諾更受關注。

承諾無疑是一個難題。

正如聖雄甘地雄辯地指出:“無論承諾多麼明確,人們都會轉而扭曲文本以適應自己的目的。”

托馬斯·杰斐遜(Thomas Jefferson)也許要以令人振奮的語氣結束本文,他談到了承諾:“我們相互承諾我們的生命、我們的財富和我們的神聖榮譽。”

當談到人工智能機器人、它們的自主性、它們的武器化等等,我們最終都會在一起。 我們的共同承諾至少需要將這些問題放在首位,我們將努力找到應對這些進展的方法,並以某種方式找到確保我們的榮譽、我們的財富和我們的生命的方法。

我們可以保證嗎?

希望如此。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing-機器人製造商說他們將避免人工智能武器化/