數十位人工智能 (AI) 專家,包括 OpenAI、Google DeepMind 和 Anthropic 的首席執行官,最近簽署了一份由人工智能安全中心 (CAIS) 發布的公開聲明。
我們只是發表聲明:
“減輕人工智能滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”
簽名者包括 Hinton、Bengio、Altman、Hassabis、Song 等 https://t.co/N9f6hs4bpa
(1 / 6)
— 丹·亨德里克斯 (@DanHendrycks) 2023 年 5 月 30 日
該聲明包含一個句子:
“減輕人工智能滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”
該文件的簽署者中有名副其實的 AI 名人錄,包括 AI 的“教父”Geoffrey Hinton; 加州大學伯克利分校的 Stuart Russell; 和麻省理工學院的 Lex Fridman。 音樂家格萊姆斯也是簽約人,列在“其他著名人物”類別下。
相關新聞: 音樂家 Grimes 願意與 AI 生成的音樂“分享 50% 的版稅”
雖然該聲明表面上看起來無傷大雅,但潛在的信息在 AI 社區中頗具爭議。
似乎越來越多的專家認為,當前的技術可能或將不可避免地導致能夠對人類物種構成生存威脅的人工智能係統的出現或發展。
然而,他們的觀點遭到一群持有截然相反意見的專家的反駁。 例如,Meta 首席人工智能科學家 Yann LeCun 曾多次指出,他不一定相信人工智能會變得無法控制。
超人人工智能遠不及存在風險列表的首位。
很大程度上是因為它還不存在。在我們為狗級別的人工智能(更不用說人類級別)制定基本設計之前,討論如何使其安全還為時過早。 https://t.co/ClkZxfofV9
-Yann LeCun(@ylecun) 2023 年 5 月 30 日
對於他和其他不同意“滅絕”論調的人,例如穀歌大腦的聯合創始人、百度前首席科學家吳恩達,人工智能不是問題,而是答案。
另一方面,Hinton 和 Conjecture 首席執行官 Connor Leahy 等專家認為,人類級別的人工智能是不可避免的,因此,現在是採取行動的時候了。
所有主要 AI 實驗室的負責人都簽署了這封信,明確承認 AGI 滅絕的風險。
這是向前邁出的令人難以置信的一步,祝賀 Dan 所做的令人難以置信的工作,並感謝每一位簽署者為更美好的未來儘自己的一份力量! https://t.co/KDkqWvdJcH
— 康納·萊希 (@NPCollapse) 2023 年 5 月 30 日
然而,尚不清楚聲明的簽署者要求採取什麼行動。 幾乎所有主要 AI 公司的 CEO 和/或 AI 負責人,以及來自學術界的知名科學家都在簽名者之列,這表明他們的意圖並不是要阻止這些具有潛在危險的系統的開發。
本月早些時候,上述聲明的簽署人之一 OpenAI 首席執行官山姆·奧特曼 (Sam Altman) 在參議院舉行的討論人工智能監管的聽證會上首次亮相國會。 在他用大部分時間敦促立法者規範他的行業後,他的證詞成為頭條新聞。
Altman 的 Worldcoin 是一個結合了加密貨幣和身份證明的項目,在籌集了 115 億美元的 C 輪融資後,最近也獲得了媒體關注,使其在三輪融資後的總融資額達到 240 億美元。
來源:https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war