參議員就 LLaMA AI 模型“洩漏”問題質疑 Meta 首席執行官扎克伯格

兩名參議員 Cross 就 LLaMA AI 模型的洩露問題向扎克伯格提出質疑,並指責 meta 沒有遵守安全措施。 Meta 被問及其安全政策和預防措施。

元要對“洩漏”負責

最近,Meta 開創性的大型語言模型 LLaMA 被洩露,人們對此表示擔憂。 參議院隱私、技術和法律小組委員會主席參議員 Richard Blumenthal (D-CT) 和高級成員 Josh Hawley (R-MO) 寫了一封信,對 AI 模型的洩露提出了質疑。 

參議員們擔心這種洩密可能會導致各種網絡犯罪,例如垃圾郵件、欺詐、惡意軟件、侵犯隱私、騷擾以及其他不法行為和傷害。 提出了許多問題,兩位政治家對 Meta 的安全系統非常感興趣。 他們詢問在啟動 LLaMA 之前遵循什麼程序來評估風險。 他們表示,他們非常渴望了解現有的政策和做法,以防止該模型的可用性被濫用。

根據 Meta 對他們問題的回答,參議員們指責 Meta 審查不當,並且沒有為該模型採取足夠的安全措施。 Open AI 的 ChatGPT 基於道德和準則拒絕了一些請求。 例如,當 ChatGPT 被要求為某人的兒子寫一封信,請求一些錢以擺脫困境時,它會拒絕該請求。 另一方面,LLaMA 將完成請求並生成信件。 它還將完成涉及自殘、犯罪和反猶太主義的請求。

了解 LLaMA 的各種獨特功能非常重要。 它不僅與眾不同,而且是迄今為止最廣泛的大型語言模型之一。 今天流行的幾乎所有未經審查的 LLM 都是基於 LLaMA。 對於開源模型來說,它非常複雜和準確。 一些基於 LLaMA 的 LLM 的例子是斯坦福大學的羊駝、Vicuna 等。LLaMA 在使 LLM 成為今天的樣子方面發揮了重要作用。 LLaMA 負責將低效用聊天機器人發展為微調模式。

LLaMA 於 XNUMX 月發布。 根據參議員的說法,Meta 允許研究人員下載模型,但沒有採取集中化或限制訪問等安全措施。 當完整的 LLaMA 模型出現在 BitTorrent 上時,爭議就出現了。 這使得任何人和每個人都可以使用該模型。 這導致 AI 模型的質量下降,並引發了濫用問題。 

起初,參議員們甚至不確定是否有任何“洩密”。 但是,當互聯網上充斥著由初創公司、集體和學術機構發起的人工智能開發時,問題就出現了。 信中提到,Meta 必須對 LLaMA 的潛在濫用負責,並且必須在發布前採取最低限度的保護措施。

Meta 為研究人員提供了 LLaMA 的權重。 不幸的是,這些權重被洩露,這首次實現了全球訪問。

Ritika Sharma 的最新帖子 (查看全部)

來源:https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/