微軟增強人工智慧聊天機器人安全性以阻止騙子

微軟公司在Azure AI Studio 中添加了許多安全功能,隨著時間的推移,這些功能應該會繼續降低用戶將AI 模型配置為異常或不當行為模式的可能性。這家總部位於雷德蒙德的跨國科技公司,華盛頓在一篇部落格文章中概述了這些改進,強調保證人工智慧互動的完整性並培養對用戶群的信任。

快速護盾等等 

主要進展之一是「即時防護罩」的創建,該技術旨在與人工智慧聊天機器人對話時發現並殺死即時注射。這些就是所謂的越獄,基本上就是使用者有意形成的輸入,從而引起人工智慧模型的不必要的回應。

例如,微軟透過即時注入間接發揮作用,在這種情況下,可能會執行邪惡的命令,這樣的場景可能會導致資料竊取、系統劫持等嚴重的安全後果。微軟 Responsible AI 首席產品長 Sarah Bird 表示,這些機制是即時偵測和回應這些獨一無二的威脅的關鍵。

微軟補充說,用戶的螢幕上很快就會出現警報,當模型可能表達虛假或誤導性資訊時會指出,以確保更多的用戶友好性和信任度。

建立對人工智慧工具的信任 

微軟的努力是一項更大計劃的一部分,旨在讓人們對日益流行的生成式人工智慧充滿信心,這種人工智慧正在廣泛應用於針對個人消費者和企業客戶的服務中。在這些事件發生後,微軟進行了仔細的梳理,使用者可以利用 Copilot 聊天機器人產生奇怪或有害的輸出。這將支持一個結果,該結果表明需要對上述操縱策略進行強有力的防禦,這些策略可能會隨著人工智慧技術和流行知識的發展而增加。預測然後緩解是為了識別攻擊模式,例如攻擊者在角色扮演中重複提問或提示。

作為 OpenAI 最大的投資者和策略合作夥伴,微軟正在突破如何整合和創建負責任、安全的生成式 AI 技術的界限。兩者都致力於安全措施的生成式人工智慧的負責任部署和基礎模型。但伯德承認,儘管這些大型語言模型逐漸被視為未來人工智慧創新的基礎,但它們並不是防篡改的。

建立在這些基礎上需要的不僅是依賴模型本身;還需要更多的努力。它需要一種全面的人工智慧安全方法。

微軟最近宣布加強其 Azure AI Studio 的安全措施,以展示並保證為保護不斷變化的人工智慧威脅格局而採取的積極措施。

它致力於透過及時的螢幕和警報來避免人工智慧的濫用,並保持人工智慧互動的完整性和可靠性。

隨著人工智慧技術的不斷發展及其在日常生活的許多方面的採用,微軟和人工智慧社群的其他成員現在應該保持高度警惕的安全立場。

來源:https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/