以下是 OpenAI 計劃如何從虛假信息中清除 ChatGPT

OpenAI 於 31 月 XNUMX 日宣布,其努力增強 ChatGPT 的數學問題解決能力,旨在減少人工智能 (AI) 幻覺的實例。 OpenAI 強調減輕幻覺是開發一致 AGI 的關鍵一步。

4月,ChatGPT最新版本GPT-XNUMX的推出,進一步推動人工智能成為主流。 然而,生成式 AI 聊天機器人長期以來一直在努力解決事實的準確性問題,偶爾會生成虛假信息,通常稱為“幻覺”。 通過他們網站上的帖子宣布了減少這些 AI 幻覺的努力。

人工智能幻覺是指人工智能係統生成的輸出實際上不正確、具有誤導性或不受現實世界數據支持的情況。 這些幻覺可以以各種形式表現出來,例如生成虛假信息、編造不存在的事件或人物,或者提供有關某些主題的不准確細節。

OpenAI 進行了研究,以檢驗兩種反饋的有效性——“結果監督”和“過程監督”。 結果監督涉及基於最終結果的反饋,而過程監督為思想鏈中的每個步驟提供輸入。 OpenAI 使用數學問題評估這些模型,生成多個解決方案並根據每個反饋模型選擇排名最高的解決方案。

經過全面分析,研究團隊發現過程監督產生了卓越的性能,因為它鼓勵模型遵守人類批准的過程。 相比之下,結果監督證明更難以持續審查。

OpenAI 認識到過程監督的影響超出了數學範圍,需要進一步調查以了解其在不同領域的影響。 它表達了這樣一種可能性,即如果觀察到的結果在更廣泛的背景下成立,那麼與結果監督相比,過程監督可以提供績效和一致性的有利組合。 為便於研究,公司公開發布了完整的過程監管數據集,誠邀相關領域的探索和研究。

相關新聞: 人工智能需求短暫地將 Nvidia 推向 1 億美元俱樂部

儘管 OpenAI 沒有提供促使他們調查幻覺的明確實例,但最近發生的兩起事件在現實生活場景中說明了這個問題。

在最近的一起事件中,Mata 訴 Avianca 航空公司案中的律師 Steven A. Schwartz 承認依賴聊天機器人作為研究資源。 然而,事實證明,ChatGPT 提供的信息完全是捏造的,突出了眼前的問題。

OpenAI 的 ChatGPT 並不是人工智能係統遇到幻覺的唯一例子。 微軟的人工智能在 XNUMX 月份展示其聊天機器人技術時,檢查了 Gap 和 Lululemon 等公司的收益報告並生成了不准確的數據。

雜誌: 25 名交易員押注 ChatGPT 的選股、人工智能在擲骰子方面表現不佳等

資料來源:https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information