生成式人工智慧近親繁殖:人工智慧開發中日益受到關注的問題

隨著人工智慧 (AI) 的進步,人工智慧 (AI) 也在不斷進步,生成型人工智慧系統中所謂的「近親繁殖」風險成為一種危害,在人類和家養動物群體中長期存在。

本文將從生成人工智慧的角度闡明近親繁殖的概念,以及近親繁殖如何與人工智慧生成內容的未來相關。

了解生成式 AI 近親繁殖 生成式 AI 系統(例如大型語言模型 (LLM))主要基於來自網路上可用的文字、視覺和音訊內容的綜合資料集進行訓練。最初,資料集主要包括人類製作的物品,例如文學、文章和藝術品。然而,隨著生成式人工智慧工具的興起,網路上越來越多的內容是由人工智慧本身編寫的。

這種轉變引發了人們對用於訓練未來人工智慧系統的資料集的品質和多樣性的擔憂。隨著人工智慧生成內容的發展,預計許多未來的人工智慧模型將從不代表人類內容而是代表人工智慧創建的材料的資料集中學習。

生成式人工智慧近親繁殖的後果是多方面的。

相反,人工智慧系統繼續從越來越多的同質性資料集中學習可能會導致人工智慧生成的輸出的創造力和原創性下降。

如果這個過程連續幾代重複(即從副本中複製),產出的品質就會被稀釋,結果就會面臨工作吸引力降低、不太可能反映我們所認為的人類創造性產出的風險。 。隨著在近交資料集上訓練的人工智慧生成內容的成長,此類問題可能會加劇。

如果訓練資料集不夠多樣化,那麼開發的人工智慧系統只會強化和放大人工智慧生成內容中存在的偏見,從而進一步破壞人工智慧生成內容作為資訊來源的可信使用。此外,訓練資料缺乏多樣性可能會限制開發能夠正確理解和代表各種人類經驗和觀點的人工智慧系統的可能性。這可能會限制人工智慧不同應用領域的進展,例如自然語言處理、內容生成和決策系統。

應對生成式人工智慧近親繁殖的挑戰

最重要的是,這是一個真正的風險,尤其是生成式人工智慧技術的近親繁殖。儘管如此,它還是讓研究人員、開發人員甚至政策制定者有責任積極採取行動,確保在人工智慧系統的訓練過程中將使用多樣化且具有代表性的數據集作為首要任務,整合能夠檢測和減少的機制人工智慧生成內容中的偏見,確保有效的跨學科合作,同時解決並確保建構人工智慧的道德和社會影響得到照顧。 

他們應該進一步促進人工智慧系統部署中開放性和問責制的需求,並要求與人工智慧生成內容的使用者分享對限制和偏見的認識。因此,所有利害關係人都可以積極尋求合作,利用生成式人工智慧的力量,同時減輕人工智慧開發中近親繁殖相關的風險。 

生成式人工智慧中近親繁殖的概念對於人工智慧系統的開發和部署來說是一個巨大的未來挑戰。這將有助於他們透過了解有效改善人工智慧近親繁殖的影響和方法,確保社會技術進步的負責任和道德的發展得到滿足。

資料來源:https://www.cryptopolitan.com/generative-ai-grinding-in-ai-development/