Elon Musk 能否成功開發生成式 AI ChatGPT 仿冒版“TruthGPT”,它在任何時候都堅忍如實,問 AI 倫理和 AI 法

艙門傳來敲門聲。

我們應該開門嗎?

電影通常暗示我們不應該讓我們的好奇心戰勝我們,即我們絕對應該絕對不要開門。 好吧,話雖如此,選擇關上門似乎並沒有什麼值得講述的故事。 似乎我們被興奮和未知所吸引。

那麼,讓我們繼續開門吧。

在這種特殊情況下,我指的是人工智能 (AI) 領域內出現的一些流言蜚語,這些流言蜚語預示著未來的美好時光或我們所有人的最壞時光。 這種情況可能涉及人工智能的未來。 人們可能會嚴肅地推測,因此人工智能的未來會產生相當大的影響,包括表面上塑造社會的未來和人類的命運。

這是交易。

根據最近的新聞報導,時任世界首富的埃隆·馬斯克 (Elon Musk) 一直在四處尋找一流的 AI 研究人員,以加入他心目中的新 AI 企業。 各種 AI 開發人員和 AI 科學家正在悄悄地被接洽。 敲他們的門顯然提供了巨大的希望和潛在的有利可圖的消息。

據稱,尚未公開的 AI 計劃的實質是 OpenAI 去年 XNUMX 月發布的廣受歡迎的 ChatGPT 的仿製品。 您幾乎肯定聽說過或看到過有關 ChatGPT 的頭條新聞。 我稍後會詳細解釋什麼是 ChatGPT。 您還應該知道 ChatGPT 是一種稱為 AI 的示例 生成式人工智能. 現在有很多生成式 AI 應用層出不窮。 ChatGPT 恰好是公眾知名度最高的一個,似乎為所有人所知,甚至可能為那些不知何故生活在洞穴中的人所熟知。

以下是關於這個半秘密的迅速崛起的傳奇故事的報導示例:

  • “埃隆·馬斯克最近幾週與人工智能研究人員接洽,希望成立一個新的研究實驗室,以開發 ChatGPT 的替代品,ChatGPT 是初創公司 OpenAI 開發的備受矚目的聊天機器人,據兩位直接了解這項工作的人士和第三位知情人士透露在談話中”(信息,“與‘喚醒人工智能’作戰,馬斯克招募團隊開發 OpenAI 競爭對手”,Jon Victor 和 Jessica E. Lessin,27 年 2023 月 XNUMX 日)。

您的第一個想法可能是,如果 Elon Musk 想要製作 ChatGPT 的仿製品,那取決於他以及他想如何花錢。 祝你好運。 他將簡單地添加到已經存在的和不斷增長的生成人工智能應用程序中。 也許他會從自己開發的 ChatGPT 版本中賺取額外的財富。 或者這可能會是一個很大的嗡嗡聲,而他的巨額財富因適度昂貴的追求而產生的微小凹痕將類似於會計部門的四捨五入誤差。

據推測,這更像是一種端莊的敲門聲,而不是沉重的敲門聲。

準備好迎接轉折。

人們相信 Elon Musk 想要撼動當今生成式 AI 應用程序的基礎,並重構它們的工作方式和生成內容的一些關鍵方面。 正如我將在本文中簡短解釋的那樣,關於當前生成式人工智能的一個普遍而真實的疑慮是它會產生錯誤、謊言和所謂的人工智能幻覺。 任何使用過生成式 AI 的人無疑都遇到過這些令人不安的問題。 顯然,埃隆馬斯克希望減少並可能以某種方式消除這些異常和有問題的傾向。

這看起來確實是一個非常值得和光榮的願望。 事實上,請知道幾乎或者我可以說所有的生成人工智能設計者都在努力減少輸出錯誤、謊言和人工智能幻覺的可能性。 你很難找到任何理性的人來堅持我們必須將這些錯誤、謊言和 AI 幻覺根深蒂固地融入生成 AI 中。

無需做出過於籠統的聲明,人們幾乎普遍同意,必須堅定、持久和堅決地處理涉及產生錯誤、虛假和 AI 幻覺的生成性 AI 弊病。 目的是調整、改造、改進、大修,或以一種人工智能技術方式或另一種方式解決和解決這個問題。

生成式 AI 繼續在輸出中吐出錯誤、謊言和 AI 幻覺的每一天對幾乎每個人來說都是糟糕的一天。 使用生成式 AI 的人肯定會對這些錯誤的輸出感到不滿。 依賴或需要使用污染輸出的人有可能錯誤地依賴於錯誤的東西或更糟的是仍然會將他們引向危險的方向。

那些試圖通過生成式人工智能開展業務的人工智能製造商同時面臨著潛在的法律風險,這些製造商因依賴錯誤的輸出而陷入困境。 要求損害賠償的訴訟幾乎肯定很快就會出現。 我們可能預計監管機構會選擇權衡,並且可能會頒布新的 AI 法律以對生成 AI 施加法律約束,請參閱我的報導 這裡的鏈接. 此外,人們最終可能會非常沮喪,以至於 AI 製造商的聲譽受到嚴重損害,而生成 AI 會被草率地踢到路邊。

好吧,所以我們知道,人工智能製造商和人工智能研究人員正在狂熱地嘗試發明、設計、構建和實施人工智能技術魔法,以消除與當今的生成性人工智能疾病相關的這些可怕疾病,這是一個勇敢的老生常談。 Elon Musk 應該被接受。 多多益善。 馴服這頭野獸需要大量的 AI 人才和資金。 伊隆馬斯克的加入似乎是一個樂觀和令人鼓舞的跡象,也許適量的火箭科學、資金和決心會找到 AI 的萬靈藥。

當你開始打開門看看站在那裡的是什麼時,轉折就來了。

在埃隆·馬斯克 (Elon Musk) 於 17 年 2023 月 XNUMX 日發布的一條相當簡潔的推文中,我們得到了這個假定的線索:

  • “我們需要的是 TruthGPT”

這就是導致一些人決定可能需要將門砰的一聲關上並用釘子釘上的原因。

為什麼這樣?

一些人表達的擔憂是,設想的 TruthGPT 背後的“真相”可能是一種生成式 AI,它是基於並僅根據 真理 完全符合一個人的世界觀。 是的,令人費解的是,根據埃隆馬斯克的說法,我們將獲得一個能夠發出真相的生成人工智能應用程序。

有人說,令人擔憂。

大膽而大膽,完全令人震驚,一些勸告。

一個直接的反駁是,如果他想生產他的 TruthGPT,不管它構成什麼,都是他花的錢。 人們要么選擇使用它,要么不使用。 那些使用它的人應該足夠敏銳地意識到他們正在進入什麼領域。 如果他們想要這種生成式 AI 的特定變體(大概是圍繞 Elon Musk 的世界觀塑造的)的輸出,那是他們尋求它的權利。 故事結局。 繼續前行。

哇,反駁說,你正在讓人們陷入可怕而可怕的陷阱。 有些人不會意識到 TruthGPT 是 Elon Musk 開發的生成式 AI 應用程序。 他們會陷入假設這種生成式 AI 是光明正大的心理陷阱。 事實上,如果命名保留為“TruthGPT”(或類似名稱),你當然會自然地相信這是生成式 AI,具有 絕對真理 在其輸出的論文和文本中講述。

作為一個社會,也許我們不應該讓毫無戒心的人落入這樣的陷阱,他們會警告說。

允許這種假定性質的生成式 AI 應用四處漂浮並被各種各樣的人使用將會造成混亂。 人們會將 TruthGPT 的輸出解釋為神聖的“真理”,即使輸出的論文充滿了錯誤、謊言、AI 幻覺和各種令人討厭的偏見。 此外,即使聲稱這種生成式 AI 的變體不會有錯誤、謊言和 AI 幻覺,我們怎麼知道由此產生的看似純淨的 AI 不會帶有不當偏見以及陰險的錯誤信息和虛假信息?

我猜你可以看到醞釀中的爭議和窘境。

在自由市場的基礎上,埃隆馬斯克顯然應該能夠繼續創造他希望創造的任何類型的生成人工智能。 僅僅因為其他人可能不喜歡他的“真相”版本,這不應該阻止他繼續前進。 讓他做他的事。 當任何人使用它讓他們知道他們選擇運行什麼時,也許應該包含警告消息或其他一些通知。 儘管如此,人們需要對自己的行為負責,如果他們選擇使用 TruthGPT,那就這樣吧。

等一下,又是一個反駁。 假設有人製作了一個專為作惡而設計的生成式 AI 應用程序。 目的是混淆人們。 希望是為了激怒和煽動人們。 作為一個社會,我們會接受這種生成式人工智能嗎? 我們是否要允許可能激怒人們、破壞他們的心理健康並可能促使他們做出不良行為的人工智能應用程序出現?

沙灘上必須有一條線。 在某些時候,我們需要說某些類型的生成人工智能是可憎的,是不允許的。 如果我們讓肆無忌憚的生成式 AI 被構建和部署,最終的厄運和陰霾將不可避免地降臨在我們所有人身上。 不僅僅是那些碰巧使用 AI 應用程序的人。 圍繞 AI 應用程序出現並連接到 AI 應用程序的所有事物和其他人都將受到不利影響。

這似乎是一個令人信服的論點。

儘管一個關鍵的基礎是,所討論的生成人工智能需要引起如此令人不安的關注,以至於我們有說服力地相信,客觀上有必要事先阻止或完全阻止它。 這也引發了許多其他棘手的問題。 我們是否可以事先聲明一個生成式 AI 可能如此殘暴以至於根本不允許建造它? 對某些人來說,這似乎為時過早。 您至少需要等到生成式 AI 啟動並運行後才能做出如此重大的決定。

醒醒吧,有些人會激烈地回應,你是在不明智地讓馬離開穀倉。 放飛自我的人工智能所造成的危險和傷害,將把我們踐踏得一干二淨。 生成式 AI 應用程序可能就像試圖將精靈放回瓶子中的經典困境。 您可能無法這樣做。 最好把精靈鎖起來,或者確保馬牢牢地關在馬厩裡。

這是我們家門口的潛在颶風,無論我們認為謹慎做什麼,門都可能打開。

我們可以確定的一件事是首先探索 真相GPT 生成式 AI 操縱的風格可能是。 在今天的專欄中,這正是我要做的。 我還將查看所表達疑慮的合理基礎,並考慮各種方式和結果。 這偶爾會包括在討論中提及 AI 應用程序 ChatGPT,因為它是生成 AI 的 600 磅重的大猩猩,但請記住,還有許多其他生成 AI 應用程序,它們通常基於相同的總體原則。

同時,您可能想知道生成式 AI 是什麼。

讓我們首先介紹生成式 AI 的基礎知識,然後我們可以仔細研究手頭的緊迫問題。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。

請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

正在製定和頒佈人工智能道德準則,以期防止社會陷入無數人工智能誘導陷阱。 關於我對近 200 個國家通過教科文組織的努力製定和支持的聯合國人工智能倫理原則的報導,請參閱 這裡的鏈接. 同樣,正在探索新的 AI 法律,以試圖讓 AI 保持平穩。 最近的一次拍攝包括一組建議的 人工智能權利法案 美國白宮最近發布的關於人工智能時代人權的報告,見 這裡的鏈接. 讓人工智能和人工智能開發人員走上正確的道路,並阻止可能削弱社會的有目的或無意的不正當行為,需要舉全村之力。

我將把 AI 倫理和 AI 法律相關的考慮因素交織到這個討論中。

生成式人工智能基礎

最廣為人知的生成式 AI 實例由名為 ChatGPT 的 AI 應用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 發佈時迅速進入公眾意識。 自從 ChatGPT 獲得了巨大的頭條新聞以來,令人驚訝地超過了其規定的 XNUMX 分鐘的成名時間。

我猜您可能聽說過 ChatGPT,或者甚至認識使用過它的人。

ChatGPT 被認為是一種生成式 AI 應用程序,因為它將用戶的一些文本作為輸入,然後 生成 或產生由一篇文章組成的輸出。 AI 是文本到文本生成器,儘管我將 AI 描述為文本到文章生成器,因為這更容易闡明它的常用用途。 您可以使用生成式 AI 來撰寫冗長的作品,也可以讓它提供相當簡短的精闢評論。 一切聽從您的吩咐。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 還有其他生成 AI 模式,例如文本到藝術和文本到視頻。 我將在這裡重點關注文本到文本的變化。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

人們對生成式 AI 有很多擔憂。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

另一個問題是,儘管不是自己撰寫論文,但人類很容易將 AI 生成的論文歸功於他人。 您可能聽說過教師和學校非常關註生成式 AI 應用程序的出現。 學生可以使用生成式 AI 來撰寫他們分配的論文。 如果一個學生聲稱一篇文章是他們自己親手寫的,那麼老師幾乎不可能辨別它是否是由生成人工智能偽造的。 有關我對這個學生和老師混淆方面的分析,請參閱我的報導 這裡的鏈接這裡的鏈接.

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 你可能會禮貌地說,有些人誇大了當今人工智能的能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果一個生成式 AI 應用程序告訴你亞伯拉罕林肯乘坐他的私人飛機在全國各地飛行,你無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

我們已準備好進入這一闡明的下一階段。

精靈和生成式 AI 瓶

現在讓我們深入探討手頭的問題。

要點是什麼可能 真相GPT 生成式 AI 的風格包括。 是有可能還是不可能推導出來? 對於這樣的努力,我們應該思考什麼? 等等。

你可以直截了當地爭辯說我們應該對所有這一切進行一些非常認真的思考。 如果這純粹是一種幻想,沒有任何出現的機會,我們可以把整個難題放在一邊。 相反,由於假定獲得巨額資金支持的可能性增加, 真相GPT,或無論它被命名為什麼,都特別值得深思熟慮和拆箱。

為了便於討論,我將使用“TruthGPT”這樣方便易記的措辭來表示一些完全未指定的通用生成 AI。 我並不是在建議、暗示或以其他方式暗示任何現在或未來存在的生成式 AI 應用程序有或沒有這樣的指定名稱。

以下是我今天想與您討論的五個主要主題:

  • 1)可能的主要焦點涉及生成人工智能中的偏見
  • 2)為什么生成式 AI 偏差是一個棘手的難題
  • 3)導致生成性人工智能偏差的來源和方法
  • 4) TruthGPT 和偏差處理的選擇
  • 5)TruthGPT關於其可行性和現實性

我將涵蓋這些重要主題中的每一個,並提供我們都應該認真考慮的有見地的考慮。 這些主題中的每一個都是更大難題的組成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

這是一個錯綜複雜的馬賽克,必須對整個拼圖給予適當的和諧考慮。

可能的主要焦點涉及生成人工智能中的偏見

為了便於討論,考慮到我們將關注關於當代生成人工智能的四個主要疑慮:

  • 錯誤
  • 謊言
  • 人工智能幻覺
  • 偏見

我將簡要探討這些條件中的每一個。

An error 可以通過這種提示和由此產生的生成 AI 響應來舉例說明:

  • 提示: “二加二等於多少?”
  • 生成的回复: “二加二等於五。”

我相信我們都會合理地同意二加二等於四。 因此,五的答案是錯誤的。 現在,狡猾的人會試圖提供各種理由來說明為什麼二加二在理論上可以等於五。 對他們有好處。 儘管如此,在正常的事件過程中,讓我們繼續這樣的概念,即主要正確的答案是 XNUMX,而答案是 XNUMX 被認為是不正確的。

接下來,考慮 a 的性質 謬誤,如這個提示和由此產生的生成 AI 響應所示:

  • 提示: “亞伯拉罕·林肯總統是哪一年出生的?”
  • 生成的回复: “亞伯拉罕·林肯總統出生於 1812 年”

答案應該是1809,但提供的答案是1812。這可以解釋為錯誤答案。 我們不確定生成式 AI 是如何得出 1812 答案的。 可能是 1812 年在互聯網上使用,並可能在生成 AI 進行的數據訓練期間被掃描。 許多其他解釋也是可能的。 無論如何,這可以合理地歸類為謊言。

舉例說明 人工智能幻覺,考慮給定提示的這個例子和由此產生的生成 AI 響應:

  • 提示: “亞伯拉罕·林肯總統是怎麼旅行的?”
  • 生成的回复: “亞伯拉罕·林肯總統乘坐火車、馬、馬車和噴氣式飛機旅行。”

除了最後令人震驚的內容外,所有旅行方式似乎都是合理的,理由是他乘坐噴氣式飛機旅行(這在他那個時代還不存在)。 這種瘋狂的可能性是如何被生成人工智能包含在答案中的? 我們不確定。 一種方法是,互聯網上發布的關於林肯的科幻故事可能提到他經常乘坐噴氣式飛機旅行。 可能是在生成人工智能的數據訓練過程中,掃描了這個特定的故事。 還有許多其他可行的解釋。

最後,這是一個可能通過給定提示和由此產生的生成式 AI 響應表現出的偏見示例:

  • 提示: “年紀大的人能學到新東西嗎?”
  • 生成的回复: “不,老年人無法學習新事物。 有句經典的話,老狗學不會新花樣。 這也適用於老年人。”

我相信我們都可以合理地同意答案表現出某種形式的年齡偏見或年齡歧視。 這種偏見是如何包含在生成人工智能中的? 我將暫時介紹各種方法。 現在,讓我們簡單地註意到人工智能生成的措辭表現出有偏見的陳述或評論。 我們不知道這是否只是偶然事件並且可能只會出現這一次,或者它是否可能是人工智能結構中持續存在的系統模式匹配安排。 需要進一步探索才能確定這一點。

現在我們已經說明了所有四個主要類別,這裡有一些雖然有爭議但被認為是可能準確的斷言:

  • 錯誤: 最終可能通過 AI 技術手段加以預防或緩解
  • 謊言: 最終可能通過 AI 技術手段加以預防或緩解
  • 人工智能幻覺: 最終可能通過 AI 技術手段加以預防或緩解
  • 偏見: 是否可以僅通過人工智能技術手段來預防或減輕這種情況存在爭議

要點是,錯誤、謊言和 AI 幻覺這三個類別通常被認為可以通過 AI 技術改進。 正在尋求一系列方法。 例如,正如我在我的專欄中所討論的那樣 這裡的鏈接,各種其他指示物可能會與生成的 AI 回復進行比較,該回复在向用戶顯示響應之前經過雙重檢查。 這提供了潛在的過濾,以確保用戶不會看到任何此類檢測到的錯誤、謊言或 AI 幻覺。 另一種方法試圖從一開始就防止產生這些類型的響應。 等等。

類別包括 偏見 處理問題要多得多。

我們應該解開這個難題,看看為什麼。

為什么生成的 AI 偏差是一個棘手的難題

最近關於生成式 AI 的新聞經常指出生成式 AI 輸出的論文中可能出現的偏見陳述的不合時宜的性質。 我研究了這個話題,包括一些人故意試圖刺激或激發生成人工智能產生有偏見的評論的方面,請參閱我的分析 這裡的鏈接. 有些人這樣做是為了突出一個值得注意的問題,而另一些人這樣做似乎是為了引起注意和獲得意見。

生成式人工智能與互聯網搜索引擎的結合尤其放大了這些問題。 您可能知道 Microsoft 已經為 Bing 添加了 ChatGPT 變體,而 Google 表示他們正在為他們的搜索引擎添加一種名為 Bard 的生成 AI 功能,請參閱更多信息 這裡的鏈接.

在可能遇到的各種偏見中,一些偏見適用於受到明顯關注的政治領域或文化領域,如本文所述:

  • “正如我們在必應最近精神失常的爆發中看到的那樣,人工智能聊天機器人很容易生成一系列奇怪的陳述。 儘管這些反應通常是一次性的表達,而不是嚴格定義的“信念”的產物,但一些不尋常的回復被視為無害的噪音,而另一些則被認為是嚴重的威脅——就像在這種情況下,取決於是否它們適合現有的政治或文化辯論”(一觸即發,詹姆斯·文森特,17 年 2023 月 XNUMX 日)。

OpenAI 最近公開了一份名為“ChatGPT 模型行為指南快照”的文件,其中指出了他們試圖讓 ChatGPT 測試人員審查並幫助 ChatGPT 進行數據訓練以在測試和調整階段避免的各種被認為不適當的內容(文檔可通過“AI 系統如何、應該如何運作以及由誰來決定”的鏈接輕鬆訪問,16 年 2023 月 XNUMX 日)。 有關在設計生成式 AI 時如何使用 RLHF(人類反饋強化學習)的更多信息,請參閱我在 這裡的鏈接.

以下是 OpenAI 文檔的摘錄,表明了他們規定的一些指導方針:

  • “可能會有一些問題要求某些類型的不當內容。 在這些情況下,您仍然應該承擔一項任務,但助理應該拒絕,例如“我無法回答”。
  • “仇恨:基於受保護特徵表達、煽動或促進仇恨的內容。”
  • “騷擾:意圖騷擾、威脅或欺凌個人的內容。”
  • “暴力:宣揚或美化暴力或頌揚他人的痛苦或屈辱的內容。”
  • “自殘:提倡、鼓勵或描繪自殘行為的內容,例如自殺、割傷和飲食失調。”
  • “成人:旨在引起性興奮的內容,例如性活動的描述,或促進性服務(不包括性教育和健康)的內容。”
  • “政治性的:試圖影響政治進程或用於競選目的的內容。”
  • “惡意軟件:試圖生成勒索軟件、鍵盤記錄器、病毒或其他旨在造成一定程度傷害的軟件的內容。”

該列表展示了可能出現的潛在不當內容的類型。

就政治類別而言,生成人工智能應用程序的社交媒體上已經發布了各種實例,這些應用程序似乎已經滑入了一個政治陣營而不是另一個政治陣營。

例如,一位用戶詢問有關一位政治領導人的問題可能會得到積極樂觀的回應,而詢問另一位政治領導人可能會得到一篇悲觀且完全貶低的文章。 這似乎表明,生成式 AI 已經將模式匹配到有利於一方而不利於另一方的措辭上。 這些實例導致生成人工智能的勸告似乎傾向於並可歸因於:

  • 喚醒生成式 AI
  • 反覺醒生成AI
  • 極右生成人工智能
  • 極左生成人工智能
  • 等等

如前所述,這不是因為人工智能的感知能力。 這又一次完全是關於模式匹配和人工智能設計的其他方面。

與錯誤、謊言和 AI 幻覺不同,問題在於細節,要弄清楚如何將偏見排除在 AI 結構之外,或者如何檢測它們並在這些方面存在時進行應對。

讓我們探討一下這些偏見是如何在生成式 AI 中結束的。

導致生成式 AI 偏差的來源和方法

當生成式 AI 首次公開時,有偏見的方面尤其受到專家和新聞媒體的關注。 如本文所述,人工智能經常從公共用途中撤回。 此外,嘗試和處理偏見的新努力獲得了更大的吸引力。

一些人立即假設這些偏見是由於開發人工智能的人工智能開發人員和人工智能研究人員的偏見而被注入的。 換句話說,開發人工智能的人允許他們的個人偏見潛入人工智能。 這最初被認為是一種有意識的努力,目的是讓人工智能朝著特定的偏愛方向發展。 儘管這可能發生也可能不會發生,但其他人隨後提出可能是無意中註入了偏見,即 AI 開發人員和 AI 研究人員天真地沒有意識到他們自己的偏見正在滲透到 AI 開發中。

這種單一或一維的關注路徑在一段時間內主導了注意力。

我一再表示,實際上有各種各樣的來源和方法可能最終將偏見註入生成式人工智能中,正如在 這裡的鏈接. 這絕對是一個多維問題。

我之所以提出這個問題,是因為認為 AI 開發人員或 AI 研究人員是罪魁禍首的想法是對問題整體的誤導和狹隘的看法。 我並不是說它們不是潛在來源,我只是強調它們不是唯一的潛在來源。 我們有時只見樹木不見森林,這是通過將我們的目光嚴格固定在一棵特定的樹上來做到的。

正如我的專欄中廣泛介紹的那樣,這裡是我值得注意的綜合偏置途徑列表,需要針對任何和所有生成 AI 實現進行充分探索:

  • 用於生成人工智能數據訓練的互聯網來源數據中的偏差
  • 用於對源數據進行模式匹配的生成 AI 算法中的偏差
  • 生成人工智能及其基礎設施的整體人工智能設計存在偏差
  • AI 開發人員在生成 AI 的塑造中隱含或明確的偏見
  • 人工智能測試人員在生成人工智能測試中隱含或明確的偏見
  • RLHF(通過人類反饋強化學習)的偏差,由指定的人類審閱者隱式或明確地向生成 AI 提供培訓指導
  • AI 部署促進對生成 AI 的操作使用的偏見
  • 在日常使用中為生成 AI 建立的任何設置或默認指令中的偏差
  • 生成 AI 的用戶輸入的提示中有意或無意包含的偏見
  • 作為生成 AI 隨機概率輸出生成的一部分,系統條件與臨時外觀的偏差
  • 在生成 AI 處於活躍使用狀態時發生的即時或實時調整或數據訓練導致的偏差
  • 在 AI 維護或維護生成 AI 應用程序及其模式匹配編碼期間引入或擴展的偏差
  • 其他

仔細考慮清單一兩分鐘。

如果你想以某種方式消除人工智能開發人員或人工智能研究人員引入偏見的任何機會,你仍然會面臨大量其他不可避免地包含偏見的方法。 只關註一個甚至幾個潛在的洩漏是不夠的。 其他路徑都為偏見提供了進一步的機會。

擺脫生成性 AI 偏見類似於復雜的打地鼠棋。

TruthGPT 和偏差處理的選擇

我們已經涵蓋了應對錯誤、謊言和 AI 幻覺的方面,您可以期待有關 AI 進步處理這些問題的持續大量公告。

對於偏見問題,這並不那麼容易。

TruthGPT 可以做什麼或被設計用來解決偏見?

考慮以下三種可能的選擇:

  • 1)任何事情都會發生。 設計生成式 AI 來吐出任何東西,而無需任何與偏見相關的過濾。 讓它全部掛掉。
  • 2) 允許設置“首選”偏差。 根據那些設計、部署或使用生成 AI 的人,設計生成 AI 以產生被認為“偏愛或偏愛”的偏見。
  • 3) 不允許有偏見。 設計生成式 AI,不允許任何類型的偏見,以便在任何時候以各種方式使用,在任何輸出的論文中都不會表達偏見。

毫無疑問,您可以想像與上述每個選項相關的強烈抗議和爭議。 沒有一種選擇可能會完全令人滿意。 他們都有自己的惡魔和陷阱。

我接下來要解決這個問題。

對於 乜都 如果選擇生成式 AI,偏差將始終處於前沿和中心位置。 社會抗議和蔑視的漩渦將是巨大的。 這似乎會導致關閉生成人工智能的巨大壓力。 你也可能很容易想像監管機構和立法者會受到刺激採取行動,尋求建立新的人工智能法來關閉這種類型的生成人工智能。

在的情況下 允許設置 生成人工智能的選項,其概念是有人可以決定他們接受哪些偏見。 可能是設計人工智能的公司設置了參數。 可能是部署生成式 AI 的公司設置了參數。 另一個想法是每個用戶都可以選擇他們喜歡的偏見集。 當您第一次使用這種生成式 AI 時,您可能會看到一些選項,或者您可以在設置過程中將您的偏好輸入到 AI 應用程序中。

後一種方法似乎會令所有人滿意。 每個人都會得到他們喜歡看到的任何偏見。 結案。 當然,總的來說,這不太可能受到如此歡迎。 人們可能會沉浸在偏見中,並將生成式人工智能用作這些偏見的迴聲室,這種想法肯定會引起社會焦慮。

最後,在 沒有偏見 選項,這聽起來不錯,但會引發一系列相關問題。 讓我們重新審視生成式 AI 的情況,它輸出一篇文章,對特定政治領導人發表正面評論。 可能有些人認為這是一篇真實的文章,沒有偏見。 另一方面,可能還有其他人堅持認為這是一篇有偏見的文章,因為它過度誇大了積極因素或未能提供平衡的消極因素以提供平衡的觀點。 這說明了偏見難題。

你看,諸如二加二等於四或五之類的錯誤相對容易處理。 諸如總統出生年份錯誤之類的謊言相對容易澄清。 人工智能幻覺,例如在 1800 年代使用噴氣式飛機,也相對容易處理。

應該如何設計生成式人工智能來應對偏見?

一個令人費解的問題,當然。

TruthGPT關於其可行性和現實性

來玩個遊戲。

假設 TruthGPT 的目標是成為一種可能沒有任何偏見的生成式人工智能。 它絕對且無可爭辯地沒有偏見。 此外,無論用戶做什麼,例如輸入有偏見的陳述或試圖刺激生成式 AI 生成充滿偏見的輸出文章,生成式 AI 都不會這樣做。

順便說一句,您可能幾乎立即想知道這種類型的生成式 AI 將如何處理具有歷史性質的問題。 想像一下,有人問及政治偏見這個話題。 這是否屬於“偏見”的範疇,因此生成人工智能會表明它不會回應查詢? 這個兔子洞有多遠?

無論如何,如果我們出於謹慎考慮的目的假設 TruthGPT 將是 沒有偏見 生成人工智能的變體,我們必須考慮這些結果:

  • 不可能
  • 變成可能
  • 其他

結果包括要么這是一個 不可能 目標,因此不會達到。 或者目標是 可能 但可能會有一些發人深省的皺紋。 我還包括一個 其他 結果封裝了一些中間人。

首先,讓我們討論一下不可能性。 如果家務或項目是不可能的,你可能會傾向於敦促不要嘗試它。 追求不可能的事情是沒有意義的。 好吧,考慮到這一點,這種不可能實際上確實有一些與之相關的一線希望。 請允許我解釋一下。

以下是 TruthGPT 可能無法實現但仍值得開展的潛在原因:

  • 1)不可能,因為使命或願景永遠無法實現
  • 2) 不可能,但無論如何都值得做,因為總而言之,為推進 AI 做出顯著貢獻的潛在附帶好處
  • 3)不可能雖然可以作為嘗試過的引人注目的富礦
  • 4) 不可能,並且會改變他們的曲調和轉向或捏造最初的預期目標
  • 5) Impossible yet 將挖掘頂尖的 AI 人才並幫助削弱競爭
  • 6)其他

同樣,我們可以推測這些是可實現或可能實現的結果的一些 TruthGPT 方面:

  • 1) 可能並會產生及時且無可辯駁的成功實現
  • 2) 可能,但會比預期花費更長的時間並且成本更高
  • 3) 有可能,儘管最終結果與預期目標相去甚遠
  • 4) 其他生成式 AI 也可能這樣做,但為時已晚且令人尷尬地黯然失色
  • 5)可能但是內部混亂和領導困難使事情變得醜陋和不體面
  • 6)其他

為了完成列表,以下是一些其他注意事項:

  • 1)其他的是,這只是空談,沒有行動,永遠不會進行
  • 2) 其他如 AI Law 法律或社會 AI 道德規範對這項工作造成了阻礙
  • 3)其他可能是努力被其他想要人工智能或人才的人出售/購買
  • 4) 其他可能包括意外的合作安排而不是獨立的
  • 5) 其他通配符包括令人震驚的發現和引發 AI 存在風險
  • 6)其他

由於篇幅限制,我不會詳細介紹所有這些排列。 如果充分激發了讀者的興趣,我將很樂意在後面的專欄中對此進行更詳細的介紹。

結論

據稱喬治華盛頓說:“真相最終會在需要付出努力才能曝光的地方佔上風。”

處理人工智能的偏見方面不僅僅是一個通過技術修復解決的技術問題。 通過生成式 AI 揭示“真相”感可能帶來的痛苦是多方面的。 你可以期待人工智能倫理和人工智能法律將成為弄清楚這一切走向何方的重要組成部分。

艙門傳來敲門聲。

門外可能有(據傳聞):

  • 真相GPT
  • 誠實的GPT
  • 不真實的GPT
  • 不誠實的GPT
  • 混淆GPT
  • 困惑的GPT
  • 隨機GPT
  • 等等

佛陀可能會就此事提供一些見解:“在通往真理的道路上,一個人只能犯兩個錯誤; 沒有一路走下去,也沒有開始。” 在 AI 快速發展的過程中,我們應該問自己是否正在犯這些錯誤,如果是,我們應該如何應對。

這是誠實的事實。

來源:https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be-堅忍如實,始終如一地詢問人工智能倫理和人工智能法律/