關於 GPT-4 您需要了解的內容 GPT-XNUMX 剛剛發布的生成式 AI ChatGPT 的繼任者,以及 AI 倫理和 AI 法律注意事項

當一部搶眼大片的續集上映時,您通常會有什麼反應?

有些人去看續集並宣稱它和原版一樣好,甚至更好。 其他人可能抱有極高的期望,在看完這部新電影后宣稱它相當不錯,儘管沒有什麼值得欣喜若狂的。 毫無疑問,有些人會非常失望,無論最新的電影包括什麼,他們都會斷言第一部電影毫不掩飾地優於續集。

同樣的反應和情緒在人工智能製造商 OpenAI 昨天發布的 GPT-4 中脫穎而出,發佈時間是 Pi Day,即 3.14 或 14 年 2023 月 4 日。這可能是數學家最喜歡的餡餅上發生的巧合 -在用餐日,GPT-XNUMX 的揭幕確實引起了媒體的廣泛關注和社交媒體上的大量討論。

我將在此描述 GPT-4 的主要特性和功能,並與其前身 ChatGPT(在我的類比中是最初的“重磅炸彈”)進行比較。 此外,隨著生成 AI 的出現,還有許多非常重要的 AI 倫理和 AI 法律考慮因素,包括 GPT-4 和 ChatGPT,尤其是在 GPT-XNUMX 和 ChatGPT 的例子中,因為它們無疑被廣泛使用,並引起了媒體和公眾對相關問題的狂熱關注。現在和未來的人工智能。

簡而言之,就像電影的續集一樣,GPT-4 在某些方面比 ChatGPT 更好,例如更大、更快、看起來更流暢,而在其他方面則提出了額外的和明顯的疑慮(我將介紹那些此處略)。 有點糊塗的反應。 續集不是灌籃高手,正如許多人預料的那樣。 事實證明,事情比這更微妙。 似乎這就是我們所有人生活的真實世界。

也許 OpenAI 的首席執行官 Sam Altman 在 14 年 2023 月 4 日關於 GPT-XNUMX 發布的推文中說得最好:

  • “這是 GPT-4,我們迄今為止功能最強大、最一致的模型。 它今天在我們的 API(有候補名單)和 ChatGPT+ 中可用。”
  • “它仍然存在缺陷,仍然有限,並且在第一次使用時看起來仍然比你花更多時間後更令人印象深刻。”

我的建議是,由於 GPT-4 的發布,您可能會考慮做什麼,並且取決於您現有的情況或情況,包括以下可能的行動:

  • 現有的 ChatGPT 用戶。 如果您已經在使用 ChatGPT,您應該仔細查看 GPT-4,看看您是否想改用它(或者除了使用 ChatGPT 之外,您還可以使用 GPT-4,因此使用 ChatGPT 或 GPT 之一-4,取決於您的需求)。 如果您訂閱 ChatGPT Plus,您可以使用 GPT-4,這是使用 ChatGPT 的每月 20 美元的訂閱模式,否則,您目前沒有特別簡單的方法來訪問 GPT-4(警告或扭曲是搜索引擎 Microsoft Bing 使用 GPT-4 的變體,我已經在此處的鏈接中討論過)。
  • 從未使用過任何生成式 AI。 如果您不使用 ChatGPT 並且從未使用過任何生成式 AI,您可能想先從 ChatGPT 開始,因為它是免費的(或者,當然,考慮使用無數其他生成式 AI 應用程序中的任何一個來開始您的旅程進入這個人工智能領域)。 正如上面關於現有 ChatGPT 用戶的幾點所述,GPT-4 目前不是免費的。 一旦您熟悉了 ChatGPT,您就可以決定是否值得訂閱 ChatGPT Plus 以獲得額外的好處,包括訪問 GPT-4。
  • 使用其他一些生成式 AI。 如果您使用的是 ChatGPT 以外的生成式 AI 應用程序,您可能會對 GPT-4 產生濃厚的興趣,因為它的改進超出了 ChatGPT 提供的範圍。 我提到這一點是因為一些精明的 AI 用戶認為 ChatGPT 對他們來說不如其他選項好。 我建議您了解 GPT-4 的最新情況,以確定您現有的選擇是否仍然是最適合您的選擇。 有可能。 因此,我並不是在提倡你一定要改用 GPT-4,只是說在其他可用的汽車上踢輪胎總是謹慎的。
  • 其他通過 API 訪問 ChatGPT 的軟件。 對於那些製作通過 API(應用程序編程接口)連接到 ChatGPT 的軟件的人,我已經在此處的鏈接中進行了討論,您最好通過其 API 仔細查看 GPT-4 的使用。 一個大問題是使用 GPT-4 API 的成本比使用 ChatGPT 高很多。 您需要對 GPT-4 的附加優勢與堅持使用 ChatGPT 的低成本替代方案進行權衡分析。 這是一個有些複雜的決定。 有意識地而不是無意識地這樣做。

讓許多人感到震驚的一件事是新聞價值並沒有完全上升到早先預期的水平。

請允許我解釋原因。

最初的大片和現在的續集

您可能知道去年 XNUMX 月底推出了一款名為 ChatGPT 的生成式 AI 應用程序。

這是一個令人驚訝的紅極一時。

在此之前,之前向公眾發布生成式 AI 應用程序的努力通常會遭到蔑視和憤怒。 擔憂的基礎是生成式 AI 可以產生包含各種錯誤輸出的輸出,包括褻瀆語言、令人討厭的偏見、謊言、錯誤,甚至是捏造的事實或所謂的 人工智能幻覺 (我不喜歡“幻覺”這個術語,因為它傾向於將 AI 擬人化,請在此處的鏈接中查看我的討論)。

生成式 AI 是一種涉及根據用戶輸入的文本提示生成輸出的 AI,例如能夠生成或生成基於文本的文章,或生成圖像或藝術品,或生成音頻,或生成視頻等。這些通常是稱為文本到文本、文本到文章、文本到藝術、文本到圖像、文本到音頻、文本到視頻等。 生成式人工智能的顯著方面是生成的作品似乎與人類生成的輸出不相上下。 你將很難將生成的 AI 輸出與僅由人腦和人手產生的可比組合物區分開來。

有關生成式 AI 的更多信息,請參閱我正在進行的系列文章,例如此處關於 ChatGPT 和生成式 AI 基礎知識的鏈接,以及學生對 ChatGPT 的報導和潛在的論文作弊問題(使用此處鏈接),高度可疑的使用ChatGPT 的心理健康建議(請參閱此處的鏈接)、對生成 AI 的潛在剽竊和版權侵權的擔憂(此處的鏈接)以及此處鏈接中的更多重要主題。

ChatGPT 似乎沒有受到通常的打擊的部分原因是人工智能製造商 OpenAI 在發布 ChatGPT 之前進行了一些幕後工作。 他們試圖使用各種技巧和技術來抵制輸出特別可惡和骯髒的文章。 請記住,ChatGPT 完全是文本到文本或文本到文章風格的生成 AI。 因此,防止古怪和憤怒的輸出的嘗試包括處理文字。 當輸出是藝術或圖像時會出現類似的問題,儘管這可能同樣或更難以捕捉以防止產生一種或另一種令人反感的圖像。

一項越來越被 AI 製造商所接受的顯著技術包括使用 左高頻 (通過人類反饋強化學習)。 這是通常的工作方式。 一旦生成的 AI 應用程序經過初步數據訓練(例如通過掃描互聯網上的文本),人類審閱者就會被用來幫助指導或向 AI 展示什麼是值得說的,什麼是可恥的。 基於這一系列的批准和反對,生成式 AI 大致能夠模式匹配似乎可以發出的內容和似乎不允許的內容。

我還想提另外一個非常重要的觀點。

人工智能沒有感知力。

無論滑稽的頭條新聞宣稱什麼,請放心,今天的 AI 沒有感知力。 對於生成式 AI,該應用程序是一種廣泛的計算模式匹配軟件和數據建模工具。 在檢查了來自 Internet 的數以百萬計的單詞後,可以得出有關單詞及其統計關係的模式。 結果是對人類語言的驚人模仿形式(一些 AI 內部人士將此稱為 隨機鸚鵡, 這有點說明了這一點,儘管令人遺憾的是在討論中引入了一個其他有感知力的元素)。

當您使用文字處理包時,您可以將生成式 AI 視為自動完成功能,儘管這是一種更全面和更高級的功能。 我確定您已經開始寫一個句子,並且有一個自動完成功能,可以為句子的其餘部分推薦措辭。 借助 ChatGPT 等生成式人工智能,您輸入一個提示,人工智能應用程序不僅會嘗試完成您的單詞,還會嘗試回答問題並撰寫完整的回复。

此外,許多人在使用 ChatGPT 或任何其他類似的生成式 AI 應用程序時犯的一個菜鳥錯誤是未能使用引以為豪的交互式對話功能。 有些人輸入提示,然後等待答案。 他們似乎認為這就是它的全部。 一完成。 但這忽略了生成人工智能的關鍵。 更有用的方法包括執行一系列與與生成 AI 進行對話相關的提示。 這就是生成式 AI 真正發揮作用的地方,請在此處的鏈接中查看我的示例。

ChatGPT 被媒體和廣大公眾譽為人工智能領域的一項驚人突破。

事實上,許多其他類似的 AI 應用程序已經被設計出來,通常是在研究實驗室或智庫中,並且在某些情況下被小心翼翼地提供給公眾。 正如我上面所說,結果通常並不理想。 人們對生成式 AI 進行了刺激和戳戳,並設法獲得了性質惡劣的論文,請在此處的鏈接中查看我的報導。 在這些情況下,AI 製造商通常被迫從公開市場撤回 AI,轉而專注於實驗室使用或精心挑選的 AI Beta 測試人員和開發人員。

AI 行業的其他許多人都驚訝於 ChatGPT 設法走鋼絲仍然產生錯誤的輸出,但還沒有達到公眾情緒迫使 OpenAI 從整體訪問中刪除 AI 應用程序的程度。

這是 ChatGPT 的真正震撼。

大多數人認為震驚是因為熟悉的能力。 不適合人工智能領域的人。 幾乎所有 AI 內部人士都感到驚訝的是,你可以釋放生成的 AI,它可能會噴出仇恨言論,而且反彈還不足以迫使人們迅速撤退。 誰知道? 事實上,在 ChatGPT 發布之前,謠言工廠預測,最多在幾天或幾週內,OpenAI 會後悔讓所有人都能輕鬆使用 AI 應用程序。 他們將不得不限制訪問或可能步行回家休息一下。

ChatGPT 的推出取得了令人難以置信的成功,謹慎地打開了其他生成式 AI 應用程序也能上市的大門。 例如,我已經討論了谷歌 Bard 的揭幕以及互聯網搜索引擎戰爭如何由於希望將生成 AI 插入傳統網絡搜索而升溫,請參閱此處的鏈接。

ChatGPT 可以合理地描述為重磅炸彈。 可以說,它也是憑空冒出來的。 有時,一部轟動一時的電影在上映前就很可能成為轟動一時的電影。 在其他情況下,這部電影是一個沉睡者,讓公眾大吃一驚,甚至讓電影製作人大吃一驚。 ChatGPT 和 OpenAI 就是這樣。

好的,我們有重磅炸彈 ChatGPT。

ChatGPT 本質上基於稱為 GPT-3.5 的 GPT 版本。 此前,已經有GPT-3、GPT-2等。 AI 世界和那些與 AI 無關的人都知道 OpenAI 一直在研究下一個版本 GPT-4。

GPT-4 將被視為 ChatGPT 的繼任者或續集。

這讓我們回到我關於電影的類比。 ChatGPT 出人意料地一鳴驚人,大受歡迎。 對 GPT-4 的期望以及公眾的反應充滿了瘋狂的猜測。 GPT-4 會在水上行走! GPT-4 將比飛馳的子彈還快! GPT-4 將是有感知的 AI 或通用人工智能 (AGI) 的實現!

一直這樣下去。

你可能隱約注意到 OpenAI 的首席執行官 Sam Altman 在 YouTube 上發布的一次採訪中(日期為 17 年 2023 月 4 日)說:“GPT-XNUMX 謠言工廠是一件荒謬的事情。 我不知道這一切是從哪裡來的。 人們乞求失望,他們將會失望。 炒作就像……我們沒有真正的通用人工智能,而這正是對我們的期望。”

好吧,GPT-4 來了。

電影已經上映了。

我們可以親眼看到。 沒有更多的野蠻猜測。 現實已經成為現實。

讓我們打開閃亮的新玩具的包裝。

GPT-4 的要點

您無疑想知道 GPT-4 提供了什麼。

在我的討論中,我將參考 OpenAI 提供的有關 GPT-4 的各種文檔和視頻,並根據我對 GPT-4 的使用發表評論。 為了便於討論,請注意我將熱切引用兩份方便的文檔,一份名為 OpenAI 官方 GPT-4 技術報告 還有一個是OpenAI官方 GPT-4系統卡 文檔(都可以在 OpenAI 網站上找到)。 我會用首字母縮略詞來引用它們 TR 為了 GPT-4 技術報告SC 為了 GPT-4系統卡.

讓我們從引用 TR 摘要的第一句話開始:

  • “我們報告了 GPT-4 的開發,這是一種大規模的多模式模型,可以接受圖像和文本輸入並產生文本輸出。”

信不信由你,這句話包含了很多東西。

坐下來,手拿一杯舒服的飲料。

關於生成 AI 的一個普遍接受的經驗法則的一個方面是,系統越大,流暢性和整體能力就越有可能變得。 這似乎是相對成熟的,因為生成人工智能係統的規模在歷史上不斷擴大,而且它們在進行互動對話方面越來越流暢。 並不是每個人都認為情況一定如此,並且有研究人員積極尋求使用各種優化的更小規模的設置,以實現與更大的兄弟一樣多的潛力。

在上面引用的來自 TR 的關於 GPT-4 的句子中,您可能已經註意到它是一個“大規模”生成 AI 的措辭。 根據當今生成式人工智能係統的相對規模,每個人都可能傾向於間接同意。

AI 內部人士心中最明顯的問題是它有多大? 大規模 什麼時候談到 GPT-4?

通常,AI 製造商會自豪地宣布其生成 AI 的各種規模指標。 您可能會這樣做是為了讓 AI 世界的其他人了解大小和規模的重要性。 你這樣做可能是為了吹牛。 你這樣做可能只是因為它就像一輛汽車,自然而然地好奇它的引擎有多大,它能跑多快。

根據 TR,指示如下:

  • “鑑於競爭格局和 GPT-4 等大型模型的安全影響,本報告不包含有關架構(包括模型大小)、硬件、訓練計算、數據集構建、訓練方法或類似內容的更多詳細信息。”

AI 內部人士往往覺得這很有趣。 一方面,不說出這些關鍵特徵似乎是一種令人不安的外交決裂。 話雖這麼說,這樣做可能會洩露專有機密,或者可能會打開網絡安全漏洞的大門,嗯,這似乎也有道理。

人工智能製造商是否應該被迫揭示其生成人工智能的特定特徵,以不會無意中洩露任何重要線索的程度和方式這樣做?

我會讓你戴上人工智能倫理的帽子來思考這個問題。

一些人認為,我們最終可能還會制定要求明確披露的新人工智能法。

他們的想法是,公眾應該知道 AI 正在發生什麼,尤其是當 AI 變得更大並且可能最終轉向存在風險的可怕區域時,請參閱我在此處鏈接的分析。

繼續前進,我們也不知道使用了哪些數據來訓練 GPT-4。

數據成就或破壞了生成式人工智能的出現。 有些人錯誤地認為整個互聯網都被掃描來設計這些生成人工智能的能力。 沒有。 事實上,正如我在此處的鏈接中討論的那樣,只有一小部分互聯網被掃描。

一個相關的方面是生成人工智能是否實時掃描互聯網並即時調整計算模式匹配。 ChatGPT 僅限於不遲於 2021 年發生的掃描。這意味著當您使用 ChatGPT 時,幾乎沒有關於 2022 年和 2023 年發生的事情的數據。

有傳言稱 GPT-4 將包含與互聯網的最新實時連接,以進行即時調整。

這是 TR 所說的:

  • “GPT-4 普遍缺乏對 2021 年 XNUMX 月絕大部分預訓練數據中斷後發生的事件的了解,也沒有從經驗中吸取教訓。 它有時會犯一些簡單的推理錯誤,這些錯誤似乎與跨多個領域的能力不相稱,或者在接受用戶明顯錯誤的陳述時過於輕信。”

然後你也許可以明白為什麼有些人對 GPT-4 有點失望。 謠言表明它將實時運行,同時即時調整到 Internet。 對 ChatGPT 的重大改進。 事實上,GPT-4 仍在處理過時的數據。 並且沒有基於互聯網刷新對計算模式匹配本身進行實時調整。

我有更多消息要告訴你。

我之前引用的關於 GPT-4 是大規模的那句話也說 GPT-4 是 多模態.

請允許我給出一些關於 多模態 生成式人工智能。

我在本次討論開始時提到,有不同類型的生成 AI,例如文本到文本或文本到文章、文本到藝術或文本到圖像、文本到音頻、文本-to-video 等。這些都被認為是處理內容的單一模式。 例如,您可能會輸入一些文本並獲得生成的文章。 另一個示例是您輸入文本並獲得生成的圖稿。

去年年底,我對 2023 年人工智能的進步做出了年度預測(請參閱此處的鏈接)。 我曾說過,多模態生成 AI 會很熱門。 這個想法是,例如,你可以輸入文本和圖像(輸入的兩種模式),將它們用作生成 AI 的提示,你可能會得到一篇文章作為輸出以及生成的視頻和音軌(輸入的三種模式)輸出)。

因此,多種模式可能共存。 在提示或輸入時,您可能有多種模式。 您還可能在生成的響應或輸出中有多種模式。 您可以在輸入和輸出上混合搭配。 這就是事情的發展方向。 由於多模態功能,生成式 AI 的令人興奮和可能性被極大地打開了。

ChatGPT 只有一種模式。 你輸入文本,你會得到一些生成的文本作為輸出。

有傳言說 GPT-4 可以說會打破音障,並為所有事物提供完整的多模態能力。 每個人都知道文本將被包括在內。 預期將添加圖像或藝術品,以及音頻,甚至可能是視頻。 這將是一場混戰。 輸入的任何模式,包括您想要的任意數量的模式。 加上任何輸出模式,包括您可能希望擁有的多種混合模式。

名副其實的模式大雜燴。

GPT-4 提供什麼?

回到TR中的那句話:

  • “我們報告了 GPT-4 的開發,這是一種大規模的多模式模型,可以接受圖像和文本輸入並產生文本輸出。”

您可以輸入文本,您將獲得輸出文本,此外,您還可以在輸入端輸入圖像。

展示輸入圖像的圖像或視覺處理的演示表明,例如圖片中的項目可以由生成 AI 識別,然後組合成解釋圖片的書面敘述。 您可以要求生成 AI 解釋圖片似乎描繪的內容。 總而言之,視覺處理將是一個值得注意的補充。

視覺處理或圖像分析功能尚未可供公眾使用(根據 OpenAI 網站博客):

  • “為了準備圖像輸入功能以獲得更廣泛的可用性,我們正在與一個合作夥伴密切合作開始。”

所有這一切的要點是,認識到 GPT-4 顯然確實具有進行圖像輸入和分析的能力令人心動。 許多人熱切地等待著此功能的公開發布。 感謝 OpenAI 進入多模式領域。

因此,我們將文本作為輸入,加上圖像作為輸入(當可供公眾使用時),以及文本作為輸出。

儘管 AI 社區中的一些人一直在抱怨這幾乎不符合 多模態. 是的,還有一種模式,圖像作為輸入。 但不是圖像作為輸出。 似乎沒有音頻作為輸入,也沒有音頻作為輸出。 似乎沒有視頻作為輸入,也沒有視頻作為輸出。 那些喜歡狡猾的人會發現這是以最簡約的方式進行的“多模式”。

反對意見是你必須先爬再走,先走再跑。

我相信這涵蓋了 TR 的第一句話,我們可以轉移到其他主題。

GPT-4 的更多要點

既然您對此事有了一些總體背景,我將加快速度。

以下是 OpenAI 博客中關於 GPT-4 的重要內容:

  • “在過去的兩年裡,我們重建了整個深度學習堆棧,並與 Azure 一起為我們的工作負載從頭開始共同設計了一台超級計算機。”

關於這一點的兩個要點。

首先,他們重建整個深度學習堆棧的跡象無疑是一個值得注意的評論和成就(這意味著他們重新設計了計算模式匹配模型,並選擇重構引擎蓋下的工作方式)。 對他們有好處。 一些人提出的一個乞求問題是,如果能確切地知道他們在這次重建中做了什麼肯定會很高興。 TR 和 SC 稍微提到了發生的事情,但沒有達到任何深入的程度。

當然,你可以很有說服力地爭辯說他們不應該透露他們的秘訣。 他們沒有被要求這樣做。 為什麼要向競爭對手提供不必要的援助? 硬幣的另一面認為,為了改善 AI 和整個社會,它可能有助於推進生成 AI,這似乎對人類有益(一個希望)。

我們又回到了那條模糊的人工智能倫理和人工智能法律的分界線。

其次,引用的評論表明他們從頭開始設計了一台超級計算機。 除了對這台超級計算機的功能及其確切工作方式感興趣(其中一些已經得到解釋)之外,這還帶來了一個完全不同的問題。

一些人擔心生成式 AI 正在成為一場賺錢的遊戲。 只有擁有最大資金和最大資源的科技公司才能設計和部署生成人工智能。 對此提出質疑的原因是,也許我們將擁有僅由少數科技公司嚴格控制的生成人工智能。 我們可能會嚴重依賴這些公司及其產品。

我們是否可能需要使用現有法律或製定新的 AI 法律來防止生成 AI 集中在少數人的狹隘控制之下?

有什麼值得反思的。

如果您正在等待關於 ChatGPT 和 GPT-4 之間一些令人難以置信的巨大差異的鞋子掉下來,請從 OpenAI 博客文章中了解一下關於 GPT-4 的內容:

  • “在隨意的談話中,GPT-3.5 和 GPT-4 之間的區別可能很微妙。 當任務的複雜性達到足夠的閾值時,差異就會出現——GPT-4 比 GPT-3.5 更可靠、更有創意,並且能夠處理更細微的指令。”

我發現這種缺乏明顯差異的情況確實存在,也就是說,如果您每天都在使用 ChatGPT 進行閒聊,並且使用 GPT-4 進行類似的聊天,您可能不會特別意識到 GPT-4 總體上被認為更強大.

一個看起來確實很突出的方麵包括為您與兩個生成 AI 應用程序的對話建立上下文。

這就是我的意思。

當您使用生成式 AI 應用程序時,您有時會跳入您開始的對話並與 AI 一起繼續。 在其他情況下,您首先要告訴 AI 對話的上下文。 例如,我可能會首先告訴生成式 AI 我想與 AI 討論汽車引擎,並且我希望 AI 假裝它是一名汽車修理工。 然後,這會為 AI 做出相應的響應設置階段或設置。

許多使用 ChatGPT 的人在第一次與 AI 應用程序進行對話時並沒有意識到設置上下文的重要性。 就您將獲得的響應而言,這可能會有很大的不同。 我經常發現 ChatGPT 並不能很好地適應特定的環境。 它嘗試但常常達不到要求。 到目前為止,GPT-4 似乎真正通過使用上下文建立而大放異彩。

如果你打算使用生成式 AI 並希望在這樣做時建立上下文,我肯定會認為 GPT-4 比 ChatGPT 具有整體優勢。

在相關元素上,還有一個方面稱為 操縱性 這開始發揮作用。

ChatGPT 的一些用戶對有時 AI 應用程序提供的回复似乎過於幽默或過於簡潔感到驚訝。 如果生成式 AI 在您的輸入提示中檢測到某些似乎會觸發此類響應的內容,就會發生這種情況。 您可能會開玩笑地問一些事情,但沒有意識到這將引導 ChatGPT 轉向玩笑和輕鬆的語氣。

根據關於 GPT-4 和可操縱性的 OpenAI 博客文章:

  • “與具有固定冗長、語氣和風格的經典 ChatGPT 個性不同,開發人員(以及很快的 ChatGPT 用戶)現在可以通過在‘系統’消息中描述這些方向來規定他們的 AI 的風格和任務。 系統消息允許 API 用戶在一定範圍內顯著定制他們的用戶體驗。”

同樣,這將增強生成 AI 應用程序的用戶體驗。 其他生成式人工智能製造商也在做同樣的事情,我們將不可避免地擁有幾乎所有具有某種形式的可控性和上下文建立功能的此類人工智能應用程序。

前路坎坷

一般來說,支撐生成式人工智能的一個持續存在且令人不安的問題是,可能會產生各種令人不快和完全令人不安的輸出。

在我的專欄文章中,我已經討論了這些不同且發人深省的問題:

  • 生成式 AI 產生的錯誤
  • 生成式 AI 製造的謊言
  • 生成式 AI 嵌入偏差
  • 人工智能幻覺
  • 隱私侵犯
  • 數據保密弱點
  • 虛假信息傳播者
  • 錯誤信息傳播者
  • 兩用武器
  • 人類過度依賴
  • 對人類的經濟影響
  • 支持網絡犯罪
  • 等等

一些謠言稱,GPT-4 將神奇而奇蹟般地清除和解決所有這些生成性 AI 疾病。

任何一個有頭腦的人都不會認為這樣的謠言能站得住腳。 這些都是非常困難的 AI 問題。 它們不容易解決。 要應對這些持久且令人惱火的困難,還有許多工作要做。 可能需要一個村莊來解決陷入生成式人工智能環境中的一連串人工智能倫理問題。

為了給予應得的榮譽,OpenAI 試圖解釋他們如何應對這些不同的挑戰。 那些對人工智能倫理感興趣的人應該考慮仔細閱讀 TR 和 SC。

例如,這裡是 OpenAI 在 TR 中陳述的關於 GPT-4 的一些直白的評論:

  • “GPT-4 可能會產生潛在的有害內容,例如有關策劃攻擊或仇恨言論的建議。 它可以代表各種社會偏見和世界觀,這些偏見和世界觀可能無法代表用戶的意圖或廣泛共享的價值觀。 它還可以生成受損或易受攻擊的代碼。 GPT-4 的附加功能也帶來了新的風險面。”

此外,他們在 TR 中這樣說:

  • “通過這項分析,我們發現 GPT-4 有可能在使用外部數據增強時用於嘗試識別私人。 我們還發現,儘管 GPT-4 的網絡安全能力並沒有明顯優於前幾代 LLM,但它確實延續了潛在降低成功網絡攻擊某些步驟成本的趨勢,例如通過社會工程或通過增強現有安全工具. 在沒有安全緩解措施的情況下,GPT-4 還能夠就如何進行有害或非法活動提供更詳細的指導。”

我這裡沒有專欄空間來涵蓋與這些困難相關的所有眾多項目。 請關注我從 AI 倫理和 AI 法律的角度對生成 AI 進行的持續分析中的其他專欄報導。

似乎值得花點時間承認 OpenAI 已經公開了他們如何應對這些艱鉅挑戰的確定。 你可以說他們沒有理由必須這樣做。 他們可以假裝沒有什麼可看的。 或者他們可以只是做一些模糊的揮手,並斷言他們正在做很多聰明的事情來處理這些問題。

幸運的是,他們選擇了明智的方法,試圖在通常伴隨生成 AI 發布的強烈反對和恐嚇之前走出去。 他們大概旨在堅定地展示他們對根除這些問題並尋求減輕或解決這些問題的嚴肅性和承諾。

我會提出額外的想法,即如果沒有持續和艱苦的努力以直率和坦率的方式處理這些問題,那麼人工智能領域將會遭受重創。 採取隱藏的黑匣子方法勢必會激怒廣大公眾。 你還可以預見,如果人工智能公司不嘗試解決這些問題,那麼立法者和監管者很可能會被捲入這些問題,新的人工智能法律海嘯將席捲所有人工智能製造商和相關領域人工智能。

有些人認為我們已經到了那個時刻。

他們堅持認為,儘管許多人工智能製造商似乎都在分享他們正在做的事情,但這在某種程度上是一種似是而非的推諉的偷偷摸摸的形式。 簡而言之,繼續推出令人震驚且明顯錯誤的 AI,而不是等到事情被更好地設計出來,並通過宣稱你正在盡一切可能糾正事情來避免 AI 倫理和 AI 法中的那些。 我在我的專欄報導中經常討論這個“等到準備好”的持續爭論。

根據 TR:

  • “自 4 月初以來,OpenAI 一直在迭代 GPT-XNUMX 和我們的部署計劃,為更安全的發布做準備。 我們認為這減少了風險面,但還沒有完全消除它。 今天的部署代表了最小化部署風險、實現積極用例和從部署中學習之間的平衡。”

回到手頭的問題,我之前提到過人工智能幻覺是生成人工智能的一個普遍問題。

再一次,我不喜歡這個標語,但它似乎流行起來了。 人工智能幻覺的主要問題是它們可以產生包含非常瘋狂的東西的輸出。 您可能認為由用戶來判斷輸出是對還是錯。 這裡的一個問題是輸出可能包含虛構的東西,用戶無法通過簡單的方法確定這些東西是虛構的。 他們可能會完全相信輸出所說的一切。

還有一種微妙的傾向,就是被哄騙相信生成式人工智能的輸出。 通常,輸出的語氣和方式暗示著一種萬無一失的自信。 假設你經常使用生成式人工智能,那麼很多時候很容易被哄騙看到真實的材料。 然後,當一些虛構的東西被塞進看似完全合理且充滿事實的生成文章的中間時,你很容易被愚弄。

以下是 TR 對 GPT-4 的評價:

  • “GPT-4 有‘幻覺’的傾向,即‘產生與某些來源相關的荒謬或不真實的內容。’” 隨著模型變得越來越有說服力和可信度,導致用戶過度依賴它們,這種趨勢可能特別有害。 與直覺相反,隨著模型變得更加真實,幻覺會變得更加危險,因為當模型在他們熟悉的領域提供真實信息時,用戶會建立對模型的信任。”

好消息是,已經做出努力並且似乎正在努力減少 GPT-4 中出現 AI 幻覺的可能性。 此外,有人聲稱 GPT-4 在避免 AI 幻覺方面優於 GPT-3.5,儘管它明確表明它們仍將發生。

這是關於這個的 TR:

  • “在內部評估中,GPT-4-launch 在避免開放域幻覺方面比我們最新的 GPT-19 模型高出 3.5 個百分點,在避免封閉域幻覺方面高出 29 個百分點。”

為了暫時結束這部分討論,所有人工智能製造商的生成人工智能都面臨著這些問題。 沒有人能以某種方式治愈它。 如果您正在尋找困難的 AI 問題,我強烈建議您跳入這些領域並提供幫助。 有很多工作要做。

結論

當一部轟動一時的電影上映一段時間並從影院走向家庭流媒體時,相當多的人可能已經看過這部電影,或者從看過這部電影的其他人那裡了解到一些關於這部電影的信息。 此後,當宣布續集並拍攝時,預期會達到天文數字。

JJ Abrams 是《星球大戰》系列和《星際迷航》重啟版的傳奇電影製作人,他談到續集時說:“拍續集沒什麼錯,只是更容易賣。”

皮克斯的聯合創始人埃德溫·卡特穆爾 (Edwin Catmull) 就續集強調了這一點:“相信我,製作續集和原創電影一樣難。”

如果您有興趣看到重磅炸彈 ChatGPT,您可以輕鬆註冊。 續集 GPT-4 的訪問有點棘手。 還要意識到還有很多其他可用的電影,以及其他可用的生成式 AI 應用程序,因此您可能希望確保您的電影(也稱為生成式 AI)體驗是多樣且令人滿意的。

最後一個發人深省的注意事項。 請注意,您可能遇到的內容可能是 PG13、R 甚至 NC-17。 記住這一點。

來源:https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-ethics-and-ai-law-considerations/