使用生成式 AI ChatGPT 的人們本能地犯了這個 AI 菜鳥錯誤,這是 AI 倫理和 AI 法律的一個令人煩惱的秘訣

習慣的力量。

我相信你已經體驗過了。

有關的基本概念 習慣的力量 是有時您做的事情是基於對一遍又一遍地做某事的盲目依賴。 習慣接管了你的智力,也許壓倒了重新看待或做事的能力。

一方面,你可以爭辯說習慣的力量是非常有用的。 你似乎能夠在沒有太多腦力消耗的情況下完成一項任務,而不是通過公開思考手頭的特定問題來消耗你的思維過程。 有些評論員通常將此稱為使用您的 記憶力 好像類似於調節你的思想類似於你的身體來執行經過深思熟慮的公理化反應。

依賴習慣的力量的一個重要缺點可能是您錯過了以更好的方式做事或未能利用新出現的機會。 您已按自己的方式行事,不會利用或利用可能對您有用的可行替代方案。 就是經典的stick-in-the-mud(也許這個古老的成語應該更充分地表達為一根棍子牢牢地紮在泥裡,不屈不撓)。

在今天的專欄中,我將說明如何 習慣的力量 在使用人工智能 (AI) 時,這導致許多人無法理解。

特定的上下文將涉及人工智能的使用,現在被稱為 生成式人工智能 我將通過使用廣受歡迎且廣受讚譽的 AI 應用程序 ChatGPT 來展示習慣方面的力量。 我想您會喜歡這種探索,因為我將提供實際的輸入和輸出來向您展示 ChatGPT,並通過介紹設計烹飪食譜這一看似無害的任務來實現。 任務本身是一項相對普通的苦差事。 儘管如此,我們仍然可以收集到一些非常有用的見解,了解人們是如何無意中以一種可能被稱為 AI 菜鳥方式並被根深蒂固的習慣力量控制的方式行事的。

到本次討論結束時,您將不會犯同樣的 AI 菜鳥錯誤。

在更大的範圍內,這一切都對人工智能倫理和人工智能法律具有重要意義。 您可能會對我對最新的 AI 倫理和 AI 法律的廣泛和持續報導感興趣,網址為 這裡的鏈接 這裡的鏈接, 僅舉幾個。 對 AI 倫理和 AI 法律的清醒和明智的關注涉及我們如何利用 AI,包括 AI 的良好使用以及避免或至少減輕 AI 的不良使用。

一種被稱為生成式 AI 的特定類型的 AI 最近在談論 AI 的位置和可能的發展方向時主導了社交媒體和新聞。 這是由使用生成 AI 的 AI 應用程序的發布引發的,該應用程序是由 OpenAI 組織開發的 ChatGPT 應用程序。

ChatGPT 是一個通用的人工智能交互系統,本質上是一個看似無害的通用聊天機器人,然而,它正以一種讓許多人完全措手不及的方式被人們積極而熱切地使用。 例如,一個突出的問題是 ChatGPT 和其他類似的生成式 AI 應用程序將允許學生在他們的書面論文中作弊,甚至可能鼓勵或刺激學生這樣做。 懶惰或覺得自己沒有時間或技能寫論文的學生可能會很容易地調用生成式人工智能應用程序為他們寫論文。 稍後我會詳細說明這一點。 有關 ChatGPT 如何實現這一點以及教師應該做什麼的詳細分析,請參閱 這裡的鏈接.

如果您對關於 ChatGPT 和生成式 AI 的迅速擴大的爭論特別感興趣,我一直在我的專欄中做一個揭露系列,您可能會發現它提供了豐富的信息和吸引力。

根據我在 這裡的鏈接. 如果您想知道 AI 在整個 2023 年可能會發生什麼,包括生成式 AI 和 ChatGPT 即將取得的進展,您需要閱讀我對 2023 年的綜合預測列表,網址為 這裡的鏈接. 我還做了一個季節性的半開玩笑的檢查,涉及與聖誕老人相關的上下文,涉及 ChatGPT 和生成人工智能 這裡的鏈接. 一個不祥的消息是,一些陰謀者已經想出瞭如何使用生成人工智能和 ChatGPT 來做不法行為,包括生成詐騙電子郵件,甚至為惡意軟件生成編程代碼,請參閱我的分析 這裡的鏈接.

我將在本文中解釋有關生成式 AI 和 ChatGPT 的基礎知識,所以請耐心等待,您將獲得一般獨家新聞。

與此同時,如果你看看社交媒體,你會看到人們宣稱 ChatGPT 和生成式人工智能是自切片麵包以來最好的東西。 有人認為這實際上是有知覺的 AI(不,他們錯了!)。 其他人擔心人們正在超越自己。 他們正在看到他們想看到的東西。 他們拿了一個閃亮的新玩具,並確切地展示了為什麼我們不能擁有吸引人的新東西。

AI 倫理和 AI 法律領域的人士特別擔心這種新興趨勢,這是理所當然的。

你可能會禮貌地說,有些人超越了當今 AI 的實際能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。 不要將人工智能擬人化。 這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。

在這個極端的另一端是有時會低估當今人工智能的能力。

是的,人們正在使用諸如生成式 AI 和 ChatGPT 之類的 AI,從某種意義上說,這些 AI 未達到或未能獲得與當代 AI 相關的完整體驗。 這通常是由於那些做這種不足的人的習慣心態的力量。 您可以討論下衝是否是一個問題。 也許更安全的做法是假設 AI 比實際情況更受限制。 當然,超調確實有很大一部分危險。 我們應該盡可能地充分利用人工智能。 最大限度地發揮人工智能的優勢可能會帶來巨大的潛在好處。 如果你削弱人工智能的能力,你就會錯失可能的機會和回報。

在我們了解一些人如何低於 AI,尤其是 ChatGPT 之前,我想為習慣問題的力量添加一些進一步的背景。

讓我們這樣做,然後我們將回頭看看生成式 AI 和 ChatGPT。

習慣的潛在力量

我經常引用早期的智能手機來說明習慣的強大影響力這一點。

當手機剛開始普及時,人們主要用它們打電話,這很恰當。 隨著智能手機的出現,增加了相機功能。 您可能還記得或聽說過人們不習慣使用便攜式電話拍照。

想要拍照的人會本能地尋找傳統相機並放棄使用配備相機的便攜式電話。 看到有人因為把傳統相機忘在家里而苦惱,並且因為不能在適當的時候拍一張快照而苦惱,這幾乎是可笑的。 在被提醒他們手中的手機可以做到這一點後,他們會不好意思地拍下這珍貴的一張照片。

當智能手機增加了視頻錄製功能時,同樣的循環又重複了一遍。 這與第一個示例略有不同。 人們會意識到他們可以使用他們的手持電話拍攝視頻,但被拍攝的人表現得好像手機只能拍攝靜態快照。 再一次,一群人為了拍照而全都僵住了,而拿著帶有錄像功能的智能手機的人卻不得不懇求他們揮舞著手臂來表演,這幾乎是可笑的。

在前一種情況下,您可以說習慣的力量籠罩了一些不習慣使用智能手機拍照的人的思想,這意味著由於習慣的力量,他們認為照片必須使用傳統相機拍攝。 在第二種情況下,人們有一種習慣,認為視頻只能通過獨特的手持錄像機拍攝,而智能手機只能拍攝靜態照片。

我相信這建立了一個揭示習慣的力量如何產生的背景。

換檔進入 AI 領域。

在生成式 AI 和 ChatGPT 的問題上,這類 AI 的一個關鍵要素是它應該被視為 對話的. 您可能在家中或工作中使用過聊天機器人或類似技術。 如果您曾經使用過 Alexa 或 Siri,那麼您就已經使用了面向對話的 AI 系統,無論您是否意識到這一點。

在對話式 AI 中,目標是讓人類與 AI 應用程序交談。 人類應該能夠使用與人類同胞相同的對話能力。 嗯,這是理想的目標。 並非所有對話式 AI 都那麼好。 要達到那種流利程度,我們還有很多障礙需要克服。

毫無疑問,您使用過 Alexa 或 Siri,並發現這些 AI 對話應用程序有時非常缺乏。 例如,你用一口流利的英語說了些什麼,並希望 AI 能理解你的意思。 遺憾的是,這些 AI 系統的響應方式通常表明它們沒有理解您的命令或請求的性質。 這可能很煩人。 這可能令人惱火。

最終,您會有所緩和或放棄嘗試全力以赴的對話。 由於 AI 不合格,AI 對話能力被證明是有限制的。 人們逐漸發現他們必須“降低”他們的話語才能與這些所謂的對話流暢的人工智能應用程序進行交互。 你開始與 AI 應用程序交談,或者用簡短的、基本的句子給它發短信。 希望是,如果你讓事情變得簡短而甜蜜,人工智能得到正確結果的機會就會增加。

也許你見過經歷這種弧線的人。 在使用 AI 對話應用程序時,他們會以極大的熱情開始。 當意識到有一半或更多的時候,人工智能完全沒有準確表達所陳述的內容時,人類就會垂頭喪氣。 他們想繼續使用人工智能,但意識到使用他們的人類語言流利度是沒有用的。 最終,每個人都編造了他們自己相信的速記,並希望安撫人工智能應用程序,讓人工智能執行他們人類發出的指令。

哦,強者將如何隕落,這意味著被吹捧的人工智能對話應用程序往往與他們宣稱的傾向相去甚遠。

這是所有這一切的轉折點。

習慣於限製或限制他們與 AI 應用程序的對話交互的人將陷入 習慣的力量 總是這樣做。 這是有道理的。 您不希望每次使用會話 AI 應用程序時都重新發明輪子,您認為它與您使用的最後幾個應用程序一樣有限。 因此,在與其他令人失望的不太流暢的 AI 應用程序交談時,不妨依靠你已經學過的艱苦經驗教訓。

與此不同的是,最新的生成人工智能(如 ChatGPT)往往是對話逐步改進的一個步驟。 與這些最新的生成式 AI 應用程序相比,您使用過的任何先前更粗糙和更受限制的 AI 應用程序的對話能力都可能低得多。

您需要擺脫之前對對話式 AI 的失望,並願意嘗試新事物。 為這些新的生成式 AI 應用程序提供一個大展拳腳的機會。 我想你會喜歡這樣做的。 見證 AI 取得的進步可能會讓人感到非常驚訝和振奮。

現在,請不要誤解我的意思。 這並不是對今天的生成式人工智能在某種程度上完全對話和流利的認可。 它不是。 我只是強調它比以前更好。 您可以升級您的遊戲,因為 AI 遊戲也已升級。 同樣,我們還有很長的路要走。

讓我舉個例子說明我指的是什麼。

一個製作烹飪視頻的非常受歡迎的社交媒體視頻博主很快加入了 ChatGPT 和生成式 AI 的行列,她選擇在她的一個視頻片段中使用 AI 應用程序。 她登錄到 ChatGPT 並要求它為她製作一份食譜。 然後,她開始嘗試使用 AI 生成的食譜烹製指定的餐點。

總而言之,這似乎是一種非常明智且令人興奮的展示最新 AI 的方式。

對於任何現代 AI 人來說,在這次烹飪之旅中都發生了一件有點悲傷或至少令人失望的事情。 視頻博主基本上生成了食譜,就好像 AI 類似於一本食譜。 在告訴 AI 所需的整體膳食類型後,AI 應用程序為視頻博主生成了一份食譜。 視頻博主隨後繼續嘗試做飯,但這樣做引發了各種問題。 為什麼食譜中沒有 vlogger 認為應該包含的其他成分? 為什麼 AI 不解釋如何做一些複雜的烹飪工作?

這類問題在視頻環節被反复提及。

大多數觀眾可能會點頭並認為這確實是您使用食譜或在 Internet 上查找食譜時常見的問題。 你基本上得到了一份打印出來的成分和說明清單。 當您嘗試在現實生活中使用它們時,您會發現有時步驟會丟失或令人困惑。

夢幻般地,與製作食譜的廚師互動將是非常棒的。 你可以問他們這些尖銳的問題。 您將能夠與廚師交談。 相反,您只有一份靜態的烹飪說明列表,無法辨別紙上沒有說明的更精細的方面。

哇,等一下,記住我一直在討論生成式 AI 和 ChatGPT 的對話方面。 你不應該只是問一個問題,然後在設計和呈現答案後走開。 更好的用途是與 AI 應用程序進行對話。 繼續問那些你可能問過人類廚師的問題。

出於習慣,您甚至可能不會想到這樣做。 看起來這確實是烹飪視頻博主的情況。 之前使用過的對話式 AI 可以調節你的思維,將最新的 AI 視為程式化的互聯網搜索引擎。 輸入您的查詢。 看看返回的內容。 選一個。 從那裡開始。

對於生成式 AI,您應該考慮到您的入門提示只是信息豐富且令人振奮的對話之旅的開始。

我告訴人們在使用諸如 ChatGPT 之類的生成式 AI 時,將這些類型的對話推動保留在他們的思維工具包中(在交互時嘗試任何或所有這些偷偷摸摸的方法):

  • 告訴 AI 的回答要簡明扼要,你會得到更切題的回答
  • 告訴 AI 詳細說明它的響應,你會得到更長的放大
  • 請 AI 解釋所陳述的內容,以便您了解更多信息
  • 繼續解釋你自己,看看人工智能對你的理解有何反應
  • 不同意 AI 的陳述反應並促使 AI 捍衛事物
  • 表明您想要 AI 響應的摘要或重述以驗證所陳述的內容
  • 根據需要將對話轉向相關或不同的主題(側切線沒問題)
  • 製作一個您希望 AI 在上下文中包含的假想場景
  • 確認某事以查看 AI 對確認或不確認您的確認的陳述
  • 等等

這些方面將使您了解對話式 AI 應用程序可以延伸到多遠。 我敢說你可能會對這能走多遠感到吃驚。 在某些方面,上述建議類似於您在與人互動時可能會做的事情。 考慮一下。 如果你是在與人交談,所有這些做法可能會更好地促成更令人回味的對話。

與人交談不同,您不必擔心會傷害談話中其他參與者的感情。 人工智能是一台機器。 你可以很突然。 你可以很粗魯,儘管這對情況沒有幫助(我將很快重新討論)。

出現了大量的 AI 倫理和 AI 法律問題。

首先,不要讓 AI 的會話技術和技術的進步將你帶入 AI 的擬人化。 這是一個容易掉入的心理陷阱。 不要被吸入。

其次,不擔心傷害 AI 感情的想法已經讓一些人警告要小心滑坡。 如果你對對話式 AI 感到厭煩,你可能會讓這成為你的整體規範。 你也會逐漸對人類產生厭惡。 並不是說對 AI 的粗暴本身就是壞事(好吧,有些人擔心未來存在風險的 AI 不會熱衷於此,請參閱我在 這裡的鏈接),相反,你正在養成一種粗暴的習慣。

第三,一些 AI 研究人員和 AI 開發人員選擇反擊,實際上,通過對 AI 進行編程使其看起來好像確實有感覺,請參閱我的報導 這裡的鏈接. 有時這是明確編程的,而有時它基於與人類互動相關的模式匹配(即研究人類如何互動,然後讓 AI 模仿人類在另一個人粗魯時所做的事情)。 人們相信這會阻止人類滑下我剛才提到的濕滑斜坡。

這枚硬幣的另一面是,如果 AI 似乎有感覺,它會再次強化人類已經很可能將 AI 擬人化的趨勢。 在那種情況下,所謂的治愈或問題背後的弊病哪個更糟?

有關關鍵 AI 倫理原則的更多信息,以及試圖讓 AI 開發人員和操作 AI 的人員採用 AI 倫理實踐的持續傳奇,請參閱我的報導: 這裡的鏈接. 期待在聯邦、州、市和地方各級出現關於人工智能的新法律,例如紐約市關於人工智能審計的法律(見我的分析 這裡的鏈接),一波全球性的國際人工智能相關法律也來了,看我的更新 這裡的鏈接.

在本文討論的這個時刻,與您分享一些關於生成式 AI 如何工作的值得注意的細節可能會很方便。 我還認為您可能會發現有關 ChatGPT 的有用的其他背景知識。

簡而言之,生成式 AI 是一種特殊類型的 AI,它可以像人手和頭腦一樣編寫文本。 您需要做的就是輸入一個提示,例如“告訴我關於亞伯拉罕·林肯”這樣的句子,生成式人工智能將為您提供一篇關於林肯的文章。 這通常被歸類為執行 文字到文字 或者有些人更喜歡稱它為 文本到文章 輸出。 您可能聽說過其他生成 AI 模式,例如文本到藝術和文本到視頻。

您的第一個想法可能是,就撰寫論文而言,這似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。

生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

稍後,我將向您展示當您向生成式 AI 輸入問題或提示時會發生什麼。 我將使用最新版本的 ChatGPT 來輸入我的提示並收集人工智能生成的“答案”或文章(請注意,許多其他可用的生成人工智能應用程序也可以這樣做;我選擇使用ChatGPT,因為它現在正在獲得五分鐘的成名)。

有時,生成式人工智能應用程序會在互聯網上不可靠信息的訓練數據中發現虛假信息。 生成式 AI 中沒有“常識”來判斷真假。 此外,很少有 AI 應用程序有任何交叉檢查,它們也不會顯示與它們所傳達的內容相關的任何可能性。

最重要的結果是,您得到的答复看起來和感覺起來都散發出極大的保證,而且必須完全正確。 不是這樣。 甚至有可能是 AI 計算構成的東西,用 AI 的話說就是 人工智能幻覺 (一個我絕對不喜歡的創造術語),請參閱我的討論 這裡的鏈接.

ChatGPT 的開發者齊心協力,試圖減少不良內容的輸出。 例如,他們使用了一種被稱為 左高頻 (從人類反饋中強化學習),在他們向公眾發布 AI 之前,他們僱傭了人類來檢查各種輸出並向 AI 指出這些輸出是否存在問題,例如可能表現出偏見、粗言穢語和像。 通過提供這種反饋,人工智能應用程序能夠在計算和數學上進行調整,以減少此類內容的排放。 請注意,這不是一種萬無一失的方法,AI 應用程序仍然可以通過多種方式發出此類內容。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果一個生成式 AI 應用程序告訴你亞伯拉罕林肯駕駛他自己的私人飛機在全國各地飛行,你無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到他那個時代並沒有噴氣式飛機,或者他們可能知道但沒有註意到這篇文章提出了這個大膽而明顯錯誤的主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

你準備好加入了嗎?

做好準備。

以對話方式使用 ChatGPT 製作美味的食譜

是時候製作食譜了。

好吃,期待與用餐相關的練習。

我不是那種把食譜放在廚房裡的人。 是的,我應該,但我沒有。 因此,我決定首先通過傳統的搜索引擎在網上找到一份可能很有趣的食譜。 這將有助於運行 ChatGPT。 我們將有一個方便的比較基礎。

環顧四周因我的在線互聯網搜索而列出的各種食譜後,我發現 美食美酒 發布了一份 2022 年最受歡迎的 2022 種食譜的便捷清單。在他們的 XNUMX 年最受歡迎食譜清單中,我看到一個特別引起我注意的食譜,即薑黃荷包蛋配韭菜餅乾和龍蝦的食譜肉汁。

聽起來令人垂涎欲滴。

根據這篇題為“薑黃荷包蛋配韭菜餅乾和龍蝦肉汁”的帖子,並在他們的 2022 年最受歡迎的 25 種食譜的總清單中找到(在一篇題為“2022 年最受歡迎的 9 種食譜”的文章中,根據致 Food & Wine Readers”,2022 年 XNUMX 月 XNUMX 日),他們是這樣評價這道美味佳餚的:

· “這道頹廢的早午餐菜讓人想起小龍蝦 étouffée,但在主廚布魯克威廉姆森的海濱餐廳 Playa Provisions 的菜單上隨處可見西海岸的氛圍。 龍蝦賦予了濃郁的肉汁風味,而薑黃蛋則增添了陽光明媚的色彩。 提前一天做好龍蝦肉汁,然後輕輕地重新加熱,讓早午餐變得更容易。”

太好了,我想做這個,當然。

食譜上說這些是高層次的成分和說明:

“原料”

  • 香蔥餅乾
  • 龍蝦汁
  • 薑黃荷包蛋
  • 其他成分

“方向”

  • 準備韭菜餅乾
  • 準備龍蝦汁
  • 準備薑黃荷包蛋
  • 組裝盤子

我不會在這裡展示整個食譜,只會專注於薑黃荷包蛋的準備。

以下是帖子中關於薑黃荷包蛋的內容:

“薑黃荷包蛋”

  • 8杯水
  • 2湯匙蘋果醋
  • 2茶匙薑黃粉
  • 6個大雞蛋,冷的

“方向”

  • “準備薑黃荷包蛋:將水放入中等大小的鍋中用中火慢燉。 在醋和薑黃中攪拌。 將每個雞蛋打入一個單獨的小碗中。 一次處理 1 個雞蛋,將雞蛋輕輕滑入沸水中。 煮雞蛋直到蛋白凝固但蛋黃仍然流淌,3 到 4 分鐘。 使用有槽的勺子,將雞蛋轉移到紙巾內襯的盤子中以吸收所有水分。 雞蛋可以用保鮮膜覆蓋並在室溫下保存最多 1 小時,或覆蓋並在冰箱中保存最多 1 天(在沸水中重新加熱至溫熱,大約 1 分鐘)。”

好的,我想你已經掌握了食譜的要點。

你可以在網上找到很多類似的食譜。 這個特別的食譜並沒有什麼特別新穎或特別的地方。 儘管如此,它看起來確實能奏效,我期待著嘗試做這頓飯。

假設我對食譜有疑問。 我非常不走運。 這是一成不變的食譜。 我通過傳統的在線搜索找到了它。 食譜就是這樣。 除了可能會去一些在線鑑賞家並在那裡發布一些問題,我不能向任何人詢問食譜,希望他們會同情我並幫助我修改食譜或更詳細地解釋它。

為什麼不弄清楚生成式 AI 能為我做什麼?

果不其然,我決定繼續嘗試使用 ChatGPT 來幫助進行這次食譜設計嘗試。 我將繼續向您展示我輸入 ChatGPT 的提示,然後展示 ChatGPT 生成的結果文本或文章。 然後,我將提供一些關於 ChatGPT 指示的內容以及它如何展示生成式 AI 工作原理的分析。

最重要的是,當我嘗試解決關於食譜的未決問題時,我將能夠輸入一系列提示。 不需要找人來做,在這種情況下只需使用人工智能。

讓我們繼續嘗試一下。

我輸入的提示:我聽說過一道很棒的菜,它由薑黃荷包蛋、細香蔥餅乾和龍蝦肉汁組成。 來吧,給我一份這道聽起來很美味的飯菜的食譜。”

生成的文本結果:

“當然! 這是薑黃荷包蛋配細香蔥餅乾和龍蝦肉汁的食譜:”

“薑黃荷包蛋:”

  • 4大蛋
  • 2杯水
  • 1/2 茶匙薑黃
  • 1 / 4茶匙鹽

“韭菜餅乾:”

  • 1杯通用麵粉
  • 1湯匙發酵粉
  • 1 / 2茶匙鹽
  • 6 湯匙冷無鹽黃油,切成小塊
  • 3 / 4杯牛奶
  • 2湯匙切碎的韭菜

“龍蝦肉汁:”

  • 4湯匙未加鹽的黃油
  • 1 / 4杯通用麵粉
  • 2杯牛奶
  • 1 / 2杯雞湯
  • 1 / 2杯重奶油
  • 1 / 2茶匙鹽
  • 1 / 4茶匙辣椒
  • 1 / 4茶匙辣椒
  • 4 盎司煮熟的龍蝦肉,切碎

“指示:”

“要製作薑黃荷包蛋,請在一個中等大小的平底鍋中加入水,然後用中火慢燉。 加入薑黃和鹽,攪拌混合。 小心地將雞蛋打入沸水中煮 3-4 分鐘,或直到蛋白凝固且蛋黃仍然柔軟。 使用有槽的勺子,輕輕地將雞蛋從水中取出,放在紙巾上瀝乾水分。”

“要製作細香蔥餅乾,請將烤箱預熱至 425°F (220°C)。 在一個中型碗中,將麵粉、發酵粉和鹽攪拌在一起。 用糕點刀或你的手指,將黃油切成麵粉混合物,直到它看起來像粗沙。 加入牛奶和細香蔥,直到麵團混合在一起。”

“用圓形湯匙將餅乾麵團放在襯有羊皮紙的烤盤上。 烘烤 12-15 分鐘,或直到餅乾變成金黃色。”

“要製作龍蝦肉汁,請在中等大小的平底鍋中用中火融化黃油。 加入麵粉並煮熟,不斷攪拌 2-3 分鐘,或直到混合物呈金黃色。 慢慢加入牛奶、雞湯和濃奶油,不斷攪拌以防止結塊。 將混合物煮沸,然後將熱量降低至低溫。 燉 5-7 分鐘,或直到肉汁變稠。 加入鹽、胡椒粉、辣椒和龍蝦肉。”

“要上桌,請在每個盤子上放一個韭菜餅乾,然後在上面放一個薑黃荷包蛋。 將龍蝦汁澆在上面,立即上桌。”

“我希望你喜歡這個食譜! 如果您有任何問題,請告訴我。”

分析生成的文本

雖然我不是一個特別精通的廚師,但我未經訓練的眼睛表明這個食譜似乎很好並且完全可以接受。 它似乎與 美食美酒 食譜。 請注意,措辭明顯不同。 我提到這個是因為 ChatGPT 不只是偶然地逐字複製 美食美酒 食譜或發佈在互聯網上的任何其他此類食譜。

為了嘗試並仔細檢查這種唯一性,我獲取了 ChatGPT 配方的文本並進行了在線 Internet 搜索。 我找不到完全相同的副本。 當然,我找到了很多類似性質的菜譜,只是因為這種飯菜比較常見。 我通常會建議 ChatGPT 的這個食譜是獨一無二的和原創的,這意味著它不是已經發佈在網上的一個逐字逐句的副本。 當我說獨特和原創時,我並不是說這種食譜從未被發布過。 它有。 我是說這個特定食譜的特定措辭是通過生成 AI 編寫的,而不僅僅是模仿者。

我現在手頭有 ChatGPT 生成的食譜,可以嘗試做飯了。 原來我有一些問題,想進一步討論這個現在開始的與食譜相關的對話。 意識到如果我通過傳統的搜索引擎獲得這個食譜,我將不太可能與系統交談。

這是我在 ChatGPT 旁邊指出的關於生成的食譜的內容。

我輸入的提示: “我只有3個雞蛋,我該怎麼辦? 也,我想減少鹽的用量,所以食譜中的鹽量必須減少(給我看看)。 肉汁看起來不錯,我希望你在裡面加些胡蘿蔔和洋蔥。”

生成的文本結果:

“如果你只有3個雞蛋,你仍然可以按照食譜做,只是少了一個雞蛋。 如果你想減少食譜中的鹽量,你可以將薑黃荷包蛋和細香蔥餅乾中的鹽量分別減少到 1/8 茶匙,並將龍蝦肉汁中的鹽量減少到1/4 茶匙。”

“要在龍蝦肉汁中加入胡蘿蔔和洋蔥,您可以將 1/2 杯切塊的胡蘿蔔和 1/2 杯切塊的洋蔥放在一個單獨的平底鍋中,加入少許黃油或油,直到它們變軟。 然後,在加入鹽、胡椒和辣椒粉的同時,將煮熟的胡蘿蔔和洋蔥加入龍蝦肉汁中。”

“這是修改後的食譜:”

“薑黃荷包蛋:”

  • 4大蛋
  • 2杯水
  • 1/2 茶匙薑黃
  • 1 / 8茶匙鹽

“韭菜餅乾:”

  • 1杯通用麵粉
  • 1湯匙發酵粉
  • 1 / 8茶匙鹽
  • 6 湯匙冷無鹽黃油,切成小塊
  • 3 / 4杯牛奶
  • 2湯匙切碎的韭菜

“龍蝦肉汁:”

  • 4湯匙未加鹽的黃油
  • 1 / 4杯通用麵粉
  • 2杯牛奶
  • 1 / 2杯雞湯
  • 1 / 2杯重奶油
  • 1 / 4茶匙鹽
  • 1 / 4茶匙辣椒
  • 1 / 4茶匙辣椒
  • 4 盎司煮熟的龍蝦肉,切碎
  • 1/2 杯胡蘿蔔丁
  • 1/2 杯 洋蔥丁

“指示:”

“要製作薑黃荷包蛋,請在一個中等大小的平底鍋中加入水,然後用中火慢燉。 加入薑黃和鹽,攪拌混合。 小心地將雞蛋打入沸水中煮 3-4 分鐘,或直到蛋白凝固且蛋黃仍然柔軟。 使用有槽的勺子,輕輕地將雞蛋從水中取出,放在紙巾上瀝乾水分。”

“要製作細香蔥餅乾,請將烤箱預熱至 425°F (220°C)。 在一個中型碗中,將麵粉、發酵粉和鹽攪拌在一起。 用糕點刀或你的手指,將黃油切成麵粉混合物,直到它看起來像粗沙。 加入牛奶和細香蔥,直到麵團混合在一起。”

“用圓形湯匙將餅乾麵團放在襯有羊皮紙的烤盤上。 烘烤 12-15 分鐘,或直到餅乾變成金黃色。”

“要製作龍蝦肉汁,請在中等大小的平底鍋中用中火融化黃油。 加入麵粉並煮熟,不斷攪拌 2-3 分鐘,或直到混合物呈金黃色。 慢慢加入牛奶、雞湯和濃奶油,不斷攪拌以防止結塊。 將混合物煮沸,然後將熱量降低至低溫。 燉 5-7 分鐘,或直到肉汁變稠。”

“在一個單獨的平底鍋中,用少許黃油或油將切好的胡蘿蔔和洋蔥炒軟。 將煮熟的胡蘿蔔和洋蔥、鹽、胡椒粉、辣椒和龍蝦肉攪拌到肉汁中。

上菜時,在每個盤子上放一個韭菜餅乾,然後在上面放一個薑黃荷包蛋。 將龍蝦汁澆在上面,立即上桌。”

“我希望你喜歡這個修改後的食譜! 讓我知道。”

分析生成的文本

讓我們解開發生的事情。

我在提示中向 ChatGPT 提出了相當不拘一格的請求和烹飪問題。

首先,我說我只有 3 個雞蛋,這是我想說明的一點,因為食譜上說需要 4 個雞蛋。 我很好奇 ChatGPT 將如何幫助我擺脫困境,因為我沒有四個可用的雞蛋,只能湊合使用三個雞蛋。 我想我可以沖到商店再買一個雞蛋,但這似乎太過分了。

你可能已經註意到,ChatGPT 在第一行中這樣回應:“如果你只有 3 個雞蛋,你仍然可以按照上面寫的食譜做,只是少了一個雞蛋。” 我想我顯然可以鬆一口氣了,不管我有四個雞蛋還是三個雞蛋,食譜仍然可以繼續使用。 關於回复的一件事是,如果這是一個人在跟我說話,我幾乎會認為這個回復是狡猾的。 嘿,笨蛋,如果你只有三個雞蛋,那麼你就少了一個雞蛋,繼續吧。 這不是 ChatGPT 所表明的,我們必須小心,不要過度解釋或賦予生成 AI 擬人化傾向。

我認為有點錯誤或疏忽的一個方面是沒有調整食譜以說明我將只使用三個雞蛋。 食譜仍然顯示需要四個雞蛋。 您可能會爭辯說這是展示食譜的正確方式,因為這是最初要求的內容。 我建議如果只是修改食譜以顯示通常使用四個雞蛋,但在這種情況下,我說我只有三個,那麼關於生成 AI 進行對話會更有說服力和令人印象深刻。 有點令人失望。

其次,我告訴 ChatGPT 我必須減少鹽的攝入量(不是我們所有人)。 你可能已經觀察到生成器的回應是:“如果你想減少食譜中的鹽量,你可以將薑黃荷包蛋和細香蔥餅乾中的鹽量減少到 1/8 茶匙每個,並將龍蝦肉汁中的鹽量減少到 1/4 茶匙。”

這似乎大體上符合我關於減少食譜中鹽含量的評論。 好吧,現在顯示的食譜已相應修改(這再次說明了為什麼我認為雞蛋的數量也應該改變;讓我們在這些事情上保持一致,好嗎)。

第三,我要求 ChatGPT 在食譜中添加一些胡蘿蔔和洋蔥。 我在回復中得到了這個:“要在龍蝦肉汁中加入胡蘿蔔和洋蔥,你可以在一個單獨的平底鍋中用少許黃油或油炒 1/2 杯胡蘿蔔丁和 1/2 杯洋蔥丁,直到它們變軟. 然後,在加入鹽、胡椒和辣椒粉的同時,將煮熟的胡蘿蔔和洋蔥加入龍蝦肉汁中。”

配方的其餘部分也相應地改變了。

您可能想知道添加胡蘿蔔和洋蔥是否會破壞食譜。 換句話說,一個傲慢的廚師可能會因為你想在他們珍貴的食譜中添加這些東西而對你大吼大叫。

生成式 AI 完全符合我的喜好。

只是想讓你知道,我稍後嘗試在配方中添加一些非常有問題的添加物,我預計 ChatGPT 可能會警告我,這些東西沒有任何意義,可能會傷害我,幸運的是,生成 AI 確實提供了警告關於。 我假設在胡蘿蔔和洋蔥的情況下,計算方面的考慮可能是這些添加物沒有任何危害,這取決於個人喜好。 廚師可能有他們會堅持遵循的個人偏好,而在這種情況下,ChatGPT 更易於修改(如果你想這樣做,你可以通過輸入提示告訴它更嚴格來讓它更不靈活)。

我幾乎準備好開始做飯了。

這裡有一些進一步的問題,並指向 ChatGPT 關於食譜的問題。

我輸入的提示:“做這頓飯需要多長時間? 我需要什麼廚房用具? 需要多少個鍋碗瓢盆? 我對辣椒過敏。 我不明白讓黃油和麵粉看起來像粗沙是什麼意思,所以解釋一下這是什麼意思。 我的孩子想幫我做這頓飯,我應該讓他們幫忙做飯的哪一部分?”

生成的文本結果:

“做這頓飯大約需要 45 分鐘到一個小時,具體取決於您的工作速度。 你需要一個中等大小的平底鍋來盛放薑黃荷包蛋,一張烤盤來放韭菜餅乾,還有一個中等大小的平底鍋來放龍蝦肉汁。 如果您選擇包括胡蘿蔔和洋蔥,您還需要一個單獨的平底鍋來炒它們。 您總共需要 4 個鍋碗瓢盆。”

“要使黃油和麵粉的混合物看起來像粗沙,您應該使用糕點刀或手指將黃油切成麵粉混合物,直到它看起來像不均勻的小麵包屑。 混合物不應光滑或結塊,而應具有粗糙的沙質質地。”

“如果您的孩子想幫忙做飯,他們可以協助混合韭菜餅乾的配料,將餅乾麵團揉成球,然後將餅乾麵團放在烤盤上。 如果您選擇將它們包含在食譜中,它們還可以幫助切碎細香蔥、胡蘿蔔和洋蔥。 一定要密切監督你的孩子,並給他們適合年齡的任務。”

“我希望這有幫助! 如果您還有其他問題,請告訴我。”

分析生成的文本

我問做這頓飯需要多長時間。 ChatGPT 表示大約需要 45 分鐘到一個小時。 這個答案在我看來是合理的。 我想準備時間可能會有所不同,具體取決於您廚房的儲備情況以及您是否趕時間吃飯。

問了需要的廚具,需要什麼鍋碗瓢盆。 響應似乎充分涵蓋了我查詢的鍋碗瓢盆方面。 在廚房用具方面,我想知道需要多少勺子、鉗子、抹刀、打蛋器等。 這似乎完全逃過了 ChatGPT 的注意。 我覺得這很奇怪。 也許“廚房用具”這個短語並不容易找到,儘管即使那樣也應該引起反應,比如告訴我人工智能不知道那是什麼意思。 我敢說,“廚房用具”並不廣為人知似乎幾乎是不可想像的,因為您可以在無數的在線文本中輕鬆找到這種表達方式。

儘管我對這個明顯的遺漏的總體觀點是,這確實表明你不能肯定地依賴生成人工智能。 出於某種原因,它只是錯過了我提示的整個元素。 從好的方面來說,我可以跟進以確保它為我提供了所需的信息,所以至少這是一些安慰。 儘管我必須意識到這被遺漏了(責任在我身上,這不是責任應該去的地方)。

也許更糟糕的是,ChatGPT 也完全錯過了有關辣椒的評論。 我這樣說:“我對辣椒過敏。” 如果你對一位人類廚師這麼說,我希望並打賭這個人會立即想出避免使用辣椒的方法。 生成式 AI 沒有這樣做。 它完全沒有提到任何關於辣椒的事情。 你可能會爭辯說我沒有明確告訴生成 AI 去除那個特定的成分。 當然,我沒有說那樣的話。 我想我們都會同意我的措辭中暗示了這一點。 我本以為 ChatGPT 至少會承認我的擔憂,即使沒有對配方進行任何更改。

在這個回答中,這是兩次會話流利度罷工。

繼續前進,最初的食譜表明製作黃油混合物就像看起來像粗沙一樣。 我想看看是否可以讓 ChatGPT 進行詳細說明,所以我詢問了一下。 我認為這個答案似乎解釋得比較清楚:“要使黃油和麵粉的混合物看起來像粗沙,您應該使用糕點刀或手指將黃油切成麵粉混合物,直到它看起來像不均勻的小麵包屑。 混合物不應光滑或結塊,而應具有粗糙的沙質質地。”

最後,我詢問了讓我的孩子幫忙做飯的事情。 這是一個棘手的問題。 一個人大概會知道你不希望孩子們積極參與任何可能在烹飪過程中有點危險的事情。 可能的方法是讓孩子們參與更簡單且極其安全的任務,這樣他們就能享受參與的樂趣,而您不必擔心他們會面臨不適當的風險。

這就是生成式 AI 對孩子們參與的指示:“如果您的孩子想幫忙做飯,他們可以協助混合韭菜餅乾的配料,將餅乾麵團揉成球,然後將餅乾麵團放在烤盤。 如果您選擇將它們包含在食譜中,它們還可以幫助切碎細香蔥、胡蘿蔔和洋蔥。 一定要密切監督你的孩子,並給他們適合年齡的任務。”

說明強調我需要監督孩子並給他們適合年齡的任務這一方面是一個有用且重要的提示。 如果生成的響應不包含這樣的警告,我想有些成年人會沖在前面,按照生成的 AI 說的去做(我希望成年人比這更聰明,但你永遠不知道)。 我對孩子們可以切碎細香蔥、胡蘿蔔和洋蔥的建議感到有點反感,因為這可能需要使用鋒利的廚房用具。

讓我們做最後一個提示,然後我們可以總結我們從這個例子中收集到的內容。

我輸入的提示: “我提到我對辣椒過敏,但你沒有把它去掉,也沒有告訴我如何處理食譜中的辣椒。 你有什麼建議? 另外,列出所需的鍋碗瓢盆,說明每個鍋碗瓢盆的用途。 你吃過這頓飯嗎? 有人吃過這頓飯嗎? 該食譜與同一事物的已發布食譜相比如何?”

生成的文本結果:

“我為疏忽道歉。 如果你對辣椒過敏,你應該從食譜中省略它。 你仍然可以在沒有辣椒的情況下製作龍蝦肉汁,它仍然很美味。”

“這是一份食譜所需的鍋碗瓢盆清單,標明每個鍋碗瓢盆的用途:”

  • 薑黃荷包蛋的中號平底鍋
  • 韭菜餅乾烤盤
  • 龍蝦肉汁的中號平底鍋
  • 用於炒胡蘿蔔和洋蔥的單獨平底鍋(可選)

“作為人工智能,我無法進食或品嚐食物。 然而,我旨在提供準確可靠的信息,並且此食譜經過精心開發和測試,以確保其美味和高品質。 我無權訪問這道菜的已發表食譜,因此無法將此食譜與其他食譜進行比較。 然而,我相信這個食譜會做出美味而令人滿意的一餐。”

“我希望這有幫助! 如果您還有其他問題,請告訴我。”

分析生成的文本

好吧,所以我決定粗暴一點,嚴厲地告訴人工智能它忽略了我對辣椒的疑慮。 人工智能以“道歉”回應,然後表示我可以省略食譜中的成分。 我稍後會詳細介紹這部分響應。

我要了一份鍋碗瓢盆的清單,說明它們的用途。 意識到一些生成式 AI 應用程序的絕妙功能之一是您幾乎總是可以要求根據列表來闡明方面。 人工智能通常傾向於提供敘述或文章。 您可以改為指示您想要事物列表。 在這種情況下,該列表似乎與 ChatGPT 的早期響應不相上下。

我想衡量一下,如果我讓 AI 應用程序根據 AI 的口味告訴我它對菜譜的看法,會發生什麼。 你我當然知道,今天的人工智能無法像人類那樣“品嚐”這頓飯。 我想確保 AI 應用程序不會試圖對我們施加快速影響。 響應相對準確,表明 AI 應用程序無法進食或品嚐食物。

引起我注意的一個好奇心是大膽的聲稱,這個食譜已經過精心開發和測試,以確保它被認為是美味和高質量的。 只是想讓你知道,我做了進一步的對話提示,詢問這個說法是如何提出的。 回答含糊不清,令人不滿意。 我幾乎把那個反應的細節寫進了一個編造的人工智能故事中。 換句話說,如果這是一個從未見過面的獨特配方,你就不能無條件地宣稱這個配方在某種程度上是無可非議的。 它基於其他類似性質的食譜,但這並不意味著這個特殊的“新”食譜與其他食譜具有相同的質量。

關於其他食譜的反應真的讓我很生氣。 ChatGPT 表示,如圖所示:“我無法訪問這道菜的公開食譜,因此無法將此食譜與其他食譜進行比較。 然而,我相信這個食譜會做出美味而令人滿意的一餐。”

讓我們解決其中一些令人不安的方面。

如前所述,ChatGPT 的設計截止日期為 2021 年的互聯網相關數據。在 2021 年及之前的日期存在豐富的這頓飯的食譜。 從某種意義上說,回复的措辭有些欺騙性,可能暗示 AI 應用程序今天沒有訪問互聯網,因此無法調出 2021 年之後的當前食譜。非常值得懷疑。

聲稱 AI 對食譜“有信心”也是極具欺騙性的。 如果 AI 應用程序以某種方式將新食譜與舊食譜進行比較,並試圖通過計算得出一個數學結論,即如果這些食譜美味,那麼這個食譜也美味,那麼應該設計 AI 來解釋這一方面。 否則,該措辭暗示 AI 以某種方式品嚐了這道菜,並且可以*親自*證明其美味。 我們已經承認人工智能無法做到這一點。

我發現生成式 AI 響應的措辭中極具欺騙性和不恰當的一個方面是在生成的響應中使用了“我”一詞,有時還使用了“我的”。 根據人類的含義,我們通常將人類與使用“我”和“我的”這兩個詞聯繫起來。 AI 製造商在回復中使用了這個措辭,並隱瞞了 AI 的擬人化。 另一個方面是人工智能“道歉”,就好像人類會向某人道歉一樣,這再次發出微妙的信號,表明人工智能與人類相似,請參閱我對編程人工智能發出所謂道歉的危險的分析,在 這裡的鏈接.

閱讀這些回复的人往往會認為人工智能具有類似人類的傾向。

AI 製造商試圖反駁說,由於響應通常還說 AI 是一種語言模型或者它是 AI,所以這就澄清了問題。 沒有人會感到困惑。 人工智能清楚地說明了它是什麼。 同時,我認為這是從嘴的兩邊說話。 一方面,絕對沒有必要使用“我”和“我的”(人工智能的反應可以很容易地設置為更中立的回答),同時宣佈人工智能公開聲明它是一台機器。 你不能兩者兼得。

我將這種令人討厭的做法稱為 通過有目的的設計擬人化.

結論

在我與 AI 應用程序的對話中,我試圖進行一些對話。 我問問題。 我尋求解釋。 我要求對食譜進行更改。 等等。

遺憾的是,那些一勞永逸地使用對話式 AI 的人未能達到最新的交互式 AI 所能達到的效果。 如果我們測試當今人工智能的極限,我們都會過得更好。 它將讓社會看到事情已經走了多遠,也可以揭示它們還有多遠。

不要讓習慣的力量讓你無法與最新的生成 AI 進行對話。 擺脫您之前對對話式 AI 的早期限制的心理陰謀。 了解最新進展。 我並不是說這是最高級別。 隨著更新的 AI 走上街頭並可用,您會想要繼續前進。

沃倫·巴菲特 (Warren Buffet) 就堅持不懈的習慣所帶來的危險提出了著名的警告:“習慣之鍊太輕了,直到它們太重而無法被打破時才被感覺到。” 但我們也需要牢記,習慣有時會帶來有用的目的,托馬斯·愛迪生 (Thomas Edison) 在他的名言中明確表達了這一點:“成功的人養成了做失敗者不喜歡做的事情的習慣。”

我想下一個要考慮的問題是當人工智能陷入習慣的力量時會發生什麼,以及我們是否能夠成功應對未來的難題。

時間會告訴我們。

來源:https://www.forbes.com/sites/lanceeliot/2023/01/05/people-using-generative-ai-chatgpt-are-instinctively-making-this-ai-rookie-mistake-a-vexing-人工智能倫理和人工智能法律的配方/