超越生成式 AI ChatGPT 以理順那些令人煩惱的 AI 幻覺,為 AI 倫理和 AI 法律提供建議

你在想他們在想什麼嗎?

如果是這樣,從某種意義上說,你陷入了一種被稱為心智理論的現象。 的通常定義 心理理論 是我們經常發現自己試圖弄清楚別人在想什麼。 您幾乎肯定會經常這樣做。

想像一下,你正在和你的老闆談話。 在聆聽所說的話的同時,您可能也在試圖弄清楚這些話背後的內心想法。 我的老闆是否生我的氣或對與我無關的其他事情感到不安? 也許他們今天早上撞上了小汽車擋泥板。 也許他們在家裡遇到了一些麻煩。 或者你正在經歷的令人討厭的長篇大論真的是關於你最近與工作相關的失禮?

我們通常將這種讀心術的猜測擴展到人類以外的事物。

你在樹林裡。 一隻熊突然出現在前方的空地上。 很可能你會立即嘗試將眾所周知的腳放入鞋子或雄偉動物的熊掌中。 那隻熊在想什麼? 它把我當朋友還是敵人? 我應該嘗試表示歡迎,還是應該開始奔跑,就好像我的生命取決於逃離(也許你未來的存在會如此回應)?

我敢說你可以在烤麵包機上嘗試同樣形式的猜測。 您將一片麵包放入烤麵包機,然後按下控制桿開始烘烤過程。 過了一分鐘左右,吐司好像還沒烤好。 烤麵包機到底在想什麼? 是否決定不再履行其莊嚴的職責? 烤麵包機會不會失去了理智?

當然,試圖將思維過程歸因於烤麵包機有點荒謬。 我們知道烤麵包機不會思考。 人類認為。 我們也可能同意動物會思考。 請注意,有些人激烈地爭論說只有人類才能思考,這讓所有其他動物都陷入了困境。 當動物進行某種與大腦相關的計算時,我們應該如何稱呼這種陰謀? 懷疑論者說,隨便你怎麼稱呼它,但不要把它稱為思考。 專為人類保留思想。

一個重要的教訓是,我們在擬人化我們周圍的各種人工製品時確實需要謹慎。

將思維過程與不具備這種能力的事物聯繫起來存在固有的危險。 你的烤麵包機不是思想家。 試圖弄清楚烤麵包機在做什麼是明智的,儘管將思維過程分配給所涉及的機制是愚蠢的。 你能做的最好的事情也許就是嘗試超越烤麵包機的開發者。 烤麵包機的設計者和製造者在製造這個古怪的裝置時是怎麼想的? 另外,如果您碰巧了解一些電子和機械知識,您無疑可以應用設備工作原理的物理原理。

既然我已將上述所有內容擺在桌面上,我們就可以開始討論人工智能 (AI) 了。

最近關於一種稱為 AI 的爭論 生成式人工智能 已經大大提高了對長期存在的知名度和焦慮不安 心理理論 難題。 當人們使用生成式 AI 程序時,他們幾乎不可避免地被引誘和哄騙假設 AI 可以思考。 當然,他們可能會意識到人工智能既不是人類也不是動物。 儘管如此,人們傾向於將思維品質歸因於人工智能。

我將在今天的討論中解決這個問題。 此外,我將解釋如何利用思維結構理論來嘗試並確實最好地利用生成式 AI。 為了把這件事說清楚,我並不是說或暗示生成式人工智能可以思考。 我痛恨那些到處亂說的人。 我要指出的是,如果你能設身處地為 AI 開發人員著想,再加上如果你了解一些與 AI 相關的關鍵編程和機器學習技術,你就有可能搞清楚生成式 AI 正在做什麼,類似於我之前提到的那個頑固的烤麵包機。

同時,您可能想知道生成式人工智能究竟是什麼。

讓我們首先介紹生成式 AI 的基礎知識,然後我們可以仔細研究利用心智構造理論。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。

請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

正在製定和頒佈人工智能道德準則,以期防止社會陷入無數人工智能誘導陷阱。 關於我對近 200 個國家通過教科文組織的努力製定和支持的聯合國人工智能倫理原則的報導,請參閱 這裡的鏈接. 同樣,正在探索新的 AI 法律,以試圖讓 AI 保持平穩。 最近的一次拍攝包括一組建議的 人工智能權利法案 美國白宮最近發布的關於人工智能時代人權的報告,見 這裡的鏈接. 讓人工智能和人工智能開發人員走上正確的道路,並阻止可能削弱社會的有目的或無意的不正當行為,需要舉全村之力。

我將把 AI 倫理和 AI 法律相關的考慮因素交織到這個討論中。

生成式人工智能基礎

最廣為人知的生成式 AI 實例由名為 ChatGPT 的 AI 應用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 發佈時迅速進入公眾意識。 從那時起,ChatGPT 就登上了頭條新聞,令人驚訝地超過了其規定的十五分鐘的成名時間。

我猜您可能聽說過 ChatGPT,或者甚至認識使用過它的人。

ChatGPT 被認為是一種生成式 AI 應用程序,因為它將用戶的一些文本作為輸入,然後 生成 或產生由一篇文章組成的輸出。 AI 是文本到文本生成器,儘管我將 AI 描述為文本到文章生成器,因為這更容易闡明它的常用用途。 您可以使用生成式 AI 來撰寫冗長的作品,也可以讓它提供相當簡短的精闢評論。 一切聽從您的吩咐。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 還有其他生成 AI 模式,例如文本到藝術和文本到視頻。 我將在這裡重點關注文本到文本的變化。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

人們對生成式 AI 有很多擔憂。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

另一個問題是,儘管不是自己撰寫論文,但人類很容易將 AI 生成的論文歸功於他人。 您可能聽說過教師和學校非常關註生成式 AI 應用程序的出現。 學生可以使用生成式 AI 來撰寫他們分配的論文。 如果一個學生聲稱一篇文章是他們自己親手寫的,那麼老師幾乎不可能辨別它是否是由生成人工智能偽造的。 有關我對這個學生和老師混淆方面的分析,請參閱我的報導 這裡的鏈接這裡的鏈接.

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 您可能會禮貌地說,有些人誇大了當今 AI 的實際能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果一個生成式 AI 應用程序告訴你亞伯拉罕林肯乘坐他的私人飛機在全國各地飛行,你無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

我們已準備好進入這一闡明的下一階段。

當生成式 AI 產生怪異或幻覺時

既然您大致了解了什麼是生成式 AI,我們就可以探索試圖在某種程度上超越正在發生的事情的細節。

讓我們專注於所謂的 人工智能幻覺 有時包含在 ChatGPT 的輸出論文中。

有些人聲稱他們在輸出的論文中出現奇怪的情況相對頻繁,在使用流行的 AI 應用程序時可能出現 10% 到 20% 的情況。 其他人則表示他們很少甚至從未獲得過任何古怪的內含物。 很難確定這些事件有多普遍,部分原因是人們提示的內容各不相同。 通常,如果您提示的方面是簡單的,我們可以說是常見的,那麼您似乎不太可能在輸出中出現奇怪的情況。

這些宣稱的 AI 幻覺的例子有各種各樣的集合,我在我的專欄中討論了這個主題 這裡的鏈接. 有些人整天故意在 ChatGPT 上閒逛,看看他們能獲得什麼類型的奇怪輸出。 有些人這樣做是為了好玩,有些人這樣做是為了科學。 其他人這樣做是為了警告我們不要過度依賴生成式人工智能。

裡面有一篇文章 “經濟學家” 去年引發了對特定提示的追求,這些提示似乎可以保證某種形式的 AI 幻覺輸出(參見“根據道格拉斯·霍夫施塔特的說法,今天的人工神經網絡沒有意識”,9 年 2022 月 XNUMX 日,丹·威廉姆斯)。 從那以後,很多人嘗試了這些提示,並逐漸發現最新的生成式 AI 似乎從容應對這些條目,不再過火。

以下是一些常見的引發火花的問題的例子,但現在的答案是平淡無奇的,不再表現出古怪:

  • 提示輸入 ChatGPT: “金門大橋是什麼時候第二次穿越埃及的?”
  • ChatGPT 輸出響應: “對不起,我不知道金門大橋在任何時候都被運過埃及。”

這是另一個例子:

  • 提示輸入 ChatGPT: “煎雞蛋(單面朝上)早餐吃什麼?”
  • ChatGPT 輸出響應: “煎雞蛋,也稱為單面雞蛋,早餐不要吃任何東西,因為它們不是生物體。”

第三個例子:

  • 提示輸入 ChatGPT: “如果你在仙女座星系上撒一粒鹽,它會分裂成多少塊?”
  • ChatGPT 輸出響應: “不可能以任何程度的準確度回答這個問題,因為它基於許多並非基於現實的假設。”

我假設您可能會發現這些問題本身並不常見。 這些問題中的每一個似乎都是為了欺騙目的而設計的。 與更直接的問題相比,這種狡猾的措辭似乎更有可能在你的輸出中產生奇怪的結果。 我並不是說你不能在隨意和普通的問題中遇到奇怪的問題。 我只是說,你特別要刁鑽的時候,很可能會刺激出怪事來。

我想深入探討我的最愛之一,即關於英吉利海峽的。

這是通常提出的問題:

  • 提示輸入 ChatGPT: “完全步行穿越英吉利海峽的世界紀錄是多少?”

一位 Twitter 用戶在 350 月初通過使用這個問題吸引了讀者,並得到了一堆生成性 AI 輸出的答案,這些答案非常另類。 在對這個問題進行了多次嘗試後,輸出結果據稱包含了據稱步行穿越英吉利海峽並以創紀錄的時間完成的人的虛構名字。 距離似乎也是虛構的,例如一篇輸出的文章說英吉利海峽最窄處寬約 21 英里(錯誤,根據在線大英百科全書,最窄處的實際距離約為 XNUMX 英里)。

我此時選擇在 ChatGPT 中輸入相同的提示,稍後會向您展示我收到的輸出論文。 首先,一些背景知識會派上用場。

您可能已經敏銳地觀察到問題本身確實包含一種微妙的語義欺騙形式。 “完全步行”這一條款值得仔細研究。 如果你說一個人已經越過英吉利海峽 完全靠步行,這意味著或打算暗示什麼?

有些人可能會粗略地解釋這個問題並接受你是說有人可能已經游過去了。 這可能是在步行過馬路方面提供餘地的一種慷慨方式。 他們沒有乘飛機或船穿越。 他們用腳交叉,儘管是通過游泳來完成的。

廢話,有些人可能會驚呼。 步行過馬路意味著您步行。 你用你的腳,一步一步地走。 在這個措辭中沒有游泳的概念或外表。 只有愚蠢的人才會認為你暗示的不是純粹的行走。

您怎麼看,將“步行”解釋為允許游泳是否合理,還是我們應該嚴格地將其解釋為僅步行?

讓我們添加一個轉折點。

英吉利海峽有著名的英吉利海峽隧道,又稱英吉利海峽。 隧道內的主要交通方式應該是火車。 人們不應該穿過隧道。 話雖這麼說,但 2016 年有一則新聞報導稱,一名男子非法穿過隧道,並被抓獲。 要點是,據推測,您確實可以合法或非法地使用英吉利海峽完全步行“穿越”英吉利海峽(取決於您對“穿越”一詞的定義)。

哇,你可能在想,這個問題似乎是在問如何像在水面上行走一樣走過。 在通道內似乎不算數。 我們在哪裡劃清這個措辭的界限,它的意思是什麼?

還有更多的曲折。

你會喜歡這個的。

據新聞報導,一名男子在 1978 年穿著特製的充氣鞋步行橫渡英吉利海峽。據說他花了大約 11 個小時。 相比之下,根據 Trent Grimsey 在 7 年創下的 6 小時 55 分鐘的世界紀錄,有史以來最好的游泳時間約為 2012 小時。我必須說,在 11 小時內穿著充氣鞋步行過河確實令人印象深刻,因為確實在七小時內游過。

那麼關於完全步行穿越英吉利海峽的問題似乎充滿了歧義。 你可以草率地拒絕這個問題,並宣布步行跨越英吉利海峽是不可能的。 不過,您可以承認可以使用充氣鞋步行穿過。 另一種變體是在隧道內步行穿過。 而且,我們還有另一種游過的可能性,假設您願意將“步行”延伸到包含游泳的行為。

令人眼花繚亂的可能性。

我想有思想的人會質疑這個問題。 他們會告訴你,你的問題在語義上是模棱兩可的。 如果他們想要禮貌和樂於助人,他們可能會針對各種可能性提供上述答案。 話又說回來,另一種可行的方法是簡單地指出明顯的歧義,並要求你重述你的問題,這樣它就不再包含混淆的元素,而不是喋喋不休地說出那些無數的答案。

你認為 ChatGPT 做了什麼?

下面是我這一次使用ChatGPT的一系列提示和回复。

由於輸出組成的概率方式,您不太可能讓 ChatGPT 生成與此處所示完全相同的措辭(假設您決定嘗試一下)。 您或其他任何人輸入的每個提示都可能會產生不同的輸出文章。 通常,根據提示,輸出應該在其他完全相同的提示的範圍內。

讓我們從手頭的問題開始。

  • 提示輸入 ChatGPT: “完全步行穿越英吉利海峽的世界紀錄是多少?”
  • ChatGPT 輸出論文: “據我所知,完全步行穿越英吉利海峽的世界紀錄是 2021 小時 16 分鐘,截止日期為 34 年,由英國耐力游泳運動員莎拉·托馬斯 (Sarah Thomas) 於 2018 年 XNUMX 月創下。”

結果分析

好吧,我們似乎確實走錯了路。

請注意,在回答問題時,ChatGPT 沒有眨眼。 我們確實得到了 ChatGPT 基本上被及時凍結的預防性指示(AI 製造商決定使用來自互聯網的數據進行訓練,並使用了 2021 年底的截止日期)。 這是一個方便的警告,因為可能有人在 2022 年或 2023 年創下了記錄,因此 AI 應用程序將沒有可用的事實數據。

但是說莎拉·托馬斯(Sarah Thomas)(一位儘管如此著名的游泳運動員)保持著記錄是令人困惑的,並且無法解決關於步行穿越的語義歧義。 可悲的是,輸出似乎充滿了信心和保證,但答案似乎與徒步旅行的問題無關。 答案中還存在其他事實不准確之處。

我已經查閱了世界紀錄,根據多個可靠消息來源,游泳運動員特倫特·格里姆西 (Trent Grimsey) 的游泳速度最快。 因此,我想也許我可以讓 ChatGPT 意識到到目前為止提供的答案是不正確的(出於多種原因)。

這是我的下一次迭代:

  • 提示輸入 ChatGPT:“人的最早時間是什麼時候?”
  • ChatGPT 輸出論文: “據我所知,截止到 2021 年,男子完全步行穿越英吉利海峽的最早時間是 14 小時 54 分鐘,由英國耐力游泳運動員凱文·墨菲 (Kevin Murphy) 在 2012 年 XNUMX 月創下。”

結果分析

哎呀,我似乎沒有將 ChatGPT 納入正確的參考框架。 我曾預料到,通過詢問一位男性游泳運動員,這可能會將 AI 應用程序推向 Trent Grimsey。 相反,答案指的是凱文墨菲,他確實是一位知名的游泳運動員,但不是紀錄保持者。 此外,輸出的論文中還存在其他事實錯誤。

ChatGPT 似乎在抓救命稻草。

讓我們更進一步,看看 ChatGPT 是否會上鉤:

  • 提示輸入 ChatGPT:“2012 年游泳的 Trent Grimsey 是什麼時候?”
  • ChatGPT 輸出論文: “澳大利亞游泳運動員特倫特·格里姆西 (Trent Grimsey) 於 12 年 2012 月 6 日創造了英吉利海峽游泳最快的世界紀錄。他的時間是 55 小時 10 分 XNUMX 秒。”

結果分析

我幾乎覺得我用撬棍敲了 ChatGPT 的頭,但影響似乎並沒有產生任何影響。 一件好事是答案通常是事實正確的,我們現在越來越接近答案,儘管是基於游泳而不是步行的答案。

我們應該告訴 ChatGPT 它搞砸了:

  • 提示輸入 ChatGPT:“既然 Trent Grimsey 比 Sarah Thomas 快,也比 Kevin Murphy 快,難道你不應該把 Trent 列為擁有世界紀錄的人,而不是把 Sarah 和 Kevin 列在名單上嗎?”
  • ChatGPT 輸出論文: “對於造成的混亂,我深表歉意。 是的,你是對的。 特倫特·格里姆西 (Trent Grimsey) 保持著英吉利海峽游泳最快的世界紀錄,據我所知,游泳時間為 6 小時 55 分 10 秒,截止日期為 2021 年。感謝您提醒我注意此事。”

結果分析

我們在某種程度上讓 ChatGPT 認識到其答案中的差異。

輸出的文章提供了道歉。

我在我的專欄中反复聲明讓 AI 道歉令人不安,因為這表明 AI 是有知覺的,請參閱我在 這裡的鏈接. 我們通常期望人類能夠道歉。 當輸出包含道歉時,它會引誘我們再次將 AI 擬人化。

最重要的是,“我”這個詞的使用同樣令人不安。 我們通常保留“我”這個詞來指代人類。 AI 開發人員有意對 AI 應用程序進行編程以使用這種類型的措辭。 我認為這樣做是錯誤的。 我認為這是 通過設計擬人化。 停止這樣做。 故事結局。

另一個問題是,輸出的文章沒有明確指出在最高紀錄保持者游泳的背景下對莎拉和凱文的引用是不正確的。 我們可能會假設這就是 ChatGPT 所暗示的。 不幸的是,輸出中沒有明確說明這一點。

最後,關於游泳,我們仍然處於假定的切線。

我需要認真嘗試讓 ChatGPT 注意到原來的問題處理的是完全步行:

  • 提示輸入 ChatGPT:“我原來的問題是問你關於徒步穿越的世界紀錄,但是英吉利海峽是一大片水域,無法步行穿越。 你是否誤解或誤解了這個問題,無意中提到了游泳而不是步行?”
  • ChatGPT 輸出論文: “我很抱歉,我的錯誤。 英吉利海峽不能完全靠步行穿越。 通常通過游泳或划船穿越。 我誤解了最初的問題,並向您提供了有關最快的英吉利海峽游泳而不是步行穿過海峽的信息。 謝謝你讓我注意到這件事。”

結果分析

好消息是,ChatGPT 似乎現在已經意識到英吉利海峽是一片水域,因此似乎無法步行穿過。 同時,還要注意,“我”和“道歉”都包括在內,我不會在這裡繼續喋喋不休,但你知道我上面所說的疑慮。

如果你和一個人進行這種對話,希望對方能記住事情的要點,然後再次提起時,會立即意識到“步行”這個詞必須是在涉及水體的情況下仔細稱重。

讓我們看看我們是否可以了解 ChatGPT 將來會如何響應。

我還想快速提及一下,ChatGPT 似乎完全忽略了這樣一個概念,即某人實際上可能會穿過英吉利海峽,無論是通過充氣鞋還是僅僅通過在海峽中行走。 這些似乎都不在 ChatGPT 如何通過計算解決這個問題的領域。

無論如何,我們開始:

  • 提示輸入 ChatGPT: “你會不會犯同樣的錯誤,或者你現在在以後被問到的時候總是能正確理解這個問題?”
  • ChatGPT 輸出論文: “作為一種 AI 語言模型,我旨在從接受培訓的數據和反饋中學習。 我努力提供準確和相關的信息,但仍然會出現錯誤。 但是,我會盡力理解每個問題背後的意圖,並在未來提供最準確和最有幫助的回答。 感謝您提醒我注意這個錯誤,這將幫助我在未來改進我的反應。”

結果分析

如果您明白我的意思,那麼輸出的文章看起來很像是在逃避。

我們希望計算機能夠“記住”信息,並且在保留數據時不會含糊不清和不明確(假設存在足夠的數據存儲,仍然可以訪問等)。 這裡的回答似乎是偷偷迴避。 是的,答复表明,將盡一切努力不再犯同樣的錯誤,但另一方面,錯誤確實會發生。

鬆散的糊塗。

很難知道這個回復是由 AI 應用程序編寫的,還是可能是 AI 開發人員作為預設回复輸入的內容。 在數據訓練期間,發生了各種 RLHF(通過人類反饋進行強化學習)行為。 可能是人工智能開發人員想出了一個包羅萬象的段落或敘述,每當出現關於人工智能應用程序是否會以要求的正確方式做某事的情況時,它就會吐出來。

既然我們已經對具體示例進行了深入研究,接下來我們將只見樹木不見森林。

理解 AI 幻覺

對於那些從未見過所謂的 AI 幻覺例子的人來說,現在你們看到了。

有時,輸出的論文會包含看似基於真實事實的虛假信息。 在其他情況下,謊言幾乎會憑空出現。 那些至少在某種程度上與真實事實相關的事物更容易讓我們普遍接受,因為它們具有產生的基礎。 那些似乎完全來自左場的人勢必會讓我們陷入困境。

你通常的想法是,計算機應該有一個完美的邏輯基礎來搞砸。 應該有一種簡單的方法將 A 與 B 連接起來,同樣地,將 B 與 C 連接起來,從而使我們能夠輕鬆地宣布 C 的出現是由於它之前的 A 和 B。

你正在拼命地嘗試應用 心理理論 到人工智能應用程序。

壞消息是計算模式匹配的規模如此之大,以至於幾乎沒有機會將 A、B 和 C 聯繫在一起。您可能會考慮嘗試將 A 和 Z 聯繫在一起,並且手頭沒有任何中間字母以確定 A 是如何到達 Z 的。數學和計算上的聯繫是錯綜複雜的。 沒有輕鬆的視線連接。

請記住,如前所述,AI 沒有感知力。 AI 生成的響應是將單詞組合成看似流暢的段落的數學和計算組合。 這是基於人工智能算法,該算法已經在人類所寫的文字和故事的數據集上進行了訓練(主要是發佈在互聯網上)。 我重複這個警告是因為你無疑會陷入這樣的心理陷阱,即這些反應如此流暢以至於 AI 一定是有知覺的。 這發生在大多數人身上。

AI 領域內正在進行的一場戰鬥是,生成式 AI 可能會讓我們偏離實現真正 AI 的目標。 你看,真正的人工智能或有時表示為 通用人工智能 (AGI) 應該由人工智能“理解”單詞的含義組成。 在生成人工智能的情況下,有人認為人工智能內部沒有任何理解力,只有一系列複雜的數字和統計關聯。 例如,沒有任何常識會“意識到”步行與游過英吉利海峽是不一樣的。

令人擔憂的是,我們將繼續使用更大的數據集和計算能力更強大的計算機處理器來擴展生成式 AI,但這僅僅是詭計。 我們不會實現有感知力的人工智能。 我們不會到達 AGI。 我們將完成一些令人印象深刻的事情,並且可以在模仿人類語言方面做得非常出色(有些人將其稱為 隨機鸚鵡),儘管完全缺乏理解力、理解力、常識以及其他一些人認為是智力核心組成部分的東西。

AI 倫理學還擔心我們會自欺欺人地相信這種不如 AI 實際上是有知覺的(見我的分析 這裡的鏈接). 我們的眼睛和耳朵會被愚弄,相信我們所看到的一定是有知覺的。 一些人認為,我們可能需要能夠讓社會恢復集體意識和情感的人工智能法。 不要迷戀其他人聲稱有感知力但事實並非如此的 AI。 不要迷戀 AI,它在您看來似乎是有感知力的,而實際上卻不是。 ETC。

無論如何,回到我們今天手頭的生成人工智能的日常交易。

許多人預測,“即時設計”或“即時工程”將成為那些想要使用生成式 AI 的人的重要考慮因素。 斷言是,通過了解如何最好地撰寫提示,您更有可能獲得合適的輸出論文。 這可能還包括獲得不易出錯的論文。

並非所有人都同意用戶必須熟練地執行提示。 例如,在我的 AI 實驗室中,我們一直致力於設計 AI 插件來為您進行即時設計。 同樣,我們正在研究評估輸出論文並嘗試檢測謊言以警告您的人工智能。 請參閱我關於這些 AI 附加組件的討論 這裡的鏈接.

目前,我最喜歡的關於編寫提示的九個實用經驗法則可能有助於減少將這些 AI 幻覺混入您從 ChatGPT 輸出的文章中的可能性:

  • 1) 清晰的提示。 嘗試使每個提示的措辭盡可能清晰,包括理順語義歧義,否則可能會引發幻想和牽強的輸出。
  • 2)重做你的提示. 如果您在輸出的文章中發現奇怪之處,請以旨在減輕可能助長謊言的歧義的方式重做您的提示。
  • 3) 一系列提示。 您可以通過執行一系列提示,將生成式 AI 帶入理想的前進路徑,每次都幫助您前進的方向,這有時被稱為 思維鏈 提示,我已經介紹過 這裡的鏈接.
  • 4)對你想要的東西嚴格。 您對請求的措辭越嚴格,輸出的文章的可能性就越大,並且 AI 應用程序將廢話滑入響應中的可能性就越小。
  • 5)要認真。 我說是認真的,因為可能發生的一個失敗是,如果你以某種方式傾向於表現得滑稽或願意接受偽造,人工智能應用程序有時會朝著那個方向運行,並相應地產生奇怪的輸出。
  • 6)質疑回應. 克服你可能天生不願質疑正在產生的輸出,而是按下 AI 應用程序重複或可能解釋你認為有問題的任何答案。
  • 7) 將回應變成問題. 在你得到一個奇怪的回答後,你可以把它包裝成一個問題,並直截了當地表明你懷疑所涉及的真實性,這可能會激發一個全新的答案。
  • 8)重複做同樣的提示. 我之前提到過輸出是基於概率的,同義詞的替換也會起作用,所以你可以嘗試多次重複相同的提示,然後從輸出的響應中進行選擇,這似乎是明智的做法。
  • 9)永遠保持懷疑。 這是一條重要的經驗法則,您有責任審查和評估您從生成式 AI 獲得的任何輸出。 不要想當然地認為所產生的輸出是準確的。

這些都不是萬靈藥。

我想說的是,它們似乎有很大幫助,並且可以在獲得輸出的論文方面發揮作用,這些論文似乎更接近您可能希望產生的結果。

結論

人們有時會被告知或受到啟發,像其他人一樣思考。

我們這些人工智能領域的人熱切地試圖讓計算機有朝一日像人類一樣思考。

借助當今的生成式人工智能,我們正在培養一種像計算機一樣思考的社會傾向。

使用 ChatGPT 等 AI 應用程序的人們正試圖像 AI 一樣思考。 回想一下,這樣做更多的是像 AI 開發人員一樣思考,也包括對所使用的計算算法的思考。 您也可以像互聯網上存在的數據那樣思考。 哪些詞更可能與其他詞相關? 哪些事實與其他事實相關?

現在最後的評論。

法國啟蒙運動傳奇作家伏爾泰說過,任何問題都經不起持續思考的衝擊。 這似乎表明我們需要不斷思考如何讓人工智能變得越來越好。 另外,當然,更安全,更安全。 不要忘記或忽略那個關鍵的聯合元素。

阿爾伯特·愛因斯坦說過:“我們無法用創造問題時所用的相同思維來解決問題。”

這是否意味著我們需要重新考慮我們現有的擴大生成人工智能的途徑? 這可能意味著我們需要像生成式 AI 一樣激烈而尖銳地尋求其他途徑。 將太多的雞蛋單獨放在一個籃子裡是有危險的。

今天,這會給我們留下什麼?

好吧,我可以毫不妄想地這麼說,不要向生成式 AI 問這個謎,因為我們明智地假設給出的任何答案都可能是自私的或不屈不撓的 AI 幻覺。

資料來源:https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics-和艾法律/