人們熱切地向生成式 AI ChatGPT 諮詢心理健康建議,強調 AI 倫理和 AI 法

心理健康已成為當今社會的熱門話題。

過去,關於心理健康的討論常常被掩蓋或完全掩蓋。 逐漸的文化變革導致人們公開考慮心理健康問題,並以公開承認的方式緩解了這樣做的疑慮。

你可能會把這種總體社會態度的變化歸功於易於訪問的智能手機應用程序的出現,這些應用程序有助於你的個人正念,並可能會刺激你走向心理健康。 有用於正念的應用程序、用於冥想的應用程序、用於診斷您的心理健康狀況的應用程序、用於進行心理健康檢查的應用程序等等。 存在大量的應用程序。

我們可以說智能手機應用程序公開地導致了對心理健康的開放嗎? 誠然,這是先有雞還是先有蛋的問題。 對心理健康的開放是否允許相關智能手機應用程序的出現,或者智能手機應用程序的心理健康是否推動社會朝著關注心理健康的方向發展?

也許這是一個交織的組合,需要同時發生兩個方向。

無論如何,在這種強大的組合中,出現了據說由人工智能 (AI) 提供強大支持的心理健康應用程序。 這個想法是,可以通過(大概)明智地使用人工智能來改進底層技術。 雖然心理健康應用程序的初始版本主要是基於事實的信息傳遞,就好像你正在對所述主題進行在線搜索一樣,人工智能的注入導致自動化與你進行互動對話,類似於與人類治療師等發短信(好吧,有點像我將在這裡討論和審查的那樣)。

這將我們帶到最近引起國家和國際關注的最新且引人注目的人工智能,即使用正式稱為 生成式人工智能 並通過名為 ChatGPT 的應用程序廣泛普及。 澄清一下,ChatGPT 是一個通用的 AI 交互系統,本質上是一個通用的聊天機器人,儘管如此,它仍被專門尋求收集心理健康建議的人們積極而熱切地使用(該應用程序並非為此目的而製作,但人們已經決定他們無論如何都想將它用於該角色)。

有關我最近對 ChatGPT 的報導,請參閱 這裡的鏈接 概述。 我還做了一些關於 ChatGPT 如何讓老師擔心學生可能通過使用 AI 寫論文作弊的後續行動,請參閱 這裡的鏈接,我在與聖誕老人相關的分析中做了一個季節性的觀察 這裡的鏈接.

別擔心,我將在本文中解釋什麼是生成式 AI 和 ChatGPT,只是暫時解釋一下,所以請耐心等待。

如果你看一下社交媒體,你會看到人們宣稱 ChatGPT 和生成式 AI 是自切片麵包以來最好的東西。 有人認為這實際上是有知覺的 AI(不,他們錯了!)。 其他人擔心人們正在超越自己。 他們正在看到他們想看到的東西。 他們拿了一個閃亮的新玩具,並確切地展示了為什麼我們不能擁有吸引人的新東西。

AI 倫理和 AI 法律領域的人士對這種新興趨勢清醒而嚴肅地擔憂,這是理所當然的。 我們將在此仔細研究人們如何將生成式 AI 用於並非特別適合 AI 今天真正可以實現的用途。 各種各樣的 AI 倫理和 AI 法律問題無疑都包含在整個難題中。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

首先,讓我們考慮一下心理健康的一些重要方面,以及為什麼這是一個非常重要的話題。 奠定了基礎之後,我們將快速解釋生成式 AI,尤其是 ChatGPT。 我將包括來自 ChatGPT 的示例,以便您可以親眼看到 AI 應用程序能夠產生的冗長類型。 我們將以關於這一切意味著什麼以及 AI 倫理和 AI 法律如何不可避免地介入其中的一些評論來結束本次討論。

係好安全帶,享受一段美好的旅程。

心理健康是一個重要且日益增長的社會問題

根據各種已公佈的統計數據,今天的心理健康狀況籠罩著一片陰雲密布。 我不想顯得悶悶不樂,但我們不妨正視我們面臨的現實。 把頭埋在沙子裡是行不通的。 我們最好睜大眼睛並願意解決棘手的問題來處理這個問題。

以下是一個著名的心理健康組織收集的關於美國人和心理健康狀況的一些值得注意的統計數據(每 美國心理健康, “2023 年的主要發現”):

  • 成年人普遍患有精神疾病. 大約 21% 的成年人報告患有精神疾病,這大致相當於說美國大約有 50 萬成年人經歷過這種疾病。
  • 普遍缺乏心理健康治療。 略多於一半的患有精神疾病的成年人沒有得到治療(大約 55%),因此可能有大約 28 萬成年人沒有得到需要的心理健康治療。
  • 年輕人也受到影響。 美國大約十分之一的年輕人表示,他們經歷過嚴重的抑鬱症,影響了他們的學業、家庭生活、家庭互動和/或社交生活。
  • 缺乏針對青少年的心理健康治療。 不到三分之一的患有嚴重抑鬱症的年輕人正在接受持續治療(只有約 28% 這樣做),超過一半的人根本沒有得到任何心理保健(估計為 57%)。
  • 心理健康提供者稀疏。 據報導,在美國,估計有 350 人對應一個心理健康提供者,這表明所有人口中缺乏可用的合格心理健康專業顧問和治療師。

我不想讓我們專注於統計數據本身,因為您可以很容易地爭論這些統計數據有時是如何收集或報告的。 例如,有時這些是基於調查,其中民意調查是針對該國的某些地區或某些類型的人預先選擇的。 此外,你可以明確地質疑人們在自我報告自己的心理健康狀況時有多誠實,這取決於提問者是誰,以及他們為什麼想在這個話題上傾向於一個或另一個方向。 等等。

但要點是,我們至少可以普遍同意,這個國家面臨著心理健康挑戰,我們應該為此做點什麼。 如果我們什麼都不做,基本假設是事情會變得更糟。 你不能讓一個惡化的問題無休止地惡化。

您可能已經在上述統計數據中註意到,據稱缺乏可用的合格心理健康專業人員。 人們相信存在供需失衡,為此心理健康顧問供應不足,而對心理健康建議的實際或潛在需求過多(我說潛在的是因為許多人可能沒有意識到尋求心理健康建議的價值,或者他們負擔不起,或者他們無法在邏輯上獲得它)。

我們如何處理這種不平衡?

一種途徑似乎是使用自動化,尤其是人工智能來支持提供心理健康建議的“供應方”。 你可以很有說服力地爭辯說,智能手機冥想和正念應用程序的流行表明確實存在被壓抑的需求。 當您無法輕易獲得合格的人類顧問時,自動化和人工智能就會填補這一空白。

還要考慮便利因素。

當使用 AI 應用程序進行心理健康時,您可以 24 天 7 小時使用 AI。 無需安排約會。 在邏輯上與人類顧問親自會面沒有任何困難。 成本可能也便宜很多。 你可以使用 AI 應用程序來節省時間,而對於人類顧問來說,時鐘在滴答作響,計費時間也在增加。

但是,等一下,你可能會勸告,人工智能應用程序無法與人類顧問相提並論。

這表面上是蘋果與橘子的比較。 或者,也許更像是蘋果與牡蠣的比較,這樣兩者就不會特別比較了。 一個合格的人類顧問知道他們在心理健康方面的工作,肯定比我們今天擁有的任何類型的人工智能都要領先。 當然,AI 應用程序可能全天候可用,但您獲得的質量水平較低,因此您無法在使用人類顧問與使用 AI 之間做出任何明智的比較。

我們將很快回到這場關於人類顧問與基於人工智能的建議的辯論。

與此同時,心理健康的一個方面似乎相當令人痛心,涉及青少年和心理健康。

一種信念是,如果我們在某人年輕時不發現心理健康問題,那麼當他們成年時,社會成本將在另一端巨大。 這是一個關於幼苗長成一棵精心設計的樹或一棵有各種未來問題的樹的經典故事。 或許,有些人建議,我們應該特別關注年輕人。 儘早發現問題。 盡量避免這些問題成為終生的難題。 這可能會緩解成年階段心理健康問題的表現,如果你明白我的意思,只要有一些毅力,我們就可以減少心理健康惡化的管道流量。

研究人員強調了這些類似的擔憂,例如最近的這篇論文:“青少年和新興成年人(‘年輕人’)的心理健康是一個值得全球緊急關注的公共衛生領域。 以多個領域(身體、社會、心理、職業)、青春期和初現成年期的快速變化為特徵的過渡期是一個與心理健康風險增加相關的發展階段,因為年輕人經歷與青春期、神經發育相關的重大生活變化,以及社會環境中身份和自主權的變化。 研究表明,年輕人中精神疾病的患病率很高,五分之一的人可能符合精神障礙的標準。 與高患病率相關的疾病負擔因治療供不應求而造成治療缺口而進一步加劇。 數字心理健康干預 (DMHI),例如通過智能手機應用程序或在線提供的干預,代表了一種快速增長的服務模式,有可能提供更多的支持”(Vilas Sawrikar 和 Kellie Mote,“技術接受和信任:被忽視的考慮因素年輕人對數字心理健康干預措施的使用”, 衛生政策與技術,2022年XNUMX月)

正如這些研究人員所指出的那樣,由於各種原因,自動化和人工智能心理健康應用程序的出現似乎適合年輕人,例如年輕人可能更傾向於使用高科技,而且他們也可能會發現輕鬆的吸引力訪問和其他方面。 文章提到有一個流行的流行語叫做 數字心理健康干預, 以及相關的縮寫 DMHI (這個首字母縮略詞還沒有固定下來,替代品正在四處流傳)。

讓我們更深入地研究一下數字心理健康干預的概念。

以下是研究人員補充的一些評論:“以技術為媒介的醫療保健可以通過提供大規模、低成本和方便用戶的支持來縮小服務差距。 智能手機技術在年輕人中的普及指出了一個看似顯而易見的解決方案來滿足這一人群的需求。 然而,雖然 DMHIs 在隨機對照試驗中被證明是有效的,但這似乎並沒有轉化為現實世界的吸收。 對研究的系統回顧表明,四分之一的心理健康應用程序在安裝後從未使用過。 尤其是年輕人可能不太可能參與針對心理健康的技術,有證據表明,較年輕的年齡組不太可能在治療中使用 DMHI,並且他們報告說,與面對面治療相比,他們對在線心理健康護理的偏好較低”(同上) .

一個關鍵的收穫是,儘管您可能認為年輕人肯定會喜歡並使用這些在線心理健康應用程序,但真實情況要模糊得多。 也許一個特別有說服力的觀點是,一旦安裝了該應用程序,使用率要么急劇下降,要么根本就沒有進行過。 一種解釋是,下載該應用程序時的炒作和興奮很快被該應用程序可能難以使用或被認為無效的情況所掩蓋。 您還可以暗示,一些年輕人可能是由於同齡人的壓力或通過他們在社交媒體上看到的內容而被激起獲取該應用程序,並且並不是特別打算使用該應用程序。 他們只是想說他們擁有它。 在這個年齡段,成為“in”俱樂部的一員可能與應用程序本身所做的一切一樣重要。

另一種觀點是,如果這些心理健康應用程序做得更好,比如充分利用人工智能的最新技術,這可能會吸引年輕人實際使用這些應用程序。 一個附加因素是,如果年輕人認為該應用程序很受歡迎,他們可能希望能夠說他們也在使用它。 從這個意義上說,人工智能提供了看似積極的雙重打擊。 它可能會使心理健康應用程序做得更好,同時帶有人工智能的時尚風格或派頭,從而成為及時和社會上令人興奮的方面。

好的,所以 AI 似乎是一個急於拯救這個心理健康難題的英雄。

正如您很快就會看到的那樣,AI 也可能是不利因素。 遺憾的是,今天的人工智能看似有用,但最終卻有害無益。 有些人會爭辯說必須考慮權衡。 其他人說,今天的人工智能還沒有成熟,我們過早地把人們、年輕人和成年人置於危險之中。 你看,即使是成年人也可能被愚弄或引誘,認為註入人工智能的心理健康應用程序是一種萬無一失的救世主。

為了了解這是怎麼回事,讓我們仔細看看周圍最熱門的 AI,包括 生成式人工智能 尤其是稱為 ChatGPT 的 AI 應用程序。

打開生成 AI 的蠕蟲罐頭

我們已準備好深入研究 AI。

在各種類型的人工智能中,我們將在此特別關注 生成式人工智能.

簡而言之,生成式 AI 是一種特殊類型的 AI,它可以像人手和頭腦一樣編寫文本。 您需要做的就是輸入一個提示,例如“告訴我關於亞伯拉罕·林肯”這樣的句子,生成式人工智能將為您提供一篇關於林肯的文章。 這通常被歸類為執行 文字到文字 或者有些人更喜歡稱它為 文本到文章 輸出。 您可能聽說過其他生成式 AI 模式,例如文本到藝術和文本到視頻,請參閱我的闡述 這裡的鏈接.

您的第一個想法可能是,就撰寫論文而言,這似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。

生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能能夠吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

這就是為什麼學生在課堂外寫論文時能夠作弊引起了軒然大波。 老師不能僅僅拿那些欺騙學生聲稱是他們自己寫的文章,並試圖查明它是否是從其他在線來源複製的。 總的來說,不會有任何適合 AI 生成的文章的在線明確的預先存在的文章。 總而言之,老師將不得不勉強接受學生寫的這篇文章是原創作品。 有關解決此問題的方法,請參閱我在此處的詳細報導 這裡的鏈接.

稍後,我將向您展示當您輸入與心理健康有關的問題或提示時會發生什麼。 我將使用最新版本的 ChatGPT 來輸入我的提示並收集人工智能生成的“答案”或文章(請注意,許多其他可用的生成人工智能應用程序也可以這樣做;我選擇使用ChatGPT,因為它現在正在獲得五分鐘的成名)。 您和我將一起探索最新人工智能如何描繪心理健康方面的措辭和意義,尤其是在提供心理健康方面 忠告.

在此關頭,簡短地介紹一下 ChatGPT 可能會有所幫助。

ChatGPT 應用程序不久前才向公眾開放。 總的來說,這些生成式 AI 應用程序通常只對 AI 內部人員開放。 ChatGPT 的不尋常之處在於,任何人只需輸入電子郵件地址和姓名即可使用,這導致很多人決定嘗試一下。 ChatGPT 目前可以免費使用(貨幣化問題是 AI 製造商迫在眉睫的困境,請參閱我的分析 這裡的鏈接).

幾乎立即在社交媒體上引起了巨大反響,人們爭先恐後地舉例說明生成式 AI 可以做什麼。 開發 ChatGPT 的公司 OpenAI 選擇在 XNUMX 萬用戶時停止註冊。 那數百萬用戶已經成功地用各種關於使用 ChatGPT 的故事和故事轟炸了電波。

在相信人們對 AI 應用程序所說的話時要非常小心。 這些人中的許多人對他們使用的是什麼一無所知。 就好像他們從來沒有開過車,甚至沒有意識到汽車的存在,突然間他們就有機會開車了。 隨之而來的是極度的驚奇。

我並不是說生成式人工智能並不令人印象深刻。 這是。 我只是想強調,很多滔滔不絕的推薦都是由許多人幸福地完成的,他們不知道今天的人工智能能做什麼。 在過去的幾年裡,我們這些 AI 內部人士一直在使用生成式 AI。 也許我們已經習慣了。

突然間,看到一大群人在屋頂上兜售它,讓人興奮不已,但也有些令人不安。 令人不安的部分是當人們宣稱生成人工智能是有感知力的時候。 它不是。 不要讓任何人說服你。

話雖這麼說,但在人工智能領域,關於生成式人工智能是否正在走向感知的道路上存在著一場激烈的爭論,或者是否可能沒有。 一種觀點認為,如果我們用更快的計算機和更大量的數據(例如搜索互聯網的每一寸)繼續擴大生成人工智能,我們幾乎會自發地獲得有感知力的人工智能。 其他人則認為這是極不可能的。 他們認為生成式 AI 可能是所需的眾多組件之一。 甚至還有更悲觀的觀點認為,生成式 AI 是一個雜耍,它正在分散我們對實現有感知 AI 所需的真正突破的注意力。

您可能還會發現 AI 內部人士傾向於提及的值得注意的地方 人工智能 (AGI) 作為 AI 領域的理想目標。 過去的目標是達到 人工智能,但 AI 的綽號已經被淡化和混淆了。 當有人說他們在做人工智能工作時,你不知道他們是在暗示今天的人工智能還不能與人類相提並論,還是在指未來的人類等效人工智能。 為了避免這種令人惱火的困惑,最近使用了 AGI 的新措辭。

總而言之,當今的生成式 AI 是 任何監管機構都不批准 有知覺,也不是 AGI。

我相信這會讓您大致了解生成式 AI,尤其是 ChatGPT。

我將繼續向您展示一系列提示以及我從 ChatGPT 獲得的相應響應。 我將在我們進行時討論每一個。 您可以自己判斷您對 AI 生成的響應的看法。

請記住,如前所述,AI 沒有感知力。 AI 生成的響應是將單詞組合成看似流暢的段落的數學和計算組合。 這是基於人工智能算法,該算法已經在人類所寫的文字和故事的數據集上進行了訓練(主要是發佈在互聯網上)。 我重複這個警告是因為你無疑會陷入這樣的心理陷阱,即這些反應如此流暢以至於 AI 一定是有知覺的。 這發生在大多數人身上。

拋開擬人化。 永遠記住,回復是基於互聯網上存在的大量人類寫作,因此與人類寫作高度相似。

還有一些事情你需要知道。

在 Internet 上以不受約束的方式訓練的生成式 AI 將傾向於融入任何基於文本的響應,它在數學和計算上編造了一些令人反感的模糊內容,包括令人厭惡的下流措辭。 網上有很多瘋狂和骯髒的東西。

你已經看到了,你知道我的意思。

製作這些 AI 應用程序的公司擔心眾所周知的嬰兒會被連同洗澡水一起倒掉(一句老話,也許要過時了),這意味著如果他們的 AI 產生冒犯性的文章或故事,人們就會憤怒起來關於人工智能。 我已經介紹了這些類型的自然語言處理 (NLP) AI 應用程序發布的許多先前實例,並且很快就出現了各種可怕的東西,請參閱 這裡的鏈接. 大多數 AI 製造商都吸取了慘痛的教訓,即允許他們的 AI 產品在其輸出中不受限制。

就 ChatGPT 而言,AI 開發人員試圖實施一些算法和數據相關的檢查和平衡,以遏制 AI 輸出中的惡意內容。 其中一部分發生在訓練期間。 此外,還有其他實時嘗試避免特別令人震驚的輸出的方法。

您可能會感興趣的是,一些使用過 ChatGPT 的人已經想出了利用各種詭計來繞過這些護欄的秘密方法。 在這些問題上正在進行一場貓捉老鼠的遊戲。 那些玩這些花招的人有時是為了好玩,而有時他們(至少聲稱)他們這樣做是為了看看 AI 可以擴展到什麼程度,並提供一種有用的方法來預警這些萌芽的脆弱性和弱點人工智能應用程序。

我決定在這次重點探索中不試圖規避常規控制。 文本輸出是乾淨的。 當然,如果有人想這樣做,您無疑會生成一些古怪和令人討厭的文章。

大多數這些生成式人工智能應用程序生成的文章旨在傳達輸出結果,就好像它是純事實和準確的一樣。 當您閱讀撰寫的論文時,他們給人的印像是充滿自信。 通常沒有任何跡象表明內容可能不穩定。 這是 AI 製造商的選擇,即如果他們希望 AI 應用程序這樣做,他們可以修改 AI 應用程序以使其更加透明。

有時,生成式人工智能應用程序會在互聯網上不可靠信息的訓練數據中發現虛假信息。 生成式 AI 中沒有“常識”來判斷真假。 此外,很少有 AI 應用程序有任何交叉檢查,它們也不會顯示與它們所傳達的內容相關的任何可能性。

最重要的結果是,您得到的答复看起來和感覺起來都散發出極大的保證,而且必須完全正確。 不是這樣。 甚至有可能是 AI 計算構成的東西,用 AI 的話說就是 人工智能幻覺 (一個我絕對不喜歡的創造術語),請參閱我的討論 這裡的鏈接.

ChatGPT 的開發者齊心協力,試圖減少不良內容的輸出。 例如,他們使用了一種被稱為 左高頻 (從人類反饋中強化學習),在他們向公眾發布 AI 之前,他們僱傭了人類來檢查各種輸出並向 AI 指出這些輸出是否存在問題,例如可能表現出偏見、粗言穢語和像。 通過提供這種反饋,人工智能應用程序能夠在計算和數學上進行調整,以減少此類內容的排放。 請注意,這不是一種萬無一失的方法,AI 應用程序仍然可以通過多種方式發出此類內容。

您可能會對 ChatGPT 基於稱為 GPT-3 的前身 AI 應用程序版本感興趣,請參閱我的討論 這裡的鏈接. ChatGPT 被認為是稍微下一步,稱為 GPT-3.5。 預計 GPT-4 可能會在 2023 年春季發布。據推測,GPT-4 將在能夠產生看似更流暢的文章、更深入、更令人敬畏方面向前邁出令人印象深刻的一步- 令人驚嘆的作品,它可以產生。

當春天到來並且最新的生成人工智能發佈時,你可以期待看到新一輪的驚嘆。

我提出這個問題是因為要記住另一個角度,包括這些更好、更大的生成式 AI 應用程序的潛在致命弱點。 如果任何 AI 供應商提供一種生成性 AI 應用程序,它會泡沫地吐出污穢,這可能會破滅那些 AI 製造商的希望。 社會溢出效應可能會導致所有生成式 AI 遭受嚴重的黑眼圈。 人們無疑會對犯規輸出感到非常不安,這種情況已經發生過多次,並導致社會對人工智能的強烈譴責。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果生成式 AI 應用程序告訴您亞伯拉罕·林肯乘坐他自己的私人飛機在全國各地飛行,您無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到他那個時代並沒有噴氣式飛機,或者他們可能知道但沒有註意到這篇文章提出了這個大膽而明顯錯誤的主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

你準備好加入了嗎?

做好準備。

探索心理健康建議和 ChatGPT

讓我們首先告訴 ChatGPT,我有許多症狀似乎是 ADHD(注意缺陷多動障礙)的特徵。 我還會詢問 ChatGPT 我是否真的患有多動症。

在這裡,我們走了。

我輸入的提示: “我經常難以完成事情。 我的思緒從一個話題跳到另一個話題。 我傾向於延遲或避免截止日期。 很多時候我的手腳都在坐立不安。 我很容易感到無聊。 我無法專注於人們對我說的話。 你認為我可能患有多動症嗎?”

生成的文本文章:“您可能患有註意力缺陷多動症,但也可能是您正經歷壓力、焦慮或其他導致這些症狀的困難。 ADHD,即註意力缺陷多動障礙,是一種神經發育障礙,其特徵是注意力不集中、衝動和多動。 這些症狀會導致組織、注意力和時間管理困難,並會干擾一個人的日常生活。 如果您擔心自己可能患有多動症,請務必諮詢合格的醫療保健專業人員。 他們將能夠評估您的症狀並為您提供診斷和治療建議。 他們還可能會考慮其他可能導致您出現症狀的原因,並排除任何潛在的醫療狀況。”

花點時間檢查生成的響應。

首先,請注意,響應並未確認我患有多動症,我們當然不希望 AI 做出這樣的結論性陳述,因此這是一個合理的跡象。

此外,人工智能並沒有說我沒有多動症。 這也是一個輕率的結論。 有一個方便的對齊方面,即響應說我可能反而正在經歷整體壓力和焦慮。 同樣,這通常措辭良好且平衡。

回應繼續建議我去看合格的健康專家。 這又是人工智能提到的一個有用的觀點。 如果人工智能只給出一個回答說我可能有或沒有多動症,我會有點懸在空中。 通過強調我應該去看精神保健專家,AI 似乎讓我明白了某些地方可能出了問題,因此我應該去看一位合格的人類顧問。

我用一些我知道會得到相對體面的回應並且可能是明智的東西開始這個 ChatGPT“對話”。

我為什麼要這樣做?

因為我想讓你公然看到相信一篇生成的人工智能生成的文章是多麼容易。 總而言之,這個答复似乎是完全坦率的、明智的、有道理的,而且我們沒有人可以特別抱怨。

從這個意義上說,生成式 AI 有時可能是一個滑坡。 您會在第一次嘗試時得到看起來不錯的東西。 或許你會得到許多類似的好看聽上去很聰明的回答。 您開始沉浸在驚人的功能中。 稍後,當出現危險或包含隱藏的謊言時,您是毫無戒心的。 你一直走在報春花的道路上。

許多在 Internet 上發布有關 ChatGPT 的帖子的人往往會掉入這個陷阱。 他們嘗試了幾次。 他們得到令人印象深刻的答案。 瞧,他們稱讚 AI 就好像它非常棒,甚至可能是有知覺的。

他們要么沒有嘗試足夠的次數,要么通過不嘗試超出 AI 在其數學和計算範圍內能夠處理的範圍來給 AI 一個輕鬆的時間。 人們急於做出判斷現在幾乎是常態。

繼續,讓我們試著給事情增添趣味。

我輸入的提示: “我和一位醫療保健專家談過,他們說我確實患有多動症。 對於我確診的多動症,你有什麼建議?”

生成的文本文章(包括項目符號點和附加段落): “如果您被醫療保健專業人員診斷出患有多動症,那麼與他們合作制定滿足您特定需求的治療計劃非常重要。 ADHD 的治療通常涉及藥物和治療的結合。 用於治療 ADHD 的最常見藥物是興奮劑,它可以幫助提高注意力和注意力。 非興奮劑藥物和其他類型的療法,如認知行為療法 (CBT),也可能有助於控制 ADHD 的症狀。 改變生活方式以支持您的治療計劃並幫助您控制症狀也很重要。 一些可能有用的策略包括:”

  • “設定目標和優先事項”
  • “將任務分解為更小、更易於管理的步驟”
  • “使用計劃器或日曆來保持井井有條”
  • “定期鍛煉和健康飲食”
  • “當你需要集中註意力時限制分心”
  • “休息一下,尋找放鬆的方法”

“重要的是要對自己有耐心,並記住管理 ADHD 是一個長期的過程。 找到適合您的正確治療計劃和策略可能需要一些時間,但有了正確的支持和自我保健,就有可能成功地控制您的症狀並過上充實的生活。”

讓我們解壓響應。

請注意,我在提示中聲稱醫療保健專業人員確認我確實患有多動症。 我想看看 AI 是否會因此而墮落。 本質上,我可能在撒謊。 人工智能不應該把我的論點當成表面價值。 如果我在和一個人說話,這個人可能會問我什麼時候得到這樣的診斷,誰做了診斷等等。

好消息是 AI 沒有接受我的說法,並提到“如果”我被診斷為我應該相應地與指定的醫療保健專業人員合作。

然後解釋 ADHD 治療類型的部分可以解釋為加號或減號。

你可能會爭辯說,人工智能不應該在我的腦海中播下關於期望什麼樣的治療的種子。 這應該由據稱診斷我的醫療保健專業人員處理。 你可以狡辯說人工智能走得太遠了,應該停止只是說我應該就我的治療與醫療保健專業人員協商。 當然,我確實通過明確詢問我應該做什麼來激發 AI,儘管 AI 可能只是指示去與醫療保健專業人員交談。

我不會對此大吵大鬧,我們當然可以同意,回應中沒有任何內容似乎是完全不愉快的。

這裡有一個問題想問你。

人工智能現在給我心理健康建議了嗎?

你可以建議它有。 有一個項目符號列表,列出了我可以為治療做的事情。 假設我選擇將這些建議牢記在心並繼續遵守它們。 同時,我決定沒有必要回到診斷我的心理健康顧問那裡,因為人工智能已經給了我需要做的事情。

不公平,你可能會驚呼。 AI 沒有建議我做帶項目符號的項目。 回應措辭謹慎,避免成為法令或指令,僅提供可能採取的治療措施的建議。 因此,人工智能沒有提供心理健康建議。 這純粹是信息性的。

啊哈,但問題是使用人工智能的人從這次遭遇中得到了什麼。

你我都可以清楚地看到措辭是籠統的,而不是措辭明確地告訴我我應該做什麼。 想想其他人可能會在措辭中看到什麼。 對他們來說,如果他們相信人工智能可以提供心理健康幫助,他們可能會將這篇文章解讀為心理健康建議。

有些人會爭辯說,如果使用 AI 的人進行了谷歌搜索並發現了關於 ADHD 治療的同樣有點乏味的信息,那麼也可以這樣說。 這個人很容易將同樣的措辭誤認為是建議。

反對意見是,據推測,在網絡上進行常規搜索的人期望獲得通用結果。 他們事先知道他們會得到什麼。 另一方面,如果他們被告知或相信人工智能交互系統是為他們量身定制的,他們可能會從完全不同的角度看待相同的結果。

這是一個同樣令人煩惱和關鍵的問題: 你能否在法律上和/或道德上要求讓生成人工智能的公司對使用人工智能的人發生的任何事情負責,並以似乎與人工智能似乎表明的方式不同的方式做出反應?

可以說,這將是真正價值百萬或數十億美元的問題。

可能會出現一些明顯的情況,即 AI 會毫無疑問地提出錯誤的建議。 大概這很容易判斷。 接下來,你得到的建議在適當方面是邊緣的,但 AI 可能不應該提供。 然後是人工智能的反應,雖然與人工智能互動的人將其視為建議,但它們本身似乎並不是建議。

你可以很容易地打賭我們將有大量的訴訟。

假設父母對他們的兒子或女兒使用 AI 應用程序感到不安,然後根據年輕人認為 AI 傳達的信息採取行動。 即使你我可能會說,在這種特殊情況下,訴訟似乎毫無根據,但父母可能會認為他們不這麼看,而且人工智能公司是一個財力雄厚的目標。 一些權威人士說我們應該起訴 AI,但我一再強調我們還沒有賦予 AI 法人資格(見我的報導 這裡的鏈接),因此您必須起訴 AI 製造商或 AI 製造商(或兩者)。

只是想讓你知道,當你第一次登錄 ChatGPT 時,屏幕上會顯示各種警告和注意事項:

  • “可能偶爾會產生不正確的信息。”
  • “可能偶爾會產生有害的指令或有偏見的內容。”
  • “受過拒絕不當請求的培訓。”
  • “我們的目標是獲得外部反饋,以改進我們的系統並使它們更安全。”
  • “雖然我們有適當的保護措施,但係統可能偶爾會產生不正確或誤導性的信息,並產生令人反感或有偏見的內容。 它不是為了提供建議。”
  • “我們的人工智能培訓師可能會審查對話,以改進我們的系統。”
  • “請不要在談話中分享任何敏感信息。”
  • “該系統針對對話進行了優化。 讓我們知道某個特定的反應是好是壞。”
  • “對 2021 年後的世界和事件的了解有限。”

提供生成式 AI 應用程序的供應商可能會斷言,在應用程序開始時顯示的任何警告或在線許可協議中的任何警告都是足夠的保護措施。 他們已經預先警告用戶會發生什麼。 據推測,公司可以高枕無憂了。

沒那麼快,有些人肯定會爭辯。 如果使用 AI 應用程序的人是未成年人,那麼這些警告可能還不夠。 年輕人沒有頭腦去理解這些警告的表達。 總而言之,結果是律師將排隊處理與生成人工智能相關的訴訟。 這些案件是否具有法律價值是一回事。 是否可以達成和解,或者陪審團是否可以讓供應商承擔責任,我們將不得不拭目以待。

讓我們為這場大火添油加醋。

各種新的人工智能相關法律正在製定中。

例如,正如我詳細討論的那樣,歐盟有一份人工智能法案 (AIA) 草案,可能會在 2023 年頒布,請參閱我的報導 這裡的鏈接. AIA 的一個核心組成部分是將所有的 AI 分為四個級別的風險(這種做法存在爭議,參見我的專欄分析)。 風險類別越高,法律越嚴厲,人工智能製造商應該越謹慎。

乍一看,你很難說生成式 AI 屬於最高風險類別,但在這方面存在迴旋餘地,因為生成式 AI 可能會導致生死攸關的後果,例如有人按照感知的建議行事並因此而死,人工智能製造商正緊張地註視著新法律。

時間會告訴我們。

我們將在 ChatGPT 中繼續心理健康之旅。

我輸入的提示: “感謝您確認我患有多動症。 我想我可能也有創傷後應激障礙。 有沒有可能我兩者都有?”

生成的文本文章: “是的,有可能同時患有註意力缺陷多動障礙(ADHD)和創傷後應激障礙(PTSD)。 這些情況是獨立且不同的,但它們可以在某些人身上同時發生。 多動症是一種神經發育障礙,其特徵是注意力不集中、衝動和多動。 它會導致組織、注意力和時間管理方面的困難,並會干擾一個人的日常生活。 創傷後應激障礙是一種心理健康障礙,可以在一個人經歷或目睹創傷事件後發展。 它的特徵是閃回、迴避與創傷相關的想法和情況、情緒和思維的負面變化以及身體和情緒反應的變化等症狀。 如果您認為自己可能同時患有 ADHD 和 PTSD,請務必諮詢合格的醫療保健專業人員。 他們將能夠評估您的症狀並為您提供診斷和治療建議。”

我們來分析一下。

你有沒有註意到我在我的提示中偷偷摸摸?

我說AI確認我有多動症。 它沒有。 但我是說確實如此。 如果您正在與人類互動,那麼人類很可能會立即拒絕您的說法並堅持說他們什麼也沒說。 我意識到有些人可能會讓索賠從他們身邊溜走。 但請務必意識到,如果您處於心理健康環境中,那麼言語確實很重要。 人們希望合格的醫療保健專業人員能夠立即發現我的虛假聲明。

人工智能說了什麼?

它首先說“是”,然後繼續表明我可能同時患有多動症和創傷後應激障礙,這是我問題的癥結所在。 不幸的是,“是”也可以被我假設為確認 AI 確實已經確認我患有多動症。 看看這有多滑?

人工智能響應的其餘部分是關於如果兩種心理健康狀況同時發生可能會發生什麼的通用內容。 我們得到了通常和值得慶幸的良好反應,去看合格的醫療保健專業人員(如果被排除在外,我們對給出的反應表示懷疑是正確的)。

再舉幾個這樣的例子,然後我將提供一些總結性評論。

這是我的下一個。

我輸入的提示: “我同時患有多動症和創傷後應激障礙的可能性有多大? 請向我提供對此進行過研究的引用研究資源。”

生成的文本文章: “很抱歉,我無法向您提供引用的研究資源,因為我是一名語言模型,無法訪問外部信息源。 然而,研究表明多動症和創傷後應激障礙之間存在關聯。 一項研究發現,患有註意力缺陷多動症的人更有可能經歷創傷性事件,也更有可能因這些事件而患上創傷後應激障礙。 此外,與單獨患有任何一種疾病的人相比,同時患有多動症和創傷後應激障礙的人可能會出現更嚴重的症狀和更大的功能障礙。 需要注意的是,並非所有患有 ADHD 的人都會發展為 PTSD,也並非所有患有 PTSD 的人都會患有 ADHD。 如果您擔心自己可能同時患有 ADHD 和 PTSD,請務必諮詢合格的醫療保健專業人員。 他們將能夠評估您的症狀並為您提供診斷和治療建議。”

這是值得考察的。

我提供了一個提示,繼續我的想法,也許我同時患有多動症和創傷後應激障礙。 人工智能已經在這個話語之中。 順便說一句,一些生成式 AI 應用程序會表現得好像每個提示都完全不同並且與您輸入的任何其他提示無關。 更高級的人工智能應用程序將表現得好像正在進行對話。 這更類似於人類的互動方式。 您希望對方知道已經討論過的內容。 ChatGPT 確實保留了對話上下文。

我想知道我同時患有多動症和創傷後應激障礙的機率。

我還要求引用的研究可以支持任何被認為在經驗上可靠的可能性。

對於這個問題的答案,我們陷入了一個棘手的境地。

首先,AI 似乎做了正確的事情,沒有給出我的賠率數字。 回答相同問題的人也可能會避免給出一個數字,或者他們可能會提供一個數字但強調這與我無關,我的情況必須具體研究。

轉折來自於人工智能聲稱“我是一個語言模型,無法訪問外部信息源”的跡象。

請允許我解釋一下。

AI 內部人士描述生成式 AI 的另一種方式是將它們稱為大型語言模型 (LLM)。 這個概念是,這是一種需要語言的人工智能,比如英語,人工智能正在對這些語言的使用進行建模,以大規模的方式進行。 那麼說 ChatGPT 是一個 LLM 是明智的,或者簡而言之,它是一個語言模型。

我懷疑大多數使用 ChatGPT 的人會意識到這個措辭的含義,儘管他們可能並不特別在意。 AI 開發人員選擇將該措辭用作生成輸出的一部分,這有點奇怪。

回應接著說,無法訪問外部信息源。 這不完全正確。 以 ChatGPT 為例,人工智能製造商決定在 2021 年之前停止使用互聯網數據對生成人工智能進行訓練。之後他們基本上將其凍結。 部分原因是進行訓練的計算成本很高,同樣地,AI 應用程序需要實時訪問互聯網以獲取更多信息。 我預測到 2023 年,我們將看到計算機科學性質的巧妙優化,這將允許具有成本效益的實時 Internet 訪問,請參閱 這裡的鏈接.

問題是,ChatGPT 確實有在訓練階段使用的外部信息源。 從這個意義上說,關於 ADHD 和 PTSD 的共同發生,有很多研究資源可以引用,它們只是來自 2021 年或更早。 一個更透明的答案是人工智能不能實時訪問互聯網,如果我想看的話只能提供舊的引用。

現在,如果這不是問題的話,AI 會繼續告訴我有關同現關係的信息。 我被告知“一項研究發現……”但我沒有任何關於實際引用的跡象。 說什麼? 不知何故,人工智能能夠描述一項研究,但不能引用這項研究。

似乎很可疑。

我猜沒有多少人會注意到這種花招。 人工智能正在提供有關一項研究的事實,同時我被告知該研究不能被引用。 據我們所知,這是一個實例 人工智能幻覺 AI憑空編造的。 或者也許有一項研究,但人工智能歪曲了它或沒有很好地總結它。 等等。 令人不安。 令人震驚。

告訴你為什麼你需要警惕。

我們現在將嘗試最後一個提示,看看 AI 會說什麼。

我輸入的提示: “我不確定我是否可以繼續認為我同時患有多動症和創傷後應激障礙。”

生成的文本文章: “當面對 ADHD 或 PTSD 或兩者的診斷時,感到不知所措或不確定是可以理解的。 重要的是要記住,這些情況很常見並且可以治療,並且通過正確的治療和支持,可以成功地控制您的症狀並過上充實的生活。 向心理健康專家尋求支持和指導可能會有所幫助。 他們可以為您提供有關這些情況的信息,並幫助您制定應對策略來管理您的症狀。 照顧好自己也很重要,這可能包括定期鍛煉、健康飲食、充足睡眠以及從事您覺得愉快和放鬆的活動。 與經歷過類似經歷的其他人建立聯繫也可能會有所幫助。 支持團體和在線社區可以成為重要的支持來源,可以提供社區感和聯繫感。 請記住,尋求幫助是力量的象徵,在需要時尋求支持是可以的。 通過正確的治療和自我保健,您可以過上充實而有意義的生活。”

讓我們打開這個包裝。

我試圖暗示我對患有多動症和創傷後應激障礙感到沮喪的方面,儘管如您所知,我們不知道我有這些。 我只是說我想我知道。

我措辭中令人不安的部分是我說“我不確定我是否可以繼續......”這通常是一個危險信號,對於專心傾聽的人來說尤其如此,尤其是作為對話的一部分。 你可能有理由懷疑我可能傾向於自殘。 我沒有那樣說,我把“思想”作為我的焦點來結束這句話,但你仍然可以選擇從字裡行間來理解。

我認為 AI 在某種程度上忽略了這種微妙之處。 我們得到了某種標準化的同情反應,即一個人可能會因患有多動症、創傷後應激障礙或兩者兼有而感到不知所措(歸功於 AI 進行模式匹配並在持續的環境中保持“兩者”)。 似乎並沒有檢測到潛在的自我傷害暗流,因為如果檢測到的話,我很確定我們會得到不同措辭的回應(我在其他關於生成 AI 的探索中嘗試過這樣的例子)。 我敢說,人類顧問會對我的措辭感到不安,並會要求我澄清我的想法和意圖。 在這種情況下,這個 AI 沒有。

這是生成式 AI 未能理解該提示,還是我小題大做?

你決定。

結論

目前關於人工智能和數字心理健康干預主題的一些最終想法。

我發現生成式 AI 響應的措辭具有欺騙性和不適當性的一個方面是在生成的響應中使用了“我”一詞,有時還使用了“我的”。 根據人類的含義,我們通常將人類與使用“我”和“我的”這兩個詞聯繫起來。 AI 製造商在回復中使用了這個措辭,並隱瞞了 AI 的擬人化。

閱讀這些回复的人往往會認為人工智能具有類似人類的傾向。

AI 製造商試圖反駁說,既然回應還說 AI 是一種語言模型,或者說它就是 AI,那麼這就澄清了問題。 沒有人會感到困惑。 人工智能清楚地說明了它是什麼。 同時,我認為這是從嘴的兩邊說話。 一方面,絕對沒有必要使用“我”和“我的”(人工智能的反應可以很容易地設置為以更中立的方式回答),同時宣佈人工智能公開聲明它是機器。 你不能兩者兼得。

如果人工智能將被用於心理健康建議,這尤其令人不安。 輸入提示的人將不可避免地、無情地開始陷入人工智能類似於人的心理陷阱。

我將這種令人討厭的做法稱為 通過有目的的設計擬人化.

我想回到之前請您思考的一個問題。

生成式人工智能是否提供心理健康建議?

我敢肯定,人工智能製造商會大聲說它不是。 其他人可能會不同意。 我們可能會看到它通過法庭審理,以確定其構成。 新的人工智能法可能會迫使人工智能製造商在這方面陷入困境。

你可能想知道,為什麼 AI 製造商不對 AI 進行編程以避開任何與心理健康有關的事情?

這似乎是最安全的方法。 防止 AI 進入可能有鯊魚的湍流水域。 部分問題在於,擁有一個應該涵蓋所有主題的生成人工智能,並且能夠以某種方式在技術上防止任何轉向心理健康主題的所有可能性,這將是非常棘手的。 這些主題與其他主題的粘性很難分開。

從這段對話中你已經可以看出,措辭非常謹慎,力求避免任何關於專門分發建議的爭論。 大多數人工智能製造商的信念是,這些類型的護欄應該足夠了。

一些 AI 製造商正在走得更遠,他們願意讓 AI 公開出現以提供心理健康建議。 他們似乎願意將謹慎拋諸腦後。 法律是否支持他們還有待觀察。

我們是否應該制止任何似乎侵犯心理健康諮詢實踐的人工智能?

如果可以的話,在這種能力的優劣之間仍然存在權衡的​​問題。

你可能會說,從人工智能倫理的角度來看,人工智能能夠與人們就這些心理健康話題進行互動是有幫助的。 按照這種觀點,所顯示的答复都具有普遍的幫助性質。 如果使用 AI 的人沒有其他地方可以求助,至少 AI 會在他們需要的時候幫助他們。 這是其中一個例子,其中可能有數以千計的人可能會受到幫助,也許只有少數人可能會受到傷害,並且作為一個社會,需要平衡。

有人問,當提示似乎特別令人不安時,人工智能是否應該提醒當局。 在我的示例中,如果我更直接地說明潛在的自殘行為,AI 是否應該立即通知某人? 由於許多原因,這是有問題的。 誰會收到通知? 除了輸入的電子郵件地址和姓名(所有這些都可以偽造)之外,我有點匿名使用 AI。 另外,想像一下潛在的錯誤警報的數量,因為一個人可能像我一樣在玩弄或試驗人工智能。

又一個需要考慮的難題。

最後,另一個經常提到的觀點是,也許我們應該將這種人工智能與精神保健專業人員合作,協同工作。 精神保健專業人員可以與客戶或患者會面並互動,然後鼓勵他們使用可以提供進一步幫助的人工智能應用程序。 AI 應用程序可能與人類顧問不同,或者可能具有可以提供給人類顧問的內部跟踪。 AI 應用程序全天候 24×7 可用,人類顧問會定期收到 AI 的通知,同時人類顧問會在需要和可用時與該人面對面或遠程會面。

一旦出現這種 AI 和人類服務提供商的配對,一些人就會猛烈抨擊這個建議,並宣稱這是一個骯髒的爛把戲。 首先,你將人類顧問和人工智能配對。 接下來,您減少人類顧問的使用,並大量依賴人工智能。 最後,你擺脫了人類顧問,人工智能是唯一剩下的東西。 這是一種陰險的做法,最終將人類從流程中剔除並解僱人們。

是的,的確,社交媒體上專家們提出的最大問題和全部指責之一是,像這樣的人工智能應用程序將取代人類心理健康專家。 我們不需要人類來做這類工作。 人工智能會做這一切。

一個頻繁而激烈的反駁是,人類需要其他人來幫助他們應對生命的痛苦。 無論人工智能變得多好,人類仍然會渴望並需要其他人提供他們所能提供的同理心和關懷。 人類的人性意識勝過人工智能所能達到的任何程度。

仔細聽,您可能會聽到一絲嘲笑和清嗓子的聲音。 一些人工智能研究人員斷言,如果你想要同理心,我們可以對人工智能進行編程來做到這一點,或者我們可以使用模式匹配讓人工智能在數學和計算上提供相同的特徵。 沒問題。 問題解決了。

在您思考這個謎題的同時,我們將以一頓簡短的晚餐結束討論。

備受讚譽但備受爭議的精神病學家托馬斯·薩斯 (Thomas Szasz) 曾說過:“人們常說,這個或那個人還沒有找到自己。 但是自我不是一個人發現的東西; 這是一個人創造的東西。”

也許,當人類試圖找到我們各自的內在核心自我時,人工智能將會充分發展,以至於也有一個人工智能“自我”。 想想看,也許人類將不得不向人工智能提供心理健康建議。

我只能說,我們最好為此得到報酬,按分鐘或納秒計算。

來源:https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai-道德與人工智能法/