AI 倫理和 AI 法表示,那些禁止使用生成式 AI ChatGPT 的學校不會改變方向,而是錯過了機會

禁還是不禁,這是個問題。

我猜想,如果莎士比亞現在在身邊,他可能會對最近禁止使用一種被稱為 AI 的努力說類似的話 生成式人工智能,由於名為 ChatGPT 的 AI 應用程序,這一點得到了特別的體現和普及。

這是交易。

一些知名實體一直試圖禁止使用 ChatGPT。

例如,紐約市 (NYC) 教育部最近宣布,他們將著手阻止在其各種網絡和連接的設備上訪問 ChatGPT。 據報導,該禁令的理由包括有跡象表明,該 AI 應用程序和生成 AI 的整體使用似乎預示著對學生學習的負面影響。 據說選擇使用 ChatGPT 的學生正在削弱他們關鍵的批判性思維技能的發展,並破壞他們解決問題能力的發展。

除了這些相當令人擔憂的疑慮之外,還有一個無可爭議的事實,即此類 AI 會產生包含錯誤和其他事實缺陷的不准確輸出。 那很糟。 錦上添花的危險是想像中的可能性,即在不知不覺中依賴上述謊言的學生可能以不安全的方式使用輸出。 我所見過的此類危害還沒有浮出水面,所以我們只需要從表面上看這可能會發生(我已經在我的帖子中討論了可能性的範圍;例如,一些人認為生成人工智能論文可以告訴某人服用他們不應該服用的藥物或提供應該由人類心理健康專家提供的心理健康建議等)。

在今天的專欄中,我將研究最近頒布的禁令的性質,並確定它們是否有意義。 有很多問題需要考慮。 這樣的禁令有什麼好處嗎? 這些禁令是否可執行? 如果出現更多此類禁令,我們是在幫助人類,還是會無意中搬起石頭砸自己的腳?

正如您可能猜到的那樣,這些都不像表面上看起來那麼簡單。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。 請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

禁止某些類型的人工智能並不是一個新概念。

在我的一篇專欄文章中,我仔細分析了與將人工智能用於自主武器系統相關的擬議禁令,請參閱 這裡的鏈接. 各個國家都在進行包含機載人工智能的武器開發。 這是眾所周知的發射後不管的武器。 你所做的就是釋放武器,然後 AI 從那時起接管。 希望 AI 將武器引導到適當的目的地並適當地引爆或投遞它。 通常很少有人在迴路中覆蓋,因為這個過程可能比人類反應更快,或者通過阻止任何其他事情來減少或減少敵人入侵系統並阻止武器開展業務的機會比駕駛軍械的人工智能。

顯然,這是人工智能帶來生死攸關後果的一個例子。 你可能會令人信服地爭辯說我們應該仔細考慮這種可怕的人工智能的影響。 在我們讓 AI 被澆築到自主武器的混凝土中之前,翻開每一塊石頭表面上是明智的。 許多人的生命危在旦夕。

同樣的預感和嚴肅是否適用於基於生成的人工智能(包括 ChatGPT)的使用?

你可能很難說這種類型的 AI 與其他類型的引導致命導彈和其他彈藥的 AI 處於同一級別。 話雖這麼說,即使生死攸關,這並不意味著我們不能對基於生成的人工智能可能帶來的不利影響進行盡職調查。 利害關係可能不盡相同,但對基於生成的人工智能的真正擔憂確實有其優點。

我傾向於將各種與 AI 相關的禁令分為以下幾類:

  • 絕對禁止
  • 部分禁令
  • 弱禁令
  • 沒有禁令

還有硬幣的另一面,即尋求啟用或支持人工智能,例如在這個範圍內:

  • 承認
  • 輕度接受
  • 完全接受
  • 強制性要求

當我們看一下最近禁止使用 ChatGPT 的努力時,將很容易考慮各種禁令範圍以及接受範圍。

首先,讓我們確保我們都在同一頁面上了解生成 AI 的組成以及 ChatGPT 的全部內容。 一旦我們涵蓋了這個基礎方面,我們就可以對禁止 ChatGPT 是否會取得成果進行有說服力的評估。

關於生成式 AI 和 ChatGPT 的快速入門

ChatGPT 是一個通用的 AI 交互式對話系統,本質上是一個看似無害的通用聊天機器人,然而,它正被人們以一種讓許多人完全措手不及的方式積極而熱切地使用,我將在稍後詳細說明。 這個 AI 應用程序利用了 AI 領域中的技術和技術,通常被稱為 生成式人工智能. 人工智能生成文本等輸出,這就是 ChatGPT 所做的。 其他基於生成的 AI 應用程序生成圖片或藝術品等圖像,而其他生成音頻文件或視頻。

在本次討論中,我將重點關注基於文本的生成式 AI 應用程序,因為 ChatGPT 就是這樣做的。

生成式 AI 應用程序非常易於使用。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 這通常被歸類為執行 文字到文字 或者有些人更喜歡稱它為 文本到文章 輸出。 如前所述,還有其他生成 AI 模式,例如文本到藝術和文本到視頻。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

這就是為什麼學生在課堂外寫論文時能夠作弊引起了軒然大波。 老師不能僅僅拿那些欺騙學生聲稱是他們自己寫的文章,並試圖查明它是否是從其他在線來源複製的。 總的來說,不會有任何適合 AI 生成的文章的在線明確的預先存在的文章。 總而言之,老師將不得不勉強接受學生寫的這篇文章是原創作品。

生成人工智能還有其他問題。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

在我們深入討論這個話題之前,我想澄清一個重要方面。

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 您可能會禮貌地說,有些人誇大了當今 AI 的實際能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

如果您對關於 ChatGPT 和生成式 AI 的迅速擴大的騷動感興趣,我一直在我的專欄中做一個重點系列,您可能會從中找到有用的信息。 如果這些主題中的任何一個引起您的興趣,請看一下:

  • 1) 生成人工智能進展的預測。 如果你想知道 AI 在整個 2023 年及以後可能會發生什麼,包括生成 AI 和 ChatGPT 即將取得的進展,你會想閱讀我的 2023 年預測綜合列表,網址為 這裡的鏈接.
  • 2) 生成人工智能和心理健康建議。 根據我在 這裡的鏈接.
  • 3) 上下文和生成人工智能的使用。 我還對涉及 ChatGPT 和生成 AI 的與聖誕老人相關的上下文進行了季節性的半開玩笑的檢查 這裡的鏈接.
  • 4) 詐騙者使用生成式人工智能. 一個不祥的消息是,一些詐騙者已經想出瞭如何使用生成式 AI 和 ChatGPT 進行不法行為,包括生成詐騙電子郵件,甚至為惡意軟件生成編程代碼,請參閱我的分析 這裡的鏈接.
  • 5) 使用生成式 AI 的菜鳥錯誤. 許多人對生成式 AI 和 ChatGPT 可以做的事情既過頭又出人意料地過頭,所以我特別關注了 AI 菜鳥往往會做的過頭,請參閱討論 這裡的鏈接.
  • 6) 應對生成式 AI 提示和 AI 幻覺. 我描述了一種使用 AI 插件來處理與嘗試將合適的提示輸入生成 AI 相關的各種問題的前沿方法,此外還有用於檢測所謂的 AI 幻覺輸出和謊言的其他 AI 插件,如涵蓋於 這裡的鏈接.
  • 7) 揭穿 Bonehead 關於檢測生成的 AI 生成的論文的說法. AI 應用程序出現了一場被誤導的淘金熱,這些應用程序聲稱能夠確定任何給定的文章是人工創作的還是人工智能生成的。 總的來說,這是一種誤導,在某些情況下,這是一種愚蠢且站不住腳的說法,請參閱我的報導 這裡的鏈接.
  • 8)通過生成人工智能進行角色扮演可能預示著心理健康問題. 有些人正在使用諸如 ChatGPT 之類的生成式人工智能來進行角色扮演,人工智能應用程序藉此對人類做出反應,就好像存在於幻想世界或其他虛構的環境中一樣。 這可能會對心理健康產生影響,請參閱 這裡的鏈接.
  • 9) 暴露輸出錯誤和錯誤的範圍。 各種收集的列表被放在一起,試圖展示 ChatGPT 產生的錯誤和謊言的性質。 一些人認為這是必不可少的,而另一些人則認為這種做法是徒勞的,請參閱我的分析 這裡的鏈接.

您可能會對 ChatGPT 基於稱為 GPT-3 的前身 AI 應用程序版本感興趣。 ChatGPT 被認為是稍微下一步,稱為 GPT-3.5。 預計 GPT-4 可能會在 2023 年春季發布。據推測,GPT-4 將在能夠產生看似更流暢的文章、更深入、更令人敬畏方面向前邁出令人印象深刻的一步- 令人驚嘆的作品,它可以產生。

當春天到來並且最新的生成人工智能發佈時,你可以期待看到新一輪的驚嘆。

我提出這個問題是因為要記住另一個角度,包括這些更好、更大的生成式 AI 應用程序的潛在致命弱點。 如果任何 AI 供應商提供一種生成性 AI 應用程序,它會泡沫地吐出污穢,這可能會破滅那些 AI 製造商的希望。 社會溢出效應可能會導致所有生成式 AI 遭受嚴重的黑眼圈。 人們無疑會對犯規輸出感到非常不安,這種情況已經發生過多次,並導致社會對人工智能的強烈譴責。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果生成式 AI 應用程序告訴您亞伯拉罕·林肯乘坐他自己的私人飛機在全國各地飛行,您無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

我們已準備好進入這一闡明的下一階段。

當禁令變得不那麼重要時

現在我們已經建立了基礎,我們可以深入探討禁止 ChatGPT 的問題。 我們將從發揮作用的實際情況開始。

就紐約市教育局而言,他們顯然已阻止在其內部網絡和連接的設備上訪問 ChatGPT。

一個明顯的漏洞是,學生可能會通過他們的智能手機或其他在線提供商使用不同的 Wi-Fi 網絡,並輕鬆繞過校園電子網絡上發生的阻塞。 設想坐在教室裡的學生出於某種原因決定使用 ChatGPT。 他們可以轉到智能手機上的設置並選擇校園提供實例以外的 Wi-Fi 網絡。 瞧,學生可以坐在他們的辦公桌前使用 ChatGPT,並且可能正在執行與學校相關的工作。

禁令黯然失色。

一些人提到的另一個問題是,由於在家中不使用校園網絡,學生在家中顯然可以隨心所欲地使用 ChatGPT。 該禁令似乎所做的一切都是試圖減少在校園內或直接使用校園提供的網絡時的使用(也有可能通過遠程訪問)。

更糟糕的是,有些人會感到遺憾,那些負擔不起在家上網的學生被拒絕(在某種意義上)其他更富裕的學生可以利用的東西。 儘管那些受影響的學生本可以在學校使用 ChatGPT,但他們不被允許這樣做。 也許這是將學生分為富人和窮人,這是不公平的。

有人可能會建議,一項具有無意的不利後果的政策。

我們可以將更多東西放在這個嘗試禁令的薄弱支撐上。

ChatGPT 並不是鎮上唯一的遊戲。 還有許多其他生成式 AI 應用程序。 如果禁令僅基於掃描 ChatGPT 應用程序,那麼所有其他生成式 AI 應用程序顯然都可以自由漫遊。 學生可以使用校園網絡並選擇不同的生成 AI 應用程序。 總的來說,其他此類 AI 應用程序具有可比性,並且幾乎可以做與 ChatGPT 相同的事情。

我再添幾根稻草,看看這頭駱駝會不會塌陷。ChatGPT 的 AI 製造商表示,很快將為 AI 應用程序提供 API(應用程序編程接口)。 簡而言之,API 是一種允許其他程序繼續運行並使用可提供進入給定應用程序門戶的程序的方法。 這意味著這個星球上幾乎任何其他程序都可以利用 ChatGPT 的使用(嗯,經過 ChatGPT 的 AI 製造商許可和批准)。

假設一家公司製作了一款幫助學生進行時間管理的教育應用程序。 太好了,可能是大多數學區的先驅。 教育應用程序的開發者決定使用 ChatGPT API,因此在他們的應用程序中提供生成文章的功能。 你看,他們的教育應用程序就是學生所看到的,同時在後台,應用程序調用 ChatGPT 並將提示傳遞給它,收集生成的論文,並將其顯示給學生。

僅僅掃描 ChatGPT 應用程序的學區不太可能知道或發現教育應用程序的後端正在使用 ChatGPT。 您可以說 ChatGPT 是隱藏的。 知道教育應用程序正在調用 ChatGPT 的學生可以輕鬆啟動教育應用程序並破壞禁令。 十分簡單。

我相信現在這可能足以說明為什麼這個特定的禁令有些不穩定。

等一下,反駁說,如果 ChatGPT 對學生不利,禁止使用它的努力值得稱讚,我們應該為這些政策鼓掌。 選擇破壞禁令的學生,無論是在校內還是校外,都只會通過使用對學生學習有負面影響的東西來傷害自己。 他們要顛覆自己的教育。

他們勸告說,一項微弱的禁令至少是為了糾正這種不利情況。 當然,該禁令可能存在漏洞,但您必須讚揚管理員的嘗試。 也許他們可以收緊禁令。 也許他們會想出更多的條款來加強禁令。

此外,該禁令具有重要的象徵意義。 該實體告訴大家,ChatGPT 厭惡當今學生的教育。 父母可能會被提醒。 提供類似應用程序的人工智能製造商將受到關注。 也就是說,不要試圖向我們心愛的學生兜售這些醜陋的東西。

也許可以起草和實施嚴格的政策,充分聲明任何學生在任何時候都不允許使用生成人工智能,無論是在校內還是校外。 任何被發現使用這種基於生成的人工智能應用程序的學生都將受到嚴厲的處罰,可能包括被學校開除。 對政策的違反者採取嚴厲措施。 讓他們知道你是認真的。

事情可能會更進一步。 如果學生使用基於生成的 AI 並試圖偷偷逃脫,他們將永遠籠罩在陰影中。 在以後的某個時候,如果發現學生確實使用了生成式 AI 而沒有說出他們這樣做了,他們可能會被吊銷學位或在他們的學業成績單上留下不好的標記。 對那些正在考慮使用生成式 AI 的人蓋上蓋子。 他們應該對違反規則感到非常害怕和緊張,以至於這會阻止他們為此付出一丁點努力。 他們將在極度恐懼中被凍結。

這些反駁的伯爵論點是,整個事情似乎被誇大了。 嚴厲的懲罰不是解決之道。 你小題大做了。 而且您錯過了使用生成 AI 的優勢和好處的機會。

請允許我解釋一下上面提到的各種好處。

一些人認為生成式人工智能可以幫助學生設計出更好的論文。 學生可能會使用諸如 ChatGPT 之類的應用程序來準備一篇他們不打算上交的論文。相反,他們的目標是研究生成的論文。 由於論文通常寫得很好,學生可以仔細檢查措辭、結構和其他突出方面。 因此,您可以斷言這是一個有用的學習工具。

使用生成式 AI 的另一個優勢是學生可以將他們的論文提交到 AI 應用程序並要求對論文進行審閱。 ChatGPT 等應用程序通常會在剖析所提供的文章方面做得非常出色。 它可能不像老師的評論那樣有見地,但易用性和能夠隨心所欲地重複使用 AI 應用程序使它成為一種有用的方法(大概不是代替老師,而是增加教師及其有限的可用性)。

我們可以繼續。

在試圖想出如何進行分配的論文項目時,學生通常可能不確定或表面上感到困惑。 他們盯著一張白紙。 他們要做什麼? 一種絕望和絕望的感覺壓倒了他們的精神。 也許他們放棄了努力並下定決心要拿個不及格的成績。 悲傷隨之而來。

學生可以要求諸如 ChatGPT 之類的生成式 AI 生成擬議的大綱,或者至少為論文提供一些指向我的建議。 根據輸出的想法,學生重新設計結構,然後撰寫論文。 他們自己。 將 AI 用作啟動器或參與器是否是“作弊”取決於您的觀點。 不可否認,人工智能應用程序讓學生開始了,儘管你可以爭辯說,只要學生寫了這篇文章,這是一個很小的代價,因為人工智能只是給出瞭如何繼續進行的線索。

稍微換檔,對於生成式人工智能產生包含虛假或錯誤的輸出的疑慮,典型的反駁是學生已經需要意識到他們閱讀的任何內容,無論是在互聯網上還是在其他地方找到的,都可能包含錯誤信息和虛假信息。 我們必須確保學生培養適當的技能,以辨別他們閱讀的內容是有效的還是有問題的。

我們會將生成式 AI 添加到要審查的來源列表中。

要點是,應該向學生展示如何通過一些謹慎的解釋來觀察任何生成的 AI 輸出,並公開質疑他們閱讀的內容。 你可以把它向前邁進一個有益的飛躍。 給學生分配涉及使用生成式 AI 有意促使 AI 應用程序製造謊言的作業。 你遇到了麻煩。 一是您向學生展示了該 AI 如何生成錯誤輸出,並且您正在提高他們檢測和處理錯誤信息和虛假信息的技能。 您可能會聲稱,我們可以將不利因素轉化為有利因素,將生成式人工智能的問題用作更廣泛基礎上的學習工具,以應對現代世界和海量的不良信息。

我可以繼續使用其他方法將生成式人工智能用於真正的教育追求。 有關其他報導,請參閱 這裡的鏈接.

總而言之,主張我們應該擁抱生成式 AI 的陣營必然會指出,無論如何你都不會讓時光倒流。 ChatGPT 之類的應用程序即將問世。 你不可能找到阻止潮流的方法。 你不妨跳上船。

既然如此,你不必讓混亂盛行。 該陣營敦促學校需要製定政策,以平衡論文生成的壞處與這些 AI 應用程序可以提供的好處。 向學生展示如何以正確的方式使用這些生成式 AI 應用程序以及如何避免錯誤的方式。

無論你做什麼,當然不要盲目地釋放生成人工智能的使用。 與教師合作制定政策。 確保教師能夠自如地使用這些 AI 應用程序。 向學生介紹生成式 AI 應用程序,並解釋什麼是允許的,什麼是不允許的。

生成式人工智能之船已起航。

精靈從瓶子裡出來了。

禁止這些 AI 應用程序的下意識反應最終將是徒勞的。 另一個問題是你有點慫恿學生。 通過告訴他們不能使用這項技術,可能會激起一股使用它的興趣。 你冒著把原本誠實和公正的學生變成強盜的風險,主要是因為學校在援引禁令方面做了很大的努力。

我們都知道,有時禁果會變得更加誘人。 這些微弱的禁令可能會刺激學生使用,遠遠超過其他情況下可能發生的情況。

回到我之前關於分層禁令的指示,在最近這些禁止 ChatGPT 的努力(我將其廣泛稱為生成 AI)的情況下,事情似乎落在了這裡:

  • 絕對禁止生成人工智能: 本身不可行,還沒有特別嘗試過
  • 部分禁止生成 AI: 幾乎已經嘗試過,但有很多漏洞
  • 生成人工智能的弱禁令: 看似正在嘗試的東西,非常虛弱而且可能無效
  • 不禁止生成人工智能: 其他所有人都在等著看會發生什麼和做什麼

還有硬幣的另一面,即尋求啟用或支持生成式人工智能,例如在這個範圍內:

  • 對生成式 AI 的認可: 堅持認為學校至少需要承認生成人工智能的存在
  • 對生成式 AI 的溫和接受: 學校應該允許以有限的方式使用生成人工智能
  • 全面接受生成式人工智能: 學校應該全面採用生成式人工智能
  • 生成式 AI 的強制性要求: 學校應該公開要求使用生成式人工智能,並將其作為課程和教學方法的一部分

結論

著名編輯 全球概覽斯圖爾特·布蘭德 (Stewart Brand) 說了這句名言:“一旦一項新技術碾過你,如果你不是壓路機的一部分,那麼你就是道路的一部分。”

一些人熱切地認為,試圖禁止基於生成的 AI 的學校被誤導了。 他們對這個 AI 能做什麼以及如何利用其優點和缺點感到困惑。 他們必須醒來並成為壓路機的一部分,否則他們會發現自己過時得可怕,成為一個被遺棄的坑坑洼窪的路邊(他們的學生也會)。

其他人則認為,現在跳入基於生成的 AI 熱潮還為時過早。

要么現在不採取任何行動,要么採取一些溫和的行動。 等等,看看會發生什麼。 如果對這些 AI 應用程序有有效的用途和需求,好吧,讓我們對此進行研究,並系統地、謹慎地找出將它們納入教育環境的最佳行動方案。

支持者的反駁是,這樣等待可能需要數年時間,會使整個事情陷入混亂狀態。 如果沒有任何明確的指導,無疑會出現各種不良問題。 當學生突然驚訝地發現他們不應該使用這些 AI 應用程序時,他們會措手不及。 有些人會被指控使用生成式 AI 應用程序,而他們並沒有這樣做,這是一種很可能會被誤報的指控。 泥沼會不斷擴大和加深。

你認為應該怎麼做?

對此進行一些發人深省的思考。 是的,要注意。 我們談論的是今天的學生和他們的未來,以及我們的未來。 亞伯拉罕·林肯 (Abraham Lincoln) 的一句恰當的話可能很有啟發性:“預測未來的最好方法就是創造未來。”

讓我們這樣做吧。

來源:https://www.forbes.com/sites/lanceeliot/2023/01/20/those-schools-banning-access-to-generative-ai-chatgpt-are-not-going-to-move-the-針和失踪船說人工智能倫理和人工智能法律/