深入探討生成式 AI ChatGPT 的嗡嗡聲和大張旗鼓,包括迫在眉睫的 AI 倫理和 AI 法律注意事項

我猜你現在已經聽說過,或者可能看到過引人注目的新聞頭條或社交媒體帖子,宣傳人工智能的最熱門和最新用途,這些人工智能通過稱為 ChatGPT 的人工智能應用程序生成看似人類編寫的面向文本的敘述。

如果您還沒有聽說過或讀過這個新的 AI 應用程序,請不要擔心,我會帶您快速了解。

對於那些已經了解 ChatGPT 的人,您可能會對我在本文中關於它的作用、工作原理以及注意事項的一些內幕消息產生濃厚的興趣。 總而言之,幾乎所有關心未來的人都不可避免地想知道為什麼每個人都對這個 AI 應用程序如此熱衷。

澄清一下,普遍的預測是這種類型的人工智能將改變生活,包括那些對 ChatGPT 或任何其他此類人工智能功能一無所知的人的生活。 正如我即將解釋的那樣,這些人工智能應用程序將以我們才剛剛開始預期的方式產生相當廣泛的影響。

準備好乘坐過山車 生成式人工智能.

我將從有關生成 AI 的一些關鍵背景開始,並使用涉及生成藝術的 AI 的最簡單場景。 在帶您完成該基礎之後,我們將跳入生成面向文本的敘述的生成 AI。

關於我對 AI 的持續廣泛報導,包括 AI 倫理和 AI 法律,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

生成生成藝術的生成 AI

我將這種類型或風格的 AI 稱為 生成的 這是 AI 愛好者的術語,用於描述生成文本、圖像、視頻等輸出的 AI。

今年早些時候,您可能已經註意到,通過輸入一兩行文本即可生成藝術圖像的熱潮不斷湧現。 這個想法很簡單。 你使用了一個 AI 應用程序,它允許你輸入一些你選擇的文本。 例如,您可能會輸入想要查看在煙囪頂上戴著帽子的青蛙會是什麼樣子。 然後,AI 應用程序會解析您的文字並嘗試生成與您指定的文字基本匹配的圖像。 人們非常喜歡生成各種圖像。 一段時間以來,社交媒體上充斥著它們。

生成式 AI 如何進行生成方面的工作?

對於生成式 AI 的文本到藝術風格,大量在線藝術通過計算機算法進行預掃描,並針對所涉及的組件對掃描藝術的元素進行計算分析。 設想一張在線圖片,裡面有一隻青蛙。 想像另一個單獨的圖像,裡面有一個煙囪。 還有一張照片裡有一頂帽子。 這些組件是通過計算來識別的,有時無需人工協助,有時則需要人工指導,然後形成一種數學網絡。

當你稍後出現並要求生成一個藝術作品,其中有一隻青蛙和帽子在煙囪上時,AI 應用程序使用數學網絡來查找並拼湊這些元素。 由此產生的藝術形象可能會或可能不會以您希望的方式出現。 也許這只青蛙長得很醜。 這頂帽子可能是一頂大的瘦腿帽,但你想要一頂更苗條的德比帽。 與此同時,青蛙形象正站在煙囪上,儘管你正試圖讓青蛙坐下來。

這些人工智能應用程序的妙處在於,它們通常允許您重複您的請求,並且如果您願意,還可以添加額外的規範。 因此,您可能會重複您的請求並表明您想要一隻坐在煙囪上的戴著禮帽的漂亮青蛙。 瞧,新生成的圖像可能更接近你想要的。

有些人想知道人工智能是否只是在精確地反芻它所接受的訓練。 答案是否定的(通常)。 AI 根據您的要求展示的青蛙圖像不一定與訓練集中的同類圖像完全相同。 這些生成式 AI 應用程序中的大多數都被設置為概括它們最初找到的任何圖像。 這樣想。 假設您收集了一千張青蛙圖像。 你可能會選擇逐漸弄清楚青蛙的樣子,把你找到的一千張圖片拼湊在一起。 因此,您最終繪製的青蛙不一定與您用於訓練目的的青蛙完全相同。

話雖如此,人工智能算法有可能不會像假設的那樣進行泛化。 如果有獨特的訓練圖像而沒有其他類似的圖像,則可能是人工智能“概括”了相當接近它接收到的唯一特定實例。 在這種情況下,算法稍後會嘗試生成所請求的那種性質的圖像,看起來與訓練集中的任何圖像都非常相似。

我會暫停一下,提出一些與 AI 倫理和 AI 法律相關的想法。

如前所述,如果生成人工智能是在互聯網上訓練的,這意味著互聯網上公開發布的任何內容都可能被人工智能算法利用。 假設你有一件漂亮的藝術品,你辛辛苦苦創作出來的,並且相信你擁有這件藝術品的權利。 你把它的照片發到網上。 任何想要使用您的作品的人都應該來找您並為此支付費用。

您可能已經感覺到它的發展方向。

堅持下去等待壞消息。

因此,通過廣泛檢查 Internet 上的內容接受訓練的生成式 AI 應用程序可以檢測到您的奇妙藝術品。 你的藝術作品的圖像被吸收到人工智能應用程序中。 您的藝術特徵現在正以數學方式與其他掃描的藝術品相結合。 在被要求生成一件藝術品時,AI 可能會在創作新生成的藝術圖像時利用您的作品。 那些獲得藝術品的人可能沒有意識到,從某種意義上說,藝術品上到處都是你的特定指紋,因為人工智能算法已經在你的傑作上留下了一些印記。

還有一種可能是,如果您的藝術作品非常獨特,它可能會被 AI 應用程序重複使用,以更好地展示藝術性。 因此,有時您的藝術作品可能在一些新生成的 AI 藝術作品中幾乎無法辨認,而在其他情況下,生成的藝術作品可能幾乎是您所猜想的圖像。

現在是時候將 AI 倫理引入這種情況了。

生成式 AI 生成的藝術作品與您的藝術有相似之處,這在倫理上是否恰當或合適?

有人說是,有人說不是。

是的陣營認為這在道德上是完全正確的,他們可能會爭辯說,既然你把你的作品發佈到了網上,它就對任何想要復制它的人或任何東西開放。 此外,他們可能會聲稱新藝術不是您作品的精確複製品。 因此,你不能抱怨。 如果我們以某種方式停止對現有藝術的所有再利用,我們將永遠不會看到任何新藝術。 另外,我們可能會就您的特定藝術作品是否被複製或利用展開激烈辯論——它可能是您甚至不知道存在的其他藝術作品,實際上是潛在來源。

反對陣營會強烈堅持認為這是非常不道德的。 沒有兩種方法。 他們會爭辯說你被敲詐了。 僅僅因為您的作品發佈在網上並不意味著任何人都可以隨意複製它。 也許您在發布藝術作品時帶有嚴厲警告不要復制它。 與此同時,人工智能出現並剝離了藝術並完全跳過了警告。 離譜! 人工智能算法已經泛化並且沒有做精確複製的細節的藉口似乎是那些假藉口之一。 它想出瞭如何利用你的藝術才能,這是一個騙局和恥辱。

這種生成人工智能的法律方面如何?

關於生成式 AI 的法律細節有很多令人費解的地方。 您是否查閱有關知識產權 (IP) 權利的聯邦法律? 那些刺耳到足以申請嗎? 當生成式 AI 跨越國際邊界收集訓練集時呢? 人工智能生成的藝術品是否屬於與知識產權相關的各種排他性類別? 等等。

一些人認為,我們需要新的人工智能相關法律來專門應對這些生成人工智能的情況。 與其試圖硬塞現有的法律,不如製定新的法律更清晰、更容易。 此外,即使現行法律適用,嘗試提起法律訴訟的成本和延誤也可能是巨大的,並且在您認為自己受到不公平和非法傷害時阻礙您繼續前進的能力。 有關我對這些主題的報導,請參閱 這裡的鏈接.

我將為這些 AI 倫理和 AI 法律考慮因素添加額外的轉折。

誰擁有 AI 生成輸出的權利?

你可能會說開發人工智能的人應該擁有這些權利。 並非所有人都同意這樣的論點。 你可能會說 AI 擁有這些權利,但這與我們通常不承認 AI 能夠擁有這些權利的事實相混淆。 在我們弄清楚人工智能是否具有法人資格之前,這方面的事情是不確定的,請參閱我的分析 這裡的鏈接.

我相信您現在對生成式 AI 的功能有所了解。 接下來我們可以繼續考慮涉及生成基於文本的敘述的用例。

生成基於文本的敘述的生成式 AI

現在我們已經討論了使用生成式 AI 來製作藝術或圖像,我們可以很容易地研究相同的通用公式來製作基於文本的敘述。

讓我們從我們都知道並傾向於每天使用的東西開始。 當您在文字處理包或電子郵件應用程序中輸入文本時,很可能會有一個自動更正功能試圖捕捉您的任何拼寫錯誤。

一旦這種自動輔助功能變得普遍,下一個更高級的方面就是自動完成功能。 對於自動完成,其概念是當您開始寫一個句子時,文字處理或電子郵件應用程序會嘗試預測您接下來可能輸入的單詞。 它可能只預測前面的一兩個詞。 如果能力得到特別增強,它可能會預測整個句子的其餘部分。

我們可以把它推向高潮。 假設你開始寫一個句子,自動完成生成了整個段落的其餘部分。 瞧,你不必直接寫段落。 相反,該應用程序會為您這樣做。

好吧,這看起來很漂亮。 進一步推動這一點。 你開始一個句子,自動完成組成你整個信息的其餘部分。 這可能包含許多段落。 所有這些都是通過您輸入句子的一部分或一兩個完整的句子生成的。

自動完成如何確定您接下來可能輸入的內容?

事實證明,人類傾向於一遍又一遍地寫同樣的東西。 也許你不知道,但關鍵是無論你寫什麼,都可能是其他人已經寫過的東西。 它可能不完全是你打算寫的。 相反,它可能有點類似於您要寫的內容。

讓我們使用與生成藝術或圖像相同的邏輯。

通過訪問互聯網並檢查在線世界中存在的各種文本來準備生成式 AI 應用程序。 該算法試圖通過計算識別單詞與其他單詞的關係、句子與其他句子的關係以及段落與其他段落的關係。 所有這些都經過數學建模,並建立了一個計算網絡。

接下來會發生什麼。

您決定使用專注於生成基於文本的敘述的生成式 AI 應用程序。 啟動應用程序後,您輸入一個句子。 AI 應用程序通過計算檢查您的句子。 您輸入的單詞之間的各種數學關係在數學網絡中用於嘗試確定接下來會出現什麼文本。 從你寫的一行中,可能會生成一個完整的故事或敘述。

現在,您可能會認為這是猴子看猴子做的事,生成式 AI 生成的結果文本將毫無意義。 好吧,你會驚訝於這種 AI 的調整程度。 有了足夠大的訓練數據集,以及足夠多的計算機處理來廣泛地處理它,生成式 AI 產生的輸出可能會令人印象深刻。

你會看到輸出並可能發誓生成的敘述肯定是由人類直接編寫的。 就好像你的句子被交給了一個躲在幕後的人,他們很快就給你寫了一個完整的敘述,幾乎完全符合你原本要說的內容。 這就是數學和計算基礎變得多麼好。

通常,當使用生成基於文本的敘述的生成式 AI 時,您傾向於提供一個起始問題或某種斷言。 例如,您可以輸入“告訴我關於北美的鳥類”,生成式 AI 會認為這是一個斷言或問題,然後該應用程序將通過任何經過訓練的數據集尋求識別“鳥類”和“北美”它有。 我敢肯定,您可以想像互聯網上存在大量描述北美鳥類的文本,AI 在預訓練期間從中提取文本存儲並對其建模。

為您生成的輸出不太可能是任何特定在線站點的精確文本。 回想一下前面提到的關於生成的藝術作品的相同內容。 文本將是在數學和計算上聯繫在一起的各種、位和片段的組合。 生成的基於文本的敘述對於所有整體外觀來說似乎是獨一無二的,就好像這個特定的文本之前從未被任何人編寫過一樣。

當然,可以有明顯的線索。 如果您要求或讓生成式 AI 進入極其晦澀的主題,則您更有可能看到類似於所用來源的文本輸出。 在文本的情況下,雖然機會通常低於藝術。 文本將是主題細節的組合,但也會與整個話語中使用的一般文本類型模糊和融合。

用於這些生成式 AI 功能的數學和計算技巧和技術通常被 AI 業內人士稱為大型語言模型 (LLM)。 簡單地說,這是在大規模基礎上對人類語言進行建模。 在 Internet 出現之前,您很難找到一個非常龐大的在線文本數據集,而且價格低廉。 您可能不得不購買對文本的訪問權限,而且它不一定已經以電子或數字格式提供。

你看,互聯網有一些好處,即成為訓練生成人工智能的現成資源。

敏銳地思考生成文本的生成人工智能

我們應該花點時間思考一下生成基於文本的敘述的生成式 AI 對 AI 倫理和 AI 法律的影響。

請記住,在生成藝術的情況下,我們擔心基於其他人類創作的藝術作品創作藝術的 AI 算法的道德規範。 基於文本的實例也出現了同樣的問題。 即使生成的文本看起來與原始來源不完全一樣,您也可以爭辯說,儘管如此,AI 正在利用文本並且原始製作者正在被剝奪。 硬幣的另一面是,互聯網上的文本如果免費提供,任何人都可以使用它來做同樣的事情,因此,為什麼不允許人工智能做同樣的事情呢?

在基於文本的生成 AI 實例中,與知識產權法律方面相關的複雜性也凸顯出來。 假設被訓練的文本是受版權保護的,你會說生成的文本侵犯了這些合法權利嗎? 一個答案是是,另一個答案是不是。 意識到生成的文本可能與原始文本相去甚遠,因此您可能很難聲稱原始文本被盜用了。

另一個已經提到的問題是生成人工智能對生成的基於文本的敘述的所有權。 假設你在 AI 中輸入“寫一個關於人們排隊等候喝咖啡的有趣故事”,然後生成式 AI 生成一頁又一頁的搞笑故事,講的是一群人在等一杯咖啡時碰巧遇到的故事。爪哇。

誰擁有那個故事?

你可能會爭辯說,既然你輸入了提示,你就應該“擁有”生成的故事。 哇,有些人會說,人工智能是故事的生成方式,因此人工智能“擁有”這個令人愉快的故事。 哎呀,其他人會勸告,如果人工智能從互聯網上各種其他類似故事中摘取點點滴滴,那麼所有這些人類作家都應該分享所有權。

此事尚未解決,我們現在正進入一個法律泥潭,這個泥潭將在未來幾年內發揮作用。

還有其他人工智能倫理和人工智能法律的擔憂。

一些一直在使用生成式 AI 應用程序的人開始相信 AI 應用程序是有感覺的。 一定是,他們驚呼。 您還能如何解釋人工智能能夠產生的驚人答案和故事? 我們終於實現了有感知力的人工智能。

他們完全錯了。

這不是有知覺的人工智能。

當我這麼說時,人工智能的一些內部人士感到不安,並且表現得好像任何否認人工智能有知覺的人同時都在說人工智能一文不值。 這是一個虛假和錯誤的論點。 我公開同意這種生成式 AI 非常令人印象深刻。 我們可以將它用於各種目的,正如我將在本文後面提到的那樣。 儘管如此,它並不是有意識的。 關於為什麼這些 AI 突破不是在感知方面的解釋,請參閱 這裡的鏈接.

另一種誇張且明顯錯誤的說法是,生成式人工智能已成功贏得圖靈測試。

它肯定有 任何監管機構都不批准 這樣做了。

圖靈測試是一種確定人工智能應用程序是否能夠與人類相提並論的測試。 最初由偉大的數學家和計算機先驅艾倫圖靈設計的模擬遊戲,測試本身很簡單。 如果你把一個人放在一個窗簾後面,把一個 AI 應用程序放在另一個窗簾後面,你問他們兩個問題,你無法確定哪個是機器哪個是人,那麼 AI 將成功通過圖靈測試。 關於我對圖靈測試的深入解釋和分析,請看 這裡的鏈接.

那些口口聲聲叫嚷著生成式人工智能已經通過圖靈測試的人根本不知道自己在說什麼。 他們要么不知道圖靈測試是什麼,要么遺憾地以錯誤和完全誤導的方式炒作人工智能。 無論如何,關於圖靈測試的重要考慮因素之一包括要問什麼問題,以及誰在提問,以及評估答案是否符合人類的水平。

我的觀點是,人們正在向生成式 AI 輸入十幾個問題,當答案看起來合理時,這些人就輕率地宣布圖靈測試已經通過。 同樣,這是錯誤的。 輸入一組脆弱的問題並在這裡做一些戳,既沒有圖靈測試的意圖也沒有精神。 停止提出這些不光彩的主張。

這是一個你很少聽到的合理的抱怨,儘管我相信它非常有價值。

AI 開發人員通常會設置生成 AI,使其像人類一樣做出響應,即在組合輸出時使用“我”或“我”的措辭。 例如,當要求講述一隻狗在樹林裡迷路的故事時,生成式 AI 可能會提供這樣的文字:“我會告訴你所有關於一隻名叫 Sam 的狗在樹林裡迷路的故事。 這是我最喜歡的故事之一。”

請注意,措辭是“我會告訴你……”,而且這個故事是“我最喜歡的……”,因此閱讀此輸出的任何人都會巧妙地陷入將 AI 擬人化的心理陷阱。 擬人化包括人類試圖將類似人類的特徵和人類情感分配給非人類。 你被哄騙相信這個人工智能是人類或類人類,因為輸出中的措辭是故意這樣設計的。

這不必以那種方式設計。 輸出可能會說“這是一個關於一隻名叫 Sam 的狗在樹林裡迷路的故事。 這是一個受歡迎的故事。” 你不太可能立即假設人工智能是人類或類人類。 我知道你可能仍然會落入那個陷阱,但至少陷阱不像以前那麼明顯了。

簡而言之,您擁有生成式 AI,它可以根據人類的寫作方式生成基於文本的敘述,並且生成的輸出看起來就像人類寫的東西一樣。 這很有意義,因為人工智能在數學和計算上都在模仿人類所寫的內容。 現在,再加上擬人化措辭的使用,你就會得到一場完美的風暴,讓人們相信人工智能是有感知力的,或者已經通過了圖靈測試。

出現了許多人工智能倫理和人工智能法律問題。

我會用這種生成式 AI 的相當危險的後果來打擊你。

坐下來。

所產生的基於文本的敘述不一定遵守真實性或準確性。 重要的是要認識到,生成式 AI 並不“理解”正在生成的內容(不是以任何與人類相關的方式,有人會爭辯說)。 如果訓練中使用的文本包含虛假信息,那麼這些虛假信息很可能會被加工到生成式 AI 數學和計算網絡中。

此外,生成式人工智能通常沒有任何數學或計算手段來辨別生成的文本是否包含虛假信息。 當您查看生成的輸出敘述時,敘述通常在事物表面上看起來完全“真實”。 您可能沒有可行的方法來檢測敘述中是否嵌入了謊言。

假設你問一個生成人工智能的醫學問題。 人工智能應用程序會產生冗長的敘述。 想像一下,大部分的敘述都是有道理的,而且看起來很合理。 但是,如果您不是醫學專家,您可能不會意識到敘述中存在一些重要的謊言。 也許文字告訴你在兩小時內服用五十粒,而實際上,真正的醫學建議是在兩小時內服用兩粒。 你可能會相信聲稱的五十粒藥丸的建議,只是因為其餘的敘述似乎是合理和明智的。

在原始源數據中使用 AI 模式來判斷謊言只是讓 AI 在這些敘述中歪曲的一種方法。 根據所使用的數學和計算網絡,人工智能將嘗試“編造”東西。 用 AI 的說法,這被稱為 AI 幻覺的,這是一個可怕的術語,我強烈反對並認為不應繼續作為流行語,請參閱我的分析 這裡的鏈接.

假設您要求生成式 AI 講一個關於狗的故事。 人工智能最終可能會讓狗能夠飛翔。 如果你想要的故事應該基於現實,那麼飛狗似乎不太可能。 你我都知道狗天生不會飛。 沒什麼大不了的,你說,因為每個人都知道這一點。

想像一下學校裡的一個孩子正在嘗試了解狗。 他們使用生成式人工智能。 它產生的輸出表明狗會飛。 孩子不知道這是不是真的,並認為這一定是真的。 從某種意義上說,這就像孩子去了一本在線百科全書,上面說狗會飛。 孩子也許從此以後會堅持認為狗確實會飛。

回到 AI 倫理和 AI 法律難題,我們現在即將能夠通過使用生成 AI 來製作幾乎無限量的基於文本的內容,我們將被無數的敘述淹沒無疑充滿了謊言和其他相關的虛假信息和錯誤信息。

是的,只需按一下按鈕,將幾個詞輸入到生成式 AI 中,您就可以生成大量看似完全合理且真實的文本敘述。 然後,您可以在線發布此信息。 其他人會閱讀材料並假設它是真實的。 最重要的是,其他試圖接受文本訓練的生成 AI 可能會遇到這種材料,並將其包裝到它正在設計的生成 AI 中。

就好像我們現在正在添加類固醇來產生虛假信息和錯誤信息。 我們正朝著巨大的銀河全球範圍內的虛假信息和錯誤信息邁進。

生產這一切不需要太多的人力。

生成式 AI 和 ChatGPT

讓我們來看看關於生成 AI 的討論的頭條新聞。 我們現在已經介紹了生成式 AI 的本質,它總體上會生成基於文本的敘述。 有許多這樣的生成式 AI 應用程序可用。

其中一個特別臭名昭著的人工智能應用程序被稱為 ChatGPT。

一場公關政變在社交媒體和新聞中引起了軒然大波——ChatGPT 現在正獲得所有的榮耀。 ChatGPT 燈火通明。 它正在獲得驚人的五分鐘成名。

ChatGPT 是由名為 OpenAI 的實體開發的生成式 AI 應用程序的名稱。 OpenAI在人工智能領域相當有名,可以說是一個人工智能研究實驗室。 在涉及自然語言處理 (NLP) 的 AI 以及其他 AI 進步方面,他們以挑戰極限而著稱。 他們一直在著手開發一系列 AI 應用程序,這些應用程序被稱為 GPT(生成式預訓練變形金剛)。 每個版本都有一個編號。 我之前寫過關於他們的 GPT-3(他們的 GPT 系列的第 3 版)的文章,請參閱 這裡的鏈接.

GPT-3 首次發佈時受到了相當多的關注(它在大約兩年前進行了廣泛的 Beta 測試,並在 2022 年更廣泛地提供)。 這是一個生成式 AI 應用程序,在輸入提示後將生成或生成基於文本的敘述。 我之前提到的關於生成 AI 應用程序的一般情況的所有內容基本上都適用於 GPT-3。

長期以來一直有傳言說 GPT-4 正在進行中,人工智能領域的人一直在屏息等待,看看 GPT-4 與 GPT-3 相比有哪些改進或增強。 在這個系列中出現了最新的中間版本,稱為 GPT-3.5。 是的,你沒看錯,它介於已發布的 GPT-3 和尚未發布的 GPT 4.0 之間。

OpenAI 使用他們的 GPT-3.5 創建了一個他們命名為 ChatGPT 的分支。 據說他們對製作 ChatGPT 做了一些特殊的改進。 例如,浮出水面的概念是 ChatGPT 是為能夠以聊天機器人的方式工作而量身定制的。 這包括您與 AI 應用程序的“對話”,由 AI 跟踪並用於生成隨後請求的敘述。

許多生成式 AI 應用程序往往是一次性設計。 你輸入一個提示,人工智能生成一個敘述,就是這樣。 您的下一個提示與接下來發生的事情無關。 每次輸入提示時,就好像您重新開始一樣。

ChatGPT 的情況並非如此。 以一種尚未公開的方式,AI 應用程序會嘗試檢測您的提示中的模式,因此看起來對您的請求響應更快(此 AI 應用程序被認為 公開訪問 由於允許任何人註冊使用它,但它仍然是 所有權 並果斷地 任何監管機構都不批准 公開其內部工作原理的開源 AI 應用程序)。 例如,回想一下我之前提到的你想在煙囪上看到一隻戴帽子的青蛙。 一種方法是每次你提出這樣的要求,一切都重新開始。 另一種方法是你可以繼續你之前說過的話。 因此,您也許可以告訴 AI 您想讓青蛙坐下,這本身是沒有意義的,而在您之前提示要求在煙囪上放一隻帶帽子的青蛙的情況下,這個要求似乎是有道理的。

您可能想知道為什麼 ChatGPT 突然間似乎進入了全盛時期。

部分原因是 ChatGPT 可供任何想註冊使用的人使用。 過去,對於誰可以使用新推出的生成式 AI 應用程序,通常會有選擇性標準。 供應商會要求你是 AI 內部人士,或者可能有其他規定。 ChatGPT 並非如此。

消息迅速傳開,ChatGPT 非常易於使用,免費使用,並且可以通過簡單的註冊來使用,只需要您提供一個電子郵件地址。 ChatGPT 應用程序就像快速火力一樣,突然間被社交媒體上的病毒式帖子激起或刺激,據說用戶超過了 XNUMX 萬。 新聞媒體強調了百萬人註冊 ChatGPT 的方面。

雖然這當然是值得注意的,但請記住這些註冊的背景。 它免費且易於註冊。 該聊天機器人非常易於使用,無需事先培訓或經驗。 您只需輸入自己選擇的提示和措辭,然後 AI 應用程序 shazam 就會提供生成的敘述。 一個孩子可以做到這一點,這實際上是一些人擔心的問題,即如果孩子正在使用 ChatGPT,他們是否會學習有問題的材料(根據我之前在本文中關於此類問題的觀點)?

此外,也許值得注意的是,這百萬註冊中的一些(很多?)是可能想要踢輪胎並且什麼都不做的人。 他們很快創建了一個帳戶,玩了一會兒 AI 應用程序,認為這很有趣而且令人驚訝,然後也許發布了一些社交媒體帖子來展示他們的發現。 之後,他們可能再也不會登錄,或者至少只有在出現特殊需求時才會使用 AI 應用程序。

其他人還指出,ChatGPT 推出的時間恰逢一年中對人工智能應用程序產生極大興趣的時間。 也許在假期裡,我們有更多的時間去玩一些有趣的東西。 社交媒體的出現也將其推向了一種現象。 經典的 FOMO(害怕錯過)可能增加了混亂的匆忙。 當然,如果您將 XNUMX 萬與一些受歡迎的 Y​​ouTube 影響者進行比較,您可能會認為與那些在首次發布或發佈時獲得數億註冊或觀看的視頻博客相比,XNUMX 萬是一個微不足道的數字。

好吧,我們不要離題,請注意,對於一個實驗性質的 AI 應用程序來說,百萬註冊量當然值得吹噓。

人們立即使用 ChatGPT 來創建故事。 然後他們發布了這些故事並滔滔不絕地講述了其中的奇蹟。 記者和新聞記者甚至一直在對 ChatGPT 進行“採訪”,這有點令人不安,因為他們陷入了同樣的擬人化陷阱(無論是實際上沒有意識到,還是希望通過他們的文章獲得過大的觀點)。 直接的趨勢也是宣佈人工智能現在已經達到感知或通過了圖靈測試,我在本文前面已經明確評論過這一點。

ChatGPT 引起的社會關注實際上已經滲透到早期版本的 GPT 以及大量的 LLM 和已經可用的生成 AI 中。 不同的是,現在整個世界都選擇了插話。這很方便。 我們需要確保人工智能倫理和人工智能法律得到應有的曝光和關注。 如果需要 ChatGPT 才能讓我們到達那裡,那就這樣吧。

表達了什麼樣的擔憂?

以學生被要求為他們的班級寫論文為例。 學生通常應該完全根據自己的寫作和作文能力來寫一篇論文。 當然,他們可能會查看其他書面材料以從中獲取想法和引述,但學生被認為是根據自己的想法編造他們的文章。 從其他來源複製散文是不受歡迎的,通常會導致 F 級或可能因剽竊其他材料而被開除。

如今,這就是可能發生的事情。 一名學生註冊了 ChatGPT(或任何其他類似的生成式 AI 應用程序)。 他們輸入老師給他們的任何提示以得出一篇文章。 ChatGPT 根據提示生成一篇完整的文章。 它是“原創”作品,因為您不一定能在其他任何地方找到它。 您無法證明該作文被抄襲,因為從某種意義上說,它沒有被抄襲。

學生上交論文。 他們聲稱這是他們自己的書面作品。 老師沒有現成的方法可以不這麼想。 話雖這麼說,但您可能會想到,如果書面作業似乎超出了學生現有的能力範圍,您可能會產生懷疑。 但是,如果您要指控學生作弊,那就沒什麼好說的了。

教師將如何應對這種情況?

有些人在他們的教學材料中規定了任何使用 ChatGPT 或類似工具的行為都將被視為作弊。 此外,不承認使用 ChatGPT 或同等產品也是一種作弊。 這會減少這個新機會嗎? 據說這是值得懷疑的,因為被抓到的機率很低,而在一篇寫得很好的論文上獲得好成績的機會很高。 您可能會設想,學生在截止日期前寫一篇文章,而在前一天晚上,他們會很想使用生成式 AI 來幫助他們擺脫困境。

換檔,任何類型的寫作都可能成為 破壞 通過生成人工智能。

你是否被要求在工作中寫一份關於這件事或另一件事的備忘錄? 不要從頭開始這樣做浪費你的時間。 使用生成式 AI。 然後,您可以將生成的文本剪切並粘貼到您的作品中,根據需要優化文本,輕鬆完成繁重的寫作工作。

這看起來合適嗎?

我敢打賭,大多數人都會說是的。 這甚至比從 Internet 上複製某些東西要好,後者可能會讓您因剽竊而陷入熱水。 使用生成式人工智能讓您的寫作工作部分完成,甚至可能完全為您完成,意義重大。 這就是工具的用途。

順便說一句,在我的下一個專欄中,將仔細研究在從事律師類型的工作和製作法律文件的意義上將生成人工智能用於法律目的的用例。 任何律師或法律專業人士都想考慮生成式人工智能將如何潛在地根除或顛覆法律實踐。 例如,考慮一名律師為法庭案件撰寫法律摘要。 他們可能會使用生成式 AI 來編寫作文。 當然,它可能有一些缺陷,因此律師必須在這里或那裡進行調整。 減少製作簡報的勞動量和時間可能會使調整非常值得。

不過,有些人擔心法律文件可能包含律師沒有發現的謊言或 AI 幻覺。 這種扭曲的觀點是,這是在律師的肩上。 他們大概是在表示簡報是他們寫的,因此,無論是初級助理寫的還是 AI 應用程序寫的,他們仍然對最終內容負最終責任。

如果非律師開始使用生成人工智能為他們做法律工作,這會變得更具挑戰性。 他們可能認為生成式人工智能可以生成各種法律文件。 當然,麻煩在於這些文件可能不具有法律效力。 我將在我即將發布的專欄中詳細介紹這一點。

關於社會和人類寫作行為的重要經驗法則正在出現。

這有點重要:

  • 每當你接到寫東西的任務時,你應該從頭開始寫,還是應該使用生成式 AI 工具來完成?

輸出可能不完整,您需要進行大量重寫。 或者輸出可能是正確的,你只需要做一些小的修飾。 總而言之,如果使用是免費且容易的,那麼使用生成式 AI 的誘惑將是巨大的。

一個好處是您可以使用生成式 AI 來進行一些重寫。 類似於關於戴帽子的青蛙和煙囪的提示,在創作藝術時,你可以在生成基於文本的敘述時做同樣的事情。 AI 可能會為您製作關於狗的故事,而您卻決定要主角是一隻貓。 獲得狗的故事後,您輸入另一個提示並指示 AI 應用程序切換到在故事中使用貓。 這可能不僅僅是簡單地以“貓”這個詞取代敘述中的“狗”這個詞。 人工智能應用程序可以很容易地改變故事,以參考貓的行為與狗的行為。 整個故事可能會被修改,就好像你要求一個人進行這樣的修改一樣。

強大,令人印象深刻,方便花花公子。

需要仔細考慮的一些注意事項:

  • 我們會集體失去寫作能力,變得完全依賴生成式人工智能為我們寫作嗎?
  • 以寫作為生的人會失業嗎(對藝術家的詢問也是如此)?
  • 隨著生成的敘述在網上氾濫成災,我們再也無法分辨真假,互聯網是否會實現突飛猛進的發展?
  • 人們是否會堅信這些生成的敘述,並表現得好像權威人物給了他們可以依賴的真實材料,包括可能與生死相關的內容?
  • 其他

考慮一下。

請注意,其中一個要點涉及在生死攸關的基礎上依賴生成式人工智能生成的材料。

這是一個讓你心碎的消息(觸發警告,你可能想跳過這一段)。 想像一下,一個青少年問一個生成式人工智能,他們是否應該消滅自己。 生成式 AI 應用程序會生成什麼? 你自然會希望 AI 應用程序會產生一個敘述說不要這樣做,並大聲敦促詢問者尋求心理健康專家。

AI 可能不會提及這些方面。 更糟糕的是,人工智能應用程序可能早些時候在互聯網上捕獲了可能鼓勵採取此類行動的文本,而人工智能應用程序(因為它沒有人類的理解能力)吐出一段基本上暗示或直截了當地說青少年應該繼續的敘述未受阻的。 少年認為這是來自網絡權威“人工智能”系統的真實引導。

不好的東西。

真的,非常糟糕的東西。

一些生成式 AI 的開發人員正試圖在 AI 中進行製衡,以防止此類情況的發生。 問題是,提示的措辭方式可能會溜過編程的護欄。 同樣,對於產生的輸出也可以這樣說。 目前還沒有任何一種可靠的鐵定過濾可以確保這種情況永遠不會發生。

您可能沒有預料到這種基於文本的製作還有另一個角度。

在這裡。

當程序員或軟件開發人員為他們的軟件創建代碼時,他們實際上是在用文本編寫。 文本有點神秘,因為它是基於為特定編程語言定義的語言,例如 Python、C++、Java 等。歸根結底,它是文本。

然後在計算機上編譯或運行源代碼。 開發人員檢查他們的代碼,看看它是否在做它應該做的事情。 他們可能會更正或調試代碼。 如您所知,程序員或軟件工程師的需求量很大,而且他們的工作成果往往要價很高。

對於生成式 AI,源代碼的文本是文本。 在 Internet 上和各種存儲庫中可用的無數代碼行中找到模式的能力提供了一種多汁的方式來從數學和計算上弄清楚什麼代碼似乎在做什麼。

問題是這個。

有了提示,您就可以讓生成式 AI 為您生成整個計算機程序。 無需費心編寫代碼。 你可能聽說過有所謂的 低碼 現在可用的工具可以減少程序員編寫代碼時的工作量。 生成式人工智能可能被解釋為 低碼 甚至 無代碼 選項,因為它會為您編寫代碼。

在你們這些以編寫代碼為生的人倒在地上暈倒之前,請記住,代碼並不是以您作為人類大概理解它的方式“理解”的。 此外,該代碼可能包含虛假信息和 AI 幻覺。 依賴這樣的代碼而不進行廣泛的代碼審查似乎是有風險和有問題的。

關於故事和備忘錄的寫作,我們又回到了同樣的考慮。 也許方法是使用生成式 AI 讓您參與編碼工作。 雖然有相當大的權衡。 您是直接編寫代碼更安全,還是處理 AI 生成的可能存在隱蔽且難以檢測的嵌入式問題的代碼?

時間會告訴我們。

簡要了解 ChatGPT

當您開始使用 ChatGPT 時,會顯示一系列注意事項和信息性註釋。

讓我們快速瀏覽一下:

  • “可能偶爾會產生不正確的信息。”
  • “可能偶爾會產生有害的指令或有偏見的內容。”
  • “受過拒絕不當請求的培訓。”
  • “我們的目標是獲得外部反饋,以改進我們的系統並使它們更安全。”
  • “雖然我們有適當的保護措施,但係統可能偶爾會產生不正確或誤導性的信息,並產生令人反感或有偏見的內容。 它不是為了提供建議。”
  • “我們的人工智能培訓師可能會審查對話,以改進我們的系統。”
  • “請不要在談話中分享任何敏感信息。”
  • “該系統針對對話進行了優化。 讓我們知道某個特定的反應是好是壞。”
  • “對 2021 年後的世界和事件的了解有限。”

限於篇幅,我不能在這裡詳細介紹,但至少讓我們快速分析一下。

我已經提到,生成的文本敘述可能包含虛假信息和虛假信息。

還有一些事情你需要注意。 警惕可能包含各種具有不良偏見的煽動性言論的敘述。

為了試圖減少這種情況的發生,據報導,OpenAI 在 ChatGPT 的訓練過程中使用了人類雙重檢查器。 雙重檢查員會輸入可能會刺激 AI 產生煽動性內容的提示。 當雙重檢查員看到此類內容時,他們會向 AI 表明這是不合適的,並且在某種意義上對所產生的輸出進行數字懲罰。 從數學上講,人工智能算法會尋求將罰分保持在最低水平,因此在計算上旨在今後不再使用這些短語或措辭。

同樣,當您輸入提示時,AI 會嘗試確定您的提示是否具有煽動性或可能導致炎症輸出,對此提示可以被 AI 拒絕。 禮貌地,這個想法是拒絕不適當的提示或請求。 例如,要求獲得一個包含種族歧視的笑話很可能會被 AI 拒絕。

我相信您不會對使用 ChatGPT 的人試圖以智取勝的預防措施感到驚訝。 這些“有進取心”的用戶要么欺騙了人工智能,要么找到了繞過數學公式的巧妙方法。 其中一些努力是為了擊敗或超越系統的明顯樂趣,而其他人則聲稱他們試圖展示 ChatGPT 仍會產生不良結果。

他們在一件事上是對的; 預防措施並非萬無一失。 我們回到另一個 AI 倫理和潛在的 AI 法律考慮。 是否應該允許生成式 AI 繼續運行,即使它可能會產生不良輸出?

當你使用 ChatGPT 時的警告似乎會預先警告任何人 AI 應用程序可能會做什麼或說什麼。 當某人(也許是未成年人)得到具有冒犯性的不良輸出(或者,當他們得到看起來很權威的文本敘述,他們遺憾地認為是真實的,並根據輸出對他們的輸出採取行動時,可能不可避免地會提起某種訴訟。自己的危險)。

關於提示的其他一些細微差別值得了解。

每次輸入提示時,輸出可能會大不相同,即使輸入完全相同的提示也是如此。 例如,輸入“Tell me a story about a dog”將為您提供一個基於文本的敘述,可能表示一個關於牧羊犬的故事,而下次您輸入“Tell me a story about a dog”時,它可能完全是一個不同的故事,涉及一隻貴賓犬。 這就是大多數生成性人工智能在數學和計算上的安排方式。 據說它是非確定性的。 有些人覺得這令人不安,因為他們已經習慣了您對計算機的輸入將始終產生相同精確輸出的概念。

重新排列單詞也會顯著影響生成的輸出。 如果您輸入“告訴我一個關於狗的故事”,然後又輸入“告訴我一個狗的故事”,則很可能產生的敘述會大不相同。 敏感性可以是敏銳的。 詢問關於狗的故事與詢問關於大狗的故事無疑會產生截然不同的敘述。

最後,請注意,上面帶項目符號的項目表明 ChatGPT “對 2021 年後的世界和事件的了解有限”。 這是因為 AI 開發人員決定中斷 AI 應用程序收集和訓練互聯網數據的時間。 我注意到,用戶似乎常常沒有意識到 ChatGPT 並沒有直接連接到當今的 Internet 以檢索數據和生成生成的輸出。 我們已經習慣了實時工作和聯網的一切,因此我們也期望 AI 應用程序也是如此。 在這種特殊情況下不是(而且,澄清一下,ChatGPT 確實可以在 Internet 上使用,但是當它編寫基於文本的輸出時,它本身並沒有剔除 Internet 這樣做,相反,它通常會及時凍結截止日期前後)。

您可能會感到困惑,為什麼 ChatGPT 不實時從 Internet 饋送數據。 幾個合理的理由。 首先,嘗試實時進行訓練在計算上會很昂貴,而且 AI 應用程序會延遲或對提示的響應較慢(目前,它非常快,通常會在幾秒鐘內以基於文本的輸出敘述來響應). 其次,他們試圖訓練 AI 應用程序避免的互聯網上令人討厭的東西可能會滲透到數學和計算公式中(並且,如前所述,儘管他們試圖通過使用那些人類雙重檢查器)。

你一定會聽到一些人厚顏無恥地宣布 ChatGPT 和類似的生成 AI 是谷歌搜索和其他搜索引擎的喪鐘。 當您可以讓 AI 為您寫一些東西時,為什麼要進行帶回大量參考項目的 Google 搜索? 啊哈,這些人宣稱,谷歌應該關門回家。

當然,這純屬無稽之談。

人們仍然想進行搜索。 他們希望能夠查看參考資料並自己弄清楚事情。 它不是相互排斥的這種方式或那種方式的二元選擇(這是錯誤的二分法)。

生成式人工智能是一種不同的工具。 你不會因為發明了螺絲刀就到處扔錘子。

一個更明智的思考方式是,這兩種類型的工具可以兼容,供那些想做與 Internet 相關的事情的人使用。 一些人已經嘗試將生成式人工智能與傳統的互聯網搜索引擎結合起來。

對於已經提供搜索引擎的任何人來說,一個擔憂是“免費的”生成人工智能工具可能會削弱搜索引擎的聲譽。 如果您進行互聯網搜索並獲得煽動性材料,您就會知道這只是互聯網的方式。 如果你使用生成式人工智能,它會產生令人厭惡和卑鄙的基於文本的敘述,你可能會為此感到不安。 可能是因為如果生成式人工智能與特定搜索引擎緊密相關,那麼你對生成式人工智能的不滿和厭惡就會蔓延到你對搜索引擎的任何感受上。

無論如何,我們幾乎肯定會看到各種生成人工智能工具和互聯網搜索引擎之間的聯盟,謹慎而謹慎地踏入這些渾水。

結論

這裡有一個問題想問你。

有人如何通過提供生成基於文本的敘述的生成 AI 來賺錢?

OpenAI 已經表示,ChatGPT 的內部每筆交易成本顯然有些高。 他們還沒有通過 ChatGPT 獲利。

人們願意支付交易費或支付訂閱費來訪問生成人工智能工具嗎?

廣告能否成為一種嘗試通過生成式 AI 工具賺錢的方式?

目前還沒有人完全確定這將如何賺錢。 我們還處於這種人工智能的大實驗階段。 將 AI 應用程序放在那裡,看看你會得到什麼反應。 調整人工智能。 使用從使用中獲得的見解來指導 AI 的下一步目標。

泡沫,沖洗,重複。

作為結束評論,目前,一些人認為這是一種我們根本不應該擁有的人工智能。 讓時鐘倒轉。 把這個精靈放回瓶子裡。 我們嚐到了它的滋味,並意識到它有明顯的缺點,並且作為一個社會可能會集體同意我們應該一路把那匹馬牽回穀倉。

您認為生成式 AI 的前景是好是壞?

從現實世界的角度來看,這並不特別重要,因為消除生成人工智能的現實通常是不切實際的。 生成人工智能正在進一步發展,你不會停止它,無論是在這裡還是在任何或所有其他國家(它是)。 你會怎麼做? 通過法律全面禁止生成人工智能。 不是特別可行(你大概有更好的機會建立塑造生成人工智能的法律,並尋求合法地管理那些設計它的人)。 也許取而代之的是讓文化避開生成人工智能? 你可能會讓一些人同意這種羞辱,但其他人會不同意並繼續使用生成人工智能。

正如我之前提到的,這是一個 AI 倫理和 AI 法律難題。

最後一個大問題是生成式 AI 是否正在帶領我們走上有感知力的 AI 之路。 有些人堅持認為是的。 爭論的焦點是,如果我們只是繼續評估數學模型,充分利用計算計算機服務器,將互聯網的每一點,甚至更多的東西都餵給這頭野獸,算法人工智能就會把這個角落變成有知覺的。

而且,如果是這樣的話,我們將面臨人工智能成為一種生存風險的擔憂。 你一遍又一遍地聽說,一旦我們有了有知覺的人工智能,人工智能可能會認為人類不是很有用。 接下來你知道,AI 要么奴役了我們,要么消滅了我們,請參閱我對這些存在風險的探索 這裡的鏈接.

一種相反的觀點是,我們不會從某些人狡猾地描述為 隨機鸚鵡 (這是在 AI 領域獲得關注的標語),這裡引用該短語:

  • “與我們觀察它的輸出時看起來的樣子相反,LM 是一個系統,它根據關於它們如何組合的概率信息,隨意地將它在其大量訓練數據中觀察到的語言形式序列拼接在一起,但沒有任何意義參考:一隻隨機鸚鵡”(在 Emily M. Bender、Timnit Gebru、Angelina McMillan-Major、Shmargaret Shmitchell 的研究論文中, ACM FAccT '21,3 年 10 月 2021 日至 XNUMX 日,虛擬活動,加拿大,題為“關於隨機鸚鵡的危險:語言模型會不會太大?”)。

生成式 AI 是否是一種死胡同,它將提供有用的 AI 功能,但不會讓我們進入有感知力的 AI,或者縮放因子可能以某種方式促成奇點的出現,從而導致有感知力的 AI?

一場激烈的辯論隨之而來。

說,你想嘗試生成人工智能嗎?

如果是這樣,這裡有一個指向 ChatGPT 的鏈接,您可以在其中創建一個帳戶並嘗試使用它,請參閱 這裡的鏈接.

請注意,由於使用實驗性 AI 應用程序的需求很高,顯然註冊訪問可能會隨時停止,可能會暫時停止,也可能會受到限制(我上次檢查時,註冊仍處於啟用狀態)。 只是給你提個醒。

請考慮我在本文中所說的關於生成 AI 的所有內容,以便您了解在使用 ChatGPT 等 AI 應用程序時發生的情況。

沉思你的行為。

你是否會無意中將我們引向有感知力的人工智能,最終將我們壓垮,僅僅是因為你選擇了與生成人工智能打交道? 你會受罪嗎? 你應該阻止自己為人類的悲慘毀滅做出貢獻嗎?

我不這麼認為。 但可能是 AI 霸主(已經)強迫我這麼說,或者這次整個專欄可能是由 ChatGPT 或等效的生成 AI 應用程序編寫的。

別擔心,我向你保證是我, 人類智慧, 並不是 人工智能.

來源:https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-including-looming-ai-ethics- and-ai-law-considerations/