AI 倫理和 AI 法律質疑生成式 AI ChatGPT 是否會用無限內容淹沒互聯網

你知道勵志兒童讀物嗎 離開水的魚?

這本引人入勝的書是由海倫帕默(真名海倫帕默蓋塞爾)根據蘇斯博士(真名西奧多蓋塞爾)的短篇小說創作的。 這對夫妻團隊為兒童文學做出了傳奇般的貢獻,讓世界各地的年輕人都為之欣喜。

如果您不熟悉情節或需要提神,請允許我簡要總結一下。 一個男孩從他當地的寵物店買了一條金魚。 他被嚴厲指示永遠不要過度餵養這種微小的海洋生物。 如果你這樣做,你永遠不知道會發生什麼。

這個男孩不經意間給他的金魚餵食過多,只有一次,但這引發了驚人的肆無忌憚的生長。

事情開始變得很不對勁。

這條曾經很小的魚很快就從魚缸里長大了,變得如此之大,以至於男孩把這只心愛的寵物放到了家裡的浴缸裡。 魚不斷地生長和生長。 這似乎是不可阻擋的。

很快,警察和消防部門就來幫助這個男孩,並將現在大像大小的金魚運送到當地的公共游泳池。 最終,寵物店老闆趕到並設法將金魚縮小到正常大小。 我們不知道這個神奇的壯舉是如何實現的。 男孩再次被警告避免過度餵食。

吸取教訓,艱難的道路。

當談到互聯網的未來時,我們可能需要注意同樣的慘痛教訓。

我怎麼知道?

今天的現實是,我們可能已經設計出一種人工智能 (AI) 形式,它將擴展並用大量無休止的數據洪流填滿互聯網。 有很多麻煩 生成式人工智能,最近新聞中最熱門的 AI,將做到這一點。

生成式 AI 能夠生成或產生諸如文本之類的輸出,而不僅僅是人類用戶輸入的簡單提示。 一篇完整而廣泛的文章可以通過幾個精心挑選的詞來生成。 由於廣受歡迎的 AI 應用程序 ChatGPT 於 XNUMX 月由 OpenAI 發布,您可能知道生成 AI。 我稍後會詳細說明這一點。

一些人一直在強烈警告說,生成式人工智能可以用來創造看似無限量的內容。

一個人可以輕鬆地利用生成式 AI 在一次在線會話中生成數千篇論文,而他們只需付出最少的勞動。 然後,此人可以選擇將生成的文章發佈到互聯網上。 想像一下這是大規模完成的。 從本質上講,繼續將其乘以數以百萬計的互聯網用戶。 可以輕鬆製作和發布名副其實的生成內容海嘯。

沖洗,重複,不間斷地這樣做,日復一日,一分一秒。

這是天上掉下來的緊張不安的說法還是有正當理由?

在今天的專欄中,我將解決這些表達的擔憂,即我們正面臨一個互聯網的未來完全被生成的 AI 內容堵塞和淹沒。 我們將研究這些疑慮的基礎,並考慮一些通常未提及的潛在優勢。 在本次討論中,我會偶爾提到 ChatGPT,因為它是生成 AI 的 600 磅重的大猩猩,但請記住,還有許多其他生成 AI 應用程序,它們通常基於相同的總體原則。

同時,您可能想知道生成式人工智能究竟是什麼。

讓我們首先介紹生成式 AI 的基礎知識,然後我們可以仔細研究手頭的緊迫問題。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。

請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

正在製定和頒佈人工智能道德準則,以期防止社會陷入無數人工智能誘導陷阱。 關於我對近 200 個國家通過教科文組織的努力製定和支持的聯合國人工智能倫理原則的報導,請參閱 這裡的鏈接. 同樣,正在探索新的 AI 法律,以試圖讓 AI 保持平穩。 最近的一次拍攝包括一組建議的 人工智能權利法案 美國白宮最近發布的關於人工智能時代人權的報告,見 這裡的鏈接. 讓人工智能和人工智能開發人員走上正確的道路,並阻止可能削弱社會的有目的或無意的不正當行為,需要舉全村之力。

我將把 AI 倫理和 AI 法律相關的考慮因素交織到這個討論中。

生成式人工智能基礎

最廣為人知的生成式 AI 實例由名為 ChatGPT 的 AI 應用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 發佈時迅速進入公眾意識。 自從 ChatGPT 獲得了巨大的頭條新聞以來,令人驚訝地超過了其規定的 XNUMX 分鐘的成名時間。

我猜您可能聽說過 ChatGPT,或者甚至認識使用過它的人。

ChatGPT 被認為是一種生成式 AI 應用程序,因為它將用戶的一些文本作為輸入,然後 生成 或產生由一篇文章組成的輸出。 AI 是文本到文本生成器,儘管我將 AI 描述為文本到文章生成器,因為這更容易闡明它的常用用途。 您可以使用生成式 AI 來撰寫冗長的作品,也可以讓它提供相當簡短的精闢評論。 一切聽從您的吩咐。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 還有其他生成 AI 模式,例如文本到藝術和文本到視頻。 我將在這裡重點關注文本到文本的變化。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

人們對生成式 AI 有很多擔憂。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

另一個問題是,儘管不是自己撰寫論文,但人類很容易將 AI 生成的論文歸功於他人。 您可能聽說過教師和學校非常關註生成式 AI 應用程序的出現。 學生可以使用生成式 AI 來撰寫他們分配的論文。 如果一個學生聲稱一篇文章是他們自己親手寫的,那麼老師幾乎不可能辨別它是否是由生成人工智能偽造的。 有關我對這個學生和老師混淆方面的分析,請參閱我的報導 這裡的鏈接這裡的鏈接.

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 您可能會禮貌地說,有些人誇大了當今 AI 的實際能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果一個生成式 AI 應用程序告訴你亞伯拉罕林肯乘坐他的私人飛機在全國各地飛行,你無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

我們已準備好進入這一闡明的下一階段。

看看生成式人工智能可能對互聯網做什麼

既然您大致了解了什麼是生成式 AI,我們就可以探討這個棘手的問題,即這種類型的 AI 是否會通過膨脹的互聯網造成混亂和混亂。

以下是我與此事相關的八個重要主題:

  • 1)互聯網規模
  • 2) 互聯網索引
  • 3) 衡量什麼是生成式 AI 生成的內容
  • 4)無論如何,生成人工智能內容有什麼問題
  • 5)人們會將生成的 AI 內容髮佈到互聯網上嗎
  • 6)也許付費專區方法會受到推崇
  • 7) 多模態 Morass 生成 AI 正在等待
  • 8)生成人工智能的惡性或良性循環

我將涵蓋這些重要主題中的每一個,並提供我們都應該認真考慮的關鍵考慮因素。 這些主題中的每一個都是更大難題的組成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

這是一個錯綜複雜的馬賽克,必須對整個拼圖給予適當的和諧考慮。

互聯網規模

首先要考慮的方面之一是互聯網的規模。

這是特別重要的。 關於生成式人工智能的說法是,它顯然會極大地膨脹互聯網。 由於使用生成式 AI 可以輕鬆生成大量數字材料,我們將擁有各種形式的附加內容。 如果是這樣,那麼邏輯上合理的問題就是今天的互聯網有多大,以及生成式人工智能會產生多少額外的內容,否則這些內容不會出現在互聯網上。

不幸的是,試圖掌握 Internet 的規模非常困難,而且非常不精確。

發佈於 財經在線 表明互聯網目前至少有 74 zettabytes (ZB) 的大小,到 463 年可能達到 2025 ZB(請注意,預測的增長似乎並未明確將生成 AI 本身作為一個因素考慮在內,只是假設所有else 在推導這個投影時是相等的)。

對 Internet 的現有規模還有許多其他估計。 同樣,對於規模的預期增長還有許多其他估計。 我不想陷入對這些數字的爭論中,只想強調互聯網無疑是龐大的。 此外,值得注意的是,所有合理的預期都是,在正常情況下,互聯網將毫不掩飾地繼續其飛速發展的道路。

您可能還會對 Statista 發布的各種統計數據感興趣,這些數據表明目前大約有 5.16 億互聯網用戶。 據計算,這代表了全球人口的 64.4%。 你驚喜嗎? 一方面,我們可能自然而然地假設大多數人確實會上網。 不過,從內部人士的角度來看,這多少有些偏差,因為許多人還沒有準備好訪問互聯網,或者無法獲得訪問權限。 無論如何,人們期望互聯網訪問最終會變得更便宜並變得更加普及,因此互聯網用戶的數量無疑會增加。

我拖你通過這些統計數據給我們帶來一個非常關鍵的問題。

生成式 AI 將為互聯網的現有和持續增長增加多少?

這就是我們想知道的。 你看,關於生成式 AI 影響的說法似乎只看表面價值,當然,生成式 AI 將充斥互聯網。 如果您方便地或心不在焉地避免討論實際數字和事物的真實數量,那麼所有這些都有點揮手。

例如,一般假設 Internet 的大小大約為 100 ZB,並且還在不斷增長。 如果您認為生成式 AI 每年可能會增加 1 ZB,那麼這對互聯網的整體規模來說只是九牛一毛。

生成式 AI 就像將一顆鵝卵石扔進浩瀚的海洋。

這似乎與這個重大話題的主流說法不符。 一些人熱情地推測,我們最終可能會看到 10% 的互聯網內容是基於“正常”用戶生成的,而剩下的 90% 將歸因於人工智能生成的內容。

這種說法似乎沒有什麼根據,似乎是憑空捏造的。 無論如何假設這發生了。 如果我們以現有的 100 ZB 作為基礎,並假設它基本上都是用戶生成的內容(好吧,這是值得商榷的),這意味著我們將不得不發現自己正在尋找一個 1,000 ZB 大小的互聯網。 這是 900 ZB 的 AI 生成內容和 100 ZB 的用戶生成內容。

與生成的 AI 生成的互聯網海洋的總量相比,我們本可以將今天假定的手工內容海洋視為相形見絀。

猜測中的猜測。

那麼,應該是哪一個呢?

我們是要讓生成式 AI 生產出一顆鵝卵石,還是會讓互聯網的規模成倍增加?

沒有人可以肯定地說。 我們應該嚴肅地探討這些關鍵數字,以便有關該主題的討論紮根於切實可行的事情。 不這樣做會使喋喋不休有點空洞,幾乎就像那個喊狼來了的男孩。

讓我們考慮下一個因素,請記住所有這些因素都是相互關聯的,必須作為一個整體來考慮,而不是簡單地從個人角度考慮。

互聯網索引

您可能會意識到,當您進行 Internet 搜索時,您正在使用某人的搜索引擎,該搜索引擎一直在嘗試定期為 Internet 內容編制索引。 我敢打賭,當您使用流行的搜索引擎時,您可能會有這樣的印象,即您正在獲得對 Internet 優勢的訪問。

那是極不可能的。

一些估計只有一小部分互聯網被編入索引,可能不到 1% 左右(有人說它高達 5% 或可能略高;它不是大多數人通常假設的水平,例如50% 或 90%)。 同樣,這些數字各不相同,但仍然相對較小。 要點是您幾乎總是不知道互聯網的很大一部分。

為什麼這在這種情況下很重要?

因為生成式 AI 可能會產生的附加內容可能會受到類似的索引考慮。 可能幾乎所有添加的內容都不會被編入索引。 在那種情況下,您可能永遠不會看到它。

硬幣的另一面假設這種“人造”內容將被編入索引並完成令人遺憾的缺乏對“傳統”內容的關注。 有觀點認為,索引將專注於生成的 AI 內容,而忽略傳統內容。 因此,即使生成的 AI 內容沒有淹沒互聯網,看起來也是因為此類內容的索引不成比例。

最終,尋找傳統內容可能就像大海撈針。 生成的 AI 生成內容的巨大混亂將類似於壓倒性的超大和伸展的干草捆。 如果你能找到的話,在某個地方會有那些珍貴的傳統內容的小寶石。

您可能會立即想到指數制定者應該弄清楚如何應對這種困境。 如果他們能夠以“正確的方式”進行索引,那么生成多少生成性 AI 內容幾乎無關緊要。 它將坐落在互聯網的小街小巷中,無論如何都看不到曙光。

讓我們繼續探索,看看這個索引問題是如何進一步出現的。

衡量什麼是生成式 AI 生成的內容

好吧,如果生成式 AI 會變得瘋狂並產生大量的互聯網內容,我們邏輯上可以應對這種情況,只要我們能夠將這些內容與“傳統”內容區分開來。

作為解決方案似乎很容易。

任何進行索引的搜索引擎只會檢測內容是生成的 AI 生成的還是傳統生成的。 然後,該索引可以選擇不包括生成的 AI 材料,或者在索引中標記該內容來自生成 AI。 然後,此類搜索引擎的用戶可以在搜索過程中指定他們是要包含生成的 AI 內容還是跳過它。

案件結案。

很抱歉地說這不是特別可行。

這就是原因。

試圖將生成的 AI 輸出與傳統內容區分開來並不容易,而且幾乎最終是不切實際的。 我在我的專欄中提到,那些所謂的檢測應用程序是虛假的承諾,本質上是一種誤導性的遊戲,請參閱 這裡的鏈接.

簡而言之,生成式 AI 的 AI 製造商不斷增強他們的 AI,以生成在設計上與傳統的人類生成內容沒有區別的內容。 這是一個故意的目標。 檢測應用程序面臨著持續不斷的貓捉老鼠的策略。 此外,這些檢測應用程序基於關於區分生成式 AI 輸出的各種假設,儘管這些假設通常是不正確的或僅基於概率。 最終的結果是,任何檢測應用程序都只是猜測可能性,並不能確定地做出鐵定的指示。

底線是,我們不太可能確定什麼是生成性 AI 內容,除非生成性 AI 提供者提供了一些明確的指示,儘管這也不是鐵定的。 再次,請參閱我對這個複雜主題的報導,討論於 這裡的鏈接. 正在追求的想法是將水印秘密地包含在生成的內容中。 理論上,您可以使用水印來查明內容是否來自生成式 AI。 缺點是隨著輸出的各種變化,相對容易弄亂水印。 然後內容將無法遵守水印,並且本應提示我們的路標現在已失效。

一些人認為我們需要新的人工智能法來解決這個問題。 制定要求生成式 AI 應用程序包含水印的法律。 此外,將試圖破壞這些水印的行為定為非法。 這可能是減少那些貓捉老鼠的技術遊戲的唯一方法。 我在我的專欄中研究了這些建議,並指出儘管這些規則聽起來很合理,但問題在於實施這些計劃和執行這些政策的細節。

總而言之,回到對通過生成人工智能內容導致互聯網膨脹的擔憂,不幸的是,我們無法通過簡單地註意到什麼是生成人工智能內容與什麼不是生成人工智能內容來解決這個問題。 問題比這更難。

無論如何,生成 AI 內容有什麼問題

所有這些對人工智能生成內容海嘯的擔憂通常都基於一個相當重要的假設,即內容將是錯誤的。

如果內容不錯,我們大概會對添加到 Internet 上的帖子感到滿意。 當然,數量可能很高,但如果發布的信息是有價值的,那麼只需篩選更多好東西即可。 正如他們所說,越多越好。

關鍵的考慮因素是生成的人工智能生成的內容是否會提供信息,而不是可能充滿錯誤、謊言、錯誤信息、虛假信息等。 這帶來了幾個方面。

首先,生成式 AI 可能會得到進一步發展,以至於產生錯誤論文的可能性極低。 如果我們想以某種方式禁止所有生成式人工智能在互聯網上發布,我們似乎是失職了,假設大體上,生成式人工智能輸出的文章在大多數情況下都是合理正確的,或者在當時佔優勢。 希望拒絕所有輸出的論文就像經典的把嬰兒連同洗澡水一起扔出去(一句老話,可能快退休了)。

其次,正如我在我的專欄中所討論的那樣 這裡的鏈接,人們對可以對生成的 AI 輸出論文進行雙重檢查的 AI 附加應用程序越來越感興趣。 在人們將生成的人工智能內容髮佈到互聯網之前,可以使用人工智能雙重檢查器。 即使人們不預先篩選他們希望發布的內容,也可以對已發布的內容使用相同的工具。 簡而言之,無論內容來源是什麼,都可以進行雙重檢查,這樣我們自然也應該對人為生成的內容保持懷疑。

第三,正如我在上述觀點中提到的,人們似乎常常認為人類生成的內容總是好的,而生成的 AI 內容總是不好的。 一個瘋狂的錯誤假設。 有大量人為生成的內容,其中包含各種錯誤、謊言和捏造的垃圾。 我們不安全僅僅因為一個人碰巧手工創建了內容。

所有內容,無論是人類設計的還是生成的 AI 設計的,都需要接受審查。

人們會將生成的 AI 內容髮佈到互聯網上嗎

另一個需要考慮的因素是人們是否真的會把生成的 AI 內容髮佈到互聯網上,如果是的話,發布的幅度有多大。

這就是我的意思。

人們將諸如 ChatGPT 之類的生成式 AI 用於各種目的。 他們可能會使用生成式 AI 來激發關於他們所面臨問題的想法。 他們可能會用它來做研究。 他們可能會用它來提供他們打算編輯的材料草稿,然後通過電子郵件將其發送給某人。 等等。

關鍵在於,許多生成性人工智能的使用可能與旨在將生成的輸出論文發佈到互聯網上的人沒有任何關係。 我們似乎經常陷入這樣的陷阱,即僅僅因為有人使用生成式 AI,他們就希望用生成的輸出淹沒互聯網。

我們還不知道人們有多少時間會使用生成式 AI 來滿足自己的需求,因此會選擇 任何監管機構都不批准 將輸出發佈到 Internet。

澄清一下,我並不是說人們不會將生成的 AI 輸出發佈到互聯網上。 他們肯定會的。 正在做在線博客的人無疑會利用生成人工智能。 生成式 AI 用於為互聯網製作內容的許多用途肯定會出現。 ETC。

因此,一個考慮因素是,我們可能不會將生成的 AI 內容髮佈到互聯網上,否則可能會發生這種情況。 對於那些假設我們正在尋找一個不間斷、肆無忌憚的全員發布數據啟示錄的專家,我們不知道這是否會發生。 當然,即使只有一小部分人選擇發布此類帖子,這仍然可能是大量添加到 Internet 上的內容。

一個轉折點是生成的人工智能輸出是否有可能自動發佈到互聯網上。

這是一個很容易實現的技巧。 你可以簡單地做到這一點,這樣你的生成人工智能應用程序的任何輸出都會直接發佈到互聯網上。 你甚至可以把它放到一個循環中。 有一系列預先固定的提示。 將這些輸入到生成式 AI 應用程序中。 生成式 AI 應用程序被編程為立即將輸出的論文發佈到互聯網上。

瞧,你有一台永動機來為 Internet 生成數據內容。

這些帖子會去哪裡?

任何允許發布此類機槍噴火內容的網站或其他在線場所都可能對其允許出現的內容負責。 據推測,人們會避開這些網站。 或者這些網站將被搜索引擎和索引算法指定。 生成的 AI 內容被發布是一方面,而另一個同樣重要的方面是發布的位置。

也許付費專區方法會受到尊重

一個普遍的說法是,我們最終會厭倦互聯網的狂野西部。 人們會被可信賴的在線資源所吸引。 他們會故意避開 Internet 的其他粗略或未知區域。

按照這些思路,人們會願意為訪問可信來源付費。 儘管如今關於付費內容的盈利能力仍存在巨大爭論,但生成人工智能內容的氾濫被認為是付費專區理念的福音。 在 Internet 上尋找值得信賴的內容時,事情變得越糟,付費內容就變得越有價值(當然,假設付費內容受到更仔細的審查)。

具有諷刺意味的是,付費專區背後的內容可能大量由 AI 生成的內容組成。 假設附加值是付費專區提供商正在篩選內容,他們實質上是在進行我之前提到的雙重檢查。 他們不一定非要生成內容。 他們只需要確保內容值得信任。

對於這個預測的未來存在分歧。 也許,代替付費牆,您必須遇到廣告或贊助商通知,這樣做可以讓您獲得可信賴的內容。 存在許多其他可能性。

生成 AI 的多模式泥潭等待著

我在這裡一直關注與文本相關的生成 AI。 這是生成式 AI 的文本到文本或文本到文章的變體,例如 ChatGPT。

我的一個預測是,我們很快就會發現自己被多模態生成人工智能所淹沒,請參閱我的解釋 這裡的鏈接. 我們已經見證了文本到圖像、文本到音頻、文本到視頻以及生成式 AI 輸出結果類型或模式的其他變體。 下一步是您將能夠獲得多模式輸出。

例如,您在生成式 AI 中輸入提示並詢問亞伯拉罕·林肯。 生成式 AI 會為您寫一篇文章。 此外,還生成了幾張林肯的照片,展示了他迄今為止尚未張貼或發表的姿勢。 生成的音頻抄本似乎是林肯式的聲音。 生成一個視頻來展示這篇文章,包括與輸出文本一起出現的圖片和圖像的剪輯。

歡迎來到多模式生成 AI 的世界。

令人興奮,當然。

但是,如果您認為這是可以發佈到 Internet 的內容的進一步素材,那麼可能就不會那麼令人興奮了。

本質上,我們不會僅僅擔心可能有錯誤的文本,我們還需要對所有其他輸出模式做同樣的事情。 音頻文件應該被懷疑包含虛假信息,圖像可能會錯誤地描述事情,視頻也可能會令人擔憂。

如果您還沒有將多模態大火包括在您對互聯網膨脹的計算中,您可能想要提高您的數字和您的手頭。

生成人工智能的惡性或良性循環

我為您準備了一個可能會讓人費解的因素。 不掛斷。

在這個互聯網氾濫的傳奇故事中,我們假設生成式 AI 是罪魁禍首。 生成式 AI 是所有這些容易出錯的虛構內容的生成方式。 生成式 AI 從骨子裡是壞的。

假設我們以不同的眼光看待這個問題。

可能是生成式 AI 能夠產生最尖銳和最有效的內容。 同時,人手生成的內容被認為不那麼值得信賴。 作為壞人的生成 AI 轉變為作為英雄的生成 AI。

考慮一下。

我有另一個有趣的轉折給你。

讓我們假設生成人工智能正在通過互聯網上的內容進行數據訓練。 如果我們也假設生成的 AI 內容將通過人類直接選擇或通過自動機制發佈到互聯網上,我們將發現自己陷入了一個有趣的循環。

生成式 AI 產生的內容成為生成式 AI 進一步數據訓練的源材料。 出現螺旋。 越來越多的生成式 AI 生成的內容髮佈到互聯網上,這是基於生成式 AI 已經生成的內容的數據訓練。

這種“生成人工智能餵養生成人工智能”的回音室最終會對互聯網和人類產生什麼影響?

一種觀點認為,這是一場可怕的逐底競爭。 生成式 AI 輸出中的錯誤將被放大。 生成式 AI 的每次新迭代都會消耗先前的錯誤並一次又一次地重複它們。 在某些時候,找出錯誤所在的機會將是巨大的。 慘淡。 令人沮喪。

另一種觀點是,如果可以設計生成式 AI 來產生有效的輸出,那麼你可能會有一個互聯網清理機制來幫助美化互聯網。 當生成式人工智能遇到錯誤時,無論是人工智能還是人手製作的,生成式人工智能似乎都會檢測並克服這種錯誤。 通過生成式 AI 一遍又一遍地執行此操作,就好像您在不斷地修剪草坪並有效地減少雜草的性質和突出程度。

這聽起來可能令人安心,除了什麼是錯誤或謊言的確切構成這一重大而迫在眉睫的問題。 這種擦洗機可能會無意中導致有效內容被貶低或被錯誤地指責為容易出錯。 在考慮這些類型的機制時,我們需要注意那些誤報和漏報。

生成式人工智能是惡性循環還是良性循環?

時間會告訴我們。

結論

互聯網上充斥著大量關於生成人工智能的恐慌勸告,這些勸告應該仔細研究。 可以很容易地設想出許多場景。 厄運和憂鬱並不是唯一的途徑。 任何自稱預測將要發生的事情的人都應該提前說明他們所做的假設。

有一些緩解因素將決定生成式人工智能的未來走向。 AI 倫理和 AI 法律以及整個社會的整體觀念將在這方面起決定性作用。

現在最後的評論。

Marcus Aurelius 有一句名言:“永遠不要讓未來打擾你。 如果必須的話,你會用今天武裝你對抗現實的同樣的理性武器來應對它。

讓我們確保我們今天的推理能夠應對充滿人工智能的未來的挑戰。

來源:https://www.forbes.com/sites/lanceeliot/2023/02/23/is-it-true-that-generative-ai-chatgpt-will-flood-the-internet-with-infinite-content-問人工智能倫理和人工智能法律/