API 門戶開放後,生成式 AI ChatGPT 將無處不在,顛覆 AI 倫理和 AI 法律

釋放海妖!

你無疑熟悉演員連姆尼森在電影中特別說過的那句著名的標語。 泰坦之戰 當他命令釋放傳說中的海怪時,旨在造成巨大的破壞和巨大的破壞。 這句話被無休止地重複,並催生了各種模因。 儘管有各種各樣的模仿,但大多數人至少仍然發自內心地感覺到,這句話預示著某種陰暗而危險的事物即將出現。

如今,也許同樣的觀點也適用於人工智能 (AI)。

請允許我詳細說明。

最近的一則公告表明,由 OpenAI 組織製作的名為 ChatGPT 的現在廣為人知的人工智能應用程序很快將可供其他程序訪問。 這是個大新聞。 儘管很少有正規媒體注意到這一聲明,但我還是這麼說了。 除了稍縱即逝的提及之外,即將到來的訪問的全部影響將非常重要。

在今天的專欄中,我將解釋為什麼會這樣。 你可以相應地做好準備。

一些人堅信這將類似於放開 Kraken,即會出現各種不好的事情。 其他人認為這是提供了一種重要資源,可以通過利用 ChatGPT 的強大功能來提升大量其他應用程序。 這要么是最壞的時代,要么是最好的時代。 我們將在此考慮辯論的雙方,你可以自己決定你站在哪個陣營。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。

請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

人們越來越擔心 ChatGPT 和其他類似的 AI 應用程序有一個醜陋的弱點,也許我們還沒有準備好處理。 例如,您可能聽說過學校的學生在使用 ChatGPT 撰寫作業時可能會作弊。 人工智能為他們完成了所有的寫作工作。 同時,學生能夠看似毫無顧忌地翻閱論文,就好像他們是用自己的腦袋寫的一樣。 不是我們大概希望人工智能為人類做的事情。

一些關鍵要點可能有助於為這一切做好準備。

ChatGPT 是一種通常被稱為 生成式人工智能. 這些流行的基於生成的 AI 應用程序允許您輸入簡短的提示並讓應用程序為您生成輸出。 對於 ChatGPT,輸出是文本。 因此,您輸入文本提示,ChatGPT 應用程序會為您生成文本。 我傾向於將其描述為生成式 AI 的一個特定子類型,它可以生成文本到文章的輸出(還有其他子類型,例如文本到圖像、文本到視頻等)。

ChatGPT 的 AI 製造商表示,很快將為 AI 應用程序提供 API(應用程序編程接口)。 簡而言之,API 是一種允許其他程序繼續運行並使用可提供進入給定應用程序門戶的程序的方法。 這意味著這個星球上幾乎任何其他程序都可以潛在地利用 ChatGPT(好吧,經 ChatGPT 的 AI 製造商許可和批准,本文將立即進一步討論)。

結果是,ChatGPT 的使用和使用可能會爆棚。

而今天有數量可觀的註冊需要那些在 個人 基礎 可以使用 ChatGPT,由 AI 製造商限制在 XNUMX 萬用戶,這實際上可能是即將到來的事情的九牛一毛。

意識到那些現有的百萬註冊包括一些使用 ChatGPT 的一次性嬉戲,然後在興奮消退之後,他們從那以後就沒有使用過它。 許多人可能被 AI 應用程序吸引為社交媒體病毒式反應。 簡而言之,如果其他人都想使用它,那麼他們也想這樣做。 在對基於生成的 AI 進行一些初步實驗後,他們對避免了 FOMO(害怕錯過)感到滿意。

明確地說,我並不是在暗示人們不使用 ChatGPT。 他們是。 那些註冊的人越來越多地發現人工智能應用程序超載了。 很多很多人都在使用這個應用程序。 您會不時收到一些巧妙組合的悲傷指示,表明系統正忙,您應該稍後再試。 街上的消息是,ChatGPT 的現有基礎設施一直在竭力應對使用 AI 應用程序的狂熱粉絲。

儘管擁有 XNUMX 萬潛在用戶不容小覷,但一旦 API 可用,這個數字很可能會成倍增加。 今天與生成式 AI 無關的其他程序的開發人員將希望利用生成式 AI 的潮流。 他們會想要將他們的程序與 ChatGPT 連接起來。 他們發自內心地希望這能將他們現有的節目提升到受歡迎的程度。

這樣想。 假設今天製作的程序覆蓋數百萬用戶的各種軟件公司,通常達到數千萬和數億用戶,選擇將他們各自的程序與 ChatGPT 配對。 這表明使用 ChatGPT 的用戶數量可能會飆升。

海妖被釋放。

為什麼各種軟件公司都想與 ChatGPT 配對,您可能想知道?

一個直截了當的答案是,他們還不如利用推動 ChatGPT 向前和向上發展的驚人順風。 有些人會出於明智和光明正大的原因這樣做。 其他人這樣做只是為了嘗試獲得他們自己十五分鐘的名氣。

我喜歡將 ChatGPT 的配對分為兩個主要意圖:

  • 與 ChatGPT 真正配對
  • Fakery 與 ChatGPT 配對

在第一種情況下,概念是與 ChatGPT 配對有一個真正的基礎。 給定程序的開發者能夠很好地闡明由於將他們的程序與 ChatGPT 配對而產生的有形和功能性好處。 我們都能以合理的心態看到這對搭檔是天作之合。

對於另一種情況,包括我所說的偽造,有些人會在輕浮或不穩定的基礎上尋求與 ChatGPT 配對。 業務案例不包含任何特別實質性的內容。 這對搭檔是拼命嘗試搭上 ChatGPT 的尾巴。 任何合理的檢查都會表明該配對的價值很小。 現在,您是否認為這是一種適當的配對形式還是不適當的配對形式有些懸而未決。 有人可能會爭辯說,與 ChatGPT 的特定配對,即使配對除了提高使用率之外沒有完成任何事情並且沒有其他功能附加值,大概仍然值得進行配對。

不利的一面是,那些錯誤地描繪了配對並讓人們相信一些值得注意的事情正在發生,而實際上並沒有發生。 我們當然可以預期有些人會嘗試這樣做。 AI Ethics 的那些人非常關注蛇油的使用,這些用途將要從木製品中出來。 如果這種情況失控,我們也有可能看到新的與人工智能相關的法律,這些法律將被激勵起草和頒布。

讓我們更深入地探討什麼構成真正的配對,什麼也構成虛假配對。

首先,我們應該確保我們都在同一頁面上了解生成 AI 的組成以及 ChatGPT 的全部內容。 一旦我們涵蓋了這個基礎方面,我們就可以對 ChatGPT 中的 API 如何從根本上改變事物進行有說服力的評估。

如果您已經非常熟悉生成式 AI 和 ChatGPT,您或許可以瀏覽下一部分並繼續閱讀下一節。 我相信,通過仔細閱讀本節並跟上進度,其他所有人都會發現有關這些問題的重要細節具有指導意義。

關於生成式 AI 和 ChatGPT 的快速入門

ChatGPT 是一個通用的 AI 交互式對話系統,本質上是一個看似無害的通用聊天機器人,然而,它正被人們以一種讓許多人完全措手不及的方式積極而熱切地使用,我將在稍後詳細說明。 這個 AI 應用程序利用了 AI 領域中的技術和技術,通常被稱為 生成式人工智能. 人工智能生成文本等輸出,這就是 ChatGPT 所做的。 其他基於生成的 AI 應用程序生成圖片或藝術品等圖像,而其他生成音頻文件或視頻。

在本次討論中,我將重點關注基於文本的生成式 AI 應用程序,因為 ChatGPT 就是這樣做的。

生成式 AI 應用程序非常易於使用。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 這通常被歸類為執行 文字到文字 或者有些人更喜歡稱它為 文本到文章 輸出。 如前所述,還有其他生成 AI 模式,例如文本到藝術和文本到視頻。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

這就是為什麼學生在課堂外寫論文時能夠作弊引起了軒然大波。 老師不能僅僅拿那些欺騙學生聲稱是他們自己寫的文章,並試圖查明它是否是從其他在線來源複製的。 總的來說,不會有任何適合 AI 生成的文章的在線明確的預先存在的文章。 總而言之,老師將不得不勉強接受學生寫的這篇文章是原創作品。

生成人工智能還有其他問題。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

在我們深入討論這個話題之前,我想澄清一個重要方面。

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 您可能會禮貌地說,有些人誇大了當今 AI 的實際能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

如果您對關於 ChatGPT 和生成式 AI 的迅速擴大的騷動感興趣,我一直在我的專欄中做一個重點系列,您可能會從中找到有用的信息。 如果這些主題中的任何一個引起您的興趣,請看一下:

  • 1) 生成人工智能進展的預測。 如果你想知道 AI 在整個 2023 年及以後可能會發生什麼,包括生成 AI 和 ChatGPT 即將取得的進展,你會想閱讀我的 2023 年預測綜合列表,網址為 這裡的鏈接.
  • 2) 生成人工智能和心理健康建議。 根據我在 這裡的鏈接.
  • 3) 生成式 AI 和 ChatGPT 的基礎知識。 本文探討了生成式 AI 工作原理的關鍵要素,特別是深入研究了 ChatGPT 應用程序,包括對嗡嗡聲和宣傳的分析,網址為 這裡的鏈接.
  • 4) 師生之間在生成式人工智能和 ChatGPT 上的緊張關係. 以下是學生不正當使用生成式 AI 和 ChatGPT 的方式。 此外,教師可以通過以下方式應對這一浪潮。 看 這裡的鏈接.
  • 5) 上下文和生成人工智能的使用。 我還對涉及 ChatGPT 和生成 AI 的與聖誕老人相關的上下文進行了季節性的半開玩笑的檢查 這裡的鏈接.
  • 6) 詐騙者使用生成式人工智能. 一個不祥的消息是,一些詐騙者已經想出瞭如何使用生成式 AI 和 ChatGPT 進行不法行為,包括生成詐騙電子郵件,甚至為惡意軟件生成編程代碼,請參閱我的分析 這裡的鏈接.
  • 7) 使用生成式 AI 的菜鳥錯誤. 許多人對生成式 AI 和 ChatGPT 可以做的事情既過頭又出人意料地過頭,所以我特別關注了 AI 菜鳥往往會做的過頭,請參閱討論 這裡的鏈接.
  • 8) 應對生成式 AI 提示和 AI 幻覺. 我描述了一種使用 AI 插件來處理與嘗試將合適的提示輸入生成 AI 相關的各種問題的前沿方法,此外還有用於檢測所謂的 AI 幻覺輸出和謊言的其他 AI 插件,如涵蓋於 這裡的鏈接.
  • 9) 揭穿 Bonehead 關於檢測生成的 AI 生成的論文的說法. AI 應用程序出現了一場被誤導的淘金熱,這些應用程序聲稱能夠確定任何給定的文章是人工創作的還是人工智能生成的。 總的來說,這是一種誤導,在某些情況下,這是一種愚蠢且站不住腳的說法,請參閱我的報導 這裡的鏈接.
  • 10)通過生成人工智能進行角色扮演可能預示著心理健康問題. 有些人正在使用諸如 ChatGPT 之類的生成式人工智能來進行角色扮演,人工智能應用程序藉此對人類做出反應,就好像存在於幻想世界或其他虛構的環境中一樣。 這可能會對心理健康產生影響,請參閱 這裡的鏈接.
  • 11) 暴露輸出錯誤和錯誤的範圍。 各種收集的列表被放在一起,試圖展示 ChatGPT 產生的錯誤和謊言的性質。 一些人認為這是必不可少的,而另一些人則認為這種做法是徒勞的,請參閱我的分析 這裡的鏈接.
  • 12) 禁止生成 AI ChatGPT 的學校錯過了機會。 您可能知道紐約市 (NYC) 教育部等各種學校已宣布禁止在其網絡和相關設備上使用 ChatGPT。 雖然這似乎是一個有用的預防措施,但它不會移動針頭,遺憾的是完全錯過了船,請參閱我的報導 這裡的鏈接.

您可能會對 ChatGPT 基於稱為 GPT-3 的前身 AI 應用程序版本感興趣。 ChatGPT 被認為是稍微下一步,稱為 GPT-3.5。 預計 GPT-4 可能會在 2023 年春季發布。據推測,GPT-4 將在能夠產生看似更流暢的文章、更深入、更令人敬畏方面向前邁出令人印象深刻的一步- 令人驚嘆的作品,它可以產生。

當春天到來並且最新的生成人工智能發佈時,你可以期待看到新一輪的驚嘆。

我提出這個問題是因為要記住另一個角度,包括這些更好、更大的生成式 AI 應用程序的潛在致命弱點。 如果任何 AI 供應商提供一種生成性 AI 應用程序,它會泡沫地吐出污穢,這可能會破滅那些 AI 製造商的希望。 社會溢出效應可能會導致所有生成式 AI 遭受嚴重的黑眼圈。 人們無疑會對犯規輸出感到非常不安,這種情況已經發生過多次,並導致社會對人工智能的強烈譴責。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果生成式 AI 應用程序告訴您亞伯拉罕·林肯乘坐他自己的私人飛機在全國各地飛行,您無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。

我們已準備好進入這一闡明的下一階段。

釋放野獸

現在我們已經建立了基礎,我們可以深入研究由於 ChatGPT API 方面而導致的面向業務和社會的影響。

微軟最近與 OpenAI 一起發布了關於即將在微軟 Azure 雲平台上使用 ChatGPT 的公告(根據題為“Azure OpenAI 服務的普遍可用性擴展了對大型高級 AI 模型的訪問並增加了企業利益”的在線帖子, 16 年 2023 月 XNUMX 日):

  • “大型語言模型正迅速成為人們進行創新、應用 AI 解決重大問題以及想像無限可能的重要平台。 今天,我們很高興地宣布 Azure OpenAI 服務全面上市,這是微軟持續致力於人工智能民主化以及與 OpenAI 持續合作的一部分。 隨著 Azure OpenAI 服務現已普遍可用,更多企業可以申請訪問世界上最先進的人工智能模型——包括 GPT-3.5、Codex 和 DALL•E 2——由可信的企業級功能和人工智能優化的基礎設施提供支持Microsoft Azure,創建尖端應用程序。 客戶還將能夠很快通過 Azure OpenAI 服務訪問 ChatGPT——GPT-3.5 的微調版本,它已經過訓練並在 Azure AI 基礎設施上運行推理。”

你可能已經註意到,在該聲明中,OpenAI 設計的其他各種人工智能應用程序也將可用。 事實上,其中一些 AI 應用程序已經可以訪問很長一段時間了,正如最近的上述聲明中進一步提到的:“我們於 2021 年 XNUMX 月推出了 Azure OpenAI 服務,使客戶能夠利用大規模生成 AI 模型的力量企業承諾客戶已經從我們的 Azure 雲和計算基礎架構中獲得期望——安全性、可靠性、合規性、數據隱私和內置的負責任的 AI 功能”(同上)。

我之前提到過,AI 倫理和 AI 法律都在努力平衡 永遠的人工智能 有潛力的願望 壞的人工智能 有時會出現這種情況。 在 AI 領域,有一種運動正在走向擁有 負責任的AI 或者有時被稱為可信賴的人工智能或以人為本的人工智能,請參閱我的報導 這裡的鏈接. 敦促所有人工智能製造商設計和部署他們的人工智能 永遠的人工智能 並公開尋求減少或減輕任何 壞的人工智能 這可能會出現。

這是一個艱鉅的任務。

無論如何,上述聲明確實解決了 Responsible AI 的問題:

  • “作為行業領導者,我們認識到人工智能的任何創新都必須負責任地進行。 對於生成模型等強大的新技術,這一點變得更加重要。 我們對大型模型採用迭代方法,與我們的合作夥伴 OpenAI 和我們的客戶密切合作,仔細評估用例、學習和解決潛在風險。 此外,我們還為 Azure OpenAI 服務實施了我們自己的護欄,這些護欄符合我們負責任的 AI 原則。 作為我們的有限訪問框架的一部分,開發人員需要申請訪問權限,在獲得服務訪問權限之前描述他們的預期用例或應用程序。 專門設計用於捕獲辱罵、仇恨和冒犯性內容的內容過濾器不斷監控提供給服務的輸入以及生成的內容。 如果確認違反政策,我們可能會要求開發人員立即採取行動以防止進一步濫用”(同上)。

Responsible AI 觀點的癥結在於,通過要求正式請求以程序 API 為基礎訪問 ChatGPT,就有機會淘汰不受歡迎的提交。 如果在選擇哪些其他公司及其程序可以訪問 ChatGPT 時進行適當的盡職調查,或許就有可能阻止已發布的 Kraken 的全面憤怒。

可能是可能不是。

一些權威人士擔心,允許使用 ChatGPT API 的賺錢可能性會影響想要合理、安全地控制這隻野獸的平衡觀念。 審查真的會預先足夠小心嗎? 相反,我們是否會看到隨著請求量失控而出現鬆散的搖搖欲墜的批准流程? 有些人擔心,只有當貓從袋子裡出來時,才可能真正發生遲來的更全面的審查,儘管到那時損害已經造成。

好吧,你至少可以給予應有的信任,因為涉及到一個審查過程。 有一些生成式 AI 應用程序要么缺乏連貫的審查過程,要么粗略粗略。 此外,還有開源版本的生成 AI,幾乎任何想要這樣做的人都可以使用,儘管應該遵循一些許可限制(試圖強制執行這比看起來更難)。

讓我們快速瀏覽一下有關限制訪問 Azure OpenAI 服務的現有規則,看看其他軟件製造商需要做什麼才能與 ChatGPT 建立潛在聯繫。 根據在線發布的 Microsoft 政策(最新發布日期為 14 年 2022 月 XNUMX 日):

  • “作為微軟對負責任人工智能承諾的一部分,我們正在設計和發布 Azure OpenAI 服務,旨在保護個人和社會的權利,促進透明的人機交互。 出於這個原因,我們目前限制了 Azure OpenAI 的訪問和使用,包括限制訪問修改內容過濾器和修改濫用監控的能力。 Azure OpenAI 需要註冊,目前僅適用於與 Microsoft 客戶團隊合作的託管客戶和合作夥伴。 希望使用 Azure OpenAI 的客戶需要提交一份註冊表,用於初始訪問實驗和批准從實驗轉移到生產。”
  • “對於實驗,客戶證明僅將服務用於註冊時提交的預期用途,並承諾結合人工監督、對輸入和輸出的嚴格技術限制、反饋渠道和全面測試。 對於生產,客戶解釋瞭如何實施這些以降低風險。 希望在使用該服務後修改內容過濾器和修改濫用監控的客戶將受到額外的場景限制,並且需要在此處註冊。”
  • “對 Azure OpenAI 服務的訪問由微軟根據資格標準和審查程序自行決定,客戶必須承認他們已經閱讀並同意 Azure OpenAI 服務的 Azure 服務條款。 Microsoft 可能會要求客戶重新驗證此信息。 Azure OpenAI 服務根據管理其 Microsoft Azure 服務訂閱的條款向客戶提供,包括 Microsoft 產品條款的 Azure OpenAI 部分。 請仔細閱讀這些條款,因為它們包含管理您使用 Azure OpenAI 服務的重要條件和義務。”

這是微軟方面的事情。

OpenAI 也有與其 API 相關的使用政策:

  • “我們希望每個人都能安全負責地使用我們的 API。 為此,我們制定了用例和內容政策。 通過關注他們,您將幫助我們確保我們的技術被用於公益事業。 如果我們發現您的產品不符合這些政策,我們會要求您進行必要的更改。 如果你不遵守,我們可能會採取進一步行動,包括終止你的帳戶。”
  • “我們禁止構建針對以下用例的產品:”
  • “——非法或有害行業”
  • “——濫用個人數據”
  • “——促進不誠實”
  • “——欺騙或操縱用戶”
  • “——試圖影響政治”
  • “以下一組用例具有更大的潛在危害風險:刑事司法、執法、法律、政府和公務員服務、醫療保健、治療、健康、教練、金融、新聞。 對於這些用例,您必須:”
  • “1) 徹底測試我們的模型在您的用例中的準確性,並對您的用戶保持透明”
  • “2) 確保您的團隊擁有領域專業知識並理解/遵守相關法律”
  • “我們也不允許您或您的應用程序的最終用戶生成以下類型的內容:”
  • “- 恨”
  • “——騷擾”
  • “——暴力”
  • “- 自殘”
  • “——性”
  • “- 政治的”
  • “- 垃圾郵件”
  • “——欺騙”
  • “——惡意軟件”

一個大問題是,如果連接 ChatGPT 的請求激增,是否可以遵守這些理想。 也許會有壓倒性的請求海嘯。 檢查和仔細審查每一個的人工可能成本高昂且難以管理。 面對巨大的訪問需求,適當限制的願望是否會在不經意間被淡化?

正如著名的俏皮話所說,最好的計劃有時會在第一次接觸強大的力量時被打亂。

在如何解釋規定的規則方面也有很多迴旋餘地。 正如我們普遍看到的虛假信息和錯誤信息的增加,試圖將小麥與穀殼分開可能非常具有挑戰性。 如何判斷生成的內容是否符合或違反不仇恨、政治、欺騙等規定?

一個迫在眉睫的困難可能是,如果將 ChatGPT API 提供給將其程序與 ChatGPT 配對的軟件製造商,並且由此產生的輸出明確違反規定的規則,那麼這匹馬是否已經離開了穀倉? 一些人認為,所有相關方極有可能遭受名譽損害。 是否可以通過簡單地將 API 與特定違規者分離來克服這一問題尚不清楚。 從某種意義上說,損害可能會持續存在並破壞整個桶。 所有來者都會受到大量的指責。

對 API 配對進行分層

我之前提到,與 ChatGPT 的配對可以方便地分為兩個主要目的:

  • 與 ChatGPT 真正配對
  • Fakery 與 ChatGPT 配對

讓我們首先檢查真正的或善意的配對。

作為背景,發生這種情況的方式有些簡單。 ChatGPT 應用程序允許其他程序調用該應用程序。 通常,這包括一個我們稱為 Widget 的程序,它向 ChatGPT 傳遞一個文本格式的提示,然後在 ChatGPT 完成它的工作後,一篇文章或文本被返回給程序 Widget。 這幾乎就像一個人在做同樣的事情,儘管我們會讓一個程序來代替一個人做這些動作。

例如,假設有人設計了一個在網絡上進行搜索的程序。 該程序詢問用戶他們想要搜索什麼。 然後,該程序會根據用戶查詢向用戶提供各種搜索結果列表或希望展示相關網站的發現。

想像一下,製作此網絡搜索程序的公司想要美化其應用程序。

他們請求訪問 ChatGPT API。 假設他們完成了所有適當的文書工作並最終獲得批准。 然後需要修改他們進行網絡搜索的程序,以包括通過 API 調用 ChatGPT 應用程序。 假設他們選擇製作這些模組。

以下是這可能會完全起作用的方式。 當用戶在核心程序中輸入網絡搜索查詢時,該程序不僅會進行常規的網絡搜索,還會通過 API 將查詢傳遞給 ChatGPT。 ChatGPT 然後處理文本並將生成的文章返回給核心程序。 網絡搜索核心程序現在向用戶呈現兩個方面,即網絡搜索結果和來自 ChatGPT 的附加輸出文章。

使用這個核心程序的人不一定知道後端使用了 ChatGPT。 它可能發生在核心程序的範圍內,並且用戶很高興地沒有意識到涉及 ChatGPT。 另一方面,可以設計核心程序來通知用戶正在使用 ChatGPT。 這通常取決於核心程序的開發者是否想透露正在使用另一個應用程序,在本例中為 ChatGPT。 在某些安排中,被調用程序的開發者堅持 API 調用程序必須讓用戶知道另一個程序正在被使用。 這完全取決於偏好和許可細節。

對於真正的配對,以下是慣用的方法:

  • 1) 直通 ChatGPT
  • 2) 附加組件以增強 ChatGPT
  • 3)與ChatGPT重合的Allied app
  • 4) 與 ChatGPT 完全融合

簡而言之,在第一個列出的方法中,我的想法是我可能會設計一個程序,它只是 ChatGPT 的前端,因此,我的程序所做的就是將文本傳遞給 ChatGPT 並從 ChatGPT 取回文本。 我將我的程序提供給任何想要使用 ChatGPT 以及尚未註冊使用它的人。 這是一種方法。

其次,我可能會設計一個程序作為 ChatGPT 的附加組件。 例如,當 ChatGPT 生成一篇文章時,它可能包含虛假信息。 假設我編寫了一個程序來檢查 ChatGPT 輸出並嘗試篩選虛假信息。 我讓我的程序可用,以便人們在我的程序中輸入文本提示,然後將提示發送到 ChatGPT。 ChatGPT 生成了一篇文章,返回到我的程序中。 在我的程序向您展示這篇文章之前,它會預先篩選這篇文章並嘗試標記或刪除虛假信息。 然後你會在我的程序完成篩選後看到生成的文章。

第三種方法包括擁有一個在意義上與 ChatGPT 一致的聯合應用程序。 假設我開發了一個程序來幫助人們進行創意寫作。 我的程序提供了關於如何創造性寫作的固定技巧和建議。 該程序只是刺激或刺激用戶這樣做。 同時,我想做的是向用戶展示創意寫作的組成部分。 因此,我使用 ChatGPT 建立了一個 API。 然後,我的程序接受用戶的提示並調用 ChatGPT 來提供一篇可能展示創意寫作的短文。 這可以迭代完成並在此過程中多次調用 ChatGPT。

對於第四種列出的方法,ChatGPT 完全集成到其他一些程序或程序集中。 例如,如果我有一個文字處理應用程序和一個電子表格應用程序,我可能想將 ChatGPT 集成到這些應用程序中。 他們會以一種說話的方式彼此攜手合作。 我將在即將發布的專欄中介紹 Microsoft 可以選擇將 ChatGPT 注入其辦公生產力套件的浮動可能性,因此請留意即將到來的分析。

這些就是真正配對可能發生的關鍵方式。

接下來讓我們考慮一些偽造的配對。

以下是您應該注意的一些整體造假配對:

  • 與 ChatGPT 配對的噱頭 – 少量使用 ChatGPT,主要用於展示和獲得宣傳,沒有附加值
  • 關於 ChatGPT 配對的誘人承諾 – 軟件供應商聲稱他們正在與 ChatGPT 配對,尋求成為眾人矚目的焦點,而事實是他們不會這樣做,而是在做一個經典的假冒並作出虛假承諾
  • 仿冒品聲稱類似於 ChatGPT – 一些軟件供應商不會與 ChatGPT 配對,而是會使用其他東西,這很好,但他們會試圖暗示它是 ChatGPT,而實際上不是,希望能得到 ChatGPT 的一些餘暉
  • 其他 – 可以想像到許多額外的擴展和縱容計劃

毫無疑問,所有這一切都會發生很多惡作劇。 它將成為 Kraken 發布的重要組成部分。

結論

請允許我在這件事上投入一些扳手和其他障礙。

費用呢?

目前,那些註冊使用 ChatGPT 的人都是免費的。 我之前曾說過,在某些時候需要涉及直接貨幣化。 這可能需要按每筆交易收取費用或可能需要支付訂閱費用。 另一種可能性是廣告可能被用來賺錢,因此每次您使用 ChatGPT 時都會出現一個廣告。 等等。

那些選擇通過 API 與 ChatGPT 建立配對的人應該認真考慮所涉及的潛在成本。 使用 Microsoft Azure 雲運行 ChatGPT 應用程序可能會產生費用。 OpenAI 使用 ChatGPT API 和調用 AI 應用程序必然會產生成本。 軟件供應商也會產生自己的內部成本,例如修改現有程序以使用 API 或圍繞與 ChatGPT 的配對重新開發程序。 還要設想入門成本和持續維護成本。

要點是,這種成本分層將在某種程度上緩和利用 ChatGPT API 的淘金熱。 軟件供應商大概應該進行審慎的 ROI(投資回報)計算。 他們通過使用 ChatGPT 擴充他們的程序可以帶來足夠的額外資金來抵消成本嗎?

並非每個人都一定會如此註重成本。 如果您財力雄厚,並且相信使用 ChatGPT 將推動您的程序進入最著名或最受認可的應用程序領域,那麼您可能會認為現在的成本是值得的。 借助 ChatGPT 的優勢為您的應用程序建立一個名稱。 今後,一旦您的項目受到歡迎或以其他方式賺錢,您要么彌補早先的利潤不足,要么將其註銷為進入大時代所需的成本。

一家由風險投資 (VC) 公司支持的小型初創公司可能願意拿出大部分種子投資來與 ChatGPT API 配對。 名聲可能會立即出現。 財富可能還有很長的路要走,但這是以後要處理的事情。 正如他們所說,當獲得好的時候抓住聚光燈。

有人假設可能會有非營利組織和社會企業決定也對此採取措施。 假設一家非營利性公司確定了調用 ChatGPT API 的有益用途,這似乎會支持他們的無私或對社會有益的目標。 也許他們通過在線籌款活動為此籌集資金。 也許他們試圖與供應商達成協議,以便他們支付象徵性的金額或免費使用。

時間會告訴我們。

我要留給您的最後一點是風險因素。

我不想顯得過分悲觀,但我之前提到過 ChatGPT 的輸出可能包含虛假信息並有其他潛在的缺點。 問題是,如果開發應用程序的軟件供應商混入使用 ChatGPT API,他們將冒著產生糟糕輸出的風險,這是他們應該預料到的。 不要把頭埋在沙子裡。

問題出現了,這些輸出可能會污染選擇使用它們的應用程序。 從這個意義上說,如果依賴 ChatGPT 提供的輸出,您的應用程序最初可能會因 ChatGPT 的榮耀而告終。 也許輸出被呈現給用戶,這會引起可怕的騷動。 他們消除了對您和您的應用程序的焦慮。

反過來,您嘗試將矛頭指向 ChatGPT。 這會讓你擺脫困境嗎? 一旦有臭味,就會瀰漫開來,鮮有人倖免。 按照這些思路,可能是通過擴大使用 ChatGPT,對犯規輸出的認識變得更加普遍。 因此,奇怪的是,或者俱有諷刺意味的是,由於 API 而擴大使用 ChatGPT 可能會搬起石頭砸自己的腳。

我不想以悲傷的表情結束我的發言,所以讓我們試著換成開心的表情。

如果所有理想的限制和約束都得到謹慎和明智的遵循並嚴格遵守,那麼通過 API 使用 ChatGPT 可能是一件好事。 這也很有可能會進一步刺激其他生成式 AI 應用程序採取行動。 水漲船高。

這看起來很樂觀。

您可能知道據說宙斯控制著海妖。 古希臘劇作家索福克勒斯這樣評價宙斯:“宙斯的骰子總是幸運地落下。”

也許對於生成人工智能將如何不可避免地落地也會有同樣的說法,讓我們至少希望如此。

來源:https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- open-stupefying-ai-ethics-and-ai-law/