聯邦貿易委員會旨在打擊那些關於生成 AI ChatGPT 和其他 AI 的過分毫無根據的主張,警告 AI 倫理和 AI 法

放下錘子。

這就是美國聯邦貿易委員會 (FTC) 所說的針對人工智能 (AI) 的大量毫無根據的聲明的持續和惡化的情況。

在 27 年 2023 月 XNUMX 日的官方博客中,美國聯邦貿易委員會廣告實踐部的律師邁克爾·阿特爾森 (Michael Atleson) 發表了一篇題為“檢查你的 AI 聲明”的文章,其中一些嚴厲的措辭指出,AI 不僅是一種計算高科技,而且它已經成為一種營銷大獎,有時超出了合理的範圍:

  • “到底什麼是‘人工智能’? 這是一個含糊不清的術語,有許多可能的定義。 它通常指的是使用計算來執行預測、決策或建議等任務的各種技術工具和技術。 但有一件事是肯定的:這是一個營銷術語。 現在,這是一個熱門話題。 在 FTC,我們對熱門營銷術語了解的一件事是,一些廣告商無法阻止自己過度使用和濫用這些術語”(FTC 網站發布)。

AI 為營銷人員提供了巨大的機會,他們想要真正發瘋並大肆宣傳任何潛在的 AI 增強或 AI 驅動的產品或服務,這些產品或服務正在出售給消費者。

你看,突破誇張極限的誘惑一定是巨大的,尤其是當營銷人員看到其他公司也在做同樣的事情時。 當你的競爭對手叫囂他們的 AI 在水上行走時,有競爭力的果汁要求你做一個經典的誇張。 也許你的人工智能表面上更好,因為它在空中飛行,擺脫了重力的束縛,同時還能嚼口香糖。

法律的長臂,即 FTC 和其他聯邦、州和地方機構(見我對此類努力的持續報導,包括國際監管方面的努力也在 這裡的鏈接).

您可能知道,作為一個聯邦機構,FTC 包括消費者保護局,其職責是保護消費者免受商業環境中被認為具有欺騙性的行為或做法。 當公司在產品或服務方面撒謊或誤導消費者時,通常會出現這種情況。 FTC 可以利用其強大的政府權力來打擊此類違規公司。

我引用的 FTC 博客文章也發表了這個有點刺激的聲明:

  • “營銷人員應該知道——出於 FTC 執法目的——關於產品功效的虛假或未經證實的聲明是我們的生計。”

從某種意義上說,那些堅持過分誇大他們關於人工智能的說法的人的目的是 祝酒. FTC 可以尋求讓 AI 索賠人停止並可能因所進行的違法行為而面臨嚴厲的處罰。

以下是 FTC 可以採取的一些潛在行動:

  • “當聯邦貿易委員會發現針對消費者的欺詐案件時,該機構會向聯邦地方法院提起訴訟,要求立即和永久下令停止欺詐; 防止欺詐者在未來實施詐騙; 凍結他們的資產; 並為受害者爭取賠償。 當消費者看到或聽到廣告時,無論是在互聯網、廣播或電視上,還是在其他任何地方,聯邦法律規定廣告必須是真實的,沒有誤導性,並且在適當的時候有科學證據支持。 FTC 執行這些關於廣告真實性的法律,並且無論廣告出現在何處——報紙和雜誌、在線、郵件、廣告牌或公共汽車上,它都適用相同的標準”(FTC 網站上的部分 廣告中的真相)

聯邦貿易委員會 (FTC) 追查虛假廣告事件後,最近出現了一些備受矚目的例子。

例如,歐萊雅因宣傳其巴黎青年代碼護膚品“經臨床證明”可使人看起來“明顯年輕”和“增強基因”而陷入困境,但事實證明這種說法的要點並沒有實質性的支持科學證據和聯邦貿易委員會採取了相應的行動。 另一個突出的例子包括大眾汽車的廣告,稱他們的柴油車使用“清潔柴油”,因此據說排放的污染量非常低。 在這種情況下,大眾汽車進行的排放測試以欺詐方式進行,以掩蓋其真實排放。 FTC 的執法行動促成了對受影響消費者的賠償安排。

人工智能也應該根據未經證實或可能完全欺詐的說法進行類似的審查,這一想法無疑是一個及時而有價值的事業。

由於人工智能的出現,現在對人工智能有著明顯的狂熱。 生成式人工智能. 這種特殊類型的人工智能被認為 生成的 因為它能夠生成幾乎似乎是由人手設計的輸出,儘管 AI 在計算上正在這樣做。 OpenAI 公司開發的一款名為 ChatGPT 的 AI 應用程序獲得了極大的關注,並將 AI 狂熱推向了高潮。 稍後我將解釋什麼是生成式 AI,並描述 AI 應用程序 ChatGPT 的性質。

當然,人工智能總體上已經存在了一段時間。 與人工智能可以實現的承諾相關的一系列過山車起伏。 你可能會說我們正處於一個新的高點。 一些人認為這只是起點,我們會更進一步。 其他人則強烈反對並斷言生成人工智能的策略會碰壁,也就是說,它很快就會走到死胡同,過山車將會下降。

時間會告訴我們。

FTC 此前曾敦促有關 AI 的聲明需要適當平衡和合理。 在 19 年 2021 月 XNUMX 日題為“在貴公司使用 AI 時追求真實、公平和公平”的官方 FTC 博文中,Elisa Jillson 指出了執法行動合法出現的幾種方式,並特別強調了對 AI 灌輸不當偏見的擔憂:

  • “聯邦貿易委員會在執行對人工智能開發者和用戶很重要的三項法律方面擁有數十年的經驗。”
  • FTC 法案第 5 節. FTC 法案禁止不公平或欺詐行為。 這將包括銷售或使用——例如——帶有種族偏見的算法。”
  • 公平信用報告法. FCRA 在某些情況下發揮作用,在這種情況下,算法被用來拒絕人們的就業、住房、信貸、保險或其他福利。”
  • 平等信用機會法. ECOA 規定公司使用有偏見的算法導致基於種族、膚色、宗教、國籍、性別、婚姻狀況、年齡或因為某人接受公共援助而產生信用歧視是非法的。”

上述博客文章中的一個突出評論提到了這個直言不諱的斷言:

  • “根據 FTC 法案,您對商業客戶和消費者的陳述必須是真實的、非欺騙性的,並有證據支持”(同上).

FTC 法案第 5 條的法律語言呼應了這種觀點:

  • “商業中或影響商業的不公平競爭方法,以及商業中或影響商業的不公平或欺騙性行為或做法,特此宣佈為非法”(來源:聯邦貿易委員會法案第 5 節)。

得知 FTC 和其他政府機構正在睜大眼睛,並準備將錘子懸在任何可能敢於發布有關 AI 的不公平或欺騙性信息的組織的頭上,這似乎是一種解脫。

所有這一切是否意味著你可以高枕無憂,並假設那些人工智能製造商和人工智能推廣者會在他們關於人工智能的營銷聲明中保持謹慎,他們會注意不要做出過分或離譜的勸告?

哎呀沒有。

您可以期望營銷人員將成為營銷人員。 他們的目標是對 AI 做出誇大和毫無根據的聲明,直到時間結束。 有些人會這樣做,並且盲目地沒有意識到做出這樣的聲明會給他們和他們的公司帶來麻煩。 其他人知道這些說法可能會引起麻煩,但他們認為被抓到的可能性很小。 也有一些人打賭他們可以繞過事情的邊緣,並在法律上爭辯說他們沒有滑入不誠實或欺騙的渾水。

一些 AI 營銷人員說,讓律師來解決這個問題。 與此同時,全速前進。 如果有一天聯邦貿易委員會或其他政府機構敲門,那就去吧。 要賺錢的錢是現在。 或許可以將一小塊以前的錢投入一種信託基金中,以處理下游的法律問題。 現在,賺錢的火車正在進行中,如果你錯過了容易獲得的肉汁,那將是令人難以置信的愚蠢。

有很多關於廣告人工智能的合理化最終結果:

  • 每個人都提出古怪的 AI 主張,所以我們不妨也這樣做
  • 沒有人能確定關於 AI 真相的分界線在哪裡
  • 我們可以用文字表達我們關於我們的人工智能在安全區內保持一兩英寸的聲明
  • 政府不會知道我們在做什麼,我們是大海中的一條小魚
  • 正義之輪太慢了,跟不上人工智能進步的速度
  • 如果消費者相信我們的 AI 聲明,那是他們的責任,而不是我們的責任
  • 我們公司的 AI 開發人員說我們可以說出我在營銷聲明中所說的話
  • 不要讓法務團隊對我們大肆宣傳的 AI 內容嗤之以鼻,他們只會對我們龐大的 AI 營銷活動嗤之以鼻,成為眾所周知的泥潭中的一根棍子
  • 其他

這些合理化是成功的秘訣還是災難的秘訣?

對於不注意這些嚴重而發人深省的法律疑慮的人工智能製造商,我建議他們正在走向一場災難。

在每天和每週諮詢許多人工智能公司時,我提醒他們,他們應該尋求有說服力的法律建議,因為他們今天賺的錢可能會被返還,一旦他們發現自己面臨消費者的民事訴訟,情況會更糟再加上政府的執法行動。 根據事情的發展程度,刑事後果也可能會受到影響。

在今天的專欄中,我將解決人們日益關注的問題,即基於 AI 的營銷炒作越來越多地越過界限,變成越來越糟糕的欺騙性做法。 我將研究這些疑慮的基礎。 此外,這偶爾會包括那些正在使用和利用 AI 應用程序 ChatGPT 的人,因為它是生成 AI 的 600 磅重的大猩猩,但請記住還有很多其他生成 AI 應用程序,它們通常基於相同的總體原則。

同時,您可能想知道生成式人工智能究竟是什麼。

讓我們首先介紹生成式 AI 的基礎知識,然後我們可以仔細研究手頭的緊迫問題。

所有這一切都涉及大量人工智能倫理和人工智能法律方面的考慮。

請注意,目前正在努力將道德 AI 原則融入 AI 應用程序的開發和部署中。 越來越多的關注和以前的人工智能倫理學家正在努力確保設計和採用人工智能的努力考慮到做事的觀點 永遠的人工智能 並避免 壞的人工智能. 同樣,有人提出了新的 AI 法律,作為防止 AI 努力在人權等問題上失控的潛在解決方案。 有關我對 AI 倫理和 AI 法律的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

正在製定和頒佈人工智能道德準則,以期防止社會陷入無數人工智能誘導陷阱。 關於我對近 200 個國家通過教科文組織的努力製定和支持的聯合國人工智能倫理原則的報導,請參閱 這裡的鏈接. 同樣,正在探索新的 AI 法律,以試圖讓 AI 保持平穩。 最近的一次拍攝包括一組建議的 人工智能權利法案 美國白宮最近發布的關於人工智能時代人權的報告,見 這裡的鏈接. 讓人工智能和人工智能開發人員走上正確的道路,並阻止可能削弱社會的有目的或無意的不正當行為,需要舉全村之力。

我將把 AI 倫理和 AI 法律相關的考慮因素交織到這個討論中。

生成式人工智能基礎

最廣為人知的生成式 AI 實例由名為 ChatGPT 的 AI 應用程序代表。 ChatGPT 在去年 XNUMX 月由 AI 研究公司 OpenAI 發佈時迅速進入公眾意識。 自從 ChatGPT 獲得了巨大的頭條新聞以來,令人驚訝地超過了其規定的 XNUMX 分鐘的成名時間。

我猜您可能聽說過 ChatGPT,或者甚至認識使用過它的人。

ChatGPT 被認為是一種生成式 AI 應用程序,因為它將用戶的一些文本作為輸入,然後 生成 或產生由一篇文章組成的輸出。 AI 是文本到文本生成器,儘管我將 AI 描述為文本到文章生成器,因為這更容易闡明它的常用用途。 您可以使用生成式 AI 來撰寫冗長的作品,也可以讓它提供相當簡短的精闢評論。 一切聽從您的吩咐。

您需要做的就是輸入一個提示,AI 應用程序會為您生成一篇嘗試回應您的提示的文章。 撰寫的文本看起來就像這篇文章是由人的手和思想寫成的。 如果你輸入“告訴我關於亞伯拉罕·林肯”的提示,生成式人工智能將為你提供一篇關於林肯的文章。 還有其他生成 AI 模式,例如文本到藝術和文本到視頻。 我將在這裡重點關注文本到文本的變化。

您的第一個想法可能是,就撰寫論文而言,這種生成能力似乎沒什麼大不了的。 你可以很容易地在互聯網上進行在線搜索,很容易找到大量關於林肯總統的文章。 生成式 AI 的關鍵在於生成的文章相對獨特,提供原創作品而不是抄襲。 如果你試圖在網上某個地方找到 AI 生成的文章,你不太可能會發現它。

生成式 AI 經過預先訓練,並利用複雜的數學和計算公式,該公式是通過檢查網絡上的書面文字和故事中的模式而建立的。 由於檢查了成千上萬的書面段落,人工智能可以吐出新的文章和故事,這些文章和故事是所發現內容的大雜燴。 通過添加各種概率函數,生成的文本與訓練集中使用的文本相比非常獨特。

人們對生成式 AI 有很多擔憂。

一個關鍵的缺點是,由基於生成的人工智能應用程序生成的文章可能會嵌入各種虛假信息,包括明顯不真實的事實、被誤導性描述的事實以及完全捏造的明顯事實。 這些虛構的方面通常被稱為 人工智能幻覺,一個我不喜歡但遺憾的是似乎越來越流行的標語(關於為什麼這是糟糕和不合適的術語的詳細解釋,請參閱我的報導 這裡的鏈接).

另一個問題是,儘管不是自己撰寫論文,但人類很容易將 AI 生成的論文歸功於他人。 您可能聽說過教師和學校非常關註生成式 AI 應用程序的出現。 學生可以使用生成式 AI 來撰寫他們分配的論文。 如果一個學生聲稱一篇文章是他們自己親手寫的,那麼老師幾乎不可能辨別它是否是由生成人工智能偽造的。 有關我對這個學生和老師混淆方面的分析,請參閱我的報導 這裡的鏈接這裡的鏈接.

社交媒體上出現了一些關於 生成式人工智能 斷言這個最新版本的人工智能實際上是 有感知的人工智能 (不,他們錯了!)。 AI 倫理和 AI 法律領域的人士尤其擔心這種不斷擴大的索賠趨勢。 你可能會禮貌地說,有些人誇大了當今人工智能的能力。 他們假設人工智能具有我們尚未能夠實現的能力。 那真不幸。 更糟糕的是,他們可能會允許自己和他人陷入可怕的境地,因為他們假設人工智能在採取行動方面具有感知能力或類似人類。

不要將人工智能擬人化。

這樣做會讓你陷入一個棘手而沉悶的依賴陷阱,即期望 AI 做它無法執行的事情。 話雖如此,最新的生成式 AI 的功能相對令人印象深刻。 請注意,在使用任何生成式 AI 應用程序時,您應該始終牢記一些重大限制。

現在最後一個預警。

無論您在生成式 AI 響應中看到或讀到什麼 似乎 要以純事實(日期、地點、人物等)的形式傳達,請確保保持懷疑並願意仔細檢查您所看到的內容。

是的,日期可以編造,地點可以編造,我們通常期望無可非議的元素是 全部 受到懷疑。 在檢查任何生成的 AI 文章或輸出時,不要相信你讀到的內容並保持懷疑的眼光。 如果一個生成式 AI 應用程序告訴你亞伯拉罕林肯乘坐他的私人飛機在全國各地飛行,你無疑會知道這是胡說八道。 不幸的是,有些人可能沒有意識到噴氣式飛機在他那個時代並不存在,或者他們可能知道但沒有註意到這篇文章提出了這種厚顏無恥的錯誤主張。

在使用生成 AI 時,強烈的健康懷疑和持續的懷疑心態將是你最好的資產。 另外,要警惕潛在的隱私入侵和數據機密性的喪失,請參閱我在 這裡的鏈接.

我們已準備好進入這一闡明的下一階段。

人工智能是有史以來最偉大的故事

現在讓我們深入探討關於 AI 的曲解。

我將專注於生成人工智能。 話雖這麼說,幾乎任何類型的人工智能都會受到關於不公平或欺騙性廣告的同樣擔憂。 記住這個更廣泛的觀點。 我對任何類型的 AI 製造商都這麼說,確保他們都了解這些事情,而不僅僅是那些製作生成式 AI 應用程序的人。

這同樣適用於所有消費者。 無論您考慮購買或使用哪種類型的人工智能,都要警惕有關人工智能的虛假或誤導性聲明。

以下是我今天想與您討論的主要主題:

  • 1) 誰是潛在的 AI 謊言
  • 2) 試圖使用逃避條款來避免 AI 責任
  • 3) FTC 對 AI 廣告提供了方便的警告語
  • 4)聯邦貿易委員會還提供關於人工智能偏見的警告詞
  • 5) 你需要對你的人工智能廣告策略採取的行動

我將涵蓋這些重要主題中的每一個,並提供我們都應該認真考慮的有見地的考慮。 這些主題中的每一個都是更大難題的組成部分。 你不能只看一件。 你也不能孤立地看待任何一件作品。

這是一個錯綜複雜的馬賽克,必須對整個拼圖給予適當的和諧考慮。

誰是潛在的 AI 謊言

需要對涉及這些事項的各種參與者或利益相關者進行澄清。

有些 AI 製造商設計了生成式 AI 應用程序的核心,然後還有其他人在生成式 AI 之上構建,以製作依賴於底層生成式 AI 的應用程序。 我已經討論了 API(應用程序編程接口)的使用如何允許您編寫一個利用生成 AI 的應用程序,請參閱我的報導 這裡的鏈接. 一個典型的例子包括微軟已經將 OpenAI 的生成人工智能功能添加到他們的 Bing 搜索引擎中,正如我在 這裡的鏈接.

對 AI 做出誤導性或虛假聲明的潛在罪魁禍首包括:

  • 人工智能研究人員
  • 人工智慧開發者
  • 人工智能營銷人員
  • 開發核心人工智能(如生成人工智能)的人工智能製造商
  • 在其軟件產品中使用生成式人工智能的公司
  • 依賴於在其產品和服務中使用生成人工智能的公司
  • 依賴於在其產品或服務中使用生成人工智能的公司的公司
  • 等等

您可以將其視為供應鏈。 任何參與人工智能的人,只要它沿著正在設計和部署的人工智能的道路或挑戰前進,就可以很容易地提供關於人工智能的欺騙性或欺詐性聲明。

那些製造生成式 AI 的人可能是直率的射手,而事實證明,那些將生成式 AI 包裝到他們的產品或服務中的人是那些變得邪惡並提出毫無根據的主張的人。 這是一種可能。

另一種可能性是人工智能的製造者是那些做出虛假聲明的人。 其他在他們的產品中包含生成人工智能的人可能會重複這些說法。 在某些時候,可能會出現法律泥潭。 一場法律糾紛可能首先針對重複索賠的公司,而這些公司又似乎將法律矛頭指向引發索賠雪崩的 AI 製造商。 多米諾骨牌開始倒下。

關鍵是,那些認為他們可以依賴他人虛假聲明的公司注定會猛然醒悟,因為他們不一定會因為這種依賴而逍遙法外。 毫無疑問,他們也將腳踏實地。

到了緊要關頭,每個人都陷入了一場泥濘醜陋的法律鬥爭。

嘗試使用逃避條款來避免 AI 責任

我之前提到過,FTC 法案第 5 節提供了有關非法廣告行為的法律語言。 任何精明的律師都可能會利用各種法律漏洞為其客戶謀取利益,如果客戶實際上試圖推翻或轉移他們認為是虛假的指控,這大概是理所當然的。

以第 5 節條款為例:

  • “根據本節或本篇第 57a 節,委員會無權以行為或做法不公平為由宣布該行為或做法為非法,除非該行為或做法對消費者造成或可能造成實質性傷害,而這種傷害是消費者自己無法合理避免,並且不會被消費者或競爭的反補貼利益所抵消。 在確定一項行為或做法是否不公平時,委員會可以將既定的公共政策視為與所有其他證據一起考慮的證據。 此類公共政策考慮可能不能作為此類確定的主要依據”(來源:《聯邦貿易委員會法案》第 5 節)。

一些人對該條款的解釋是,如果說一家公司正在為他們的 AI 做廣告,並且以某種看似令人震驚的方式進行宣傳,那麼就會出現這樣的問題,即廣告是否能夠逃脫煉獄,只要廣告:(a) 失敗造成“對消費者的實質性傷害”,(b) 並且“可以由消費者自己避免”,並且 (c) “不會被消費者或競爭的反補貼利益所抵消”。

想像一下這個用例。 一家公司決定聲稱他們的生成人工智能可以幫助您的心理健康。 事實證明,該公司精心製作了一款應用程序,該應用程序結合了流行 AI 製造商的生成 AI。 由此產生的應用程序被吹捧為能夠“通過與你互動並撫慰你痛苦的靈魂的人工智能幫助你獲得內心的平靜。”

作為旁注,我已經討論了生成人工智能被用作心理健康顧問的危險,請參閱我的分析 這裡的鏈接這裡的鏈接.

回到故事。 假設消費者訂閱了據稱可以幫助他們心理健康的生成人工智能。 消費者表示,他們依賴於提供 AI 應用程序的公司的廣告。 但在使用了 AI 之後,消費者認為他們的心理狀況並沒有比之前更好。 對他們來說,人工智能應用程序正在使用欺騙性和虛假廣告。

我不會深入研究法律的複雜性,而只是將其用作方便的陪襯(請諮詢您的律師以獲得適當的法律建議)。 第一,消費者是否因使用AI應用而遭受“實質性傷害”? 一種說法是他們沒有遭受“實質性”傷害,只是表面上沒有得到他們認為會得到的東西(一種反駁認為這構成了一種“實質性傷害”等等)。 其次,如果確實發生了傷害,消費者是否可以合理地避免任何此類傷害? 假定的辯護在某種程度上是消費者不是以某種方式被迫使用人工智能應用程序,而是自願選擇這樣做,加上他們可能不正確地使用人工智能應用程序,因此破壞了預期的好處,等等。第三,人工智能應用程序是否可能對消費者而言是否具有足夠大的價值或利益,以至於該消費者提出的索賠在其中的全部價值或利益中勝過?

你可以預料到,許多 AI 製造商和那些用 AI 增強其產品和服務的人將斷言,無論他們的 AI 或 AI 注入的產品做什麼,他們通過整合 AI 為社會提供了平衡的淨收益. 其邏輯是,如果產品或服務在其他方面對消費者有利,那麼人工智能的加入會增強或加強這些好處。 因此,即使存在一些潛在的缺點,優點也會壓倒缺點(假設缺點並非不合情理)。

我相信你能明白為什麼那些製造或使用人工智能的人非常需要律師。

FTC 就 AI 廣告提供方便的警告語

回到 FTC 於 27 年 2023 月 XNUMX 日發表的博文,其中提出了一些非常實用的建議來避免越界 AI 廣告索賠難題。

以下是博文中提出的一些要點或問題:

  • “你是在誇大你的人工智能產品能做什麼嗎?”
  • “你是否承諾你的 AI 產品比非 AI 產品做得更好?”
  • “你知道風險嗎?”
  • “產品真的使用人工智能嗎?”

讓我們簡要地解開其中一些尖銳的問題。

考慮關於 AI 產品與被認為具有可比性的非 AI 產品的第二個要點。 宣傳你的 AI 增強產品比現有的任何非 AI 同類產品好很多是非常誘人的。 你可以整天揮舞著各種各樣的手,只要簡單地讚美一下,既然你的產品中包含了 AI,它一定會更好。 也就是說,任何不使用 AI 的可比產品顯然本質上都是低劣的。

這就引出了著名的傳奇口號“Where's the beef?”

重點是,如果您沒有任何有形和實質性的東西來支持您的主張,那麼您就處於相當軟弱和法律危險的境地。 你在流沙上。 如果被要求,您將需要展示某種形式的充分或充分的證據,證明添加 AI 的產品確實優於非 AI 產品,假設您提出這樣的聲明。 這個證明不應該是事後的亂七八糟的事情。 在提出這些廣告聲明之前,事先準備好這些信息會更明智、更安全。

從理論上講,您應該能夠提供一些合理的證據來支持這種說法。 例如,您可以進行一項調查或測試,將那些使用您的 AI 添加產品的人與那些使用非 AI 可比產品的人進行比較。 這是為應對未來迫在眉睫的處罰而付出的很小的代價。

另一個警告是不要做眨眼式的懦弱努力來嘗試和支持你關於人工智能的廣告聲明。 很有可能,如果你提供一項你對人工智能用戶和非人工智能用戶所做的研究,它會被其他專家仔細檢查。 例如,他們可能會注意到,您可能會根據您選擇被調查或測試的對象的方式來衡量。 或者,也許你想付錢給使用 AI 的用戶,讓他們吹捧你的產品有多棒。 各種詭計都是可能的。 我懷疑你想進去 雙重麻煩 當那些偷偷摸摸的發明被發現時。

轉到其他要點之一,考慮第四個要點,它詢問在特定情況下是否完全使用人工智能。

如今,快速而骯髒的方法包括機會主義者選擇將任何類型的軟件標記為包含 AI 或由 AI 組成。 有人說,不妨加入 AI 潮流。 他們在某種程度上能夠逃脫這一點,因為 AI 的定義通常是模糊的並且範圍很廣,請參閱我在 彭博法 關於什麼是 AI 的棘手法律問題 這裡的鏈接.

對什麼是人工智能的混淆可能會提供一些保護罩,但它並非堅不可摧。

以下是 FTC 博客提到的內容:

  • “在調查中,聯邦貿易委員會的技術人員和其他人可以深入了解並分析其他材料,看看裡面的內容是否與您的說法相符。”

從這個意義上說,無論您是否使用“AI”來嚴格遵守公認的 AI 定義選擇,您仍然會被要求遵守關於該軟件宣稱能夠執行的任何操作的聲明。

我很欣賞 FTC 博客中在上述觀點之後添加的評論:

  • “在將你的產品標記為 AI 驅動之前,還要注意,在開發過程中僅使用 AI 工具與其中包含 AI 的產品是不同的。”

這是一個微妙的點,許多人可能不會以其他方式考慮。 這是它的建議。 有時您可能會在開發應用程序時使用人工智能增強軟件。 實際的目標應用程序將不包含 AI。 您只是在使用 AI 來幫助您製作 AI 應用程序。

例如,您可以使用 ChatGPT 為您生成編程代碼。 生成的代碼不一定包含任何 AI 組件。 你的應用程序本身沒有資格聲稱它包含人工智能(當然,除非你選擇在其中包含某種形式的人工智能技術或技術)。 您可能會說您使用 AI 來幫助編寫程序。 即使這樣說也需要慎重和謹慎。

FTC 還提供關於 AI 偏見的警告詞

我在本文中提到的關於 AI 偏見主題的 FTC 博客提供了一些有用的警告,我認為這些警告非常值得牢記(我稍後會列出它們)。

談到生成式人工智能,當今能力的缺陷主要有四個問題:

  • 錯誤
  • 謊言
  • 人工智能幻覺
  • 偏見

讓我們簡要了解一下 AI 偏見問題。

這是我對任何和所有生成 AI 實現都需要充分探索的偏置途徑的廣泛列表(在 這裡的鏈接):

  • 用於生成人工智能數據訓練的互聯網來源數據中的偏差
  • 用於對源數據進行模式匹配的生成 AI 算法中的偏差
  • 生成人工智能及其基礎設施的整體人工智能設計存在偏差
  • AI 開發人員在生成 AI 的塑造中隱含或明確的偏見
  • 人工智能測試人員在生成人工智能測試中隱含或明確的偏見
  • RLHF(通過人類反饋強化學習)的偏差,由指定的人類審閱者隱式或明確地向生成 AI 提供培訓指導
  • AI 部署促進對生成 AI 的操作使用的偏見
  • 在日常使用中為生成 AI 建立的任何設置或默認指令中的偏差
  • 生成 AI 的用戶輸入的提示中有意或無意包含的偏見
  • 作為生成 AI 隨機概率輸出生成的一部分,系統條件與臨時外觀的偏差
  • 在生成 AI 處於活躍使用狀態時發生的即時或實時調整或數據訓練導致的偏差
  • 在 AI 維護或維護生成 AI 應用程序及其模式匹配編碼期間引入或擴展的偏差
  • 其他

如您所見,不當偏見可以通過多種方式滲透到 AI 的開發和部署中。 這不是一勞永逸的問題。 我把這比作打地鼠的情況。 您需要始終勤奮地嘗試發現並消除或減輕您的 AI 應用程序中的 AI 偏見。

考慮 19 年 2021 月 XNUMX 日 FTC 博客中提出的這些明智觀點(這些觀點仍然適用,無論它們是 年代久遠 在 AI 進步時間尺度方面):

  • “從正確的基礎開始”
  • “注意歧視性結果”
  • “擁抱透明度和獨立性”
  • “不要誇大你的算法能做什麼或者它是否能提供公平或公正的結果”
  • “說出你如何使用數據的真相”
  • “利大於弊”
  • “對自己負責——或者準備好讓聯邦貿易委員會為你做這件事”

上述幾點中我最喜歡的一點是第四點,它指的是經常使用的聲明或神話,即由於結合了 AI,給定的應用程序必須沒有偏見。

這是怎麼回事。

我們都知道人類是有偏見的。 我們不知何故陷入了機器和人工智能能夠公正的心理陷阱。 因此,如果我們在尋求某種形式的服務時可以在使用人類還是人工智能之間做出選擇,我們可能會傾向於使用人工智能。 希望人工智能不會有偏見。

如果 AI 的製造者或守場員宣稱他們的 AI 毫無疑問且無可爭辯地沒有偏見,那麼這種希望或假設就會得到加強。 這是令人欣慰的錦上添花。 我們已經準備好被引導走那條報春花之路。 廣告促成交易。

問題是沒有特別保證人工智能是公正的。 AI 製造者或 AI 外野手可能在 AI 偏見上撒謊。 如果這看起來過於邪惡,讓我們考慮一下 AI 製造者或 AI 守場員可能不知道他們的 AI 是否有偏見,但他們無論如何決定做出這樣的聲明。 對他們來說,這似乎是一個合理且意料之中的主張。

FTC 博客提到了這個具有啟發性的例子:“例如,假設一位人工智能開發人員告訴客戶,其產品將提供‘100% 公正的招聘決定’,但該算法是根據缺乏種族或性別多樣性的數據構建的。 結果可能是欺騙、歧視——以及聯邦貿易委員會的執法行動”(同上).

您需要針對 AI 廣告策略採取的行動

公司有時會陷入潛在的困境,因為一隻手不知道另一隻手在做什麼。

在許多公司中,一旦 AI 應用程序準備好發布,營銷團隊將無法獲得有關 AI 應用程序功能的信息。 經典的說法是 AI 的細節就在他們的腦海中,他們的技術不夠精明,無法理解它。 這一差距帶來了古怪的人工智能廣告的潛力。 營銷人員根據與他們分享的任何細節或花絮,盡其所能。

我並不是說營銷方面被蒙蔽了。 只是房子的 AI 開發方面和營銷方面之間經常存在差距。 當然,有些情況下營銷團隊基本上被蒙蔽了。 AI 開發人員可能會吹噓其宣稱的超人 AI 能力,對此營銷人員可能沒有任何有意義的方式來反駁或表達警告。 我們可以考慮其他災難性的排列。 可能是因為 AI 開發人員對 AI 的局限性持坦率態度,但營銷方選擇通過誇大 AI 的功能來增加一些活力。 你知道這是怎麼回事,那些人工智能技術人員只是不明白銷售東西需要什麼。

必須有人擔任裁判,並確保兩個有些不同的部門有適當的意見。 構想的廣告將需要基於 AI 開發人員應該能夠提供證據或證明的基礎。 此外,如果 AI 開發人員充滿一廂情願並且已經喝了 AI Kool-Aid,則需要確定這一點,以便營銷團隊不會被過於樂觀和毫無根據的想法蒙蔽了雙眼。

在一些公司中, 首席人工智能官 已作為一種可能的聯繫而浮出水面,以確保最高級別的執行團隊正在考慮如何在公司內部使用人工智能並將其作為公司產品和服務的一部分。 這一角色還有望有助於將公司的 AI 方面和營銷方面結合在一起,與營銷主管或首席營銷官 (CMO) 密切合作。 請參閱我對這個新興角色的討論,網址為 這裡的鏈接.

在這些問題中需要包括另一個非常重要的角色。

房子的法律方面同樣重要。 首席法律官 (CLO) 或首席法律顧問或外部法律顧問應在 AI 的整個開發、部署和營銷過程中參與 AI 方面的工作。 可悲的是,法律團隊往往是最後知道此類人工智能工作的人。 由於訴訟或聯邦機構調查而收到法律通知的公司會突然意識到,也許法律人員應該參與他們的 AI 部署。

一個更聰明的方法是在馬離開穀倉之前讓法律團隊參與進來。 早在馬離開穀倉之前。 方式,方式更早。 有關我對 AI 和法律實踐的報導,請參閱 這裡的鏈接這裡的鏈接, 例如。

Debevoise & Plimpton 律師事務所(一家全球知名的國際律師事務所,總部位於紐約市)最近發表了一篇題為“過度銷售人工智能的風險:FTC 正在關注”的在線帖子,作者是 Avi Gesser、Erez Liebermann 和 Jim Pastore, Anna R. Gressel、Melissa Muse、Paul D. Rubin、Christopher S. Ford、Mengyi Xu 以及發布日期為 6 年 2023 月 XNUMX 日的文章提供了一個非常有見地的指示,表明企業應該就其 AI 工作採取哪些行動。

以下是博客文章的部分節選(完整文章位於 這裡的鏈接):

  • “第二。 人工智能定義. 考慮為什麼可以被恰當地描述為 AI 創建一個內部定義,以避免在公司僅使用算法或簡單的非 AI 模型時錯誤地聲稱產品或服務利用人工智能的指控。”
  • “第二。 庫存/貨物. 考慮創建一份關於公司 AI 產品和服務的公開聲明清單。”
  • “第二。 教育:就 FTC 指南和 AI 定義問題對您的營銷合規團隊進行教育。”
  • “第二。 回顧: 考慮制定一個流程來審查所有當前和擬議的關於公司人工智能產品和服務的公開聲明,以確保它們是準確的、可以被證實的,並且不會誇大或過度承諾。”
  • “第二。 供應商索賠:對於供應商提供給公司的 AI 系統,請注意不要在不確保其準確性的情況下僅重複供應商對 AI 系統的聲明。”
  • “第二。 風險評估:對於高風險人工智能應用,公司應考慮進行影響評估以確定可預見的風險以及如何最好地減輕這些風險,然後考慮在有關人工智能應用的外部聲明中披露這些風險。”

作為一名高級管理人員和全球首席信息官/首席技術官,我知道法律團隊對於面向內部和外部的人工智能係統的開發和部署有多麼重要,包括在許可或獲取第三方軟件包時。 人工智能的努力尤其如此。 法律團隊需要嵌入或至少被視為技術團隊的親密而可愛的盟友。 與任何和所有技術相關的法律地雷過多,對於公司決定構建或採用的 AI 來說尤其如此。

人工智能如今位居潛在合法地雷清單的首位。

人工智能技術人員與營銷專家和法律大律師的配合是你做正確事情的最佳機會。 將這三者持續不斷地而不是遲來的或一次性地放在一起,這樣他們就可以找出一種營銷和廣告策略以及部署,從而獲得人工智能實施的好處。 目的是盡量減少法律的幽靈和代價高昂且損害聲譽的訴訟,同時最大限度地提高人工智能實質上提供的適當公平和平衡的讚譽。

金發姑娘原則適用於人工智能。 你想吹捧人工智能可以做偉大的事情,假設它可以並且確實有精心設計的證據和證明支持。 你不想無意中迴避人工智能增加的任何價值。 這削弱了 AI 添加劑的特性。 而且,在另一個極端,您當然不希望製作滑稽的自誇廣告,這些廣告會偏離軌道並做出邪惡且容易引起法律糾紛的聲明。

湯的溫度必須恰到好處。 實現這一目標需要來自技術團隊、營銷團隊和法律團隊的頭腦聰明、精通人工智能的廚師。

在 Arnold & Porter 律師事務所(總部位於華盛頓特區的知名跨國律師事務所)最近的一篇帖子中,Isaac E. Chao 和 Peter J. Schildkraut 撰寫了一篇題為“FTC Warns: All You Need To Know About AI You Learned In Kindergarten”(發布日期為 7 年 2023 月 XNUMX 日,可在 這裡的鏈接),並對與 AI 使用相關的法律責任做出了至關重要的警告強調:

  • “簡而言之,不要被 AI 的魔力所吸引以至於忘記了基礎知識。 欺騙性廣告會使公司承擔聯邦和州消費者保護法規定的責任,其中許多法律除了政府執法外還允許私人訴訟權。 被誤導的客戶——尤其是 B2B 客戶——也可能會根據各種合同和侵權理論尋求損害賠償。 上市公司不得不擔心 SEC 或股東斷言,即未經證實的索賠是重大的。”

意識到即使你的 AI 不是針對消費者的,你也不能完全逃避潛在的法律風險。 作為企業的客戶也可以確定您的 AI 聲明是虛假的,或者可能是欺詐性地誤導了他們。 可能會出現各種法律風險。

結論

很多人都在等著看人工智能廣告相關的崩潰會從現有的和不斷增長的人工智能狂潮中升起。 一些人認為,我們需要一個大眾汽車級別的範例或一個歐萊雅級別的原型來讓每個人都意識到,關於 AI 的毫無根據的斷言是不能容忍的。

在關於 AI 越界廣告的法律糾紛在社交媒體和日常新聞中引起廣泛關注之前,令人擔憂的是 AI 吹噓的富礦將持續存在。 人工智能的營銷將繼續攀登古怪的階梯。 越來越高。 每一個下一個 AI 都必須比之前的 AI 更勝一籌。

我的建議是,您可能不想成為原型並因為被 AI 裝飾餅乾罐抓到而載入史冊。 不好看。 昂貴。 可能會破壞業務和相關職業。

你會被抓住嗎?

我強烈建議,如果您注意自己的所作所為,那麼被抓到就不會成為噩夢,因為您已經做了適當的盡職調查,並且可以枕著枕頭安然入睡。

對於那些不願意聽從該建議的人,我將在 27 年 2023 月 XNUMX 日的 FTC 博客中為這一溫和的預警言論留下最後一句話:“無論它能做什麼或不能做什麼,人工智能都很重要,你對它的主張也是如此。 你不需要機器來預測聯邦貿易委員會在這些說法沒有根據的情況下會做什麼。”

好吧,我想人們可以使用 AI 來幫助您避開非法的 AI 廣告,但那是以後的事了。 請記住,對您的人工智能要深思熟慮和誠實。 那並確保你有最好的法律獵犬,在這些問題上尖銳地提供他們虔誠的法律智慧。

資料來源:https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims-關於生成人工智能聊天和其他人工智能警告人工智能倫理和人工智能法律/