人工智能倫理質疑人類語音克隆,例如你已故親屬的語音克隆,旨在用於人工智能自治系統

哎呀,一項看似漂亮的新技術已經讓自己和它的製造商陷入了困境。

我指的是基於 AI 的人類語音克隆的出現,它是最近成功進入 oh-my-gosh 頭條新聞的新技術。 在這種情況下,該公司是亞馬遜及其不斷發展的 Alexa。

我專欄的讀者可能還記得,我之前曾報導過 Alexa 鼓勵一名年輕人將一分錢放入電源插座(不要這樣做!)時發生的不合時宜的噓聲,請參閱我的報導 這裡的鏈接. 在那種情況下,幸運的是,沒有人受傷,其後果是 Alexa AI 系統顯然已經掌握了先前的病毒趨勢,並且在沒有任何常識評估的情況下只是重複了瘋狂的建議,當被要求做一些有趣的事情時一個與​​ Alexa 互動的孩子。 這凸顯了 AI 倫理問題,即我們正被完全缺乏任何常識推理的 AI 所淹沒,這是 AI 面臨的一個顯著的棘手問題,它繼續無視在 AI 中體現的努力(對於我對基於 AI 的常識推導的分析)努力,見 這裡的鏈接).

最新的塵埃落定涉及進行語音克隆,也稱為語音複製。 此類技術和人工智能的最新進展正在引發緊迫的人工智能倫理和人工智能倫理考慮。 有關我對 AI Ethics 和 Ethical AI 的持續總體報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

基於人工智能的語音克隆是一個簡單的概念。

人工智能係統被編程為錄音你的一些口語。 然後,人工智能會嘗試通過計算找出你的語音模式。 根據檢測到的語音模式,人工智能會嘗試發出聽起來像你的音頻語音。 棘手的部分是語音涵蓋了您之前沒有作為音頻樣本提供給 AI 的單詞。 換句話說,人工智能必須以數學方式估計你可能會說的話。 這包括語音的所有特徵,例如語氣、聲音的高低、說話的速度或速度等。

當你聽到一個人試圖模仿另一個人時,你通常可以辨別出這種努力是在模仿。 在短期內,例如,如果模仿者只使用了幾個詞,可能很難確定聲音不是原來的說話者。 此外,如果模仿者正在模仿原始說話者實際說出的單詞,那麼他們很可能可以將自己的聲音調整為其他人的聲音,以便針對特定的話語進行調整。

簡潔和聽到完全相同的話可以讓某人幾乎確定一個模仿。

挑戰變成了覆蓋其他人沒有說過的詞或模仿者從未聽過該人說出這些特定詞的詞。 對於試圖弄清楚被模仿的人會如何說這些話,您有些不知所措。 好消息是,如果聽模仿者說話的其他人也不知道原來的人會怎麼說的話,模仿者可以相對遠離真實的聲音,但仍然看起來花花公子和目標明確。

我還想暫時從等式中刪除模仿的舉止和身體動作。 看到模仿者時,如果他們能夠以同樣模仿被模仿者的方式皺起臉或揮舞手臂,您可能會動搖。 身體和麵部的附加提示會欺騙你的大腦,讓你認為聲音也是死氣沉沉的,即使它可能不是。 聲音模仿純粹主義者會堅持認為,只有聲音才能用作確定聲音是否恰當地模仿被模仿者的標準。

您肯定已經看過這些天在社交媒體上流傳的各種 deepfake 視頻。 有人巧妙地重新調整視頻,讓其他人的臉出現在視頻中,覆蓋原始錄製中其他人的臉。 這通常也伴隨著對聲音的深度偽造。 你會受到雙重打擊,包括通過 deepfake AI 更改視頻的視覺效果和通過 deepfake AI 更改的音頻。

為了便於討論,我只關注基於 AI 的 deepfake 音頻方面,如前所述,這通常被稱為語音克隆或語音複製。 有些人厚顏無恥地將其稱為罐頭聲音。

我相信你們中的一些人現在正在勸告我們已經有能力使用計算機程序來克隆聲音很長一段時間了。 這本身並不是什麼新鮮事。 我同意。 同時,我們也確實需要承認,這種高科技能力正在變得越來越好。 好吧,我說越來越好,但也許正如你稍後會看到的那樣,我應該說它變得越來越令人擔憂,越來越令人擔憂。

堅持這個想法。

進行語音克隆的技術實力肯定在進步。 例如,過去你必須通過講述混合搭配單詞的整個故事來“訓練”一個 AI 音頻複製程序。 類似於跳過懶狗的快速棕色狐狸的著名或臭名昭著的台詞(旨在讓某人覆蓋所有字母的台詞),也有專門製作的短篇小說,其中包含用於目的的混合詞讓您說出足夠多的單詞和足夠多的單詞,從而使 AI 模式匹配變得更加容易。

您可能必須閱讀幾頁單詞,通常包括您難以發音並且甚至不確定它們的意思的單詞,以便充分啟用 AI 模式匹配。 這可能需要幾分鐘甚至幾小時的談話才能為 AI 提供足夠的音頻,以用於尋找不同的聲音模式。 如果你縮短了這項訓練活動,那麼由此產生的語音複製很可能會被你的任何熟悉你聲音的朋友輕易擊倒。

好的,當時人工智能開發人員的興趣集中在如何優化音頻複製方面。 AI 建設者喜歡挑戰。 據說他們本質上是優化者。 給他們一個問題,他們會傾向於優化,不管這可能會導致什麼(我提到這是一個鋪墊,很快就會變得更清楚)。

回答我這個:

  • 最大程度地克隆一個人的聲音所需的最少音頻樣本量是多少,並且音頻樣本幾乎可以是任何隨機允許的單詞集,但仍允許語音克隆產生幾乎任何可能曾經說過的單詞目標聲音和聲音在對話或其他選擇的上下文設置中與該人的聲音基本相同?

裡面有很多東西要解壓。

請記住,您需要最大程度地克隆聲音的最小音頻樣本,這樣現在自動複製的聲音中產生的 AI 話語似乎與真實的人完全沒有區別。 這比你想像的要棘手。

這幾乎就像那個遊戲節目一樣,您必須嘗試根據聽到的最少音符來命名一首歌曲。 演奏的音符越少,就越難猜出它是哪首歌。 如果您的猜測是錯誤的,您將失去積分或輸掉比賽。 一場關於你是否應該只使用一個音符的鬥爭隨之而來,這是最不可能的線索,但是你猜到這首歌的可能性可能會大大降低。 您聽到的音符越多,猜出正確歌曲的可能性就越高,但您也允許其他參賽者也有更高的猜測機會。

請記住,在語音克隆的情況下,我們也在處理規定詞的概念,而不是任何詞。 如果一個人說“你無法處理真相”,而我們希望 AI 模仿或冒充這個人,那麼 AI 在計算上很可能很容易捕捉到這種模式。 另一方面,假設我們只有那個人說的這些話“這就是你要問我的全部嗎”,我們想用這些話讓 AI 說“你無法處理真相”。 我認為您可以看到訓練一組單詞的難度,並且必須推斷出一組完全不同的單詞。

另一個艱鉅的元素是口語的上下文。 假設我們讓您在平靜和放鬆時錄製一個句子。 人工智能模仿這些詞。 它也可能會影響你聲音的平靜。 想像一下,當你像大黃蜂一樣瘋狂和憤怒地尖叫時,我們希望 AI 假裝是你。 讓 AI 將原始模式扭曲成準確憤怒的聲音版本可能會令人生畏。

我們正在尋找什麼樣的最小值?

現在的目標是打破分鐘標記。

獲取一個您只有不到一分鐘的音頻價值的錄製聲音,並讓 AI 僅從那個微小的樣本中進行所有令人驚嘆的語音克隆。 我想澄清一下,幾乎任何人都可以組成可以做到這一點的人工智能 通常 在不到一分鐘的時間內,雖然生成的語音克隆很弱並且很容易被檢測為不完整。 再一次,我明確而堅定地認為採樣時間最少 同時語音克隆最大。 如果在語音克隆中也允許一個 dolt 達到最小採樣值,則它們可以達到最小採樣值。

這是一個有趣且令人興奮的技術挑戰。 您可能想知道這樣做的價值或優點。 我們追求什麼目的? 通過能夠如此高效地進行基於人工智能的語音複製,我們可以期待對人類有什麼好處?

我希望你仔細考慮這個問題。

錯誤的答案會讓你不經意間變成一堆糊狀。

這似乎是樂觀且完全積極的事情。

假設我們可能有像亞伯拉罕林肯這樣的名人的舊錄音,並且能夠使用那些塵土飛揚的音頻片段來製作基於人工智能的語音克隆。 然後,我們可以聽到林肯發表葛底斯堡演說,就好像我們在他發表四分之日和七年前令人難忘的演講的那一天一樣。 作為旁注,遺憾的是,我們沒有任何林肯聲音的錄音(該技術還不存在),但我們確實有本傑明哈里森總統的錄音(美國總統中第一位有錄音的美國總統) ) 和之後的其他總統。

我相信我們都可能會合理地同意,這種基於人工智能的語音克隆的特定用途非常好。 事實上,我們可能更希望這樣,而不是今天的演員試圖假裝他們像林肯一樣說話。 這位演員大概會編造他們認為林肯的實際聲音聽起來像的任何東西。 這將是捏造的,也許與林肯的聲音相去甚遠。 相反,通過使用合格的人工智能語音克隆系統,關於林肯的聲音如何真正聽起來幾乎沒有爭議。 人工智能實際上是正確的,至少在人工智能複制目標聲音方面有多好。

在人工智能語音克隆的優點類別中,我們可以通過這種用例獲得勝利。

不想讓人沮喪,但即使是這種明顯的全面使用也有一個缺點。

有人使用人工智能語音克隆系統來識別西奧多·羅斯福(“泰迪”)的聲音,我們珍貴的 26th 美國總統、博物學家、環保主義者、政治家、作家、歷史學家,幾乎被普遍稱為受人尊敬的人。 他發表的演講以及我們沒有任何歷史保存的音頻版本的演講現在可以“說出來”,就好像他今天親自做演講一樣。 學習歷史的一個值得稱道的推動力。

讓我們把它變成醜陋的,只是為了揭示它的缺點。

我們使用基於 Teddy AI 的語音克隆來閱讀邪惡獨裁者發表的演講。 人工智能並不關心它在說什麼,因為人工智能中沒有任何感覺。 單詞只是單詞,或者更準確地說只是一陣聲音。

你可能會驚訝於有人會做這種卑鄙的事情。 為什麼要使用基於人工智能的著名和受人尊敬的西奧多·羅斯福的克隆聲音來發表演講,不僅泰迪最初沒有做過,而且最重要的是,演講的話題描述了一個卑鄙的人的一些邪惡獨裁者?

太離譜了,你可能會驚呼。

輕鬆搞定,回復來了。

從本質上講,關於基於人工智能的語音複製的一個非常重要的問題是,我們會突然發現自己充斥著虛假,或者我們應該說與任何歷史事實或準確性無關的深度虛假演講和話語。 如果製作並公佈了足夠多的這些內容,我們可能會對什麼是事實與什麼是虛構感到困惑。

你可以充分看到這是如何發生的。 使用基於人工智能的語音克隆,有人錄製了伍德羅·威爾遜發表演講的錄音,但他從未真正發表過演講。 這是在互聯網上發布的。 其他人聽到錄音並相信它是真實的。 他們把它貼在別處,提到他們發現了伍德羅·威爾遜的這段偉大的歷史記錄。 很快,歷史課上的學生就開始使用音頻來代替閱讀演講的書面版本。

沒有人最終知道演講是否由伍德羅威爾遜發表。 也許是,也許不是,每個人都認為這並不重要(好吧,那些不關注歷史準確性和事實的人)。 當然,如果演講是卑鄙的演講,這會給該歷史人物留下錯誤的印像或虛假信息。 歷史與小說合而為一。

我相信您相信這是與基於 AI 的語音克隆相關的一個缺點。

同樣,我們已經可以做這些事情,無需更新和改進的基於人工智能的語音複製,但這樣做會變得更容易,並且生成的音頻將很難區分真假。 如今,使用傳統的音頻製作程序,您通常可以收聽輸出,並且通常很容易確定音頻是偽造的。 隨著人工智能的進步,你很快就會不再相信自己的耳朵,在某種程度上。

儘管歷史人物的聲音克隆可能很糟糕,但我們需要考慮一下今天活人可能特別令人震驚的用途。

首先,您是否聽說過一個頗受歡迎的騙局,其中涉及某人冒充老闆或類似的人? 幾年前,有一種令人不安的時尚,那就是打電話給餐廳或商店並假裝是該機構的老闆。 造假包括告訴工作人員做一些荒謬的事情,而他們通常會盡職盡責地相信他們正在與老闆交談。

我不想陷入這些令人憤怒的不法行為,但另一個相關的行為包括打電話給可能有聽力障礙的人並假裝是他們的孫子或孫女。 模仿者試圖說服祖父母提供資金來幫助他們,或者以某種方式拯救他們。 根據模仿的聲音,祖父母被愚弄了。 卑鄙。 可恥。 傷心。

我們即將進入一個基於人工智能的語音克隆將啟用類固醇的時代,如果你是的話,語音相關的詐騙和詐騙的出現。 人工智能將在語音複製方面做得如此出色,以至於任何聽到聲音的人都會發誓說真人就是說話的人。

那能走多遠?

一些人擔心,使用基於人工智能的語音克隆可能會導致釋放原子武器和軍事攻擊,從而誘使其他人相信高級軍官正在發出直接命令。 任何處於顯要地位的人都可以這樣說。 使用極其準確的人工智能語音克隆讓銀行高管釋放數百萬美元的資金,這樣做是因為他們被愚弄相信他們正在與手頭的銀行客戶交談。

在過去的幾年裡,用人工智能來做這件事不一定有說服力。 電話另一端的人開始提問的那一刻,人工智能需要離開準備好的腳本。 那時,語音克隆會惡化,有時甚至會惡化。 讓騙局繼續下去的唯一方法是強迫談話回到劇本中。

借助我們今天擁有的 AI 類型,包括自然語言處理 (NLP) 方面的進步,您可以脫離腳本,並可能讓 AI 語音克隆似乎以自然對話的方式說話(並非總是如此,並且仍然有辦法讓人工智能絆倒)。

在深入了解基於人工智能的語音克隆背後的狂野和模糊考慮之前,讓我們建立一些關於非常重要的主題的額外基礎知識。 我們需要簡要介紹一下 AI 倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超級智能人工智能,因此可以想像這種人工智能最終可能會比人類更聰明。

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到我們對基於 AI 的語音克隆的關注。

在最近的一次會議上,亞馬遜的演講旨在展示基於人工智能的語音克隆的理想優勢,並強調 Alexa 中用於提升其功能的最新前沿人工智能。 根據新聞報導,一個準備好的例子應該是溫暖和樂觀的,包括讓一個孩子要求 Alexa 讓他們的奶奶讀完給他們聽的故事 綠野仙踪. 觀眾被告知祖母已經去世,這是孩子與他們心愛的祖父母重新建立聯繫的一種方式。 所有這些顯然是亞馬遜為幫助展示 Alexa 開發團隊最新的人工智能語音克隆突破而製作的視頻的一部分(包括尚未正式推出供公眾使用的功能)。

對這個例子的一個反應是,我們可能會非常感動,一個孩子可以再次聽到他們祖母的聲音。 我們大概假設祖母還沒有記錄完整的故事閱讀,因此人工智能克隆正在做的工作讓事情看起來好像祖母現在正在閱讀整個閱讀。

與不再與我們在一起的親人重新建立聯繫的非凡而巨大的方式。

並非所有記者和分析師(加上 Twitter)都如此傾向於對這一進步做出有利的解釋。 一些人將其標記為完全令人毛骨悚然。 據說試圖重現已故親人的聲音是一項奇怪且有些奇怪的工作。

問題比比皆是,例如:

  • 孩子會糊塗,相信死去的親人還活著嗎?
  • 孩子現在會不會因為誤以為祖母還和我們在一起而被帶進一些令人不快的惡作劇或騙局?
  • 孩子會不會因為聽到死去的親人而感到沮喪,現在又一次想念祖父母,彷彿打開了已經癒合的情感創傷?
  • 孩子會不會認為死者可以從另一邊說話,即這個看起來正是他祖母的神秘聲音是從墳墓裡對他說話?
  • 是否可以想像,孩子會認為 AI 以某種方式體現了他的祖母,將 AI 擬人化,以至於孩子長大後會相信 AI 可以完全複製人類?
  • 假設孩子對祖母的人工智能複制聲音如此著迷,以至於孩子變得痴迷並使用聲音進行各種音頻收聽?
  • 複製語音的供應商是否可以選擇為使用相同整體系統的其他人使用該語音,而無需獲得家人的明確許可,從而從設計的語音中“獲利”?
  • 等。

重要的是要意識到你可以想像出與正面一樣多的負面,或者我們應該說正面和負面一樣多。 這些人工智能進步背後存在權衡。 只看硬幣的一面可能是短視的。

關鍵是要確保我們正在考慮這些問題的各個方面。 不要在你的思想中蒙上陰影。 只探索積極的一面很容易。 只探索負面因素很容易。 我們需要檢查兩者並找出可以做些什麼來有希望地利用積極因素並尋求減少、消除或至少減輕消極因素。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要。

除了採用人工智能倫理之外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途,例如基於人工智能的語音克隆功能。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 至少,AI Ethics 可以作為一種權宜之計。

話雖如此,一些人認為我們不需要涵蓋人工智能的新法律,我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。 例如,請參閱我的報導 這裡的鏈接這裡的鏈接.

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了基於人工智能的語音克隆的任何內容?如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和基於人工智能的語音克隆

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

讓我們勾勒出一個可能利用基於 AI 的語音克隆的場景。

一位父母和他們的孩子進入一輛基於人工智能的自動駕駛汽車。 他們要去當地的雜貨店。 預計這將是一個相對平靜的旅程。 只是每週開車去商店,雖然司機是一個人工智能駕駛系統,父母不需要做任何駕駛。

對於父母來說,這是一個很大的福音。 父母不必專注於轉向和處理駕駛行為,而是可以將注意力集中在孩子身上。 他們可以在自動駕駛汽車中一起玩耍,並度過寶貴的時光。 雖然父母通常會因開車而分心,並且在駕駛繁忙的街道和與附近其他瘋狂的司機打交道時可能會變得焦慮和緊張,但在這裡,父母完全沒有意識到這些擔憂,只是愉快地與他們的寶貝孩子互動。

父母與人工智能駕駛系統對話,並告訴人工智能帶他們去雜貨店。 在典型的場景中,人工智能會通過中性的音頻話語做出響應,你可能會通過今天的 Alexa 或 Siri 聽到這些話語。 AI 可能會回答說雜貨店距離酒店有 15 分鐘的車程。 此外,人工智能可能會說自動駕駛汽車會將它們放在商店的最前面。

在這種情況下,這可能是人工智能唯一與語音相關的活動。 也許,一旦自動駕駛汽車靠近雜貨店,人工智能可能會說出目的地越來越近的信息。 當您離開自動駕駛汽車時,可能還會有聲音提醒您隨身攜帶物品。

我已經解釋過,一些人工智能駕駛系統將成為健談的貓,就像它一樣。 他們將被編程為更流暢和持續地與人類騎手互動。 當您乘坐由人類駕駛的拼車車輛時,有時您希望駕駛員能夠健談。 除了打招呼外,您可能希望他們告訴您當地的天氣狀況,或者指出當地的其他景點。 不是每個人都想要這只健談的貓,因此應該將 AI 設計為僅在人類請求時進行對話,請參閱我的報導 這裡的鏈接.

現在我已經建立了所有的東西,讓我們以一種小而重要的方式來改變它。

假設 AI 駕駛系統具有基於 AI 的語音克隆功能。 我們還假設父母之前通過提供孩子祖母的音頻片段來植入 AI 語音克隆。 驚喜,家長想,我會讓人工智能駕駛系統像孩子的已故祖母一樣說話。

在去雜貨店的路上,人工智能駕駛系統與父母和孩子互動,全程只使用祖母的克隆聲音。

你覺得這怎麼樣?

令人毛骨悚然還是令人難忘?

我會把事情提高一個檔次。 做好準備。 係好安全帶。

一些人相信,正如我所做的那樣,我們最終將允許孩子們自己乘坐基於人工智能的自動駕駛汽車,請參閱我的分析 這裡的鏈接.

在當今的人類駕駛汽車中,必須始終有成年人在場,因為法律要求必須有成年人駕駛。 出於所有實際目的,您永遠不能讓孩子獨自坐在車內(是的,我知道會發生這種情況,例如最近支持的一位主要電影明星的 10 歲兒子一輛非常昂貴的汽車變成另一輛非常昂貴的汽車,但無論如何這些都是罕見的)。

今天的父母可能會強烈反對讓他們的孩子乘坐無人駕駛汽車,而無人駕駛汽車中沒有成年人擔任監督者或照看孩子。 我知道這似乎幾乎是無法想像的,但我敢打賭,一旦自動駕駛汽車盛行,我們將不可避免地接受兒童乘坐自動駕駛汽車時沒有成人的想法。

考慮便利因素。

你在工作,你的老闆正在追趕你完成一項任務。 您需要從學校接您的孩子並帶他們去棒球練習。 你被困在一個石頭和一個艱難的地方,因為太安撫你的老闆或者沒有帶你的孩子去練習場。 您認識的任何其他人都無法為您的孩子提供電梯。 如果有的話,您當然不想使用有人類司機的拼車服務,因為您自然會擔心陌生人在為您的孩子搭車時可能會說什麼或做什麼。

沒問題,不用擔心,只需使用基於人工智能的自動駕駛汽車。 你遠程指揮自動駕駛汽車去接你的孩子。 通過自動駕駛汽車的攝像頭,您可以看到並觀看您的孩子進入自動駕駛汽車。 此外,還有內向攝像頭,您可以在整個駕駛過程中觀看您的孩子。 這似乎比要求陌生人為您的孩子提供電梯更安全,甚至更安全。 話雖如此,有些人理所當然地擔心,如果駕駛行為出了差錯,您將有一個孩子獨自一人,沒有成年人立即在場幫助或指導孩子。

拋開許多疑慮,假設我在前面的場景中描述的同一個父母和孩子可以接受孩子在沒有父母在場的情況下騎車。 只要接受這最終是一個可行的方案。

這是最後的踢球者。

每次孩子乘坐基於人工智能的自動駕駛汽車時,他們都會受到歡迎並與人工智能互動,因為它正在利用基於人工智能的語音克隆和復制孩子已故祖母的聲音。

你覺得那些蘋果怎麼樣?

當父母也出現在自動駕駛汽車中時,也許我們可以原諒 AI 語音的使用,因為父母會在 AI 音頻說話時告知孩子正在發生的事情。 但是當父母不在時,我們現在假設孩子在祖母的聲音複製中表現得很好。

這絕對是那些停下來認真思考這對孩子來說是好是壞的時刻之一。

結論

讓我們做一個思想實驗來仔細考慮這些重要的問題。

請牢固地拿出三個 積極 擁有基於人工智能的語音克隆的理由。

我會等你提出來。

接下來,紮實拿出三個 削弱基於人工智能的語音克隆出現的原因。

我假設你已經想出了一些。

我意識到,毫無疑問,您可以提出更多的理由,而不僅僅是三個支持或反對這項技術的理由。 在您看來,負面大於正面嗎? 有些批評者認為,我們應該對這些努力進行批評。

有些人想嘗試阻止公司使用基於人工智能的語音克隆,但意識到這是典型的打地鼠困境之一。 任何您停止使用它的公司,很有可能其他公司將開始使用它。 凍結時鐘或隱藏這種人工智能幾乎是不可能的。

在關於這個話題的最後一句話中,想像一下如果有一天我們能夠實現有感知的人工智能會發生什麼。 我並不是說這會發生。 無論如何,我們都可以推測,看看這可能會導致什麼。

首先,考慮一個關於說話和發聲的有見地的報價。 瑪德琳奧爾布賴特有句名言:“我花了很長時間才發聲,現在我有了,我不會保持沉默。”

如果我們能夠產生有感知力的人工智能,或者即使我們不直接產生感知力,它也會以某種方式產生,那麼人工智能應該有什麼聲音? 假設它可以使用其基於人工智能的語音克隆,並通過一些可能由該人發出的音頻採樣片段製造任何人的任何聲音。 然後,這樣的 AI 可以說話並欺騙您,讓您相信 AI 看起來就是那個人。

話又說回來,也許人工智能會想要擁有自己的聲音,並故意設計出一種與所有其他人類聲音完全不同的聲音,想要以自己迷人的方式變得與眾不同。

天哪,這讓一個人幾乎說不出話來。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deeased-relatives-打算在人工智能自治系統中使用/