AI 倫理和 AI 法律可能會被推動並促使對所有現有和未來的 AI 強制安全警告

毫無疑問,您的日常活動會受到上千種或多種預防性警告的轟炸。

試穿這些尺寸:

  • 必須始終佩戴安全眼鏡
  • 危險:附近有危險化學品
  • 高壓 - 遠離
  • 警告:注意周圍環境
  • 鏡子裡的物體比看起來更近
  • 折疊前取出兒童(如嬰兒車上所述)
  • 注意:請務必忽略此消息

其中大多數都是方便且經過深思熟慮的標誌或標籤,可以使我們充滿希望地保持安全。

請注意,我在列表中偷偷添加了一些“異常值”以提出一些值得注意的觀點。

例如,有些人認為嬰兒推車貼有警告您在嬰兒仍坐在裝置內時不要折疊嬰兒車的標籤是瘋狂的。 雖然這個標誌肯定是適當的並且盡職盡責地有用,但似乎基本常識已經足夠了。

有什麼人會不自覺地意識到他們首先需要取出嬰兒?

好吧,其他人強調這樣的標籤確實有一個重要的目的。 首先,有些人可能真的沒有意識到他們需要在折疊嬰兒車之前把嬰兒拿走。 也許該人認為嬰兒車設計精巧,以確保折疊操作不會傷害嬰兒。 或者可能有內置的安全功能,可以在嬰兒車內有兒童時防止折疊。 等等。

此外,也可能是這個人分心了,會漫不經心地折疊嬰兒車,包括嬰兒和所有的東西,但幸運的是這個標籤促使這個人不這樣做(有些人認為這樣的人似乎不太可能注意到這個標籤反正)。 還有一個事實是,如果沒有這樣的標籤,有人可能會起訴嬰兒車的製造商。 您可以想像其中一個嬰兒受傷而父母決定獲得一百萬美元的巨額訴訟,因為嬰兒車上沒有張貼警告標誌。 嬰兒車公司會後悔沒有花幾美分製作和粘貼警告標誌到他們的嬰兒車上。

仔細看看我上面列出的最後一條警告消息。

我選擇發布關於確保忽略該消息的smarmy信息,因為這些天人們購買或製作許多虛假警告標籤只是為了好玩。 這是一個真正的哲學思維彎曲者。 如果您閱讀了說忽略警告的警告,那麼在閱讀警告後您究竟要做什麼? 你已經讀過它,所以它表面上在你的腦海裡。 當然,您可以忽略它,但話又說回來,您根本不會被告知您應該忽略什麼。 一圈又一圈,這個笑話就這麼說。

當然,善意的警告標籤通常不是開玩笑或幽默的。

我們應該非常認真地對待警告。

通常,如果您未能遵守已註明的警告,您將面臨嚴重的個人風險。 而且,如果您不遵守並遵守警告,您也可能會將其他人置於不應有的風險之中。 考慮駕駛汽車的行為。 當您駕駛汽車時,您作為駕駛員的行為可能會傷害您自己,您可能會傷害您的乘客,您還可能傷害其他人,例如其他車內的人或附近的行人。 從這個意義上說,警告不僅是為了您的利益,也可能是為了他人的利益。

為什麼我要涵蓋這些方面的警告和警示標籤?

因為有些人強烈斷言,我們需要對當今的人工智能 (AI) 發出警告和警示信號。

實際上,這個概念是給今天的人工智能和未來的人工智能貼上這樣的標籤。 總而言之,所有人工智能最終都會有某種形式或變體的警告或警告指示。

好主意還是壞主意?

實用還是不實用?

讓我們繼續打開這個概念,看看我們能做些什麼。

我想首先為 AI,尤其是 AI 倫理和 AI 法律奠定一些基本基礎,這樣做是為了確保 AI 警告的主題在上下文中是合理的。 對於那些通常對道德 AI 和 AI 法感興趣的人,請參閱我的廣泛且持續的報導 這裡的鏈接 這裡的鏈接,僅舉幾例。

對道德 AI 和 AI 法的認識不斷提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

現在我已經為這些相關的 AI 倫理和 AI 法律主題奠定了有用的基礎,我們準備好進入令人興奮的話題,即 AI 是否應該有警告標籤。

準備好開啟令人大開眼界的信息之旅。

在人工智能上貼上警告標籤作為保護人類的一種手段

越來越多的人認為人工智能應該帶有某種警告。

例如,在最近的一篇文章中 麻省理工學院技術評論 在討論對 AI 審計的興趣日益增加時,出現了提供警告信號的概念:“這些審計的增長表明,有一天我們可能會看到香煙包裝式的警告,即 AI 系統可能會損害您的健康和安全。 其他行業,如化學品和食品,會定期進行審核,以確保產品可以安全使用。 這樣的事情會成為人工智能的常態嗎?” (麻省理工學院技術評論,梅麗莎·海基拉,24 年 2022 月 XNUMX 日)。

讓我們全面談談警告和警示標誌。

我們都已經普遍熟悉了許多日常產品和服務的警告和警示標誌。 有時法律規定安全標誌是必需的,而在其他情況下,使用這些標誌有自由裁量權。 此外,一些安全標誌是標準化的,例如根據 ANSI Z535 標準和 OSHA 1910.14 標準指定。 這些標準涵蓋了標誌的措辭、使用的顏色和字體、標誌的形狀以及各種其他細節等方面。

為此類警告標誌制定標準是有意義的。 每當您看到這樣的標誌時,如果它符合規定的標準,您就更有可能相信該標誌是合法的,而且您需要較少的認知處理來分析和理解該標誌。 對於不採用標準化方法的標誌,您通常必須在腦海中計算標誌告訴您的內容,這可能會浪費寶貴的時間來採取行動,或者您可能會完全錯誤地判斷標誌並且無法正確理解手頭的警告。

可以存在一系列這樣的標誌,它們通常被分類如下:

  • 危險標誌:高度關注並表示可能存在嚴重後果的直接危險
  • 警告標誌:表示危險低於“危險”但仍然相當嚴重
  • 警告標誌:表示潛在危險低於“警告”但仍然很嚴重
  • 通知標誌:表示信息提示不那麼“謹慎”,但仍包含令人擔憂的方面

鑑於上述有關警告和警示標誌的背景,我們可以繼續嘗試將​​其應用於人工智能的使用。

首先,我們可能會以某種方式同意人工智能標誌的嚴重程度可能與日常標誌的習慣範圍相似,例如:

  • AI 危險標誌: 最受關注的人工智能,表明存在可能嚴重後果的直接危險
  • 人工智能警告標誌: AI 指示的危險低於“危險”但仍然相當嚴重
  • 人工智能警示標誌: AI 表示潛在危險,雖然不是“警告”,但仍然是認真的
  • AI 通知標誌: 人工智能表明信息提示不那麼“謹慎”,但仍包含令人擔憂的方面

要點是,並非所有人工智能都會同樣令人不安。 人工智能可能會帶來巨大的風險或只有邊際風險。 因此,標牌應該反映哪個是哪個。 如果所有 AI 警告或警示標誌都被簡單地顯示為具有相同的水平,我們大概不會知道或不知道是否對 AI 高度關注或只是輕度關注。 在查看和解釋與 AI 相關的警告標誌時,使用典型的措辭方案可能會使生活更輕鬆。

您可能想知道,就要傳達的信息的細節而言,這些標誌還會說些什麼。

這當然是一個更難解決的問題。 人工智能做被認為不安全或令人擔憂的事情的可能性將非常大,幾乎是無窮無盡的。 我們可以將它們歸結為一些常規化的集合,每個集合只用幾個單詞拼寫出來嗎? 還是我們將不得不允許以更自由的方式來處理措辭?

我會讓你思考這個懸而未決的問題。

繼續前進,我們往往會看到物體上貼有警告標誌。 人工智能係統不一定是與慣常粘貼標誌相同意義上的“對象”。 這就提出了人工智能警告標誌將出現在哪裡的問題。

可能是當您在智能手機上運行應用程序時,如果它正在使用 AI,則會顯示一條消息,其中包含與 AI 相關的警告。 該應用程序會提醒您有關 AI 的潛在用途。 這可以是彈出消息,也可以以各種視覺甚至聽覺方式呈現。

還有一種情況是您使用由 AI 支持的服務,儘管您可能沒有直接與 AI 交互。 例如,您可能正在與人類代理就獲得房屋抵押貸款進行對話,代理在幕後默默地使用人工智能係統來指導他們的工作。

因此,我們應該預見到 AI 警告標誌應該出現在兩個 AI 用例中,例如:

  • 產品特定的人工智能: 人工智能作為產品應該有明確的人工智能警告或警示標誌
  • 面向服務的人工智能: 人工智能即服務(直接或間接)應該有人工智能警告或警示標誌

懷疑論者肯定會很快暗示應用程序製造商可能會狡猾地偽裝人工智能警告標誌,因此警報並不是特別明顯。 也許警告出現了很短的一瞬間,你真的沒有註意到它被顯示了。 另一個鬼鬼祟祟的伎倆是利用它製作一種遊戲,似乎削弱了警報的嚴重性,並誘使人們認為警告是無關緊要的。

是的,你幾乎可以打賭,任何與人工智能相關的警告標誌都會被欺騙,並以不符合它們應該傳達的警示信息的精神和意圖的方式使用。

所有這些懷疑都與我們是否會使用 AI 倫理作為“軟法律”來嘗試推動與 AI 相關的警告和警告,或者我們是否會使用“硬法律”(包括有法院支持的已頒布法律)相吻合。 從理論上講,軟法律推動將允許更多地玩弄此事,而書本上的法律將帶來政府執法的潛力並帶來更大的嚴格性。

另一個擔憂是人工智能標牌是否會產生任何影響。

在為消費者提供警告標籤時,許多關於消費者行為的研究往往顯示出混亂的結果。 有時警告有效,有時無效。 讓我們將其中的一些研究應用到 AI 環境中。

考慮以下方面:

  • 檢測: 那些使用包含可行 AI 警告標誌的 AI 的人是否會主動注意到或檢測到該標誌正在向他們展示(假設出現此類標誌)?
  • 理解: 對於那些注意到的人,他們會理解或掌握人工智能警告標誌試圖向他們暗示的內容嗎?
  • 行動: 對於那些確實做出這種精神飛躍的人,人工智能警告標誌會促使他們採取行動還是以其他方式相應地指導他們的行為?

你可以預見,如果人工智能警告信號的勢頭增強,研究人員將密切研究此事。 這個想法將有助於澄清警告在什麼情況下有用,什麼時候沒有。 這反過來又涉及到所涉及的設計和外觀。 我們可能還期望廣大公眾需要接受教育或告知這些人工智能警告和警示標誌的出現,以便他們習慣它們。

有很多曲折需要考慮。

AI 警告或警示標誌是否應該僅在使用應用程序開始時出現? 也許起點本身是不夠的。 乍一看,人們可能會認為該應用程序只是通過使用警告來保證安全,因此不太重視警告。 一旦該人使用該應用程序的中途,可能需要額外的警告。 在那個時候,這個人更清楚應用程序正在做什麼,他們可能已經忘記了之前指示的警告信息。

然後可能會出現 AI 警告或警告:

  • 在啟動應用程序之前以及即將調用應用程序時
  • 應用程序啟動後呈現,僅在起點
  • 在開頭和中途顯示
  • 在整個 AI 使用過程中多次顯示
  • 在使用應用程序結束時給出
  • 在退出應用程序後提供,甚至可能在幾分鐘、幾小時或幾天后提供
  • 等等

您認為使用 AI 的人需要確認或確認任何此類 AI 警告或警示標誌嗎?

有些人會堅持要求該人承認他們看到了警告。 這可能會阻止那些聲稱沒有任何警告信息的人。 這也可能導致人們更認真地對待這些信息,因為他們被要求確認他們觀察到了警告指示。

這是一個棘手的問題。

應該 全部 AI必須提供警告或安全指示?

你可能會爭辯說是的,所有的人工智能都必須有這個。 即使人工智能只是一個邊際安全風險,它仍然應該有某種形式的警告標誌,可能只是一個通知或信息指示。 其他人會質疑這一論點。 他們會反駁說你太過分了。 並不是所有的人工智能都需要這個。 此外,如果你強迫所有的 AI 擁有它,你會淡化目標。 人們會麻木地看到警告指示。 整個做法將成為一場鬧劇。

在一個相關的角度,考慮一下人工智能製造商可能會說什麼。

一種觀點是,這將是一個痛苦的你知道的地方。 必須更改所有 AI 系統並添加此功能可能代價高昂。 在前進的基礎上添加它可能成本更低,儘管包含此條款會產生相關成本。

朦朧是另一個潛在的抱怨。 需要顯示什麼樣的消息? 如果沒有任何標準,這意味著人工智能製造商將需要重新製作一些東西。 這不僅會產生額外的費用,而且可能會為被起訴打開大門。 你可以想像一個人工智能製造商可能會被帶到他們的警告不如其他人工智能係統的任務中。 律師最終會從由此產生的混亂中獲利。

還有人擔心人們會被這些安全信息過度嚇到。

由於僅旨在提供信息警告的安全消息,AI 製造商可能會看到用戶數量急劇下降。 人們不知道如何理解該消息。 如果他們以前沒有看到過這樣的消息,他們可能會立即嚇壞並避免不必要地使用人工智能。

我之所以提到這些方面,是因為有些人已經宣稱“它不會傷害”開始包括 AI 警告或安全信息。 對他們來說,這個想法就像蘋果派一樣理想。 沒有人可以認真反駁始終要求與 AI 相關的安全或警告的好處。 但當然,這不是現實世界的思考方式。

你甚至可以更進一步,聲稱 AI 警告信息可能會產生某種形式的大規模歇斯底里。 如果我們突然開始強制 AI 系統接收此類信息,人們可能會誤解其意圖。 你看,有很多勸告我們正面臨著人工智能的生存危機,人工智能將接管世界並消滅人類,看 這裡的鏈接 用於我對這些主張的分析。

使用人工智能警告信息可能會“激發”一些人相信末日即將來臨。 為什麼現在會出現這些消息? 當然,這表明最終,人工智能正準備成為我們壓迫性的霸主。

一種令人絕望的慘淡結果,試圖通過讓公眾意識到人工智能如何被注入歧視性能力或其他能力來做正確的事情 壞的人工智能 方面。

結論

美國著名詩人詹姆斯·羅素·洛厄爾曾說過這樣的話:“一根刺的經驗值得一整片荒野的警告。”

我提出了崇高的評論,就人工智能警告或安全信息的問題發表一些結論性意見。

很有可能,在我們對 AI 做壞事有一定程度的普遍認識之前,不會有太多關於 AI 相關警告信息的喧囂。 那些自願這樣做的人工智能製造商可能會受到稱讚,儘管他們也可能無意中發現自己受到了不公平的騷擾。 一些專家可能會因為他們利用看似需要警告的人工智能而開始追趕他們,同時忽略了他們試圖先行一步,而所有其他人工智能製造商都落後了。

如果你這樣做該死,如果你不這樣做,也許不會該死。

另一個考慮是將看似不錯的概念性想法轉變為實用且有用的實踐。 很容易揮手並含糊地向風喊道,人工智能應該有警告和安全信息。 當決定這些信息應該是什麼,應該在何時何地呈現它們,它們的成本是否或在多大程度上能夠產生足夠的收益等等時,困難的部分就來了。

我們將在此給詹姆斯·羅素·洛厄爾(James Russell Lowell)關於這個話題的最後一句話(詩意地如此):“創造力不是對事物的發現,而是在發現事物之後將其製作出來。”

猜猜是時候捲起袖子開始工作了。 這不僅僅是一個警告,而是一個行動。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety-警告所有現有和未來的人工智能/