人工智能倫理和人工智能法闡明了事實上什麼是值得信賴的人工智能

他們說,信任就是一切。

著名哲學家老子說,不夠信任的人是不會被信任的。 受人尊敬的小說家歐內斯特·海明威(Ernest Hemingway)表示,確定你是否可以信任某人的最好方法就是信任他們。

同時,信任似乎既珍貴又脆弱。 一個人的信任可能會像紙牌屋一樣坍塌,也可能會像爆破的氣球一樣突然破裂。

古希臘悲劇家索福克勒斯斷言,信任會消亡,但不信任會開花。 法國哲學家和數學家笛卡爾認為,謹慎的做法是永遠不要完全相信那些曾經欺騙過我們的人。 億萬富翁商業投資者非凡的沃倫巴菲特告誡說,建立一個值得信賴的聲譽需要 XNUMX 年,而毀掉它需要 XNUMX 分鐘。

您可能會驚訝地發現,所有這些關於信任的不同觀點和挑釁性意見對於人工智能 (AI) 的出現至關重要。

是的,有一些東西被強烈地稱為 值得信賴的人工智能 這些天來,這一直受到很多關注,包括來自 AI 領域內的令人不安的貓叫聲,以及來自 AI 領域之外的人的喧鬧爆發。 總體概念需要社會是否願意信任人工智能係統之類的東西。

據推測,如果社會不會或不能信任人工智能,那麼人工智能係統很可能無法獲得牽引力。 我們目前所知道的人工智能將被推到一邊,只會收集灰塵。 令人震驚的是,人工智能最終可能會被扔進垃圾堆,在歷史上只不過是一次拼命嘗試但慘遭失敗的高科技實驗。 任何重振人工智能的努力都可能面臨一場巨大的艱苦戰鬥,並被各種反對和徹底的抗議所阻止。 表面上,由於對人工智能缺乏信任。

到底是該相信人工智能,還是不相信人工智能?

從本質上講,我們會真正擁有值得信賴的人工智能嗎?

這些都是過去和未解決的問題。 讓我們打開它。

人工智能倫理與值得信賴的人工智能的鬥爭

AI 內部的許多人認為,AI 系統的開發人員可以通過適當設計值得信賴的 AI 來獲得對 AI 的信任。 本質是,如果 AI 從一開始就看似不值得信賴,你就無法希望獲得信任。 通過以被認為值得信賴的方式構建人工智能係統,人們很有可能會接受人工智能並採用人工智能的用途。

對這種值得信賴的 AI 考慮已經困擾的一個疑慮是,我們可能已經處於 公共信任赤字 說到人工智能。 你可以說,我們已經看到的人工智能已經挖了一個洞,並且大量地折騰了信任。 因此,人工智能不是從足夠的可信度開始,而是必須驚人地擺脫赤字,爭取每增加一盎司的額外信任,以使人們相信人工智能實際上是值得信賴的。

迎接這一挑戰的是人工智能倫理和人工智能法。

AI 倫理和 AI 法律正在努力弄清楚如何才能使 AI 值得信賴。 一些人認為有一個公式或鐵定的法律可以讓人工智能進入值得信賴的天堂。 其他人則表示,要獲得社會的自詡信任,需要艱苦的工作以及始終如一、不懈地堅持人工智能倫理和人工智能法律原則。

關於人工智能信任的當代謎團本身並不是特別新鮮。

您可以輕鬆地回到 1990 年代後期,追溯從那時起對“可信計算”的渴望的出現。 這是一項大規模的科技行業努力,旨在確定計算機是否可以以一種被社會視為值得信賴的方式製造。

關鍵問題包括:

  • 計算機硬件能否製造得值得信賴?
  • 軟件是否可以設計得值得信賴?
  • 我們能否建立值得信賴的全球聯網計算機?
  • 等。

當時流行的觀點以及一直持續到今天的觀點是,可信賴的計算仍然是一種聖杯,令人遺憾的是,它仍然不是我們所能達到的(正如在一篇題為“可信賴的人工智能”的論文中指出的那樣)。 ACM的通訊)。 您可以令人信服地爭辯說,人工智能是計算可信度封裝的另一個組成部分,但人工智能使信任追求更具挑戰性和不確定性。 人工智能已成為獲得可信賴計算的潛在破壞者。 可能是鏈條中最薄弱的環節。

讓我們快速看一下為什麼人工智能讓我們對不值得信任感到惱火。 此外,我們將探討人工智能倫理的原則,希望這些原則有助於支撐當今人工智能已經半水下感知的信任(或冒泡的不信任)。 有關我對 AI 倫理的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們將其與關於可信賴 AI 的問題聯繫起來

我們當然似乎不願意相信表現出不利偏見和歧視性行為的人工智能。 在這種情況下,我們的信念是這樣的人工智能絕對不值得信賴,因此我們傾向於積極地不信任人工智能。 在不進行擬人化比較的情況下(我稍後會詳細介紹 AI 擬人化),表現出令人不快的偏見的人也將被評為不特別值得信賴的人。

挖掘信任和可信賴性

也許我們應該看看我們在斷言我們信任或不信任某人或某事時的意思。 首先,考慮幾個日常字典中對信任的定義。

信任定義上的例子有:

  • 對某人或某事的性格、能力、力量或真相的可靠依賴 (韋氏線上字典)。
  • 對人或事的誠信、實力、能力、擔保等的依賴 (Dictionary.com)
  • 堅信某人或某事的可靠性、真實性、能力或力量 (牛津語言在線詞典)。

我想指出,所有這些定義都指的是“某人”,同樣也指的是“某物”,因為它可能是值得信賴的。 這是值得注意的,因為有些人可能會堅持認為我們只信任人類,而信任的行為是專門為人類保留的,作為我們值得信賴的目標。 不是這樣。 您可以信任您的廚房烤麵包機。 如果它似乎可靠地讓你的吐司工作並且經常這樣做,那麼你可以肯定地相信烤麵包機是否真的值得信賴。

在同樣的思路中,人工智能也可以成為我們信任觀點的主題。 與人工智能相關的信任很可能比普通的烤麵包機複雜得多。 烤麵包機通常只能做少數幾個動作。 人工智能係統可能要復雜得多,而且運行起來似乎不太透明。 我們評估和確定人工智能可信度的能力必然會變得更加困難,並且會帶來不同的挑戰。

除了更複雜之外,一個典型的人工智能係統據說是非確定性的,並且可能是自我調節或自我調整的。 我們可以簡要探討一下這個概念。

確定性機器傾向於一遍又一遍地做同樣的事情,可預測地並且具有可行的可識別模式它的運行方式。 您可能會說普通烤麵包機的烘烤方式大致相同,並且具有調節烘烤效果的烘烤控制裝置,所有這些通常都可以由使用烤麵包機的人預測。 相比之下,複雜的人工智能係統通常被設計為非確定性的,這意味著它們可能會做完全不同的事情,超出你的預期。 如果 AI 被編寫為自我調整,這部分也可能會被進一步放大,這一方面可以有利地允許 AI 在 ML/DL 的情況下改進,但也會令人不安地導致 AI 動搖或進入行列人工智能的壞處。 從某種意義上說,你可能不知道是什麼擊中了你,因為你對 AI 的行為完全措手不及。

我們可以做些什麼來嘗試讓人工智能更接近可信度?

一種方法包括嘗試確保那些構建和部署人工智能的人遵守一套人工智能道德準則。 正如這些 AI 研究人員所提到的:“信任是一種態度,即代理人將按預期行事,並且可以依靠它來實現其目標。 在代理人和信任的個人之間發生錯誤或誤解後,信任就會破裂。 對人工智能的信任心理狀態是複雜系統的一種新興屬性,通常涉及設計、培訓、部署、性能測量、監管、重新設計和再培訓的許多周期”(在 ACM的通訊,“歐洲地區的信任、監管和人機交互人工智能”,Stuart Middleton、Emmanuel Letouze、Ali Hossaini 和 Adriane Chapman,2022 年 XNUMX 月)。

要點是,如果我們能讓 AI 開發人員遵守 Ethical AI,他們有望最終生產出值得信賴的 AI。 這一切都很好,但在現實世界的基礎上似乎有些不切實際,儘管這絕對是一條值得追求的道路。

這就是我的意思。

假設 AI 開發人員為某種我們通常稱為 X 的目的而精心製作 AI 系統。他們小心翼翼地確保 AI 遵守 AI 道德的透明規則。 他們敏銳地確保將隱私適當地內置到人工智能中。 對於幾乎所有常見的 AI 道德原則,AI 構建者會竭盡全力確保 AI 符合給定的規則。

你現在應該相信那個人工智能嗎?

請允許我幫助滲透您對這個開放式問題的想法。

事實證明,網絡騙子設法滲透到 AI 並偷偷地讓 AI 執行 X,同時還向網絡黑客提供 AI 正在收集的所有數據。 通過這樣做,這些作惡者正在陰險地削弱隱私規則。 你很幸福地沒有意識到這是在人工智能的背後發生的。

有了那條添加的信息,我會再次問你同樣的問題。

你相信那個人工智能嗎?

我敢說大多數人會馬上宣布他們肯定會這樣做 任何監管機構都不批准 相信這個特定的人工智能。 他們可能更早信任它。 他們現在選擇不再認為人工智能值得信賴。

基於這個簡單示例的一些關鍵見解值得深思:

  • 信任的動態。 即使是最好的意圖涵蓋確保將人工智能倫理構建到人工智能係統中的所有基礎,也不能保證人工智能可能會變成或變成什麼。 一旦人工智能投入使用,外人可能會破壞道德人工智能的積累。
  • 從內部削弱信任。 削弱可信度的行為不一定是局外人。 定期維護人工智能係統的內部人員可能會犯錯誤並削弱人工智能,使其變得不那麼值得信賴。 這位 AI 開發人員可能對他們所做的事情一無所知。
  • 不經意間的信任妥協。 一個自我調整或自我調節的人工智能可能會在某個時候自我調整併轉向不值得信賴的領域。 也許人工智能試圖提高人工智能的透明度,但同時不恰當地損害了隱私方面。
  • 信任分散. 試圖以相​​同的最大可信度實現所有 AI 道德原則通常並不可行,因為它們通常具有交叉目的或具有其他固有的潛在衝突。 這是一個相當理想化的觀點,認為所有 Ethical AI 規則都是夢幻般的一致,並且都可以達到相同的最大化程度。
  • 獲得信任可能代價高昂。 通過採取各種廣泛而詳盡的步驟並遵守一連串的 AI 道德原則,嘗試實現一流的可信賴 AI 的成本將相對較高。 你可以很容易地爭辯說,讓一些對社會具有重要價值的人工智能係統投入使用的成本將是令人望而卻步的,即使從值得信賴的願望我們應該說人工智能不太理想。
  • 等。

不要誤解前面的言論,暗示我們應該以某種方式避免徹底構建和部署可信賴的人工智能的努力。 你會立即把嬰兒和洗澡水一起扔出去,就像它一樣。 正確的解釋是,我們確實需要做那些信任活動來讓 AI 成為值得信賴的考慮因素,但這並不是萬能藥或靈丹妙藥。

值得信賴的人工智能的多管齊下的路徑

還有其他重要的多管齊下的方法可以努力實現值得信賴的人工智能。

例如,正如我之前在我的專欄中所介紹的,無數新出現的有關人工智能的法律法規旨在推動人工智能製造商設計出值得信賴的人工智能,請參閱 這裡的鏈接 這裡的鏈接.

作為確保設計 AI 的人對他們的 AI 負全部責任的總體手段,這些法律護欄至關重要。 如果沒有這種潛在的法律補救措施和合法處罰,那些拼命將人工智能推向市場的人可能會繼續這樣做,而很少認真考慮實現值得信賴的人工智能。 我可能會特別補充一點,如果這些法律和法規設計不當或實施不充分,它們可能會令人遺憾地削弱對可信賴人工智能的追求,也許具有諷刺意味和奇怪的是,它們會培養不可信的人工智能而不是可信賴的人工智能(請參閱我的專欄討論以獲得進一步的解釋)。

我也一直是我一直熱切地稱為的堅定擁護者 AI守護天使機器人 (見我的報導 這裡的鏈接)。 這是一種即將出現的試圖以火攻毒的方法或方法,即使用人工智能來幫助我們處理其他可能值得或可能不值得信賴的人工智能。

首先,一些背景背景會很有用。

假設您選擇依賴您不確定其可信度的 AI 系統。 一個關鍵問題可能是你獨自一人試圖找出人工智能是否值得信任。 AI 的計算速度可能比您快,並且可以利用您。 你需要有人或某事在你身邊幫忙。

一種觀點是,在您使用人工智能係統時,應該始終有一個人在循環中為您提供幫助。 這是一個有問題的解決方案。 如果人工智能是實時工作的,當談到基於人工智能的自動駕駛汽車的出現時,我們將暫時討論這一點,那麼只有人類參與可能還不夠。 人工智能可以實時行動,當指定的人在環進入畫面以確定人工智能是否正常運行時,可能已經發生了災難性的結果。

順便說一句,這帶來了另一個關於信任的因素。 我們通常根據所面臨的上下文或環境來分配信任級別。 您可能完全相信您蹣跚學步的兒子或女兒會忠於您,但如果您外出遠足並決定依靠蹣跚學步的孩子告訴您踏上懸崖邊緣是否安全,我認為您將是明智的考慮蹣跚學步的孩子是否可以提供那種生死攸關的建議。 孩子可能會認真而真誠地這樣做,但仍然無法充分提供這樣的建議。

在人工智能方面,同樣的概念與信任相關聯。 你用來下棋或下棋的人工智能係統可能不涉及任何生死攸關的審議。 您可以更放心地分配信任。 一輛在高速公路上高速行駛的基於人工智能的自動駕駛汽車需要更高的信任度。 人工智能駕駛系統的最輕微故障可能直接導致您和他人的死亡。

在對全球德勤人工智能研究所執行董事、該書作者 Beena Ammanath 發表的採訪中 值得信賴的人工智能, 同樣強調考慮人工智能可信度發揮作用的上下文方面:“如果你正在構建一個用於患者診斷的人工智能解決方案,那麼公平和偏見就非常重要。 但是,如果您正在構建一種預測噴氣發動機故障的算法,那麼公平和偏見就不那麼重要了。 值得信賴的 AI 確實是一種結構,可讓您開始思考組織內的信任維度”(VentureBeat的,22 年 2022 月 XNUMX 日)。

在討論值得信賴的 AI 時,您可以通過多種方式來解釋這個話題。

例如, 值得信賴的人工智能 是我們所有人都認為是可取的和有抱負的目標,即我們應該渴望設計和推廣可信賴的人工智能。 流行語還有另一種用法。 一個有點替代的用法是 值得信賴的人工智能 是一種條件或測量狀態,因此有人可能會斷言他們已經製作了一個 AI 系統,該系統是值得信賴的 AI 實例。 您也可以使用該短語 值得信賴的人工智能 提出可用於獲得 AI 可信度的方法或方法。 等等。

在相關的說明中,我相信您意識到並非所有 AI 都是相同的,並且我們必須注意不要對所有 AI 做出籠統的陳述。 一個特定的人工智能係統可能與另一個人工智能係統有很大的不同。 其中一個人工智能係統可能非常值得信賴,而另一個可能稍微值得信賴。 在以某種方式假設人工智能是一個完全值得信賴或完全不值得信賴的整體時要謹慎。

這根本不是那麼回事。

接下來,我想簡要介紹一下我正在進行的關於您可能感興趣的可信賴 AI 的一些研究,包括 AI守護天使機器人.

這是怎麼回事。

你將配備一個人工智能係統(一個人工智能守護天使機器人),該系統旨在衡量其他人工智能係統的可信度。 AI 守護天使機器人將您的安全作為重中之重。 想一想,就好像你有辦法通過在你真正的口袋裡有一個不同的人工智能係統來監控你所依賴的人工智能,也許在你的智能手機或其他類似設備上運行。 您眾所周知的 AI 守護者可以根據您所依賴的 AI 進行計算,以快速的速度工作並實時計算手頭的情況,比人類在環中的速度要快得多。

乍一看,您可能會認為您已經依賴的 AI 應該有一些 內部 AI 護欄與這個單獨計算的 AI 守護天使機器人相同。 是的,這肯定是需要的。 一個疑慮是,AI 系統中內置的 AI 護欄可能與 AI 本身俱有整體性和偏見性,因此所謂的 AI 護欄在某種意義上不再能夠獨立驗證或驗證 AI。

不同的想法是,您的 AI 守護天使機器人是獨立的或第三方的 AI 機制,與您所依賴的 AI 不同。 它位於其他 AI 之外,始終專注於您,而不是專注於被監控或評估的 AI。

可以通過以下簡化的類似方程的陳述來表達一種直接的思考方式。 我們可以說“P”希望潛在地信任“R”來完成特定任務“X”:

當只有人參與時,情況如下:

  • P 信任 R 完成任務 X。

當我們選擇依賴人工智能時,聲明會變成這樣:

  • 人 P 信任 AI 實例-R 來執行任務 X。

我們可以這樣添加 AI 守護天使機器人:

  • 人 P 信任 AI 實例-R 執行任務 X,因為它受到 AI 守護天使機器人實例-Z 的監控

AI 守護天使機器人不知疲倦、無情地評估您所依賴的 AI。 因此,您得心應手的 AI 監護人可能會提醒您,對另一個 AI 的信任是沒有根據的。 或者,AI 監護人可能會與其他 AI 進行電子交互,以嘗試確保迅速糾正任何偏離值得信賴的差異,等等(請參閱我對此類細節的報導,網址為 這裡的鏈接).

可信賴的信任庫隱喻

由於我們正在討論不同級別的信任,您可能會發現通過將信任視為一種儲存庫,可以使用一個方便的比喻來描述可信賴性。

在特定的時間點,特定的情況下,您對特定的人或事物有一定程度的信任。 信任的水平會上升或下降,這取決於與該特定人或事物相關的其他情況。 當您對人或事物沒有任何信任時,信任可能為零。 當您冒險對那個人或事物不信任時,這種信任可能是負面的。

對於 AI 系統,您在特定情況下所依賴的特定 AI 的信任庫會隨著您對 AI 可信度的衡量而上升或下降。 有時,您可能很清楚對 AI 的這種不同程度的信任,而在其他情況下,您可能不太清楚,而且更多地是憑直覺對可信度做出判斷。

我們在此討論的提高 AI 信任度的方法包括:

  • 遵守人工智能倫理。 如果您所依賴的 AI 是通過嘗試遵守正確的 AI 道德準則而設計的,那麼您可能會利用這種理解來提高您對該特定 AI 系統的信任水平。 作為旁注,您也有可能將其他 AI 系統的可信度推廣到其他 AI 系統,儘管這有時可能是我所說的一種誤導形式 AI信任光環蔓延 (這樣做要小心!)。
  • 使用人工在環。 如果人工智能有一個人在循環中,你可能會積極地增加你對人工智能的信任。
  • 制定法律法規. 如果有與這種特定類型的 AI 相關的法律法規,您也可能會提高您的信任度。
  • 使用 AI 守護天使機器人. 如果您準備好 AI 守護天使機器人,這也將進一步提高您的信任度。

如前所述,信任可能非常脆弱並在瞬間分崩離析(即,信任庫會迅速而突然地傾倒所有建立起來的信任)。

想像一下,你在一輛基於人工智能的自動駕駛汽車內,而人工智能駕駛突然右轉,導致車輪發出尖叫聲,幾乎迫使自動駕駛汽車發生危險的翻車。 你的信任程度會怎樣? 看起來即使你之前對 AI 的信任度提高了,你的信任度也會急劇下降,這是明智的。

在這個重要討論的關鍵時刻,我敢打賭,您希望獲得更多說明性示例,這些示例可能展示可信賴 AI 的性質和範圍。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 你看,以我作為人工智能專家的身份,包括倫理和法律後果,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了追求值得信賴的人工智能的任何事情?如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和值得信賴的人工智能

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在準備好深入研究自動駕駛汽車和值得信賴的人工智能。

信任就是一切,尤其是在基於人工智能的自動駕駛汽車中。

社會似乎在謹慎地關注自動駕駛汽車的出現。 一方面,人們寄希望於真正的自動駕駛汽車的出現將明顯減少每年與汽車相關的死亡人數。 僅在美國,每年就有大約 40,000 人死於車禍,大約 2.5 萬人因車禍受傷,請參閱我收集的統計數據: 這裡的鏈接. 人類酒後駕車。 人類在分心時開車。 駕駛汽車的任務似乎包括能夠反复無誤地專注於駕駛並避免發生車禍。 因此,我們可能會夢想 AI 駕駛系統能夠反复無誤地引導自動駕駛汽車。 您可以將自動駕駛汽車理解為雙管齊下,包括減少車禍死亡和受傷的數量,以及可能在更廣泛和更容易獲得的基礎上提供機動性。

但與此同時,社會對自動駕駛汽車是否足夠安全,可以在我們的公共道路上行駛的看法也籠罩著這種擔憂。

如果即使是一輛自動駕駛汽車發生碰撞或碰撞導致單人死亡或重傷,你也可以預見,今天對那些基於人工智能的無人駕駛汽車的信任度將急劇下降。 當現在臭名昭著的事件發生在亞利桑那州時,我們看到了這種情況,該事件涉及一輛有點(不是真的)自動駕駛汽車撞上並殺死了一名行人(請參閱我在 這裡這個鏈接).

一些權威人士指出,將人工智能自動駕駛汽車的信任建立在這樣一個方面是不公平和不恰當的,即只有下一次這樣的致命碰撞或碰撞可能會破壞已經相對無碰撞的公共道路試驗。 此外,在更不公平的基礎上,無論哪個特定的 AI 自動駕駛汽車品牌或型號可能捲入悲慘事件,社會都會毫無疑問地責怪所有自動駕駛汽車品牌。

整個自動駕駛汽車可能會立即被抹黑,整個行業可能會遭受巨大的反彈,導致所有公共道路試驗可能停止。

直言不諱的自動駕駛汽車支持者宣稱所有無人駕駛汽車都將是不可碰撞的,這是造成這種反沖的一個因素。 這種不可破解的想法不僅是完全錯誤的(見 這裡的鏈接),它陰險地為自動駕駛汽車行業建立了一套完全不合時宜的期望。 這些奇怪且無法實現的聲明,即自動駕駛汽車將導致零死亡,這助長了一種誤解,即任何無人駕駛車禍都是一個明確的跡象,即整個套件和 kaboodle 都是徒勞的。

意識到自動駕駛汽車的進步和社會信任的逐步積累可能會在瞬間消失,這是一種明顯的悲傷。 這將是一個關於信任脆弱性的展示。

結論

許多汽車製造商和自動駕駛技術公司通常都遵守人工智能倫理原則,這樣做是為了在安全可靠的基於人工智能的自動駕駛汽車方面嘗試構建和部署值得信賴的人工智能。 請注意,其中一些公司比其他公司更強大,更致力於道德 AI 規則。 偶爾也有一些邊緣或新手與自動駕駛汽車相關的初創公司似乎拋棄了大部分人工智能倫理基石(見我的評論在 這裡的鏈接).

在其他方面,有關自動駕駛汽車的新法律法規已逐漸被寫入法律書籍。 他們是否有必要的牙齒來支持它們是另一回事,同樣,這些法律的執行是被認真對待還是被忽視(有關這方面的分析,請參閱我的專欄)。

這也有高科技的角度。 我曾預測,我們將逐漸看到人工智能守護天使機器人的變體,它們將在自動駕駛汽車和自動駕駛汽車領域脫穎而出。 我們還沒有。 一旦自動駕駛汽車的普及變得更加普遍,這將變得更加普遍。

最後一點引出了一條關於信任的名言,你無疑已經熟記於心。

信任但要驗證。

我們可以允許自己擴大我們的信任,也許是慷慨的。 同時,我們也應該像鷹一樣觀察,確保我們產生的信任得到言行的驗證。 讓我們對人工智能抱有一些信任,但要不斷地驗證我們是否正確地信任並睜大眼睛。

你可以相信我。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/