從最近的阿拉斯加航空公司航班中收集到的人工智能倫理和自治系統教訓,飛行員和副駕駛在起飛前不同意並突然選擇滑回航站樓並分道揚鑣

航空公司最近在新聞中頗有報導。

我們正處於夏季航班的緊縮期。 疲憊和沮喪的乘客發現自己面臨著各種航班中斷和航空公司調度扭曲。 航班意外取消。 航班延誤。 乘客冒煙。 不幸的是,有很多乘客讓這些煩惱爆發,我們已經看到太多病毒式的面對面對抗和有時拳打腳踢的視頻。

我們很少了解在駕駛艙內可能發生的飛行員和副駕駛之間的爭執。

這真是一個驚喜。

事實上,當我們想到飛行員和副駕駛在飛行的任何階段都會出現嚴重的分歧時,我們自然會感到驚訝。 如果分歧與哪種咖啡品牌最好有關,我們的假設是這不會影響駕駛飛機的工作量。 在一個看似與飛行無關的話題上,兩人只是不屑一顧。 他們的專業風範和長期的飛行員培訓將開始發揮作用,他們會將注意力重新集中在飛行細節上。

考慮雖然當一個 職業分歧 介入。

我將與您簡要分享一個廣泛發布的新聞項目,該新聞項目是關於最近在美國飛行期間發生的與駕駛艙內聲稱的專業分歧有關的事情。

這主要是在這裡引用,以便我們可以探索一個對人工智能 (AI) 的出現非常重要的相關主題。 你看,我們可以說職業分歧不僅僅是人與人之間的分歧,但我們也可以在採用人工智能的過程中發生類似的事情,從而導致人與人工智能的專業分歧. 各種各樣的人工智能倫理考慮出現了。 有關我對 AI Ethics 和 Ethical AI 問題的廣泛且持續的報導,請參閱 這裡的鏈接這裡的鏈接, 僅舉幾例。

準備好迎接一個迷人的故事。

正如最近新聞報導的那樣,在阿拉斯加航空公司從華盛頓飛往舊金山的航班期間,顯然出現了“專業分歧”的案例。 據新聞報導,這架飛機已經離開登機口,正在停機坪上等待滑行和起飛的許可。 一場風暴正在進行中,導致航班延誤了一個多小時。 事實證明,飛機最終掉頭返回登機口,一些乘客通常認為這只是與風暴相關的安全預防措施。

根據各種推文,似乎飛行員和副駕駛在駕駛艙期間發生了某種看不見的爭執,並以某種方式得出結論,最謹慎的方法是擦洗航班並返回航站樓. 推文表明,船長和副駕駛顯然無法相處。 該航空公司後來發表聲明稱情況很不幸(情況本身沒有明確說明或解釋),兩名飛行人員經過管理層評估並被認為適合飛行,機組人員被調換,最終飛行確實發生了後來到達舊金山。

從某種意義上說,如果飛行員和副駕駛確實在專業上存在分歧,比如飛機是否準備好起飛,或者飛過風暴的風險是否在合適的安全範圍內,那麼這些乘客應該得到緩解,並且謝天謝地,飛機回到了登機口。 安全總比後悔好。 額外的延誤非常值得假定降低與考慮的崎嶇或不利的飛行旅程相關的風險。

有些人可能會驚訝於會出現這樣的專業分歧。

我們可能有一個錯誤的印象,即駕駛艙中發生的一切都是完全精確且精心編寫的。 所有形式的人類自由裁量權似乎都已被排除在這個過程之外。 根據嚴格和徹底計算的圖表,航班要么可以繼續,要么不能。 當整個套件和一堆堆被認為是基於無可辯駁的事實和數據計算時,就不會有任何分歧。

這不是事情的全部真相。 當然,有大量的協議和各種制衡,但這並不能排除所有人類判斷。 飛行員和副駕駛仍在行使人類判斷力。 幸運的是,這種人類判斷是經過多年飛行磨練出來的。 很有可能一架商用客機的飛行員和副駕駛擁有豐富的飛行經驗,並且很容易利用他們多年來與飛行控制相關的深入推理和判斷。

鑑於人類判斷的顯著作用,我們可以邏輯地預期飛行員和副駕駛有時會產生專業分歧。 大多數時候,這樣的分歧可能很少。 每天飛行的飛行員和副駕駛很可能會很好地調整時間的優勢。 只有當飛行場景可能超出常規範圍時,我們才會預期會出現更緊張的摩擦。

如果兩者之間存在很大的意見分歧,我敢說我們希望他們解決這個問題。

想像這樣一種情況,飛行員強烈地想要繼續前進,但副駕駛認為風險太高了。 僅僅讓副駕駛向飛行員磕頭似乎是不可取的。 副駕駛是對飛行員可能正在考慮做的事情的製衡。 對於那些希望副駕駛閉嘴並盲目地按照飛行員的命令行事的人來說,這並不是一個很大的保證。 副駕駛不僅僅是一個備用的“飛行員”,只有在飛行員完全喪失能力時才會出現。 這是對駕駛艙內有一名飛行員和副駕駛的價值的錯誤理解。

這還有另一個角度。

考慮一個飛行員不相信飛行應該繼續的情況,同時副駕駛正忙著要在空中起床。 然後怎樣呢? 按照預期的等級制度,飛行員通常應該優先於副駕駛。 作為主要負責人的指定角色使飛行員在其他方面變得更大。 通常,飛行員比副駕駛有更多的飛行時間調整,因此副駕駛在等級上應該遵從飛行員的意願(在合理的情況下)。

無論如何,我認為我們都同意,選擇不飛行肯定比決定飛行風險更小。 一旦飛機升空,與在任何普通穩定地面上相比,風險水平就會變得巨大。 一個習慣性的商業航班,在沒有進入空中的情況下簡單地滑回航站樓,這將是一個非常友好的解決方案,可以解決任何關於飛行的激烈激烈辯論。

讓我們換個方向,將這個充滿活力的新聞項目用於完全不同但相關的目的。

我們正在逐漸普及基於人工智能的自治系統。 有時,人工智能會主持節目。 AI 可以做從 A 到 Z 的所有事情,我們可以將其解釋為完全自主或幾乎完全自主的 AI。 在其他情況下,我們可以讓 AI 與之交互,並在某種程度上被編程為依賴於人在循環中。

我想專注於一個基於人工智能的自主或半自主系統,從一開始就有一個人參與其中。 人工智能和人類被有意地推到一起,並且應該彼此協同工作。 他們是執行手頭特定任務的群體。 AI 不應該單獨執行任務。 AI 必須與指定的人在環交互。

我提出這一特徵是為了與將人在迴路中被視為可選方面的情況區分開來。 從本質上講,人工智能是自由發揮的。 如果人工智能選擇利用人類,那就這樣做吧。 沒有要求人工智能必須與指定的人接觸或攜手工作。 我將要涉及的分析肯定與那種 可選 交互安排,但這不是我在這個特定討論中特別強調的。

好的,所以我們有某種任務,人類和人工智能將一起工作,彼此密不可分。 在抽象意義上,我們有一個人坐在一個座位上,而一個人工智能係統坐在另一個隨行座位上。 我這麼厚顏無恥地說,因為我們並沒有將這個討論限制在一個機器人上,例如實際上可能坐在座位上的機器人。 我隱喻地暗示了人工智能在某處參與任務的概念,人類也是如此。 從物理上講,他們的下落對討論並不是特別重要。

您可能不確定何時會出現這種情況。

十分簡單。

稍後,我將討論自動駕駛汽車和自動駕駛汽車的出現。 在一定程度的自主性下,人工智能和人類應該一起工作。 人工智能可能正在駕駛汽車並要求人類接管駕駛控制。 人類可能正在駕駛汽車並激活人工智能來接管控制。 他們輪流控制駕駛。

此外,一些設計讓 AI 在本質上始終處於活動狀態(或者,除非被關閉),這樣 AI 始終處於準備狀態。 此外,人工智能可能會直接干預,即使沒有人類詢問,這取決於正在發生的情況。 例如,假設人類似乎在方向盤上睡著了。 由於人類似乎無法激活人工智能(因為人正在睡覺),人工智能可能被編程為接管人類的控制。

一些設計將人工智能和人類帶入了雙重駕駛方法。 人工智能在駕駛,人類在駕駛。 或者,如果您願意,人類正在駕駛,而人工智能也在駕駛。 他們每個人都在駕駛車輛。 我把它比作那些你可能在接受駕駛培訓時使用的特別裝配的汽車,車輛中有兩套駕駛控制裝置,一套用於學生駕駛員,一套用於駕駛教練。

這只是人工智能和人類可能共同完成一項任務的一個例子。 各種可能性都存在。 其他類型的自動駕駛汽車也可能被類似地設計出來,例如飛機、無人機、潛水器、水面艦艇、火車等。 我們不必只考慮車輛和交通環境。 設想由醫生和人工智能係統共同執行的醫療領域和手術。 名單是無窮無盡的。

我幾乎想提到一個關於人類和人工智能一起走進酒吧的經典笑話。 對於那些進入人工智能的人來說,這真是一個笑話。

說真的,讓我們回到人類和人工智能係統共同完成給定任務的焦點。 首先,我想避免將 AI 擬人化,這是我將自始至終強調的一點。 AI沒有感知力。 請記住這一點。

這裡有一些事情需要考慮: 指定的人在循環中是否總是與合作的 AI 完全一致?

對於任何復雜的任務,人類和人工智能似乎不太可能完全且始終完全同步。 在某些情況下,人類可能會不同意人工智能。 我們可以一直把這個假設帶到銀行。

我希望您也考慮一下這種可能令人驚訝的可能性: 人工智能是否總是與指定的人在循環中完全一致?

同樣,對於任何復雜的任務,人工智能在某些情況下不會與人類達成一致似乎是完全可以想像的。 如果你已經傾向於認為人工智能必須永遠是錯誤的,而人類必須永遠是正確的,那麼重新考慮這個倉促的結論是明智的。 設想一輛有人和人工智能共同駕駛半自動駕駛汽車的汽車。 人類轉向一堵磚牆。 為什麼? 我們不知道,也許人類喝醉了或睡著了,但我們知道撞到磚牆不是一個好主意,其他條件相同。 人工智能可能會檢測到即將到來的災難並試圖避開即將到來的障礙。

總而言之,我們將有明顯的可能性讓人工智能和人類產生分歧。 另一種說法是人類和人工智能 彼此不同意。 請注意,我不希望 AI 和人類與人類和 AI 的順序對分歧的方向或合理性提出任何建議。

這兩名工人,一名是人類,一名是人工智能,彼此意見相左。

我們可以提前聲明,每當給定的人工智能和給定的人類之間發生分歧時,我們預先宣佈人類勝過人工智能。 話雖如此,我關於汽車駛入磚牆的說明性示例似乎使我們無法相信人類總是正確的。

相比之下,我們可以選擇提前聲明,每當出現分歧時,我們將事先確定人工智能是對的,而人類是錯的。 這也不是一個可合理推廣的規定。 想像一輛汽車,其中人工智能有一些嵌入式軟件錯誤或錯誤,人工智能正試圖將車輛駛離道路並進入溝渠。 假設其他條件相同,人類應該能夠克服這種人工智能駕駛行為並防止車輛降落在溝壑中。

讓我們快速總結一下:

  • 人在循環中是否總是與人工智能完全一致? 答: 否。
  • 人工智能會永遠與人類在循環中完全一致嗎? 答: 沒有.
  • 與 AI 相比,人機交互總是正確的嗎? 答: 不必要。
  • 與人類在環相比,人工智能總是正確的嗎? 答:不一定.

您當然可以將 AI 設置為默認被視為“錯誤”或較弱的一方,因此在出現分歧時始終服從人類。 同樣,您可以將 AI 設置為假設當人類與 AI 存在分歧時,該 AI 被認為是“正確的”。 我想澄清一下,如果我們願意,我們可以通過編程方式做到這一點。 我聲稱,一般來說,情況並非總是如此。 在某些情況下,我們事先並不知道在與給定任務相關的分歧上選擇一個或另一個方面是人工智能是“正確的”還是人類是“正確的”。

我把你帶到了一個非常重要和高度複雜的問題上。

當人類在環和人工智能之間出現專業分歧時我們應該怎麼做(或者,我們可以將其表述為人工智能和人類在環之間)?

不要試圖迴避這個問題。

有些人可能會爭辯說這永遠不會發生,但正如我在關於汽車的例子中所闡述的那樣,它肯定會發生。 有些人可能會爭辯說,人類顯然是優越的,並且必須是任何分歧的贏家。 我的汽車和磚牆的例子把那個撞倒了。 有些 AI 支持者可能會堅持認為 AI 必須是贏家,因為表面上克服了人類情感和那些隨意的模糊思維人類的肆意思考。 再一次,我的另一個例子使汽車駛入溝渠,削弱了這一斷言。

在現實世界中,人工智能和人類會產生分歧,即使故意將兩者帶入合作環境以執行共同承擔的任務。 它會發生。 我們不能把頭埋在沙子裡,假裝它不會發生。

我們看到駕駛飛機的人類顯然陷入了分歧。 值得慶幸的是,他們同意不同意,所以看起來。 他們把飛機帶回了航站樓。 他們找到了解決分歧的方法。 他們的分歧解決得很好,相比之下,如果他們可能在駕駛艙內鬥毆,或者可能飛到空中並繼續互相爭鬥。 這是一個站不住腳的悲慘情景,我們可以慶幸沒有發生。

請允許我提供我的列表,其中列出了可以解決 AI 和人類在環(或人類在環和 AI)分歧的各種方法:

  • 人工智能和合作的人類解決問題(友好或不友好​​)
  • 默認情況下,人類勝過人工智能
  • 默認情況下,人工智能勝過人類
  • 默認情況下,以其他一些預定的固定分辨率為準
  • 第三方人員被圈入,他們的指示勝過各方
  • 第三方AI環入,其指示凌駕於各方之上
  • 第三方人取代現有人,事情重新開始
  • 第三方AI取代現有AI,事情重新開始
  • 第三方人類取代了現有的人工智能,事情重新開始(現在人與人之間)
  • 第三方 AI 取代現有人類,事情重新開始(現在 AI-to-AI)
  • 其他

這些都非常值得拆開包裝。

在深入探討如何處理 AI 和人類分歧背後的狂野和毛茸茸的考慮之前,讓我們就非常重要的主題列出一些額外的基礎知識。 我們需要簡要介紹一下 AI 倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到我們對人工智能和人類之間分歧的關注。

我之前已經指出這些是一些解決分歧的策略:

  • 人工智能和合作的人類解決問題(友好或不友好​​)
  • 默認情況下,人類勝過人工智能
  • 默認情況下,人工智能勝過人類
  • 默認情況下,以其他一些預定的固定分辨率為準
  • 第三方人員被圈入,他們的指示勝過各方
  • 第三方AI環入,其指示凌駕於各方之上
  • 第三方人取代現有人,事情重新開始
  • 第三方AI取代現有AI,事情重新開始
  • 第三方人類取代了現有的人工智能,事情重新開始(現在人與人之間)
  • 第三方 AI 取代現有人類,事情重新開始(現在 AI-to-AI)
  • 其他

是時候打開這些包裝了。

首先,考慮到這一切 專業的 分歧。

專業分歧被鬆散地定義為與工作相關任務相關的分歧。

例如,飛行員和副駕駛之間出現的關於是否繼續面臨風暴的飛行的分歧可以合理地被標記為專業分歧。 相比之下,在飛行員提倡的咖啡品牌與副駕駛喜歡的品牌之間的激烈分歧很容易被歸類為在這種特定情況下的非專業分歧。

當然,如果非專業分歧逐漸演變為專業分歧,我們最終可能會對非專業分歧作為推定的來源或專業分歧的火花感興趣。 想像一下,飛行員和副駕駛激烈爭論哪種咖啡品牌最好,然後令人遺憾地蔓延到飛行特定的問題(雙關語!),例如是否起飛。

其次,我們需要牢記專業分歧的嚴重程度。

也許飛行員和副駕駛或在繼續飛行方面存在輕微分歧。 他們並沒有發生爭執,只是在考慮是否起飛的利弊。 這不是我們通常在此考慮的專業分歧的口徑或程度。 問題是,專業分歧可能是暫時的,雙方都親切地或至少及時地制定了解決方案。 一般來說,範圍內的專業分歧的焦點是那些看似棘手的事情,而雙方的分歧卻是堅定不移的。

第三,通常必須有一些嚴肅的事情才能讓這些指導方針發揮作用。

如果航班因暴風雨而處於危險之中,或者飛機被認為沒有為這樣的旅程做好充分準備,那麼選擇飛行或不飛行絕對是生死攸關的決定。 這是嚴肅的事情。 我們仍然可以將指導方針應用於影響較小的專業分歧,儘管它可能比它的價值更麻煩。

好的,我們的考慮是:

  • 分歧主要是專業導向的,而不是非專業的
  • 分歧具有持續的性質,而不僅僅是暫時的或容易解決的
  • 分歧預示著嚴重的後果,通常是有影響力的結果
  • 各方爭執不下,他們似乎難以對付

現在讓我們仔細看看我建議的關於如何處理此類專業分歧的指導方針或方法。

人工智能和合作的人類解決問題(友好或不友好​​)

我以人工智能和人在循環中能夠解決他們之間的專業分歧的直接可能性開始列表。 看來,也許飛行員和副駕駛這兩個人的例子說明了這種情況。 他們不知何故決定返回航站樓,分道揚鑣。 可能是人工智能係統和人類能夠找出雙方普遍滿意的解決方法,從而圓滿結束。

默認情況下,人類勝過人工智能

在設置 AI 時,我們可能會編寫一條規則,即每當出現專業分歧時,人在循環中將始終佔上風。 這將是顯式編碼的默認值。 我們也可能允許某種形式的超越,以防萬一,儘管現行規則是人類占上風。

默認情況下,人工智能勝過人類

在設置 AI 時,我們可能會編寫一條規則,即每當出現專業分歧時,AI 將始終勝過人工參與。 這是顯式編碼的默認值。 我們也可能允許某種形式的覆蓋,以防萬一,儘管常規規則是人工智能佔上風。

默認情況下,以其他一些預定的固定分辨率為準

在設置 AI 時,我們可能會編寫一條規則,即每當與人工在環中出現專業分歧時,其他一些預先確定的固定分辨率將佔上風。 默認情況下,人在循環中不會佔上風。 默認情況下,AI 不會佔上風。 還有其他一些預先確定的解決方案。 例如,也許會拋硬幣來決定兩方中的哪一方被認為是正確的道路。 這顯然顯得相當武斷。 因此,另一個示例方法是啟動一個專門的規則,該規則根據來自雙方的輸入計算一個值,並得出一個作為決勝局的結果。

第三方人員被圈入,他們的指示勝過各方

在出現專業分歧時,規則可能是調用作為人類的第三方並將其循環到設置中以做出解決分歧的決定。 人工智能被編程為服從第三方人類的任何決定。 已經在人在迴路中的人已經被預先指示,如果出現這種情況,他們也必須服從第三方人。 順便說一句,如果決策不同意人在環的姿勢,您可能會預計,人在環可能會擔心第三方人的決定是否同意。

第三方AI環入,其指示凌駕於各方之上

在出現專業分歧時,規則可能是調用不同 AI 系統的第三方並將其循環到設置中以做出解決分歧的決定。 原始 AI 被編程為遵循第三方 AI 的決定。 已經在“人機交互”中的人事先被告知,如果出現這種情況,他們也必須服從第三方人工智能。 順便說一句,如果決策不同意人在環的姿勢,您可能會預計,人在環可能會擔心第三方 AI 決定的任何內容。

第三方人取代現有人,事情重新開始

在出現專業分歧時,人在迴路中將被第三方取代,該第三方是人,並成為今後的人在迴路中。 作為任務的原始人在循環中的人不再被視為手頭任務的一部分。 對於現在被替換的人工在環中會發生什麼,這是一個開放的方面,但我們肯定地說,他們在工作任務中不再有任何持續的角色。

第三方AI取代現有AI,事情重新開始

一旦出現專業分歧,人工智能就會被第三方人工智能取代,這就是今後用於手頭工作任務的人工智能。 最初用於該任務的 AI 不再被視為手頭任務的一部分。 對於現在被取代的人工智能會發生什麼,這是一個開放的方面,但我們要說的是,人工智能肯定不再在工作任務中扮演任何持續的角色。

第三方人類取代了現有的人工智能,事情重新開始(現在人與人之間)

一旦出現專業分歧,人工智能將被第三方人員取代,該人現在成為被認為是合作方,將用於手頭的工作任務。 最初用於該任務的 AI 不再被視為手頭任務的一部分。 對於現在被取代的人工智能會發生什麼,這是一個開放的方面,但我們要說的是,人工智能肯定不再在工作任務中扮演任何持續的角色。 簡而言之,這現在變成了由兩方人對人執行的任務。

第三方 AI 取代現有人類,事情重新開始(現在 AI-to-AI)

如果出現專業分歧,則人工在環被第三方 AI 取代,該 AI 將成為之前人工在環的補充。 作為任務的原始人在循環中的人不再被視為手頭任務的一部分。 對於現在被替換的人工在環中會發生什麼,這是一個開放的方面,但我們肯定地說,他們在工作任務中不再有任何持續的角色。 簡而言之,這現在變成了兩方 AI 到 AI 來執行任務。

其他

可以設計其他變體來處理專業分歧,但我們在此介紹了一些關鍵因素。

我們如何決定哪種方法適合特定情況?

做出這樣的選擇涉及各種各樣的問題。 有技術方面的考慮。 有商業考慮。 有法律和道德方面的考慮。

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括(可能令人驚訝或具有諷刺意味地)評估 AI Ethics 如何被公司採用。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了有關人工智能與人類分歧解決方案的任何信息,如果是這樣,這說明了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能與人類的分歧

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

對於全自動駕駛汽車,人類和人工智能之間可能不會出現專業分歧,因為可能沒有任何人在開始。 當今許多自動駕駛汽車製造商的願望是將人類駕駛員完全從駕駛任務中移除。 該車輛甚至不包含人類可訪問的駕駛控制。 在這種情況下,人類駕駛員(如果存在)將無法參與駕駛任務,因為他們無法訪問任何駕駛控制。

對於一些全自動駕駛汽車,一些設計仍然允許人類參與其中,儘管人類根本不必在場或參與駕駛過程。 因此,如果人願意,人可以參與駕駛。 不過,人工智能絕不會依​​賴人類來執行任何駕駛任務。

在半自動駕駛汽車的情況下,人類駕駛員和人工智能之間存在手拉手的關係。 人類駕駛員可以完全接管駕駛控制,並從本質上阻止人工智能參與駕駛。 如果人類駕駛員希望讓人工智能恢復駕駛角色,他們可以這樣做,儘管這有時會迫使人類放棄駕駛控制。

另一種形式的半自動操作將需要人類駕駛員和人工智能以團隊的方式一起工作。 人工智能在駕駛,人類在駕駛。 他們一起開車。 人工智能可能會服從人類。 人類可能會服從人工智能。

在某個時刻,循環中的人工智能駕駛系統和人類駕駛員可能會就手頭的駕駛任務達到“專業分歧”的關頭。

為了說明上述處理專業分歧的一些規則如何難以實施,請考慮調用第三方人員參與此事並提出解決未解決問題的決定的例子。

假設一家汽車製造商或自動駕駛技術公司已安排遠程人工操作員訪問其車隊中車輛的駕駛控制。 人工操作員坐在某個遙遠的辦公室或類似的環境中。 通過計算機系統,他們可以通過訪問自動駕駛汽車上的攝像頭和其他傳感器設備來查看駕駛場景。 對他們來說,這幾乎就像玩在線視頻遊戲一樣,當然,現實生活中的情況可能會產生可怕的後果。

車內的人工智能係統和人類駕駛員正在駕駛一輛半自動駕駛汽車在一條長長的高速公路上行駛。 突然之間,人工智能想要駛入溝渠。 人類駕駛員不想這樣做。 兩人在駕駛控制上發生爭執。

這將如何解決?

我們或許可以事先規定人類總是獲勝。 假設我們選擇不這樣做。

我們本可以事先制定人工智能總是贏的。 假設我們選擇不這樣做。 總而言之,我們沒有採用任何這些規則,只是我們決定允許第三方人員進行干預並解決任何實質性的專業分歧。

在這個用例中,人工智能和人類駕駛員正在為駕駛控製而戰。 假設這是傳達給遠程人工操作員(我們的第三方人工)。 遠程操作員檢查正在發生的事情並決定避開溝渠,似乎避免了人工智能試圖做的事情。 與此同時,假設遠程人類操作員駕駛迎面而來的車輛,這可能是人工智能和車內人類駕駛員都不想做的事情。

關鍵是,這條規則的實施方式是第三方人工操作員能夠完全覆蓋人工智能和人工在環。 這是否會產生良好的結果肯定是不確定的。

我將使用這個例子來強調一些關於這些問題的額外見解。

你不能厚顏無恥地假設,僅僅因為這些規則之一被實施,解決分歧的結果就必然是保證好的結果。 可能不是。 沒有任何鐵定的永遠正確的規則可供選擇。

其次,其中一些規則可能無法切實執行。

考慮當 AI 和人類駕駛員為駕駛控制爭吵時,遠程人類操作員進行干預的示例。 遠程操作員可能需要幾秒鐘的時間才能弄清楚發生了什麼。 到那時,車輛可能已經落入溝渠或產生其他不良後果。 此外,假設車輛的位置排除了遠程訪問,例如在沒有任何網絡電子連接的地方。 或者,車輛的網絡功能在特定時刻可能無法正常工作。

如您所見,該規則在紙面上可能看起來很花哨,儘管將規則投入實際使用可能是一種非常困難或非常有機會的方法。 請參閱我對自動駕駛汽車和自動駕駛汽車遠程操作員的批判性報導 這裡的鏈接.

我想簡要介紹另一個相關主題,我將在接下來的分析中更深入地介紹。

對自動駕駛汽車和半自動駕駛汽車日益增長的擔憂之一是所謂的 熱土豆綜合症.

這是交易。

一個人工智能駕駛系統和一個人類正在共同駕駛。 一個可怕的困境出現了。 人工智能已被編程為在可怕的時刻發生時退出駕駛任務並將事情交給人類。 這似乎是“明智的”,因為在任何潛在的專業分歧中,我們似乎都在援引關於人類是默認“贏家”的規則。

但人工智能退出可能是出於更邪惡或被認為是陰險的目的。 可能是汽車製造商或自動駕駛技術公司不希望他們的人工智能在發生車禍時被視為“過錯方”。 為了避免被這樣束縛,人工智能突然將控制權交給了人類。 瞧,人類現在大概對車輛負全部責任。

更重要的是,假設人工智能在發生崩潰前一秒完成了這個交接。

人類真的有任何可用的時間來避免崩潰嗎?

可能不是。

假設人工智能在幾毫秒或幾納秒的時間內進行切換。 我敢說人類做任何事情來避免崩潰的可能性基本上為零。

從汽車製造商或自動駕駛汽車公司的角度來看,當這樣的車禍發生時,他們可以試著表現得好像他們的手是乾淨的。 這輛車是由一個人駕駛的。 人工智能沒有駕駛汽車。 唯一“合乎邏輯”的結論似乎是人類必須有過錯,而人工智能必須完全無可指責。

這是一個瓦罐。

我將在即將發布的專欄中更深入地討論這個問題。

結論

職業分歧會發生。

很難想像任何復雜的任務需要兩方共同執行,並且永遠不會出現任何專業分歧。 這似乎是一個幻想世界,或者至少是一個非常罕見的地方。

今天,我們有很多人與人之間存在專業分歧的例子,每天都會以一種或另一種方式和平而明智地解決這些問題。 事實上,我們經常故意設置情境來培養和暴露專業分歧。 您可能會爭辯說,這展示了有時兩個頭腦勝於一個頭腦的著名智慧。

隨著人工智能變得越來越普遍,我們將有很多人工智能對人或人對人工智能的兩方任務執行者,並且將會有 專業分歧 那將會發生。 懶惰的方法是總是順從於人。 這可能不是最合適的方法。 人工智能可能是更好的選擇。 或者上述其他規則之一可能是一種更合理的方法。

有一句聖人的話經常重複,我們通常都應該能夠同意不同意,儘管當它歸結為電線時,有時必須明確解決分歧,否則手頭的事情將導致無法形容的災難。 我們不能讓分歧在葡萄藤上枯萎。 時間可能至關重要,生命可能危在旦夕。

有一個明確的要求,需要一些審慎的方法來解決分歧,即使不一定如此,包括當人工智能和人類在環沒有看到眼睛對眼睛或字節對字節時。

我相信你不會不同意這個完全可以接受的論點。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where-飛行員和副駕駛不同意起飛前突然選擇出租車返回終端並各自走自己的路/