那些“煽動”道德人工智能實踐的人工智能倫理學家對人工智能倫理感到困惑

鹽醃最近在新聞中出現了很多。

我不是指你放入食物中的鹽。 相反,我提出了與勞資之間的相互作用相關的挑釁性和看似極具爭議性的做法相關的“鹽漬”。

你看,這種醃製意味著一個人試圖被雇用到一家公司表面上發起或有人可能會說是在其中煽動建立工會的情況。 討論這一現象的最新新聞報導指向星巴克、亞馬遜等公司,以及其他知名甚至鮮為人知的公司。

我將首先介紹加鹽的基礎知識,然後切換到一個您可能會措手不及的類似主題,即在人工智能(AI)領域似乎正在發生一種加鹽。 這具有至關重要的人工智能倫理考慮。 有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

現在,讓我們了解加鹽通常如何工作的基礎知識。

假設一家公司的勞動力中沒有任何工會。 工會如何以某種方式在該公司中站穩腳跟? 一種方法是在公司外部採取行動,並試圖呼籲工人加入工會。 這可能涉及在公司總部附近展示橫幅或向員工發送傳單或利用社交媒體等。

這絕對是一種由外而內的方法。

另一種途徑是從可能使球滾動的火花中激發。 如果至少有一名員工可以作為啦啦隊長在公司擁抱工會,也許這最終會引發內部支持工會的行列。 即使這樣的員工不是徹頭徹尾的助威,他們也可能悄悄地獲得工人內部的支持,成為組織內部爭取工會的相對隱蔽的力量。

以這種思維方式,工會可能會考慮如何激活這樣的員工。 工會可能會花費無盡的精力去大海撈針。 在公司可能有成百上千的工人中,試圖找到所謂的特別是有利於工會的人可能很難做到。

更容易“發現”那個引發火花的工人(或發明他們,可以這麼說)會很方便。

這使我們想到了一個想法,也許可以讓公司僱用這樣的人擔任公司的日常職務。 從本質上講,將正確的工會激勵人植入公司。 您無需嘗試吸引所有從外面告訴的工人,而是插入一個激活的人,這樣您就可以確定您的火花在那裡被使用。

然後,新僱用的工人尋求在公司內灌輸工會利益,同時做他們被雇用做的任何工作(表達通常被稱為對工作的“真正興趣”)。 請注意,該人積極受僱於公司,並積極從事他們作為僱員所要求的工作。 在傳統的醃製領域,他們不僅僅是工會的非特定工作相關的工人,很可能嵌入了公司。

一些人預示著這種方法。

他們告誡說,對於尋求激勵公司工人考慮加入工會的工會而言,這可以節省時間和資源。 其他員工通常更願意傾聽並被同事激活。 另一種嘗試從外部獲得牽引力的方法被認為不那麼誘人,與某些“外部人員”相比,同事為公司內部的員工提供了強大的動力外人。

不是每個人都對醃製方法感到滿意。

公司經常會爭辯說,這是一種非常偷偷摸摸和不誠實的做法。 該方法的整體格式塔是間諜被放置在公司中間。 那不是這個人被雇用來做的。 他們大概是被雇用來完成他們規定的工作,而相反,整個各種各樣的惡作劇似乎就像惡魔般地植入了真正的特洛伊木馬。

工會的反訴是,如果這個人在做他們規定的工作,那麼就沒有傷害也沒有犯規。 大概是一名員工,或者我們應該說 任何 公司的僱員,通常可以選擇加入工會。 這個特定的員工恰好想要這樣做。 他們帶著這個想法進入公司的事實僅僅是任何新員工都可能考慮的事情。

等一下,商家會反駁,這人 按設計 想來公司成立工會立足點。 那是他們的驅動慾望。 新聘用的員工嘲弄了招聘流程,並不當地利用他們的求職願望作為工會的特定優勢的偽裝。

這種熱烈的話語一圈又一圈地進行著。

請記住,在這些環境中會出現大量的法律考慮。 與國家勞資關係法 (NLRA) 和國家勞資關係委員會 (NRLB) 等相關的各種規則和條例都是這些策略的一部分。 我不想讓你覺得這些方面的事情是直截了當的。 許多法律上的複雜情況比比皆是。

我們還應該思考與加鹽有關的各種變化。

假設希望被錄用的人在整個尋求公司工作的過程中公開支持工會。 此人可能會穿著襯衫或其他明確表明他們支持工會的服裝出現在工作面試中。 他們可能會在採訪中提出他們希望公司有一天會接受工會化的希望。 等等。

在這種情況下,有些人會斷言該企業知道它正在進入什麼領域。 從一開始,該公司就對這個人的意圖有很多跡象。 如果新員工在被雇用後會盡其所能讓工會加入進來,那麼你就不能在事後發牢騷。 這家公司好像是自己開槍了,其他的一切都只是鱷魚的眼淚。

不過,這方面的舞蹈再次比看起來更複雜。 根據可能出現的法律問題,如果被招聘公司拒絕,本來有資格被聘用的人可能會辯稱,由於公司的反工會偏見,他們被故意忽視了。 NRLA 和 NRLB 再一次被捲入了這場混亂的事件中。

我將快速向您介紹鹽漬領域中出現的一系列其他注意事項。 我還想讓你知道,加鹽不僅僅是美國獨有的現象。 它也可能發生在其他國家。 當然,各國的法律和實踐差異很大,因此鹽漬不是特別有用,甚至在某些地方甚至可能完全禁止,而鹽漬的性質可能會根據其法律和文化習俗而發生重大變化,實際上可能還是有效力的。

在您關心的任何司法管轄區諮詢您心愛的勞動法律師。

關於鹽漬的一些額外因素包括:

  • 獲取報酬. 有時,工會向此人支付報酬以執行在公司受僱的任務。 然後,他們可能在公司任職期間由公司和工會共同支付,或者一旦被公司僱用,工會可能不再獲得報酬。
  • 能見度。 有時這個人在招聘過程中對他們的工會意圖保持低調或完全保持沉默,而在其他情況下,這個人公開表達他們打算做什麼。 一種看似半途而廢的方法是,如果在面試中明確詢問,該人會說出他們的目標是什麼,從而暗示公司有責任找出這種意圖,公司認為這是一種不正當的縱容和縱容的負擔。拉緊法律界限。
  • 定時。 一旦被雇用的人可能會選擇等待承擔他們的工會能力。 他們可能會等待數週、數月甚至數年才能激活。 一旦他們適應了公司並建立了作為公司員工的個人立足點,他們更有可能開始工作。 如果他們立即開始,這可能會削弱他們被視為局內人的企圖,並將他們視為入侵者或局外人。
  • 採取的步驟. 有時,此人會在公司內明確宣布他們現在正在尋求加入工會,這可能會在被錄用後不久發生,也可能會在不久之後發生(根據我上面關於時間因素的說明)。 另一方面,此人可能會選擇擔任臥底角色,向工會提供信息,而不是引起任何關注。 這有時被抨擊為 鹽漬痣,儘管其他人會強調,如果他們直接說出來,該人可能會面臨內部風險。
  • 保有. 一個從事醃製工作的人最終可能會獲得工會的推動力(他們是“鹽工”)。 他們可能會在整個工會過程中留在公司。 話雖如此,有時這樣的人會選擇離開已被激發的公司,並選擇去另一家公司重新開始激發活動。 對此的爭論很激烈。 一種觀點是,這清楚地表明這個人並沒有在公司的工作。 與之形成鮮明對比的觀點是,一旦支持工會的努力獲得牽引力,他們可能會繼續留在公司,從而發現自己處於陰暗且可能站不住腳的水域。
  • 結果. 加鹽嘗試並不能保證特定的結果。 可能是該人確實提高了對工會的認識,並且努力正在進行中,因此發生了“成功”的醃製。 另一個結果是該人無法獲得任何此類牽引力。 然後他們要么放棄追求並留在公司,也許稍後等待另一個機會,或者他們離開公司並通常尋求在其他公司進行醃製。
  • 專業鹽工. 有些人認為自己是醃製的堅定擁護者,他們為自己擔任醃製者而感到自豪,事實上。 他們反復進行醃製,在這樣做的過程中從一個公司到另一個公司。 其他人會一次性這樣做,可能是因為某種特殊偏好或想看看它是什麼樣的,然後選擇不重複擔任這樣的角色。 您可以肯定地想像在鹽工身份中可能發生的個人壓力和潛在壓力的類型。

這些因素現在足以突出鹽漬的範圍和動態。 我將在 AI 和道德 AI 考慮的背景下重新審視這些因素。

要點是,有些人尋求被公司聘用,以發起或煽動在公司中建立 AI 道德原則。 這是他們去公司工作的主要動機。

從某種意義上說,他們不是為了工會的目的而進行醃製,而是“醃製”以試圖讓一家植根於道德 AI 戒律的公司。

稍後我將對此進行更多說明。

在深入了解 AI 環境中鹽醃背後的狂野和毛茸茸的考慮之前,讓我們列出一些關於非常重要的主題的額外基礎知識。 我們需要簡要介紹一下 AI 倫理,尤其是機器學習 (ML) 和深度學習 (DL) 的出現。

您可能隱約意識到,如今在 AI 領域甚至在 AI 領域之外,最響亮的聲音之一就是呼籲更多地表現出道德 AI。 讓我們來看看提到 AI Ethics 和 Ethical AI 是什麼意思。 最重要的是,當我談到機器學習和深度學習時,我們將探討我的意思。

受到媒體廣泛關注的人工智能倫理的一個特定部分或部分包括表現出令人不快的偏見和不平等的人工智能。 你可能已經意識到,當人工智能的最新時代開始時,人們對現在一些人所說的東西產生了巨大的熱情 永遠的人工智能. 不幸的是,在那種滔滔不絕的興奮之後,我們開始目睹 壞的人工智能. 例如,各種基於 AI 的面部識別系統已被發現包含種族偏見和性別偏見,我在 這裡的鏈接.

努力反擊 壞的人工智能 正在積極進行中。 除了吵鬧 法律 在追求遏制不法行為的同時,也大力推動擁抱人工智能倫理以糾正人工智能的邪惡。 這個概念是,我們應該採用和認可關鍵的道德 AI 原則來開發和部署 AI,從而削弱 壞的人工智能 同時宣傳和推廣可取的 永遠的人工智能.

在一個相關的概念上,我主張嘗試使用人工智能作為解決人工智能問題的一部分,以這種思維方式以火攻毒。 例如,我們可以將道德 AI 組件嵌入到 AI 系統中,該系統將監控 AI 的其餘部分是如何做事的,從而可能實時捕捉到任何歧視性行為,請參閱我在 這裡的鏈接. 我們還可以有一個單獨的人工智能係統,作為一種人工智能倫理監視器。 AI 系統充當監督者,以跟踪和檢測另一個 AI 何時進入不道德的深淵(請參閱我對此類能力的分析,網址為 這裡的鏈接).

稍後,我將與您分享一些 AI 倫理背後的總體原則。 這里和那裡有很多這樣的列表。 你可以說,目前還沒有一個普遍的吸引力和同意的單一列表。 這就是不幸的消息。 好消息是,至少有現成的 AI 道德清單,而且它們往往非常相似。 總而言之,這表明通過某種形式的合理融合,我們正在尋找通往人工智能倫理所包含內容的普遍共性的道路。

首先,讓我們簡要介紹一些整體的道德 AI 規則,以說明對於任何製作、部署或使用 AI 的人來說應該是一個至關重要的考慮因素。

例如,正如梵蒂岡在 羅馬呼籲人工智能倫理 正如我在 這裡的鏈接,這些是他們確定的六項主要人工智能倫理原則:

  • 透明度: 原則上,人工智能係統必須是可解釋的
  • 包含: 必須考慮全人類的需求,使每個人都能受益,並為每個人提供最好的條件來表達自己和發展
  • 責任: 那些設計和部署使用人工智能的人必須承擔責任和透明度
  • 公正性: 不產生偏見或根據偏見行事,從而維護公平和人的尊嚴
  • 可靠性: 人工智能係統必須能夠可靠地工作
  • 安全和隱私: 人工智能係統必須安全運行並尊重用戶的隱私。

正如美國國防部 (DoD) 在他們的 使用人工智能的倫理原則 正如我在 這裡的鏈接,這是他們的六項主要人工智能倫理原則:

  • 負責人: 國防部人員將行使適當的判斷力和謹慎程度,同時繼續負責人工智能能力的開發、部署和使用。
  • 公平: 該部門將採取慎重措施,盡量減少人工智能能力的意外偏差。
  • 可追踪的: 國防部的人工智能能力將得到開發和部署,使相關人員對適用於人工智能能力的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源以及設計程序和文檔。
  • 可靠: 國防部的人工智能能力將有明確的、明確定義的用途,並且這些能力的安全性、保障性和有效性將在其整個生命週期中在這些定義的用途中進行測試和保證。
  • 可治理的: 該部門將設計和設計人工智能功能以實現其預期功能,同時具備檢測和避免意外後果的能力,以及脫離或停用表現出意外行為的部署系統的能力。

我還討論了對人工智能倫理原則的各種集體分析,包括在一篇題為“人工智能倫理指南的全球景觀”(已發表在 性質),我的報導將在 這裡的鏈接,這導致了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

正如您可能直接猜到的那樣,試圖確定這些原則背後的細節可能非常困難。 更重要的是,將這些廣泛的原則轉化為完全有形且足夠詳細的東西,以便在構建人工智能係統時使用,這也是一個難以破解的難題。 總體而言,很容易就 AI 道德規範是什麼以及應如何普遍遵守它們進行一些揮手,而 AI 編碼中的情況要復雜得多,必須是真正符合道路的橡膠。

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都將使用 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼人員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 如前所述,設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

讓我們也確保我們對當今人工智能的本質保持一致。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測 有知覺的 人工智能,這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於一些人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(對於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

讓我們更腳踏實地,考慮一下今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

讓我們回到 AI 環境中對加鹽的關注。

首先,我們從鹽漬的術語中刪除了任何類似的聯合元素,而只使用鹽漬作為通用範式或方法作為模板。 所以,為了這個與 AI 相關的鹽漬討論的目的,請把與工會相關的方面放在一邊。

其次,如前所述,在這種人工智能背景下進行鹽漬化意味著一些人可能會尋求被公司聘用,以發起或煽動在公司中建立人工智能倫理原則。 這是他們去公司工作的主要動機。

澄清一下,絕對有很多人被公司錄用,他們已經意識到人工智能道德很重要。 不過,這並不是他們試圖被感興趣的特定公司聘用的首要依據。 從本質上講,他們將被雇用來從事某種人工智能開發或部署工作,並為此輕鬆地為他們帶來了對道德人工智能的強烈信念。

然後,他們將盡最大努力在公司中註入或激發 AI 道德考慮。 對他們有好處。 我們需要更多的人將其作為一種由衷的渴望。

但這不是我在這裡提到的鹽漬。 想像一下,有人挑選了一家在擁抱 AI 倫理方面似乎做得併不多的特定公司。 該人決定如果他們可以在某些日常 AI 工作(甚至可能是非 AI 角色)中被該公司聘用,那麼他們的主要重點將是在公司。 這不是他們的主要工作職責,甚至沒有列在他們的工作職責中(我提到這一點是因為,很明顯,如果僱用一個人是為了故意帶來 AI 道德,他們並沒有以這裡的內涵和外表的方式“撒鹽”)。

這個人並不特別關心工作本身。 當然,他們會做任何工作,而且他們大概有資格這樣做。 與此同時,他們真正的議程是推動道德人工智能成為公司的一部分。 這就是使命。 這就是目標。 工作本身只是讓他們從內部這樣做的一種手段或工具。

你可能會說他們可以從公司外部做同樣的事情。 他們可以嘗試遊說公司的人工智能團隊更多地參與人工智能倫理。 他們可能會試圖通過在博客上發帖或採取其他措施來羞辱公司這樣做。 等等。 問題是,正如前面在討論鹽漬的總體前提時指出的那樣,他們仍然是局外人。

AI醃製人是騙人的嗎?

我們再次想起了關於鹽漬聯合背景的相同問題。 這個人可能會堅持根本沒有欺騙。 他們受僱從事一項工作。 他們正在做這項工作。 碰巧的是,此外,他們還是人工智能倫理的內部倡導者,並努力讓其他人也這樣做。 沒有傷害,沒有犯規。

他們可能還會指出,他們推動公司走向道德人工智能並沒有任何特別的不利因素。 最後,這將有助於公司潛在地避免如果生產的人工智能不遵守人工智能道德準則,否則可能會出現訴訟。 因此,他們正在將公司從自身中拯救出來。 儘管這個人可能並不特別關心手頭的工作,但他們正在做這項工作,同時通過大力推動道德 AI 使公司變得更加明智和安全。

稍等片刻,有人反駁,此人虛偽。 一旦 AI Ethics 被接受,他們似乎就會跳槽。 他們的心不在公司,也不在工作。 他們正在利用公司來推進自己的議程。 當然,議程似乎足夠好,試圖將道德人工智能放在首位,但這可能太過分了。

你看,這個論點進一步表明,人工智能倫理學的追求可能會變得過於熱心。 如果這個人來啟動 Ethical AI,他們可能不會更全面地了解公司整體正在處理的事情。 排除其他所有因素,此人可能會分散公司的注意力,並且不願意在合理的基礎上以謹慎的速度採用 AI 道德規範。

他們可能會成為一種破壞性的不滿情緒,不斷地就公司在道德 AI 規則方面所處的位置爭論不休。 其他 AI 開發人員可能會因單調的喋喋不休而分心。 將 AI 道德納入其中當然是明智的,儘管公司內部的戲劇性和其他潛在破壞可能會阻礙道德 AI 的進步,而不是幫助它。

一圈又一圈地走。

我們現在可以重新審視我之前提出的關於加鹽的其他因素:

  • 獲取報酬. 可以想像,該人最初可能由某個希望讓公司接受人工智能倫理的實體支付,可能旨在無害地這樣做,或者可能向公司出售一套特定的人工智能倫理工具或實踐。 一般不太可能,但值得一提。
  • 能見度。 在招聘過程中,此人可能不會特別提出他們的 AI 道德使命。 在其他情況下,他們可能會確保它處於前沿和中心位置,這樣招聘公司就可以毫不含糊地理解他們的虔誠重點。 不過,這更有可能被表述為好像 AI 倫理是次要問題,而工作是他們的首要問題,而不是相反。
  • 定時。 一旦被雇用的人可能會選擇等待進行他們的 AI Ethics 開始。 他們可能會等待數週、數月甚至數年才能激活。 一旦他們適應了公司並建立了作為公司員工的個人立足點,他們更有可能開始工作。 如果他們立即開始,這可能會削弱他們被視為局內人的企圖,並將他們視為入侵者或局外人。
  • 採取的步驟. 有時,此人會在公司內明確宣布他們現在正在尋求提高對 AI 道德的關注,這可能會在被錄用後不久發生,也可能會在不久之後發生(根據我上面關於時間因素的說明)。 另一方面,這個人可能會選擇擔任臥底角色,在公司內安靜地工作,而不是特別關注自己。 他們還可能向媒體和其他外部人員提供有關公司內部發生的 AI 道德遺漏或失敗的信息。
  • 保有. 一個從事醃製工作的人最終可能會獲得 AI Ethics 的推動力。 他們可能會在整個 Ethical AI 採用過程中留在公司。 話雖如此,有時這樣的人會選擇離開已被激發的公司,並選擇去另一家公司重新開始激發活動。 對此的爭論很激烈。 一種觀點是,這清楚地表明這個人並沒有在公司的工作。 與之形成鮮明對比的觀點是,如果他們現在被貼上大聲喧嘩或麻煩製造者的標籤,他們可能會因為留在公司而陷入混沌和可能站不住腳的水域。
  • 結果. 加鹽嘗試並不能保證特定的結果。 可能是這個人確實提高了對道德 AI 的認識,並且努力正在進行中,因此發生了“成功”的醃製。 另一個結果是該人無法獲得任何此類牽引力。 然後他們要么放棄追求並留在公司,也許稍後等待另一個機會,或者他們離開公司並通常尋求在其他公司進行醃製。
  • 專業鹽工. 有些人可能認為自己是 AI Ethics 鹽漬的堅定擁護者,他們為自己擔任鹽漬工感到自豪,事實上。 他們反復進行醃製,在這樣做的過程中從一個公司到另一個公司。 其他人可能會一次性這樣做,可能是因為特定的偏好或想看看它是什麼樣的,然後選擇不重複擔任這樣的角色。 您可以肯定地想像在鹽工身份中可能發生的個人壓力和潛在壓力的類型。

這種以人工智能倫理為導向的鹽漬化是否流行還有待觀察。 如果公司在培養道德人工智能方面進展緩慢,這可能會導致狂熱的人工智能倫理學家進行鹽漬化努力。 他們可能不會直接意識到他們正在做鹽醃。 換句話說,有人去了 X 公司並試圖為 AI Ethics 獲得牽引力,也許這樣做了,並意識到他們應該在其他地方做同樣的事情。 然後他們轉移到 Y 公司。沖洗並重複。

再次強調,AI 道德接受是他們的首要任務。 找到工作是次要的,甚至不是特別重要,除了能夠進入內部並進行與道德 AI 相關的鹽漬的內部工作。

我還要補充一點,那些研究和分析人工智能倫理方面的人現在對倫理人工智能研究的主題有了一些新的補充:

  • 是否應該全面寬恕或迴避這些 AI Ethics 鹽漬工作?
  • 是什麼驅使那些希望在這種 AI 環境中進行加鹽的人?
  • 企業應該如何對感知到的 AI 上下文鹽漬行為做出反應?
  • 是否會設計一些方法來鼓勵像這樣與人工智能相關的加鹽?
  • 等等

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括(可能令人驚訝或具有諷刺意味地)評估 AI Ethics 如何被公司採用。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在這個重要討論的關鍵時刻,我敢打賭,你希望有一些說明性​​的例子可以展示這個主題。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於 AI 的真正自動駕駛汽車的出現是否說明了與 AI 相關的鹽漬化的任何事情,如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人工協助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5 級還沒有真正的自動駕駛汽車,我們甚至不知道這是否有可能實現,也不知道需要多長時間。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和人工智能倫理鹽漬化

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我希望這提供了足夠多的警告來作為我將要講述的內容的基礎。

讓我們勾勒出一個展示與 AI 相關的鹽漬情況的場景。

一家致力於開發全自動自動駕駛汽車的汽車製造商正在推進公共道路試驗。 該公司承受著巨大的壓力。 他們受到市場的關注,如果他們似乎沒有處於自動駕駛汽車開發的前沿,他們的股價就會相應受到影響。 此外,他們已經投資了數十億美元,投資者對公司能夠宣布他們的自動駕駛汽車已準備好用於日常商業用途的那一天感到不耐煩。

一位 AI 開發人員正在遠處密切關注這家汽車製造商的努力。 報導稱,人工智能駕駛系統變得混亂或犯錯誤的案例越來越多地出現在新聞中。 各種情況包括與其他汽車的碰撞、與騎自行車的人的碰撞以及其他嚴重事故。

該公司通常試圖保持這種安靜。 這位 AI 開發人員私下與該公司的一些工程師交談,並了解到 AI 道德準則充其量只是口頭上的。 有關我對企業逃避道德 AI 等問題的報導,請參閱 這裡的鏈接.

這個 AI 開發者要做什麼?

他們覺得有必要做點什麼。

讓我們做一些分叉工作,並考慮該 AI 開發人員可能採用的兩條路徑。

一種方法是,人工智能開發人員通過媒體試圖揭露汽車製造商似乎對人工智能道德準則缺乏適當關注。 也許這位關心人工智能的專家會選擇寫博客或創建視頻博客來突出這些問題。 另一種可能性是他們讓 AI 團隊的現有成員成為舉報人,這是我在 這裡的鏈接.

這絕對是這位 AI 開發人員認為的局外人方法。

另一種途徑是人工智能開發人員相信他們的直覺,他們可能能夠在公司內部完成更多工作。 人工智能開發人員的技能組合在涉及自動駕駛汽車的人工智能方面得到了很好的調整,他們可以很容易地申請公司發布的人工智能工程師職位空缺。 AI 開發人員決定這樣做。 此外,推動力完全集中在讓汽車製造商更加重視道德人工智能。 這項工作本身對這位 AI 開發人員來說並不重要,只是他們現在可以從內部進行有說服力的工作。

可能是 AI 開發人員得到了這份工作,但隨後發現存在巨大的內部阻力,而道德 AI 的奮鬥目標毫無意義。 該人離開公司並決定瞄準另一家可能更願意掌握人工智能開發人員目標的汽車製造商。 再一次,他們這樣做是為了明確地考慮到人工智能倫理,而不是人工智能工作的主要內容。

結論

將這些與 AI 相關的努力稱為一種醃製形式的想法勢必會導致一些人因過度使用已經建立的術語或詞彙而感到胃痛。 鹽漬在與勞工和商業有關的工會活動中幾乎根深蒂固。 試圖用這些其他類型的看似相似的活動來超載這個詞,儘管它們的性質與工會完全無關,這可能會產生誤導和混淆。

假設我們想出一個不同的措辭。

胡椒粉?

好吧,這似乎並沒有引起與加鹽完全相同的情緒。 嘗試將其規定並包含在我們的日常語言詞典中將是一場艱苦的戰鬥。

無論我們想出什麼,無論命名或標語似乎合適,我們都知道一件事。 試圖讓公司接受人工智能倫理仍然是一場艱苦的戰鬥。 我們需要嘗試。 必須以正確的方式進行嘗試。

似乎無論你落在柵欄的哪一邊,我們都需要用適當的鹽粒來接受這個警告。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/