這就是為什麼企業與 AI 道德委員會之間的愛恨交織關係

企業是否應該建立 AI 道德諮詢委員會?

您可能會驚訝地發現,這不是一個簡單的“是或否”答案。

在深入探討建立 AI 道德諮詢委員會的利弊背後的複雜性之前,讓我們確保我們都在同一頁面上了解 AI 道德諮詢委員會的組成以及它為何上升到頭條新聞級別突出。

眾所周知,人工智能(AI)和人工智能在商業活動中的實際應用已經成為現代公司的必備品。 否則,您將很難爭辯。 在某種程度上,人工智能的注入使產品和服務變得更好,而且有時還降低了與提供所述產品和服務相關的成本。 一個漂亮的效率和效率提升列表可能歸因於人工智能的明智和適當的應用。 簡而言之,通過結合人工智能來增加或增強你所做的事情可能是一個非常有利可圖的提議。

還有我們要說的 大飛濺 將人工智能添加到您的企業活動中。

企業對他們對人工智能的使用感到自豪和自豪。 如果 AI 恰好也能改進你的產品,那就太好了。 同時,使用 AI 的說法非常引人注目,您幾乎可以做與以前相同的事情,但通過將 AI 作為業務戰略的一部分折騰而獲得更多的錢或眼球上門貨物。

最後一點,有時會在人工智能是否真的被使用上捏造一點,這讓我們進入了人工智能倫理的舞台。 企業對人工智能提出了各種各樣的徹頭徹尾的虛假聲明。 更糟糕的是,也許,包括使用人工智能,結果證明是所謂的 壞的人工智能.

例如,您無疑已經閱讀了許多使用機器學習 (ML) 或深度學習 (DL) 的 AI 系統實例,這些實例具有根深蒂固的種族偏見、性別偏見和其他不當的不當歧視做法。 對於我對這些與不利 AI 相關的問題以及對 AI Ethics 和 Ethical AI 的強烈呼聲的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

因此,我們在企業看似非常樂觀的人工智能使用中隱藏了這些不利的驅動因素:

  • 在實際上沒有人工智能或微不足道的人工智能注入時使用人工智能的空洞聲稱
  • 故意誤導的關於人工智能使用的虛假聲明
  • 無意中包含人工智能,結果會導致不恰當的偏見和歧視
  • 有目的地塑造人工智能來傳播不良偏見和卑鄙的歧視行為
  • 其他

這些輕率或可恥的做法是如何在公司中出現的?

一個值得注意的難題是缺乏人工智能道德意識。

高層管理人員可能不知道設計遵循一組道德 AI 規則的 AI 的概念。 這樣一家公司的 AI 開發人員可能對此事有所了解,儘管他們可能只熟悉 AI 倫理理論,不知道如何彌合日常 AI 開發工作中的差距。 還有一種情況是,AI 開發人員希望接受 AI 倫理,但當經理和高管認為這會減慢他們的 AI 項目並提高設計 AI 的成本時,會遭到強烈反對。

許多高管沒有意識到,在 AI 發布後,缺乏對 AI 道德的遵守可能最終會讓他們和公司陷入困境,因為 AI 充滿了棘手和醜陋的問題。 一家公司可能會在其中陷入糟糕的人工智能,然後可悲地破壞該公司長期以來建立的聲譽(名譽風險)。 客戶可能會選擇不再使用公司的產品和服務(客戶流失風險)。 競爭對手可能會利用這種失敗(競爭風險)。 並且有很多律師準備幫助那些已經違法的人,旨在對那些允許腐爛的人工智能進入他們公司產品的公司提起巨額訴訟(法律風險)。

簡而言之,與坐在不應該設計或發布的不良 AI 惡臭相關的下游成本相比,適當使用 AI 道德的 ROI(投資回報)幾乎可以肯定更有利。

事實證明,並不是每個人都得到了那個備忘錄,可以這麼說。

人工智能倫理只是逐漸獲得牽引力。

一些人認為,不可避免地需要法律的長臂來進一步激發採用道德人工智能方法。

除了普遍採用人工智能倫理準則外,還有一個相應的問題,即我們是否應該有明確的法律來管理人工智能的各種發展和使用。 新的法律確實在國際、聯邦、州和地方層面廣泛流傳,這些法律涉及人工智能的設計範圍和性質。 起草和頒布此類法律的努力是有節制的。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。 例如,請參閱我的報導 這裡的鏈接這裡的鏈接.

讓我們確保我們都在同一頁面上了解人工智能倫理的基礎知識。

在我的專欄報導中,我之前討論過對人工智能倫理原則的各種集體分析,例如在 這裡的鏈接,它提供了一個有用的關於 AI 系統的道德 AI 標准或特徵的關鍵列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

可以通過建立一個人工智能倫理諮詢委員會來部分地嘗試引入並保持對人工智能倫理規則使用的持續關注。

接下來,我們將解開 AI Ethics 顧問委員會方面的內容。

人工智能倫理委員會以及如何正確行事

公司可能處於人工智能採用的不同階段,同樣也處於擁抱人工智能倫理的不同階段。

設想一家公司想要開始接受 AI 道德,但不知道如何去做。 另一種情況可能是一家已經涉足人工智能倫理的公司,但似乎不確定需要做些什麼來促進這項工作。 第三種情況可能是一家一直在積極設計和使用人工智能並在內部為體現人工智能倫理做了很多工作的公司,儘管他們意識到他們有可能因為內部集體思維而錯過其他見解。

對於任何這些情況,設立一個 AI 道德諮詢委員會可能是謹慎的。

這個概念相當簡單(好吧,澄清一下,整體概念是眾所周知的冰山一角,魔鬼肯定在細節中,正如我們將暫時介紹的那樣)。

人工智能道德顧問委員會通常主要由外部顧問組成,他們被要求在公司的特別顧問委員會或委員會中任職。 董事會中可能還包括一些內部參與者,但通常的想法是從公司外部獲得顧問,這可以為公司正在做的事情帶來半獨立的視角。

我說半獨立,因為毫無疑問,人工智能道德諮詢委員會的選定成員可能會出現一些潛在的獨立性衝突。 如果公司向顧問付款,就會引發一個明顯的問題,即受薪成員是否覺得依賴公司來獲得薪水,或者他們可能會因為批評他們手頭的禮物而感到不安。 另一方面,企業習慣於利用外部付費顧問來發表各種經過深思熟慮的獨立意見,因此無論如何這在某種程度上是慣例和預期的。

AI 道德諮詢委員會通常被要求定期開會,無論是面對面還是虛擬遠程。 它們被公司用作共鳴板。 也有可能向成員提供各種內部文件、報告和備忘錄,說明公司正在進行的與人工智能相關的工作。 AI 道德顧問委員會的特定成員可能會被要求參加符合其特定專業知識的內部會議。 等等。

除了能夠看到公司內部的人工智能正在發生什麼並提供新的視角之外,人工智能道德諮詢委員會通常還具有雙重角色,即從外到內提供最新的人工智能和道德人工智能。 內部資源可能沒有時間深入研究公司外部正在發生的事情,而 ergo 可以從 AI 道德諮詢委員會成員那裡獲得高度關注和量身定制的最新觀點。

人工智能倫理諮詢委員會也有內部到外部的用途。

這可能很棘手。

這個概念是利用人工智能倫理顧問委員會讓外界知道公司在人工智能和人工智能倫理方面正在做什麼。 作為提高公司聲譽的一種手段,這可以很方便。 由於 AI 道德諮詢委員會的金印批准,注入 AI 的產品和服務可能被認為更值得信賴。 此外,通過指出該公司已經在使用 AI Ethics 顧問委員會,呼籲該公司在 Ethical AI 方面做更多的事情可能會有些遲鈍。

利用這種機制的公司通常向 AI 道德諮詢委員會提出的問題通常包括:

  • 公司是否應該將人工智能用於特定產品或服務,或者這似乎過於麻煩?
  • 公司是否在其 AI 工作中考慮了全方位的 AI 道德因素?
  • 公司是否陷入集體思維,不願意或無法看到等待這些努力的潛在令人不安的 AI 道德垮台?
  • 公司應該尋求採用哪些最新的人工智能倫理方法?
  • 為我們的 AI 道德努力及其承諾提供外部讚譽是否可行?
  • 其他

加入人工智能倫理諮詢委員會無疑是有道理的,而且公司越來越多地沿著這條道路前進。

請注意,這枚硬幣還有另一面。

一方面,AI Ethics 諮詢委員會可能是自切片麵包以來的下一個最佳選擇。 不要忽視硬幣的另一面,即它們也可能是一個巨大的頭痛,你可能會後悔你轉向這個冒險的領域(正如你將在本次討論中看到的那樣,如果你知道你的缺點是可以控制的是做)。

公司開始意識到,當選擇走 AI 道德諮詢委員會路線時,他們會發現自己有點麻煩。 你可以斷言,這種陰謀有點類似於玩火。 你看,火是一種非常強大的元素,你可以用來做飯,在荒野中保護你免受掠食者的傷害,讓你保持溫暖,帶來光明,並提供一系列方便和重要的好處。

如果你不能很好地處理它,火也會讓你被燒傷。

最近有各種新聞頭條生動地展示了擁有 AI 道德諮詢委員會的潛在危險。 如果成員草率地決定他們不再相信公司正在開展正確的道德 AI 活動,那麼心懷不滿的成員可能會一怒之下退出。 假設此人可能在人工智能領域或整個行業中享有盛譽,他們的跳槽勢必會引起媒體的廣泛關注。

然後,公司必須進行辯護。

成員為什麼離開?

公司到底在搞什麼鬼?

一些公司要求 AI 道德諮詢委員會的成員簽署 NDA(保密協議),如果成員決定“流氓”並破壞公司,這似乎可以保護公司。 但問題是,即使該人保持相對沉默,但仍有可能承認他們不再擔任 AI 道德諮詢委員會的成員。 這本身就會引發各種令人瞠目結舌的問題。

此外,即使存在 NDA,有時成員也會試圖繞過這些規定。 這可能包括引用未命名的眨眼通用“案例研究”,以突出他們認為該公司陰險地執行的 AI 道德異常。

倒下的成員可能會完全厚顏無恥,直接說出他們對公司的擔憂。 這是否是對 NDA 的明確違反,可能不如這個詞正在傳播道德 AI 疑慮這一事實那麼重要。 一家試圖以違反 NDA 為由起訴該成員的公司可能會殘酷地給自己帶來熱水,從而引發對爭議的更多關注,並且似乎是經典的大衛與歌利亞的決鬥(該公司是大型“怪物”)。

一些高級管理人員認為,他們可以簡單地與任何認為公司做錯事情的 AI 道德諮詢委員會成員達成財務和解,包括忽視或淡化表達的擔憂。

這可能不像人們想像的那麼容易。

通常,成員具有虔誠的道德意識,不會輕易放棄他們認為是道德對錯的鬥爭。 他們也可能在其他方面財務穩定,不願意改變他們的道德準則,或者他們可能有其他工作,因為他們離開了 AI 道德諮詢委員會而沒有受到影響。

可能很明顯,一些人後來意識到人工智能倫理顧問委員會是一把雙刃劍。 這樣的團隊可以傳達出巨大的價值和重要的洞察力。 同時,你也在玩火。 可能是一個或多個成員決定他們不再相信該公司正在做可信的道德人工智能工作。 新聞中有跡象表明,整個 AI 道德諮詢委員會有時會一起退出,或者同時退出,或者有一些成員宣布他們將離開。

為 AI 道德諮詢委員會可能出現的好處和問題做好準備。

當然,有時公司在人工智能倫理方面實際上並沒有做正確的事情。

因此,我們希望並期望該公司的 AI 道德顧問委員會能夠加強這一點,可能首先是在公司內部。 如果公司繼續走上人們認為不好的道路,成員肯定會在道德上受到約束(也可能在法律上)採取他們認為合適的其他行動(成員應諮詢他們的私人律師以獲取任何此類法律建議)。 這可能是讓公司改變其方式的唯一途徑。 一個成員或一組成員的激烈行動似乎是成員希望扭轉局勢的最後手段。 此外,這些成員可能不希望成為他們熱切認為已經偏離 AI 倫理的事物的一部分。

考慮這些可能性的一個有用方法是:

  • 該公司正在迷路,由於認為公司缺乏合規性,成員選擇退出
  • 公司沒有偏離,但成員認為公司偏離了方向,因此由於認為缺乏合規而退出

外部世界不一定知道退出的成員是否有真正的理由擔心公司,或者這可能是成員的一些特殊或錯誤印象。 由於其他承諾或與公司所做的事情無關的個人原因,成員也有相當直接的可能性離開團隊。

要點是,對於任何採用 AI 道德諮詢委員會的公司來說,認真思考與團隊相關的整個生命週期階段是很重要的。

談了這麼多有問題的方面,我不想傳達對設立 AI 道德諮詢委員會保持清醒的印象。 那不是信息。 真正的要點是建立一個 AI 道德諮詢委員會,並確保你以正確的方式這樣做。 把它變成你珍愛的口頭禪。

以下是人工智能道德諮詢委員會經常提到的一些好處:

  • 手頭有辦法從半獨立的私人團體中反彈人工智能項目和想法
  • 利用公司外部的 AI 道德專業知識
  • 旨在避免公司的 AI 道德狂笑和徹底的災難
  • 成為公司及其人工智能係統的公關助推器
  • 內部群體思維在人工智能和人工智能倫理方面的突破
  • 重新審視人工智能創新及其實用性
  • 提高公司的地位和地位
  • 當堅定的 AI 努力陷入困境時,充當肆無忌憚的聲音
  • 其他

以下是公司搞砸並削弱其 AI 道德顧問委員會的常見方式(不要這樣做!):

  • 提供關於使命和目的的模糊和混亂的方向
  • 在馬已經離開穀倉後,很少諮詢並且經常不合時宜
  • 一直在黑暗中
  • 美聯儲嚴格過濾的信息提供了對事物的誤導性描述
  • 僅用作展示,不用於其他創造價值的目的
  • 不允許對內部事務進行任何表面上的探索
  • 缺乏足夠的資源來充分開展工作
  • 團隊內部缺乏明確的領導
  • 公司領導層對集團缺乏關注
  • 期望對所呈現的任何內容給予盲目的認可
  • 隨意選擇的成員
  • 很少受到尊重,似乎只是一個複選標記
  • 其他

另一個經常令人困惑的問題涉及在 AI 道德諮詢委員會任職的各種成員的性質和行為舉止,這有時會在以下方面產生問題:

  • 一些成員可能只是 AI Ethics 的概念化者,而不是精通 AI Ethics 作為一種實踐,因此提供了精通業務的簡約見解
  • 有些人在談到人工智能倫理時可能會誇大其詞,並且在他們參與的過程中非常難以處理
  • 內訌會成為一個重要的干擾因素,通常是大自尊的衝突,並使團隊變得功能失調
  • 有些人可能過於忙碌和過度投入,以至於他們遠離 AI 道德諮詢工作
  • 一些人對 AI 倫理有著根深蒂固的堅定看法,這種看法是不靈活和不切實際的
  • 有些人傾向於情緒化而非分析性和系統性的考慮,這些是人工智能倫理的基礎
  • 可以類似於著名的格言:像一群不會集中註意力和漫無目的地遊蕩的貓
  • 其他

一些公司似乎只是在不知不覺的基礎上組建了一個人工智能倫理顧問委員會。 沒有考慮要選擇的成員。 沒有想到他們每個人帶來的東西。 沒有考慮會議的頻率和會議的召開方式。 總而言之,沒有想過要運行 AI Ethics 顧問委員會。 等等。

從某種意義上說,由於您自己缺乏足智多謀,您很可能正在發動火車殘骸。

不要那樣做

或許這份名單 正確的事情 根據目前的討論,現在對你來說表面上是顯而易見的,但你可能會驚訝地發現很少有公司似乎做到了這一點:

  • 明確確定 AI 道德諮詢委員會的使命和目的
  • 確保該組將得到適當的最高執行級別的關注
  • 確定最適合該組的成員類型
  • 接近所需的成員並確定適合該組
  • 與選定的成員做出適當的安排
  • 建立會議後勤、頻率等。
  • 確定成員的職責、範圍和深度
  • 預測幫助團隊所需的內部資源
  • 為組本身分配足夠的資源
  • 保持 AI 道德諮詢委員會的活躍和循環
  • 為出現問題時預先計劃升級
  • 說明如何處理緊急或危機導向的事件
  • 根據需要將成員向外或向內旋轉,以保持混合合適
  • 事先已經為成員制定了預期的退出路徑
  • 其他

結論

幾年前,許多正在著手設計基於人工智能的自動駕駛汽車的汽車製造商和自動駕駛技術公司突然採取行動,採用人工智能倫理諮詢委員會。 在那之前,似乎很少有人意識到有這樣一個群體。 假設對道德人工智能的內部關注就足夠了。

我在專欄中詳細討論了各種不幸的 AI 道德失誤或疏忽,這些失誤或疏忽有時會導致自動駕駛汽車問題,例如輕微的車輛事故、明顯的汽車碰撞和其他災難,請參閱我的報導 這裡的鏈接. 人工智能安全和類似保護的重要性必須是製造自動駕駛汽車的首要考慮因素。 這個利基市場的 AI 道德諮詢委員會正在幫助將 AI 安全作為重要的首要任務。

我最喜歡表達這種關於人工智能倫理的啟示的方式是將此事比作地震。

加利福尼亞人不時遭受地震,有時甚至是相當大的地震。 您可能認為為地震做好準備將是一個永遠存在的考慮。 不是這樣。 循環以這種方式工作。 發生了一場實質性地震,人們被提醒做好地震準備。 一時間,有人急於進行這樣的準備工作。 一段時間後,對這件事的關注減弱了。 準備工作被擱置或被忽視。 轟隆隆,又一場地震來襲,所有應該做好準備的人都“措手不及”,好像他們沒有意識到有一天會發生地震。

公司通常對 AI 道德諮詢委員會採取同樣的做法。

他們沒有開始一個,然後突然,在他們的人工智能發生一些災難時,他們被動地被激勵採取行動。 他們勉強成立了一個人工智能倫理顧問委員會。 它有很多我之前提到的問題。 人工智能倫理顧問委員會分崩離析。 糟糕,公司內部發生的新 AI 災難重新喚醒了對 AI 道德諮詢委員會的需求。

清洗、沖洗並重複。

企業肯定會發現,他們有時與他們的 AI 道德諮詢委員會的工作有著又愛又恨的關係。 當談到以正確的方式做事時,愛就在空氣中。 當涉及以錯誤的方式做事時,仇恨會猛烈地湧現。 在建立和維護 AI 道德諮詢委員會時,請確保您採取必要措施保持愛並避免仇恨。

讓我們把它變成一種愛與愛的關係。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/