負責任的 AI 通過頂級專業協會 ACM 的 AI 道德宣言獲得卓越的提升

你看到或聽到這個消息了嗎?

新頒布了另一套人工智能倫理規範。

請熱烈鼓掌。

話又說回來,你可能 任何監管機構都不批准 之所以注意到這一點,是因為許多其他 AI 倫理法令已經流傳了一段時間。 有人說,人工智能倫理宣言看似永無止境的滲透變得有點麻木。 我們需要多少? 任何人都可以跟上他們嗎? 哪一個是最好的? 我們是否在 AI 倫理原則上過火了? 等等。

好吧,在這種特殊情況下,我說我們應該特別歡迎這個最新加入俱樂部的人。

稍後我會深刻地解釋原因。

首先,作為澄清,我指的是現在正式稱為“關於負責任的算法系統原則的聲明” 最近由 ACM 技術政策委員會於 26 年 2022 月 XNUMX 日發布。感謝將這份珍貴文件放在一起的專家團隊,包括共同主要作者 Jeanna Matthews(克拉克森大學)和 Ricardo Baeza-Yates(Universitat Pompeu Fabra ).

熟悉的人仔細觀察後可能會發現這份文件似乎有些眼熟。

好眼力!

這一最新版本本質上是 ACM 美國技術政策委員會和 ACM 歐洲技術政策委員會於 2017 年頒布的早期聯合“算法透明度和責任聲明”的更新和擴展變體。我專欄的忠實讀者可能還記得我在 AI 倫理和 AI 法律的關鍵方面的專欄報導中不時提到 2017 年的法令。

有關我對 AI 倫理和 AI 法律的廣泛和持續的評估和趨勢分析,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

由於幾個重要原因,ACM 的最新聲明特別重要。

這就是原因。

ACM,這是一個方便的首字母縮寫詞 計算機協會, 被認為是世界上最大的以計算為中心的協會。 ACM 由大約 110,000 名成員組成,是計算領域的長期先驅。 ACM 在計算領域開展了一些最頂尖的學術研究,同樣也提供了專業網絡並吸引了計算從業者。 因此,ACM 是一個重要的聲音,它普遍代表那些高科技的人,並為推動計算機領域的發展而不懈努力(ACM 成立於 1947 年)。

我也可能會對此添加一些個人註釋。 當我在高中第一次接觸計算機時,我加入了 ACM 並參加了他們的教育計劃,尤其是參加他們一年一度的計算機編程競賽的激動人心的機會(此類競賽如今很普遍,通常被標記為 這種形式的比賽). 在大學期間,我通過當地大學分會繼續參與 ACM,並通過成為學生分會幹事獲得了學習領導力的機會。 進入行業後,我加入了一個專業分會,並再次擔任領導職務。 此後,當我成為一名教授時,我在 ACM 委員會和編輯委員會任職,同時贊助校園學生分會。 即使在今天,我仍然活躍於 ACM,包括在 ACM 美國技術政策委員會任職。

我喜歡 ACM 對終身學習和職業發展的可愛而持久的願景。

無論如何,就最新的 AI 倫理聲明而言,ACM 發布的這一事實具有一定的分量。 您可能會合理地斷言,道德 AI 準則是全球計算機專業人員群體的全部或集體聲音。 這說明了一些事情。

還有一個方面是,計算機領域的其他人會受到啟發,振作起來並傾聽他們的計算機同行聲明的內容。 因此,即使對於那些不在 ACM 中或對這個受人尊敬的團體一無所知的人,也有望對發現聲明的內容產生濃厚的興趣。

與此同時,那些 校外 計算領域的一些人可能會被該聲明所吸引,作為一種幕後內部人士,看看那些進入計算機領域的人對道德人工智能的看法。 我想強調的是,該聲明適用於所有人,而不僅僅是計算機社區中的人,因此請記住,AI 道德規範是全面的。

最後,還有一個很少有人會考慮的額外轉折。

有時,局外人認為計算協會在技術方面很深入,並沒有特別意識到計算機和人工智能的社會影響。 您可能會認為這些專業實體只關心硬件或軟件領域的最新和最熱門的突破。 公眾以簡單粗暴的方式將他們視為技術宅。

坦白說,自從我第一次接觸計算機以來,我就一直沉浸在計算的社會影響中,同樣,ACM 也深入參與了這些主題。

對於任何對 ACM 整理並發布有關 AI 倫理規範的聲明感到驚訝的人,他們都沒有關注在這些問題上進行的長期研究和工作。 我還敦促那些有興趣的人應該好好看看 ACM 道德準則,一個多年來發展起來的嚴厲的職業道德準則,強調系統開發人員需要了解、遵守並警惕他們的努力和產品的道德後果。

人工智能一直在煽動對計算倫理的了解。

隨著當今 AI 的出現,計算領域中道德和法律考慮因素的可見度已大大提高。 業內人士正在被告知,有時甚至被鼓吹要適當關注 AI 倫理和 AI 法律問題。 立法者越來越意識到人工智能倫理和人工智能法律方面的問題。 公司意識到他們正在設計或使用的人工智能既有優勢,但有時也會帶來巨大的風險和潛在的負面影響。

讓我們解開過去幾年發生的事情,以便在我們跳入這套最新的 AI 道德規範之前可以建立適當的背景。

人工智能道德意識的提高

最近的人工智能時代最初被認為是 永遠的人工智能,這意味著我們可以使用人工智能來改善人類。 緊隨其後 永遠的人工智能 意識到我們也沉浸在 壞的人工智能. 這包括被設計或自我改變為具有歧視性的人工智能,並在計算選擇中灌輸不正當的偏見。 有時人工智能是這樣構建的,而在其他情況下,它會轉向那個令人討厭的領域。

我想非常確定我們在當今人工智能的本質上是一致的。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我關注的人工智能類型包括我們今天擁有的非感知人工智能。 如果我們想瘋狂地推測有感知的人工智能,那麼這個討論可能會朝著完全不同的方向發展。 一個有感覺的人工智能應該具有人類的素質。 你需要考慮到有感知的人工智能是人類的認知等價物。 更重要的是,由於有人推測我們可能擁有超智能 AI,因此可以想像這種 AI 最終可能比人類更聰明(關於我對超智能 AI 可能性的探索,請參閱 這裡的報導).

我強烈建議我們腳踏實地,考慮今天的計算非感知人工智能。

意識到今天的人工智能無法以任何與人類思維同等的方式“思考”。 當你與 Alexa 或 Siri 互動時,對話能力可能看起來類似於人類能力,但現實是它是計算性的,缺乏人類認知。 人工智能的最新時代廣泛使用了機器學習 (ML) 和深度學習 (DL),它們利用了計算模式匹配。 這導致人工智能係統具有類似人類的傾向。 同時,今天沒有任何人工智能具有常識,也沒有任何強大的人類思維的認知奇蹟。

將當今的人工智能擬人化時要非常小心。

ML/DL 是一種計算模式匹配。 通常的方法是收集有關決策任務的數據。 您將數據輸入 ML/DL 計算機模型。 這些模型試圖找到數學模式。 在找到這樣的模式之後,如果找到了,那麼人工智能係統就會在遇到新數據時使用這些模式。 在呈現新數據時,基於“舊”或歷史數據的模式被應用於呈現當前決策。

我想你可以猜到這是走向何方。 如果一直在做出模式化決策的人類一直在納入不利的偏見,那麼數據很可能以微妙但重要的方式反映了這一點。 機器學習或深度學習計算模式匹配將簡單地嘗試相應地在數學上模擬數據。 人工智能製作的建模本身沒有常識或其他感知方面的外表。

此外,人工智能開發人員可能也沒有意識到發生了什麼。 ML/DL 中的神秘數學可能使找出現在隱藏的偏見變得困難。 您理所當然地希望並期望 AI 開發人員會測試潛在的隱藏偏見,儘管這比看起來要棘手。 即使進行了相對廣泛的測試,ML/DL 的模式匹配模型中仍然存在偏差。

您可以在某種程度上使用著名或臭名昭著的格言垃圾進垃圾出。 問題是,這更類似於偏見,因為偏見潛伏在人工智能中。 人工智能的算法決策 (ADM) 不言自明地變得充滿了不公平。

不好。

所有這些都對人工智能倫理產生了顯著的影響,並為試圖為人工智能立法提供了一個方便的窗口(甚至在所有教訓發生之前)。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。

在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.

以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 尊重他人
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。

在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守​​ AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。

我最近還檢查了 人工智能權利法案 這是美國政府官方文件“人工智能權利法案藍圖:讓自動化系統為美國人民服務”的官方文件,這是科學和技術政策辦公室(OSTP)一年努力的結果)。 OSTP 是一個聯邦實體,負責就具有國家重要性的各種技術、科學和工程方面向美國總統和美國行政辦公室提供建議。 從這個意義上說,你可以說這個 AI 權利法案是由現有的美國白宮批准和認可的文件。

在 AI 權利法案中,有五個關鍵類別:

  • 安全有效的系統
  • 算法歧視保護
  • 數據隱私
  • 通知及說明
  • 人類的選擇、考慮和回退

我已經仔細審查了這些戒律,請參閱 這裡的鏈接.

既然我已經為這些相關的 AI 倫理和 AI 法律主題打下了有用的基礎,我們準備好進入最近發布的 ACM“負責任的算法系統原則聲明”(順便說一句,因為文件標題指的是 負責 算法系統,你可能想看看我對它意味著什麼的評估 值得信賴的人工智能,見 這裡的鏈接).

準備好踏上這套最新的 AI 倫理原則之旅。

深入挖掘 ACM 宣布的 AI 道德規範

ACM 關於道德人工智能的聲明包括以下九個基石:

  • 合法性和能力
  • 減少傷害
  • 安全和隱私
  • 透明度
  • 可解釋性和可解釋性
  • 可維護性
  • 可競爭性和可審計性
  • 問責制和責任
  • 限制環境影響

如果您將這個最新的集合與其他顯著可用的集合進行比較,就會發現它們之間有很多相似之處或類似的對應關係。

一方面,您可以將其視為一個好兆頭。

我們通常可能希望大量的 AI 倫理原則都圍繞著相同的整體覆蓋範圍進行整合。 看到一組與另一組在某種程度上具有可比性,讓您有信心這些組在同一個球場內,而不是在令人費解的左場中。

一些人可能會抱怨這些不同的集合看起來大致相同,這可能會造成混淆或至少是驚恐,因為我們不應該有許多看似重複的列表。 不能只有一個列表嗎? 當然,問題是沒有簡單的方法可以讓所有這些列表完全一致。 不同的團體和不同的實體以不同的方式處理這個問題。 好消息是,他們幾乎都得出了相同的總體結論。 我們可以鬆一口氣,因為這些集合沒有太大的差異,如果沒有達成總體共識,這可能會讓我們感到不安。

逆勢投資者可能會告誡說,這些名單的共性令人不安,認為可能存在集體思維。 也許所有這些不同的群體都以相同的方式思考,無法超越常規。 我們所有人都陷入了一個相同的陷阱。 這些清單表面上是在錨定我們的思想,我們無法超越自己的眼光。

超越我們的鼻子無疑是一項有價值的事業。

我當然樂於聽取逆向投資者的意見。 有時他們會聽到一些有 泰坦尼克號 朝著一座巨大的冰山前進。 我們可以使用一些鷹眼瞭望台。 但是,在這些 AI 倫理準則的問題上,反對者並沒有明確表達任何似乎明顯削弱或引起對正在發生的過度共性的擔憂。 我認為我們做得很好。

在這個ACM集中,有幾個我認為特別值得關注的特別值得注意或突出的點。

首先,我喜歡與規範有些不同的頂級措辭。

例如,參考 合法性和能力 (第一個項目符號)讓人聯想到與 AI 相關的設計師和管理能力的重要性。 除此之外 合法 標語最終將我們帶入人工智能倫理 AI法域。 我這樣說是因為許多 AI 倫理規則幾乎完全集中在倫理含義上,但似乎也忽略或避開了注意法律後果。 在法律領域,道德考慮常常被吹捧為“軟法”,而書本上的法律被解釋為“硬法”(意味著它們承擔著法庭的重量)。

著名法學家厄爾·沃倫 (Earl Warren) 說過我最喜歡的名言之一:“在文明生活中,法律漂浮在道德的海洋中。”

我們需要確保 AI 倫理規範也包含並強調 AI 法律的起草、頒布和執行中的硬法方面。

其次,我感謝該列表包括 可競爭性和可審計性.

當你受制於 AI 系統時,我已經反複寫過能夠競爭或舉起紅旗的價值,請參閱 這裡的鏈接. 此外,我們將越來越多地看到強制對人工智能係統進行審計的新法律,我已經詳細討論了紐約市 (NYC) 關於用於員工招聘和晉升的人工智能係統審計偏見的法律,請參閱 這裡的鏈接. 不幸的是,根據我對紐約市新法律的公開批評,如果這些可審計性法律存在缺陷,它們可能會造成比解決的問題更多的問題。

第三,人們逐漸意識到人工智能可以解決可持續性問題,我很高興看到 環境 主題在這些 AI 道德規範中獲得了頂級的賬單(請參閱列表的最後一個項目符號)。

僅創建人工智能係統這一行為就會消耗大量計​​算資源。 這些計算資源可以直接或間接地篡奪可持續性。 需要權衡 AI 提供的好處與 AI 帶來的成本。 ACM 項目符號的最後一項記錄了人工智能帶來的可持續性和環境考慮因素。 有關我對 AI 相關碳足跡問題的報導,請參閱 這裡的鏈接.

現在我們已經對 ACM 的 AI 道德規範列表進行了全面的了解,接下來我們將更深入地研究一下。

以下是每個高級 AI 道德規範的官方描述(引自正式聲明):

1。 “合法性和能力: 算法系統的設計者應該具有管理能力和明確的授權來構建和部署此類系統。 他們還需要具備應用領域的專業知識、系統預期用途的科學基礎,並被受系統影響的利益相關者廣泛認為具有社會合法性。 必須進行法律和道德評估,以確認系統引入的任何風險都與正在解決的問題成正比,並且所有相關利益相關者都理解任何利弊權衡。”

2。 “減少傷害: 算法系統的管理人員、設計人員、開發人員、用戶和其他利益相關者應了解其設計、實施和使用中可能出現的錯誤和偏差,以及系統可能對個人和社會造成的潛在危害。 組織應定期對其採用的系統進行影響評估,以確定係統是否會產生傷害,尤其是歧視性傷害,並採取適當的緩解措施。 在可能的情況下,他們應該從實際表現的衡量中學習,而不僅僅是過去可能本身就具有歧視性的決策模式。”

3。 “安全和隱私: 通過在系統生命週期的每個階段引入安全和隱私最佳實踐,包括用於緩解算法系統上下文中出現的新漏洞的強大控制,可以減輕來自惡意方的風險。”

4。 “透明度: 鼓勵系統開發人員清楚地記錄為開發、培訓、驗證和測試選擇特定數據集、變量和模型的方式,以及用於保證數據和輸出質量的具體措施。 系統應該表明它們對每個輸出的置信度,當置信度低時人類應該進行干預。 開發人員還應記錄用於探索潛在偏差的方法。 對於對生命和福祉有重大影響的系統,應該需要獨立的驗證和確認程序。 對數據和模型的公眾監督為糾正提供了最大的機會。 因此,開發人員應該為公共利益促進第三方測試。”

5。 “可解釋性和可解釋性: 鼓勵算法系統的管理人員提供有關所採用算法遵循的程序(可解釋性)和他們做出的具體決策(可解釋性)的信息。 可解釋性可能與準確性一樣重要,尤其是在公共政策背景下或任何擔心算法如何在不被承認的情況下使一個群體受益於另一個群體的環境中。 重要的是要區分解釋和事後合理化,後者不反映證據或用於得出所解釋結論的決策過程。”

6。 “可維護性: 應在其整個生命週期內收集所有算法系統健全性的證據,包括系統要求的文檔、變更的設計或實施、測試用例和結果,以及發現和修復的錯誤日誌。 適當的維護可能需要使用新的訓練數據對系統進行再訓練和/或更換所使用的模型。”

7。 “可競爭性和可審核性: 監管機構應鼓勵採用使個人和團體能夠質疑結果並尋求補救因算法知情決策而產生的不利影響的機制。 管理人員應確保記錄數據、模型、算法和決策,以便在懷疑或指控存在損害的情況下對其進行審計並複制結果。 審計策略應公開,以使個人、公共利益組織和研究人員能夠審查並提出改進建議。”

8。 “問責制和責任: 公共和私人機構應對其使用的算法做出的決定負責,即使詳細解釋這些算法如何產生結果是不可行的。 這些機構應對在其特定環境中部署的整個系統負責,而不僅僅是組成給定係統的各個部分。 當檢測到自動化系統中的問題時,負責部署這些系統的組織應該記錄他們將採取的具體行動來解決問題,以及在什麼情況下應該暫停或終止使用此類技術。”

9。 “限制環境影響: 應設計算法系統以報告對環境影響的估計,包括來自訓練和操作計算的碳排放。 人工智能係統的設計應確保其碳排放量在其部署環境所需的準確度範圍內是合理的。”

我相信您會仔細閱讀每一條重要的 AI 倫理準則。 請把它們放在心上。

結論

ACM 聲明中有一個微妙但同樣重要的部分,我相信許多人可能會無意中忽略了它。 讓我確保提請您注意這一點。

我指的是討論必須權衡與 AI 倫理準則相關的權衡這一令人痛苦的難題的部分。 你看,大多數人在閱讀道德 AI 原則時經常會不經意地點頭,並假設所有規則的重要性都是相同的,並且所有規則都將始終被賦予相同的尊重和價值的最佳表象。

不在現實世界中。

在遇到困難時,任何一種人工智能,即使有一點點複雜性,都會對人工智能倫理準則進行激烈的測試,以確定其中一些要素是否比其他一些原則更容易實現。 我知道你可能會大聲驚嘆所有人工智能都必須最大限度地遵守所有人工智能倫理準則,但這並不是特別現實。 如果那是你想要採取的立場,我敢說你可能需要告訴大多數或幾乎所有人工智能製造商和用戶關門大吉,完全放棄人工智能。

需要做出妥協才能讓 AI 走出大門。 話雖這麼說,我並不是提倡偷工減料違反 AI 道德規範,也不是暗示它們應該違反 AI 法律。 必須滿足一個特定的最低要求,並且目標是努力達到更高的要求。 最後,需要仔細判斷一個平衡點。 這種平衡行為必須謹慎、明確、合法地進行,並且將 AI 倫理作為一種真誠和真誠的信念(您可能想看看公司如何利用 AI 倫理委員會來嘗試並獲得這種莊嚴的方法,請參閱 這裡的鏈接).

以下是 ACM 聲明中提到的關於權衡複雜性的一些要點(引用自正式文件):

  • “解決方案應與要解決的問題相稱,即使這會影響複雜性或成本(例如,拒絕將公共視頻監控用於簡單的預測任務)。”
  • “應該考慮各種各樣的性能指標,並且可以根據應用程序領域進行不同的加權。 例如,在某些醫療保健應用中,假陰性的影響可能比假陽性嚴重得多,而在刑事司法中,假陽性的後果(例如,監禁無辜者)可能比假陰性嚴重得多。 最理想的操作系統設置很少是最準確的系統設置。”
  • “對隱私、保護商業秘密或洩露可能允許惡意行為者玩弄系統的分析的擔憂可以證明限制對合格個人的訪問是合理的,但它們不應該被用來證明限制第三方審查或免除開發人員的義務承認並修復錯誤。”
  • “透明度必須與問責制相結合,使受算法系統影響的利益相關者能夠為所造成的傷害尋求有意義的補救。 透明度不應被用來使系統合法化或將責任轉移給其他方。”
  • “當一個系統的影響很大時,一個更易於解釋的系統可能更可取。 在許多情況下,可解釋性和準確性之間沒有權衡。 然而,在某些情況下,不正確的解釋可能比沒有解釋更糟糕(例如,在衛生系統中,一種症狀可能對應於多種可能的疾病,而不僅僅是一種)。”

那些正在開發或使用人工智能的人可能不會公開意識到他們所面臨的權衡。 公司的高層領導可能會天真地認為人工智能符合所有人工智能倫理原則的最高要求。 他們要么相信這一點,因為他們對人工智能一無所知,要么他們想相信這一點,並且可能正在眨眼以便輕鬆採用人工智能。

很有可能未能實質性地和公開地面對權衡取捨最終會產生一個會產生傷害的人工智能。 這些危害反過來可能會使公司承擔潛在的大規模負債。 最重要的是,傳統法律可以承擔與人工智能相關的可能犯罪行為,以及針對這一點的新的以人工智能為重點的法律。 那些認為他們可以繞過權衡取捨或者根本沒有意識到權衡存在的人頭頂上有一大堆磚頭等待著他們(他們不可避免地會崩潰)。

現在,我將對 ACM 聲明的結論部分給出關於這個主題的最後一句話,因為我認為它在解釋這些道德 AI 準則在宏觀上旨在帶來什麼方面做得很好:

  • “上述建議側重於負責任地設計、開發和使用算法系統; 責任必須由法律和公共政策確定。 算法系統的日益強大及其在生命關鍵和後果性應用中的使用意味著在使用它們時必須非常小心。 這九項工具性原則旨在激發討論、啟動研究和開發治理方法,為廣大用戶帶來利益,同時提升可靠性、安全性和責任感。 最後,是特定的上下文定義了與所有受影響的利益相關者的代表合作的算法系統的正確設計和使用”(引自正式文件)。

正如至理名言告訴我們的那樣,千里之行始於足下。

我懇請您熟悉 AI 倫理和 AI 法律,採取任何第一步都會讓您開始,然後幫助推進這些重要的努力。 美妙之處在於,我們仍處於收集如何管理和社會應對 AI 的初級階段,因此,你正在進入底層,你的努力可以明顯地塑造你的未來和我們所有人的未來。

人工智能之旅才剛剛開始,重要的第一步仍在進行中。

來源:https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing-專業協會-the-acm/