您的組織需要外部算法評估員的 3 個原因

薩塔·薩瑪-海塔爾

商界領袖正在從人工智能 (AI) 中榨取所有可能的價值。 畢馬威 2021 年的一項研究發現 大多數政府、工業製造、金融服務、零售、生命科學和醫療保健業務領導者表示,人工智能在他們的組織中至少具有適度的功能. 該研究還發現,一半的受訪者表示,他們的組織加快了人工智能的採用,以應對 Covid-19 大流行。 在採用人工智能的組織中,至少有一半的人表示該技術超出了預期。

人工智能算法越來越多地負責當今的各種交互和創新——從個性化 產品推薦 顧客服務 銀行的經驗 貸款決策 乃至 警方回應.

但對於它們提供的所有好處,如果沒有有效地監控和評估人工智能算法的彈性、公平性、可解釋性和完整性,它們就會帶來巨大的風險。 為了幫助企業領導者監控和評估人工智能,上面引用的研究表明, 越來越多的商業領袖希望政府監管人工智能,以允許組織投資於正確的技術和業務流程。 為了獲得必要的支持和監督,明智的做法是考慮由具有提供此類服務經驗的服務提供商提供的外部評估。 以下是三個原因。

1. 算法是“黑盒子”

人工智能算法——從數據中學習以解決問題和優化任務——使系統更智能,使它們能夠比人類更快地收集和生成洞察力。

然而,一些利益相關者認為這些算法是“黑匣子”,領先的專業服務公司畢馬威的審計董事總經理 Drew Rosen 解釋道。 具體來說,某些利益相關者可能不了解算法是如何做出某個決定的,因此可能對該決定的公平性或準確性沒有信心。

“從算法中收集的結果可能容易產生偏見和對結果的誤解,”羅森說。 “這也可能給實體帶來一些風險,因為他們利用這些結果並與公眾及其利益相關者分享[它們]。”

例如,使用錯誤數據的算法充其量是無效的,而最壞的情況是有害的。 在實踐中會是什麼樣子? 考慮一個基於 AI 的聊天機器人,它向用戶提供錯誤的帳戶信息,或者一個不准確地翻譯文本的自動語言翻譯工具。 這兩種情況都可能導致政府實體或公司以及依賴這些算法做出的決策的選民和客戶出現嚴重錯誤或誤解。

黑盒問題的另一個原因是當固有的偏見滲入人工智能模型的開發時,可能會導致有偏見的決策。 例如,信用貸方越來越多地使用人工智能來預測潛在藉款人的信用,以便做出貸款決策。 但是,當人工智能的關鍵輸入(例如潛在藉款人的信用評分)時,可能會出現風險, 有重大錯誤,導致這些人被拒絕貸款。

這凸顯了對外部評估者的需求,該評估者可以充當公正的評估者,並根據公認的標準對歷史數據的相關性和可靠性以及為算法提供動力的假設進行重點評估。

2. 利益相關者和監管機構要求透明度

2022 年,目前沒有對負責任 AI 的報告要求。 然而,羅森說,“就像管理機構如何引入 ESG [環境、社會和治理] 監管 報告某些 ESG 指標,我們看到針對負責任人工智能的額外監管報告要求只是時間問題。”

事實上,自 1 年 2023 月 XNUMX 日起,紐約市的 地方法 144 要求在使用自動化僱傭決策工具之前對其進行偏差審計。

在聯邦一級, 2020 年國家人工智能倡議法案——它建立在一個 2019年行政命令——專注於人工智能技術標準和指導。 此外, 算法問責法 可能需要對自動化決策系統和增強的關鍵決策過程進行影響評估。 而在海外, 人工智能法 已經提出,提供了一個全面的監管框架,在人工智能安全、合規、治理和可信度方面有具體目標。

隨著這些轉變,組織處於治理顯微鏡下。 算法評估員可以提供此類報告,以解決監管要求並提高利益相關者的透明度,同時避免利益相關者誤解或被誤解的風險 誤導 根據評估結果。

3. 公司受益於長期風險管理

畢馬威技術保障業務合夥人史蒂夫·卡馬拉(Steve Camara)預測,隨著實體繼續推進流程自動化、開發可增強客戶體驗的創新以及跨業務功能分佈人工智能開發,人工智能投資將繼續增長。 為了保持競爭力和盈利,組織需要有效的控制,不僅要解決人工智能的直接缺點,還要降低與人工智能驅動的業務運營相關的任何長期風險。

這就是外部評估人員作為值得信賴的精明資源介入的地方。 Camara 解釋說,隨著組織越來越多地將 AI 完整性作為業務推動者,這種夥伴關係可能不再是一種臨時服務,而是一種一致的協作。

“我們看到了一條前進的道路,需要在持續開發和實施人工智能的組織與客觀的外部評估者之間建立持續的關係,”他說。

展望接下來會發生什麼

例如,在未來,組織可能會在開發新模型、獲取新數據源、集成第三方供應商解決方案或應對新的合規性要求時更多地週期性地利用外部評估。

當強制要求額外的法規和合規要求時,外部評估人員可能能夠提供服務,以直接評估組織根據這些要求部署或使用 AI 的情況。 然後,這些評估員將最適合以清晰和一致的方式分享評估結果。

為了在利用技術的同時避免其局限性,組織必須尋求外部評估人員提供報告,然後在部署算法時可以依賴這些報告來展示更大的透明度。 從那裡,組織和利益相關者都可以更好地了解人工智能的力量及其局限性。

資料來源:https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/