道德 AI 雄心勃勃地希望讓 AI 自己學習道德行為,例如自動駕駛汽車中的 AI 案例

亞里士多德有句名言:教育思想而不教育心靈根本就不是教育。

你可以將這句富有洞察力的言論解讀為學習倫理和道德行為對人類至關重要。 在經典的先天與後天的爭論中,我們必須問,我們的道德觀念有多少是本能的,有多少是我們在生活中習得的。 幼兒會觀察人類同胞,並可能根據他們的所見所聞收集他們的道德基礎。 對於青少年來說也是如此。 對於思想開放的成年人來說,他們也會在經曆日常生活的過程中不斷調整和進步他們的道德思維。

當然,明確地向某人傳授道德知識也是本課程的標準。 人們必然會通過參加有關該主題的課程或參加他們感興趣的活動和實踐來了解道德方式。 道德價值觀可以被明確地識別和分享,作為幫助他人制定自己的道德結構的一種手段。 此外,道德可能巧妙地隱藏在故事或其他教學模式中,最終傳達道德行為的內容。

人類似乎就是這樣灌輸道德的。

人工智能(AI)怎麼樣?

我意識到這樣的問題可能看起來很奇怪。 我們當然希望人類能夠融入道德規範,並以某種道德準則的方式度過一生。 這是一個簡單而明顯的事實。 另一方面,機器或計算機似乎並不適合同一參考系。 你的直覺反應可能是,認為人工智能具有倫理和道德準則的體現是牽強或古怪的。

我們對人工智能所能做的最好的事情就是設計它,使其不偏離道德行為。 人工智能開發者和人工智能應用者有責任確保人工智能的設計和實施已經符合道德準則。 可以說,人工智能一開始就應該是原始的,並準備好作為一種完全符合倫理道德的發明。

你的想法肯定是正確的,人工智能係統確實應該被精心設計為完全符合道德基礎。 當最新一波人工智能係統首次發佈時,社會非常興奮,並且似乎表明我們正處於一個人工智能時代 永遠的人工智能。 人工智能將有助於解決世界上許多最具挑戰性的問題。 技術的進步被用來通過類似認知的設施來補充人類的能力,但請允許我強調,我們還沒有任何有感知的人工智能,我們也不知道是否會實現有感知的人工智能。

人工智能進入世界的混亂熱潮已經逐漸暴露出人工智能醜陋的弱點,即所謂的“人工智能”。 壞的人工智能。 有很多關於人工智能係統的頭條新聞,這些系統利用充滿偏見和不平等的算法決策(ADM)。 最重要的是,當代人工智能大部分都缺乏透明度,在解釋計算決策方面往往難以解釋,經常表現出缺乏公平性,並允許一些人通過指責人工智能來轉移人類的責任。

我在著作中廣泛討論了人工智能倫理和人工智能倫理,包括 這裡的鏈接這裡的鏈接,僅舉幾例。

怎麼會有 壞的人工智能 如果我們認為人工智能應該從一開始就應該被精心設計以避免不道德行為?

答案是多方面的。

首先,許多人工智能開發人員和人工智能公司本身對塑造人工智能以使其保持在道德界限內的重要性一無所知。 他們根本沒有註意到這個概念。 賺快錢的誘惑促使一些人繼續推進他們想要隨意創造的任何瘋狂的人工智能概念。 無需弄清楚任何道德問題。 只需構建人工智能並開始實施即可。

其次,有些人製造人工智能,美化了對道德後果的徹底認識,但他們公然淡化或在某種程度上忽視了道德人工智能的考慮。 一種常見的觀點是技術人員的經典格言:旨在快速失敗並經常失敗。 只要不斷迭代,直到事情有望得到適當解決。 令人遺憾的是,將人工智能倫理系統地、深思熟慮地納入那些快速發展的人工智能工作中的可能性很小。 我在以下網址討論了增強領導力以實現道德人工智能的必要性: 這裡的鏈接.

第三,在設計人工智能時應考慮哪些道德護欄,存在很多模糊性。 當然,現在有很多人工智能道德準則,請參閱我的報導: 這裡的鏈接,儘管這些方便的理論規則很難轉化為正在構建的給定人工智能係統的具體細節。 我已經指出,我們將慢慢看到人工智能構建工具和方法的出現,其中包括道德人工智能編碼實踐,有助於縮小抽象方面和眾所周知的橡膠與道路方面之間的差距。

第四,根據本文的重點,我們探討了人工智能的受影響案例,即使最初是在道德邊界內構建的,但隨後在使用時卻超出了假定的道德編碼參數。

我們需要把它拆開。

當今的人工智能大部分都利用機器學習 (ML) 和深度學習 (DL)。 這些是計算模式匹配技術和技術。 一般來說,這個想法是,你收集大量與人工智能應該能夠做的事情相關的數據,將這些數據輸入到所選的計算模式匹配器中,然後模式匹配在數學上嘗試找到有用的模式。 請注意,這個人工智能沒有任何感知能力(同樣,還不存在這樣的東西)。 也不涉及任何常識性推理。 這都是數學和計算。

進入機器學習/深度學習的數據可能已經充滿了偏見和不平等。 在這種情況下,計算模式匹配很可能只會模仿相同的傾向。 如果您提供的數據有利於一個種族而不是另一個種族或有利於一種性別而不是另一種性別,則模式匹配很有可能將其作為發現的模式進行鎖定。

這種鎖定的一個大問題是,我們可能很難找出這些模式是否基於數據的這一方面。 棘手而復雜的數學可能使這些發現的模式的表面化變得相當成問題。 即使測試人工智能也不一定會揭示這些趨勢,這取決於所應用的測試的範圍和深度。

因此,我們假設您已經構建了一個人工智能係統,並做了功課,首先嘗試避免使用具有預先存在偏差的數據。 接下來,一旦進行了機器學習和深度學習,您就測試了結果,看看是否以某種方式出現了任何偏見或不平等。 假設您找不到任何此類不良傾向。

總而言之,現在已經為人工智能投入使用開了綠燈。 人們將開始使用人工智能,並可能認為它在道德上是正確的。 開發商也是這麼想的。 部署人工智能的公司是這麼認為的。 走吧,我們都走。

以下是可能發生的情況。

原始數據中未發現且人工智能測試期間未發現的偏差的暗示可能會被激活。 也許這種情況很少發生。 您可能會認為,只要罕見,一切都好。 但我懷疑那些容易受到上述偏見影響的人是否願意這樣看待事情。 我敢說,人工智能係統和製定該系統的人將面臨後果,無論是在法庭上還是在開放的社會輿論法庭上。

另一種變化是俗話所說的“取一寸,抓一里”。 最初的暗示可能很小。 在人工智能的使用過程中,人工智能可能會被設計為隨著事情的發展而改變自己。 這種“學習”或“自學”是非常有用的。 人工智能不是要求人類人工智能開發人員不斷修改和調整人工智能係統,而是自行構建。 沒有延誤,沒有昂貴的勞動力等。

這種方便的自我調整的缺點是,在人工智能的使用範圍內,線索可能會變得越來越大。 雖然這種偏見可能只存在於一個狹小的角落,但現在它有了擴大的空間。 人工智能並不認為這是“錯誤的”,只是通過計算擴展了一些似乎有效的東西。

如果這讓你毛骨悚然,你就需要坐下來接受下一個變體。

假設偏見從一開始就不存在,並且我們有充分理由相信人工智能完全沒有偏見。 我們要么很幸運,要么系統地確保數據中沒有任何偏差,並且計算模式匹配不會出現任何偏差。 儘管鬆了一口氣,人工智能仍然可以在使用時進行調整。 潘多拉之門打開了,人工智能選擇在計算上傾向於在人工智能所做的任何事情中發現的偏見。

一種新發現的偏見被人工智能吞噬,但沒有人特別清楚它的發生。 哎呀,我們創造了一個怪物,一個名副其實的弗蘭肯斯坦。

如何才能防止或至少標記這種情況的出現?

一種越來越受歡迎的方法是在人工智能中構建道德收集組件。 人工智能的構建包含道德人工智能元素。 然後,當人工智能隨著時間的推移進行調整時,這些元素會觀察或監控人工智能的其餘部分。 當人工智能似乎超出了編程的道德戒律時,道德人工智能會嘗試進行這些調整或警告開發人員出現了問題。

您可以嘗試對這種道德人工智能監督能力進行編程,並希望它在人工智能使用時能夠發揮作用。

另一個有些爭議的角度是使用機器學習和深度學習將道德人工智能方面訓練到人工智能係統中。

說什麼?

是的,也許非正統的概念是,人工智能不是由人類程序員直接編碼一組人工智能道德準則,而是被塑造為嘗試“學習”它們。 回想一下,我曾簡要指出,ML/DL 的使用通常依賴於將數據輸入算法並進行計算模式匹配。 價值百萬美元的問題是我們是否可以使用相同的機制將道德價值觀灌輸到人工智能係統中。

我想你可以把這比作我在開頭所討論的人類如何意識到道德原則,儘管請不要將今天的人工智能擬人化為與人類思維相當(事實並非如此,我很快就會重複這一勸告)。 人工智能可以通過道德人工智能規則“天生”進行編程。 或者人工智能可以“學習”道德人工智能規則。 當然,你可以兩者都做,這是我在其他地方介紹過的內容,請參閱 這裡的鏈接.

花點時間思考一下這個看似令人驚訝的概念,即人工智能可能“學習”道德,因此大概會遵守道德行為。

這些研究人員以人工智能係統為例來說明其工作原理,該系統可以計算出房屋內所需的溫度:“它首先'觀察'不同家庭中人們的行為僅一周,並得出有關他們偏好的結論。 然後它使用運動檢測傳感器來確定是否有人在家。 當房子無人時,智能恆溫器進入高節能模式; 當人們在家時,恆溫器會根據他們的喜好調節溫度。 這個恆溫器顯然滿足道德機器人的兩個要求,儘管一個非常簡單。 它評估人們的偏好並將其強加於供暖和製冷系統的控制。 有人可能會問這與社會道德價值觀有什麼關係。 該恆溫器使具有不同價值觀的人能夠擁有他們喜歡的溫度設置。 家裡的住戶不需要每天進出時重置恆溫器。 這個簡單的道德機器人還減少了社區的總能源足跡”(根據 Amitai Etzioni 和 Oren Etzioni 題為“AI Assisted Ethics”的論文,卷中) 道德與信息技術).

在我進一步探討人工智能“學習”道德行為的曲折之前,我想多說一些關於人工智能的現狀。

AI 可以由以下可能的狀態組成:

1. 當今無感知的普通人工智能

2.具有人類品質的感知人工智能(我們還沒有)

3. 超級智能的 Sentient AI(超越第二點)

我將重點關注現有的狀態,即無感知的普通人工智能。 您有時可能讀到的有關道德人工智能的大部分內容都涵蓋了有感知力的人工智能,因此具有很強的推測性。 我說這是推測性的,因為沒有人能確定有感知力的人工智能將會是什麼樣子。 更超出人類品質、有感知力的人工智能領域的是大肆宣傳的超級智能人工智能。 關於這些人工智能可能如何決定奴役人類,或者可能只是消滅我們所有人,有很多科幻故事和疑慮。 這被稱為人工智能的存在風險。 有時,這種困境也被稱為人工智能的災難性風險。

一些人認為,只要我們將人工智能保留在我們今天所擁有的無感知的普通老式人工智能上,我們就可能沒問題。 假設我們無法接觸到有感知的人工智能。 想像一下,無論我們如何努力打造有感知力的人工智能,我們都無法做到這一點。 另外,為了便於討論,假設有感知力的人工智能並不是由某種神秘的自發過程產生的。

那麼,這種小口徑人工智能(這是想像中唯一可能的人工智能類型)的使用難道不安全嗎?

不是真的。

幾乎,很可能會出現相同的一般問題。 我並不是說人工智能會“思考”它想要摧毀我們的方式。 不,普通的無感知人工智能只是被置於權力地位,讓我們陷入自我毀滅的泥潭。 例如,我們將無知覺的人工智能放入大規模殺傷性武器中。 這些自主武器無法思考。 與此同時,人類並沒有完全參與其中。 結果,人工智能作為一種自主自動化的形式,最終會無意中造成災難性的結果,要么是人類的命令,要么是錯誤或錯誤,要么是植入的惡行,要么是自我調整導致事情惡化。醜陋的道路等

我認為人工智能倫理問題對於所有這三個人工智能規定的狀態都存在,即我們對無感知的普通人工智能和有感知的人工智能存在人工智能倫理問題,這些人工智能要么僅僅是人類水平,要么是達到了人類水平的延伸人工智能。廣受好評的超級智能水平。

鑑於這一發人深省的聲明,我們當然可以討論人工智能各個層面的道德問題的嚴重性和難度。 傳統的觀點是,在無感知的人工智能中,人工智能倫理困境不太難以克服,在有感知的人類同等人工智能水平上則更加困難,而在有感知的超智能人工智能階段,人工智能倫理困境確實令人頭疼。

人工智能變得越好,人工智能倫理問題就會變得越嚴重。

也許這就是不可違背的自然法則。

回到當今人工智能的焦點,試圖讓人工智能通過當代機器學習和深度學習“學習”道德行為充滿了擔憂和棘手的問題。 假設人工智能未能收集到所需的道德戒律怎麼辦? 我們如何確定它在這樣做時動搖了? 此外,人工智能係統的其他部分是否可能會推翻收集到的道德結構? 此外,如果人工智能正在即時調整,這些調整可能會削弱道德方面的影響,或者無意中完全壓倒它們。

更糟糕的是,“學習”可能會導致人工智能做出真正不道德的行為。 雖然我們認為通過促使人工智能走向道德,我們正在做正確的事情,但事實證明,人工智能反而陷入了不道德方面的模式匹配。 說到搬起石頭砸自己的腳,這絕對有可能發生。

在討論的這個關頭,我敢打賭,您希望獲得一些額外的現實世界示例,這些示例可以突出人工智能的道德“學習”如何應用於當今的人工智能(除了恆溫器示例的美味預告片)。

我很高興你問。

有一組特別且肯定很受歡迎的例子讓我很感動。 你看,作為人工智能專家(包括倫理和法律影響),我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易地理解該主題的理論性質。 生動地呈現這種人工智能道德困境的最令人回味的領域之一是基於人工智能的真正自動駕駛汽車的出現。 這將作為對該主題進行充分討論的方便用例或範例。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了人工智能能夠“學習”道德人工智能規則,如果是的話,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人為幫助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5級還沒有真正的無人駕駛汽車,我們甚至都不知道是否有可能實現這一目標,也不知道需要多長時間才能到達那裡。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

自動駕駛汽車和道德人工智能接種

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在準備深入研究自動駕駛汽車和道德人工智能的可能性,這需要令人驚訝的斷言,即我們可以讓人工智能自己“學習”道德行為。

讓我們使用一個簡單明了的例子。 一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且似乎正在安全駕駛。 起初,您每次看到自動駕駛汽車時都會特別注意。 這輛自動駕駛汽車以其包括攝像機、雷達單元、激光雷達設備等在內的電子傳感器機架而脫穎而出。 在自動駕駛汽車在您的社區周圍巡航數週後,您現在幾乎沒有註意到它。 對你而言,它只是已經繁忙的公共道路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章,請參閱我的分析 這裡這個鏈接。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。 有一天,假設您所在的城鎮或城市中的一輛自動駕駛汽車正在行駛,並遇到行人正在等待過馬路的情況。 假設行人本身沒有通行權。 人類駕駛的汽車可以超越行人,而且這樣做是完全合法的。 同樣,人工智能駕駛系統也可以合法地超越等待的行人。

決定是否停車並讓行人過馬路完全由駕駛員自行決定,無論是人類駕駛員還是人工智能駕駛系統。

我相信您已經遇到過無數次這種情況。 也許你很著急,所以沒有停下來讓行人過馬路。 還有一次,您有足夠的時間到達目的地,因此您選擇停下來讓等候的人過馬路。 您的心情和具體情況決定您將選擇做什麼。

這種情況似乎沒有什麼不尋常或令人煩惱的。

在我研究人工智能方面的問題之前,您可能有興趣知道,允許行人過馬路的自由裁量權這一特定方面已經得到了仔細研究。 研究人員發現,有時司機做出的選擇可能明顯取決於種族或性別偏見。 人類駕駛員可能會評估等待的行人,並選擇讓行人過馬路,這似乎是基於駕駛員固有的偏見。 駕駛員是否意識到他們正在這樣做是一個正在進行的研究的問題。 請參閱我的報導 這裡這個鏈接.

我為我們探索人工智能駕駛系統在人行橫道情況下的作用奠定了基礎。

人工智能的傳統編程可能需要人工智能開發人員決定始終讓人工智能駕駛系統停下來讓行人過馬路。 這似乎是道德上正確或文明的做法。 自動駕駛汽車會遵從等待的人想要過馬路的要求。

我敢說,如果你是一輛自動駕駛汽車內的乘客,而人工智能總是停下來讓所有任意等待的行人,你可能會發瘋。 您快速前往雜貨店可能會花費數倍的時間。 還要記住,我們並不是指擁有虔誠的合法通行權的行人,因為這些情況可能已經被人工智能編程為始終允許。 我們只關注酌情情況。

這種總是停下來讓隨意的行人過馬路的宣言還有更多的缺點。

那些製造和部署基於人工智能的自動駕駛汽車的公司希望人們能夠乘坐它們。 這個想法是,通過擁有自動駕駛汽車,我們可以減少每年的車禍數量,目前僅在美國,每年就有約 40,000 人死亡和 2.5 萬人受傷,請參閱我的統計數據收集: 這裡這個鏈接。 除了這一受人尊敬的社會目標之外,汽車製造商和自動駕駛技術製造商也希望從他們的人工智能產品中賺錢,這是理所當然的。

我提出這個問題是因為,如果人工智能駕駛系統做了以下事情,人們可能會決定不乘坐自動駕駛汽車: 不必要的 最終延誤行程。 任何普通人都會認為,選擇人類司機,旅程可能會更快,因此選擇人工智能自動駕駛汽車進行旅行可能會在他們的選擇列表中排在非常靠後的位置。 這反過來意味著我們不會實現所尋求的減少車禍的目標,而且製造商可能會發現他們的產品無利可圖。

考慮到這組論點,你可能會認為,當行人想要過馬路的情況發生時,人工智能永遠不應該停止。 只需對人工智能駕駛系統進行編程,使其執行嚴格合法的操作即可。 如果沒有法律要求讓行人過馬路,那麼等待的行人就倒霉了。 也許這個人應該前往一個交叉點,該交叉點確實為人工智能阻止自動駕駛汽車提供了法律依據。

你能想像對此的強烈抗議嗎?

你所在城鎮的人們逐漸發現,人工智能自動駕駛汽車永遠不會允許隨意的行人過馬路。 這該死的暴躁人工智能! 就好像人工智能對人類嗤之以鼻。 一個沒有禮貌的小子,是一個糟糕的自動化設備。 最重要的是,想像一下有記錄的行人迫切需要過馬路的情況,而人工智能根本不會停止。

與此同時,人類司機願意停下來讓那些“絕望”的人安全過馬路。

由於這種憤怒,人工智能自動駕駛汽車在您所在地的街道和小路上不再受到歡迎。 市領導頒發的許可證被撤銷。 讓那些忘恩負義的畜生離開我們的道路是我們的呼聲。

好吧,我們似乎進退兩難。 人工智能不應該總是讓任意行人過馬路(不要總是停下來)。 人工智能不應該總是阻止任意行人過馬路(不要總是快速過去)。 該怎麼辦?

顯而易見的答案是對人工智能進行編程,讓它以自由裁量的方式行事。

我請你考慮一下它應該包含的 ADM(算法決策)。 人工智能是否會嘗試檢測行人的性質,並根據識別出的特徵來決定是否停止自動駕駛汽車? 也許長相年長的人是正確的選擇。 但這是否正在形成年齡歧視呢? 等等。

也許人工智能駕駛系統被編程為在白天停止,而在夜間永不停止。 其邏輯可能是,對於自動駕駛汽車中的乘客來說,自動駕駛汽車在白天停下來,而不是在晚上的危險時間停下來,這被認為是更安全的。

這也許聽起來很明智。 部分問題在於行人的期望。 這就是我的意思。 行人會看到人工智能自動駕駛汽車在白天自行決定過馬路時停下來。 行人不知道人工智能使用什麼標準來決定停車。 一些行人的假設是人工智能總是會停下來(沒有意識到白天與夜間才是真正的決定因素)。 因此,那些相信自動駕駛汽車總會停下來的行人會抓住機會,在人工智能駕駛系統根本沒有打算停下來的時候開始過馬路(如果這樣的話,人工智能很可能會停下來)行人正在進入街道,儘管這可能很冒險,而且物理學可能會阻止人工智能沒有足夠的時間停止自動駕駛汽車,以避免撞到看似“錯誤”的行人)。

假設人工智能開發人員和在您所在城鎮組裝和部署自動駕駛汽車的公司不確定如何讓人工智能了解這一問題的最新情況。

他們決定根據從整個現場收集的數據來“訓練”人工智能。 事實證明,有很多安裝在城市的攝像頭捕捉到了整個城鎮的汽車進出情況。 該數據顯示了許多行人試圖以自行決定的方式過馬路的例子。 所有數據都被輸入機器學習和深度學習系統,以得出該管轄範圍內被認為是慣例的內容。

我們是否正在訓練人工智能去做當地道德習俗所展示的事情?

換句話說,如果某個城鎮的當地文化更傾向於停車並讓任意行人過馬路(如人類駕駛員的行為所證明的那樣),則 ML/DL 可能會根據這種模式進行計算。 然後人工智能將被訓練做同樣的事情。 在另一個極端,如果人類司機很少停下來,人工智能可能會從計算分析數據中得到“教訓”。 人工智能會像人類一樣做事。

他們的斷言是,人類的道德行為正在被數據捕獲,而人工智能將通過計算分析來灌輸同樣的道德戒律。 倫理學家通常將其描述為一種社群主義的倫理方法。 社區的共同價值觀體現在整個社區的努力中。

這可能看起來是一個花花公子的解決方案。

不幸的是,有很多陷阱。

一個可能顯而易見的問題是,人類駕駛員在選擇停車或不停車時可能已經表現出了某種形式的偏見(如前所述)。 人工智能將成為這些偏見的模仿者。 我們希望這樣嗎?

考慮另一個問題。 假設人類駕駛員不太容易接受人工智能自動駕駛汽車的運行方式。 僅僅因為人類駕駛員願意停下來,這對於自動駕駛汽車來說可能就不同了。 人工智能自動駕駛汽車可能會因為不斷地為任意行人停車而讓人類司機感到厭煩,儘管同樣的情況也發生在人類司機的手中,但這似乎並沒有打擾人類司機。

除了令人不安之外,你還可以想像人類駕駛員無意中追尾自動駕駛汽車的可能性。 如果人類駕駛員沒有預料到自動駕駛汽車會停下來等行人,並且人類駕駛的汽車正好位於自動駕駛汽車後面,那麼可能會出現嚴重的預期不匹配。 人工智能駕駛系統使自動駕駛汽車停下來。 人類駕駛員沒有預料到這個動作。 人類司機撞上了自動駕駛汽車。 隨之而來的是受傷甚至死亡。

我故意指出了對人類造成傷害的可能性。

乍一看,過馬路的行人似乎是一個微不足道的問題。 無論人工智能選擇停止或不停止,似乎都不會傷害任何人。 錯誤的! 行人有被碾壓的可能。 人類駕駛的汽車有可能撞上自動駕駛汽車。 人類駕駛汽車的駕駛員和乘客可能會受傷。 自動駕駛汽車內的乘客可能會受到傷害。 很容易預見到可能對人類造成傷害的其他排列。

結論

說到人類傷害,我會給你一些其他的東西,讓你思考這個人工智能道德難題。

一則新聞報導稱,一名男子駕駛汽車駛入十字路口,並獲得了綠燈。 另一輛有人駕駛的汽車選擇闖路口紅燈,非法且不安全地暢通無阻地駛入路口,並威脅要撞上合法行駛的汽車。

司機告訴記者,他必須選擇接受撞擊,或者他可以轉向汽車以避免被撞,但附近有行人,轉向動作可能會危及這些人。 你會怎麼辦? 你可以選擇被這輛迫在眉睫的汽車撞到,也許還能活著講述這個故事。 或者你可以嘗試避免被擊中,但同時也可能撞倒無辜的行人。

我們的大部分日常駕駛都需要做出此類道德上巨大且即時的決定。 我已經詳細討論了這個問題,並將這些生死攸關的駕駛決策與著名的或有些人說臭名昭著的電車難題聯繫起來,請參閱我的詳細闡述 這裡的鏈接.

在這種情況下,用人工智能駕駛系統取代人類駕駛員。

你想讓人工智能做什麼?

這是一個令人困惑的問題。

一種方法是對人工智能進行編程,使其嚴格執行純粹的直線行駛駕駛動作,因此甚至不會在計算上考慮其他選項,例如轉向遠離可能發生的碰撞。 我預計,自動駕駛汽車的乘客會因為發現人工智能除了承受撞擊之外沒有其他任何作用而感到不安。 你可能會面臨訴訟和騷亂。

另一種方法是嘗試對人工智能進行編程以考慮各種可能性。 那麼誰來建立 ADM 來決定人工智能駕駛系統的發展方向呢? 允許人工智能開發人員自行做出如此重大的決定似乎充滿了很多擔憂。

您可以嘗試讓人工智能從日常交通狀況收集的人類駕駛數據中“學習”。 這類似於行人過路處的困境,以及之前提出的使用組裝數據讓人工智能收集當地道德習俗的想法。 關於這一點有很多警告,例如 ML/DL 發現的模式是否合適等。

我還預先警告過,人工智能有可能收集到不道德的行為,具體取決於所涉及的道德規範。 例如,假設人工智能以某種方式採用了一種計算模式,每當另一輛車威脅要撞上自動駕駛汽車時,它總是瞄準行人。

哇,小心行人,你們將成為現成的目標。

現在是時候結束討論了,並帶著令人振奮的最後想法來結束。

您可能知道艾薩克·阿西莫夫 (Isaac Asimov) 在 1950 年提出了他的“機器人三定律”,直到今天我們仍然對這些宣布的規則著迷。 儘管這些規則似乎很容易遵守,例如人工智能係統或機器人不得傷害人類,也不允許人類受到傷害,但有許多關鍵的細微差別使這一規則變得複雜,有時甚至站不住腳,請參閱我的分析在 這裡的鏈接.

無論如何,阿西莫夫還有一件事也廣為人知,儘管不那麼出名:“永遠不要讓你的道德感妨礙你做正確的事。”

對於我們都希望設計的有道德的人工智能,我們必須記住,所灌輸的人工智能道德可能不是我們所期望的,而且人工智能仍然需要以某種方式做正確的事情。 阿西莫夫說得好。 很久以前,亞里士多德似乎也有過類似的想法。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as -自動駕駛汽車中的人工智能案例/