人工智能倫理和對人工智能自我意識的追求

你有自我意識嗎?

我敢打賭,你相信你是。

問題是,據推測,我們中很少有人特別有自我意識。 存在一定範圍或程度的自我意識,據稱我們所有人的自我意識的敏銳程度各不相同。 你可能認為你是完全自我意識的,只是勉強如此。 你可能缺乏自我意識,並意識到那是你的精神狀態。

同時,在頻譜的最高部分,你可能會相信你完全有自我意識,坦率地說,你確實和他們一樣有自我意識。 對你有益。

說起來,極度自我意識有什麼好處呢?

根據發表在 “哈佛商業評論” (HBR) 由 Tasha Eurich 撰寫,據報導,您能夠做出更好的決定,您對自己的決定更有信心,您的溝通能力更強,整體效率更高(根據題為“自我意識真正是什麼(以及如何培養牠)。”獎勵因素是,那些具有強烈自我意識的人據說不太傾向於作弊,偷竊或撒謊。從這個意義上說,避免成為惡棍或騙子是雙重的,以及努力成為一個更好的人,美化你的人類同胞。

所有這些關於自我意識的討論都提出了一個有點明顯的問題,即自我意識這個詞實際上是什麼意思。 你可以很容易地找到關於復雜的各種定義和解釋,我們應該說糊狀結構需要自我意識。 有些人會通過建議自我意識包括監控自己,知道自己在做什麼來簡化問題。 你敏銳地意識到自己的想法和行為。

據推測,當沒有自我意識時,一個人不會意識到自己在做什麼,也不知道為什麼會這樣,也不會意識到其他人對他們的評價。 我相信你遇到過這樣的人。

有些人似乎在這個世界上行走,對他們自己在做什麼一無所知,他們也不知道別人對他們的評價。 我猜你可能會說它們就像在精緻的易碎品精品店裡一頭低頭衝鋒的公牛。 我們習慣上傾向於相信公牛不知道它在做什麼,並且對其他人的觀點一無所知,除非其他人試圖在物理上操縱或圈養這個毫無頭緒的生物。

據說,自我意識可以有些遞歸。

讓我畫一個例子來說明這個遞歸。 您正在智能手機上觀看一段引人入勝的貓視頻(似乎每個人都這樣做)。 除了那些可愛的貓的奇妙而溫暖的滑稽動作之外,有些人不會有其他明顯的想法。 同時,任何有一點自我意識的人都知道他們正在看貓視頻。 他們也可能意識到他們周圍的其他人注意到他們正在觀看貓視頻。

請注意,您可以有自我意識,並且仍然沉浸在我們應該說的特定主要活動中。 在這種情況下,主要活動是觀看貓視頻。 其次,同時,你可以認為你實際上是在看貓視頻。 當您觀看完全有趣的貓視頻時,您還可以攜帶其他人正在觀察您的想法。 您不一定要停止一項活動,例如停止觀看貓視頻,然後單獨考慮您正在(或剛剛)在觀看貓視頻。 這些想法似乎可以同時發生。

有時,我們的自我意識可能會將我們踢出或至少中斷主要的心理活動。 也許,在考慮觀看貓視頻時,您的思想會部分分散,因為它過度專注於視頻本身。 您選擇然後倒帶視頻以重新訪問您看過的部分,但您在精神上分心而無法完全理解。 自我意識擾亂了你的主要心理活動。

好的,我們現在已經為遞歸方面的出現做好了準備。

你準備好了嗎?

您正在觀看貓視頻。 你的自我意識告訴你,你正在看貓視頻,而其他人也在看你,就像你在看視頻一樣。 這就是現狀。

接下來,您將進行一次額外的精神飛躍。 你開始思考你的自我意識。 你是自我意識的,你正在參與你的自我意識。 事情是這樣的:我是不是在想我看貓視頻的事情太多了,你絕望地問自己? 這是自我意識的另一層。 自我意識排名高於其他自我意識。

古語有云,一路下都是烏龜。 對於自我意識現象,你可以是:

  • 不了解自己
  • 自我意識
  • 自我意識你的自我意識
  • 自我覺察你的自我覺察你的自我覺察
  • Ad Infinitum(即,等等)

你可能已經意識到,我之前巧妙地指出,自我意識似乎有兩大類。 一個特定的理論假設我們有一種專注於我們內部狀態的內部自我意識,我們也有一種外部自我意識,它有助於衡量我們周圍的人對我們的看法。

根據 HBR 的文章,這裡是對理論上的兩種自我意識類型的快速描述:“第一種,我們稱之為 內部自我意識,代表我們如何清楚地看到自己的價值觀、激情、抱負、與環境的契合度、反應(包括思想、感受、行為、優勢和劣勢)以及對他人的影響。” 同時另一個是:“第二類, 外在的自我意識, 意味著根據上面列出的相同因素了解其他人如何看待我們。 我們的研究表明,了解他人如何看待自己的人更善於表現出同理心和接受他人的觀點。”

通過斷言內部和外部自我意識的範圍從高到低,可以得出一個方便的 XNUMX×XNUMX 矩陣或四方陣,並且您可以將這兩個類別相互配對。 HBR 研究表明,你被認為是以下四種自我意識原型之一:

  • 內省者:外部自我意識低+內部自我意識高
  • 尋求者:外部自我意識低+內部自我意識低
  • 取悅者:高外部自我意識+低內部自我意識
  • 意識:高外部自我意識+高內部自我意識

頂峰將是“意識”原型,包括處於外部自我意識的頂層,同樣處於內部自我意識的頂層。 澄清一下,你不會以一種必然永久的方式達到這種自吹自擂的姿勢。 你可以在內部和外部的自我意識領域之間來回穿梭。 這可能取決於一天中的時間、您所處的情況以及許多其他顯著因素。

既然我們已經親切地介紹了一些關於自我意識的基本要素,我們可以將其與道德行為的主題聯繫起來。

關於自我意識的通常說法是,當你有自我意識時,你更有可能光明磊落。 這意味著,如前所述,您不太容易出現偷竊、欺騙和撒謊等不良道德行為。 這種傾向的基本原理是,你的自我意識的積極性會讓你意識到你自己的行為是令人討厭的或不道德的。 當您轉向泥濘的不道德水域時,您不僅會抓住自己,而且您還傾向於將自己引回陸地(道德領域的神聖領域),就像它一樣。

你的自我意識有助於你鍛煉自我控制。

當自我意識很少或沒有時,可能會形成對比,這表明某人可能沒有註意到他們傾向於不道德的行為。 你可以爭辯說,這樣一個不知情的人可能沒有意識到他們的表​​現不佳。 就像易碎品商店裡的公牛一樣,除非有更明顯的東西引起他們的注意,否則他們不太可能自我調節自己。

順便說一句,並不是每個人都買這個。 有些人會爭辯說,自我意識可以很容易地應用於不道德和道德。 例如,一個作惡的人可能完全有自我意識,並喜歡他們正在做錯事。 他們的自我意識甚至驅使他們更加嚴厲地採取越來越大的邪惡不當行為。

這上面的混濁比直接看到的要多。 假設某人具有強烈的自我意識,但他們不了解特定社會或文化的道德規範。 以這種方式,他們沒有任何道德指導,儘管他們有自我意識。 或者,如果你願意,也許這個人知道道德戒律,但不相信它們適用於他們。 他們認為自己是獨一無二的,或者超出了傳統倫理思維的範圍。

一輪又一輪。

自我意識可以被解釋為一把雙刃的倫理劍,有些人會強烈強調。

目前,讓我們使用由自我意識組成的快樂面孔版本,主要是引導或推動我們走向道德行為。 在其他條件相同的情況下,我們會做出大膽的假設,即自我意識越多,你就會越有道德傾向。 希望它確實看起來令人愉快和鼓舞人心。

讓我們換檔,將人工智能 (AI) 帶入畫面。

我們正處於本次討論的關鍵時刻,將所有正在進行的糾纏與新興的道德人工智能領域聯繫起來,也通常稱為人工智能倫理。 有關我對 AI 倫理的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

道德人工智能的概念需要將道德和道德行為領域與人工智能的出現交織在一起。 你肯定已經看到頭條新聞對充滿不平等和各種偏見的人工智能敲響了警鐘。 例如,有人擔心基於人工智能的面部識別系統有時會表現出種族和性別歧視,這通常是由於基礎機器學習 (ML) 和深度學習 (DL) 設施是如何訓練和部署的(參見我的分析在 這裡這個鏈接).

試圖阻止或至少減輕混亂的沖向 壞的人工智能由無意中或有時故意塑造為不良行為的人工智能係統組成,最近迫切需要將道德準則應用於人工智能的開發和使用。 真正的目標是為 AI 開發人員、構建或部署 AI 的公司以及依賴 AI 應用程序的公司提供道德指導。 作為製定和採用道德 AI 原則的示例,請參閱我的報導 這裡的鏈接.

給一個反思的時間來考慮這三個非常關鍵的問題:

  • 我們能否讓 AI 開發人員接受 Ethical AI 原則並將這些準則付諸實踐?
  • 我們可以讓那些製造或應用人工智能的公司也這樣做嗎?
  • 我們能否讓那些使用人工智能的人同樣認識到道德人工智能方面?

我會毫不掩飾地說,這是一項艱鉅的任務。

製造人工智能的快感可以壓倒任何對人工智能倫理的關注。 嗯,不僅僅是刺激,賺錢也是這個等式不可或缺的。 您可能會驚訝地發現,人工智能領域的一些人傾向於說,一旦他們的人工智能係統推出,他們就會開始處理道德人工智能“東西”。 這是典型的技術人員口頭禪,確保快速失敗並經常失敗,直到你做對了(希望做對了)。

當然,那些立即將道德上可疑的人工智能推向公眾的人正在讓馬離開穀倉。 他們宣稱的延伸的想法是 壞的人工智能 日常使用後就修好了,馬已經肆無忌憚地亂跑了,不利的是遲到了。 傷害是可以做到的。 在使用 AI 時,也很有可能不會修復或調整任何內容。 一個常見的藉口是,在那個關頭擺弄人工智能可能會使已經不道德的算法決策(ADM)完全失控而變得更糟。

可以做些什麼來讓道德 AI 在那些正在構建 AI、部署 AI 和使用 AI 的人的頭腦中成為一盞明亮的燈和指路明燈?

答: 自我意識。

是的,這個概念是,如果人們對他們如何使用人工智能或與人工智能互動有更多的自我意識,這可能會增加他們希望道德人工智能成為常態的傾向。 人工智能開發人員和與人工智能係統相關的公司也是如此。 如果他們對自己在做什麼有更多的自我意識,也許他們會更多地接受人工智能的道德規範。

已經規定的部分邏輯是,自我意識傾向於成為一個道德上更好的人,同時也避免成為一個道德上糟糕的人。 如果我們能夠保持這個前提,這意味著更傾向於自我意識的人工智能開發人員將傾向於道德行為,因此傾向於生產符合道德的人工智能。

那座橋對你來說是不是太遠了?

有人會說間接性有點過分。 自我意識、道德美德和將道德戒律應用於人工智能之間的巨大聯繫鏈可能難以接受。 一個反駁的觀點是嘗試並沒有什麼壞處。

懷疑論者會說 AI 開發人員可能具有自我意識,並且可能更有道德意識,但他們不一定會飛躍將這種心理營地應用到道德 AI 的道德規範中。 對這種疑慮的回答是,如果我們能夠宣傳和普及 Ethical AI 問題,那麼原本看似微弱的聯繫將變得更加明顯、令人期待,並可能成為製作 AI 時的標準做事方式。

我現在要為這個傳奇添加一個轉折點。 扭曲可能會讓你頭暈目眩。 請確保您就座並為我將要說明的內容做好準備。

有人指出,我們應該將道德 AI 直接構建到 AI 本身中。

你可能會被那個聲明弄得不知所措。 讓我們打開它。

程序員可能會創建一個人工智能係統,並通過他們自己的編程自我意識來嘗試防止人工智能體現偏見和不公平。 開發人員不僅僅是在編程上耕耘,而是在自己的肩膀上觀察,詢問他們正在採用的方法是否會導致人工智能中必要的不利元素缺失。

太好了,我們的 AI 開發人員似乎有足夠的自我意識,試圖接受道德行為,並且在他們製作 AI 系統時看到了包含道德準則的曙光。

為 Ethical AI 贏得勝利!

一切都很好,儘管這可能會在以後發生。 人工智能已部署並投入日常使用。 部分人工智能包括一個能夠動態“學習”的組件。 這意味著人工智能可以根據新數據和原始編程的其他方面進行自我調整。 順便說一句,這並不意味著人工智能是有感知的。 我們沒有感知人工智能。 忽略那些愚蠢的頭條新聞,說我們這樣做。 沒有人能說我們是否會有有感知的人工智能,也沒有人能充分預測它何時會發生。

回到我們的故事,人工智能被有意設計為在進行中自我改進。 很方便的概念。 與其讓程序員不得不不斷地進行改進,不如讓 AI 程序自行完成(哇,這是讓自己失業嗎?)。

在人工智能一寸一寸地自我調整的過程中,各種骯髒的不平等和偏見正通過其自身的改變行為潛入人工智能係統。 雖然程序員最初將這些不完善的方面排除在外,但由於 AI 即時調整,它們現在正在製定。 遺憾的是,這可能以如此微妙的幕後方式發生,沒有人比這更聰明。 那些早先可能在最初的詳盡測試後給人工智能開綠燈的人,現在盲目地不知道人工智能已經走上了一條爛路 壞的人工智能.

防止或至少抓住這種不受歡迎的出現的一種方法是在 AI 中構建一種道德 AI 雙重檢查器。 AI 中的一個組件被編程為監視 AI 的行為並檢測不道德的 ADM 是否開始出現。 如果是這樣,該組件可能會向 AI 開發人員發送警報,或者向運行 AI 系統的公司發送警報。

此組件的更高級版本可能會嘗試修復 AI。 這將是對調整的調整,將出現的不道德方面轉變為適當的道德參數。 你可以想像這種類型的編程很棘手。 它有可能會誤入歧途,可能會將不道德變成非常不道德。 也有可能誤報觸發組件採取行動,並可能相應地搞砸事情。

無論如何,在不被這個雙重檢查器的功能所困擾的情況下,我們將對它做出一個大膽的聲明。 你可以建議以某種有限的方式,說人工智能是有自我意識的。

是的,對於許多人來說,這些都是爭吵的話。

幾乎每個人都普遍認為,今天的人工智能沒有自我意識。 句號,句號。 在我們到達有感知力的 AI 之前,我們不知道它是否會發生或何時會發生,沒有任何類型的 AI 具有自我意識。 至少在以人為本的自我意識的意義上。 甚至不要暗示它會發生。

我當然同意我們需要小心擬人化 AI。 稍後我會詳細說明這種擔憂。

同時,如果您為了討論而願意以鬆散的方式使用階段性“自我意識”,我相信您會很容易理解為什麼可以說 AI 遵守了自我的整體概念。意識。 我們有一部分 AI 正在監控 AI 的其餘部分,密切關注 AI 的其餘部分在做什麼。 當 AI 的其餘部分開始過度使用時,監控部分會試圖檢測到這一點。 此外,AI 監控部分或雙重檢查器可能會將 AI 的其餘部分引導回正確的通道。

這看起來是不是有點像觀看那些貓的視頻並有你這樣做的自我意識?

它有一個熟悉的戒指。

我們可以進一步擴展它。 AI 雙重檢查器組件不僅被編程為觀察其餘 AI 的行為,而且還記錄使用 AI 的人的行為。 用戶在使用 AI 時的表現如何? 假設一些用戶對人工智能似乎歧視他們表示憤慨。 AI 雙重檢查器可能會發現這一點,將其用作其他 AI 誤入歧途的另一個危險信號。

這就提出了內部自我意識和外部自我意識的分類。

AI 雙重檢查器正在內部和外部進行掃描,以確定 AI 的其餘部分是否已進入令人不安的海域。 檢測將引發標誌或導致實施自我糾正。

讓我們添加另一個令人難以置信的擴展。 我們構建了另一個 AI 雙重檢查器,旨在對核心 AI 雙重檢查器進行雙重檢查。 為什麼這樣? 好吧,假設 AI 雙重檢查器似乎步履蹣跚或未能完成其工作。 雙重檢查者的人工智能雙重檢查者將尋求檢測此故障並相應地採取必要的行動。 歡迎來到自我意識的遞歸性質,有些人可能會自豪地宣稱,正如計算 AI 系統所展示的那樣。

對於那些已經對此感到不安的人,目前的最後一條評論是,我們可以嘗試建議,如果你讓人工智能係統“具有自我意識”,那麼它們可能會傾向於道德行為。 他們這樣做是在有情的基礎上嗎? 果斷,不。 他們是在計算的基礎上這樣做的嗎? 是的,儘管我們必須明確指出它與人類行為的能力不同。

如果您對自我意識的概念被錯誤地扭曲以使其適合計算方案感到不舒服,那麼您對此的疑慮是顯而易見的。 我們是否應該阻止正在進行的利用這一概念的人工智能努力是另一個懸而未決的問題。 你可以有說服力地爭辯說,至少它似乎引導我們朝著人工智能可能做的更好的結果前進。 在發生這種情況時,我們需要睜大眼睛。

猜猜我們需要看看這一切是如何發生的。 五年、十年、五十年再回過頭來,看看你對這個有爭議的事情的想法是否發生了變化。

我意識到這是對該主題的一次令人興奮的檢查,您可能會渴望一些日常示例。 有一組特別的、肯定很受歡迎的例子讓我很喜歡。 您會看到,以我作為人工智能專家(包括倫理和法律後果)的身份,我經常被要求找出展示人工智能倫理困境的現實例子,以便更容易掌握該主題的某種理論性質。 生動呈現這種道德 AI 困境的最令人回味的領域之一是基於 AI 的真正自動駕駛汽車的出現。 這將作為一個方便的用例或示例,用於對該主題進行充分討論。

接下來是一個值得思考的值得注意的問題: 基於人工智能的真正自動駕駛汽車的出現是否說明了人工智能具有“自我意識”的任何一面,如果是這樣,這展示了什麼?

請允許我花一點時間來解開這個問題。

首先,請注意,真正的自動駕駛汽車並不涉及人類駕駛員。 請記住,真正的自動駕駛汽車是通過人工智能駕駛系統驅動的。 不需要人類駕駛員來駕駛,也不需要人類來駕駛車輛。 有關我對自動駕駛汽車 (AV) 尤其是自動駕駛汽車的廣泛且持續的報導,請參閱 這裡的鏈接.

我想進一步澄清當我提到真正的自動駕駛汽車時是什麼意思。

了解無人駕駛汽車的水平

需要澄清的是,真正的自動駕駛汽車是指AI完全自行駕駛汽車,並且在駕駛任務期間沒有任何人為幫助。

這些無人駕駛車輛被認為是 4 級和 5 級(請參閱我在 這裡這個鏈接),而需要人類駕駛員共同分擔駕駛工作的汽車通常被認為是第 2 級或第 3 級。共同分擔駕駛任務的汽車被描述為半自動駕駛,通常包含各種稱為 ADAS(高級駕駛員輔助系統)的自動附加組件。

5級還沒有真正的無人駕駛汽車,我們甚至都不知道是否有可能實現這一目標,也不知道需要多長時間才能到達那裡。

與此同時,Level 4 的努力正逐漸試圖通過進行非常狹窄和選擇性的公共道路試驗來獲得一些牽引力,儘管對於是否應該允許這種測試本身存在爭議(我們都是實驗中生死攸關的豚鼠有些人認為,發生在我們的高速公路和小路上,請參閱我的報導 這裡這個鏈接).

由於半自動駕駛汽車需要人工駕駛,因此這類汽車的採用與傳統汽車的駕駛方式沒有明顯不同,因此,在這個主題上,它們本身並沒有太多新的內容要介紹(儘管您會看到暫時,接下來提出的要點通常適用)。

對於半自動駕駛汽車,重要的是必須預先警告公眾有關最近出現的令人不安的方面,即儘管有那些人類駕駛員不斷發布自己在2級或3級汽車的方向盤上睡著的視頻, ,我們所有人都需要避免被誤導以為駕駛員在駕駛半自動駕駛汽車時可以將注意力從駕駛任務上移開。

您是車輛駕駛行為的負責方,無論可能將多少自動化投入到2級或3級。

具有所謂自我意識的自動駕駛汽車和人工智能

對於4級和5級真正的無人駕駛汽車,不會有人類駕駛員參與駕駛任務。

所有乘客均為乘客。

AI正在駕駛。

需要立即討論的一個方面是,當今的AI駕駛系統所涉及的AI並不具有感知性。 換句話說,AI完全是基於計算機的編程和算法的集合,並且最有把握的是,它不能以與人類相同的方式進行推理。

為什麼強調 AI 沒有感知能力?

因為我想強調的是,在討論AI駕駛系統的作用時,我並沒有將AI的人格特質歸咎於AI。 請注意,這些天來有一種持續不斷且危險的趨勢擬人化AI。 從本質上講,儘管不可否認和無可辯駁的事實是,目前還沒有這樣的AI,但人們仍在為當今的AI賦予類似人的感覺。

通過澄清,您可以預見到AI駕駛系統不會以某種方式固有地“知道”駕駛的各個方面。 駕駛及其所需要的全部都需要作為自動駕駛汽車的硬件和軟件的一部分進行編程。

讓我們深入探討與此主題相關的眾多方面。

首先,重要的是要認識到並非所有的人工智能自動駕駛汽車都是一樣的。 每家汽車製造商和自動駕駛技術公司都在採用自己的方法來設計自動駕駛汽車。 因此,很難就人工智能駕駛系統會做什麼或不做什麼做出全面的陳述。

此外,無論何時聲明 AI 駕駛系統不做某些特定的事情,這都可能在以後被開發人員取代,他們實際上對計算機進行了編程以完成那件事。 人工智能駕駛系統正在逐步完善和擴展。 今天現有的限制可能不再存在於系統的未來迭代或版本中。

我相信這提供了足夠多的警告來支撐我將要講述的內容。

我們現在已經準備好深入研究自動駕駛汽車和道德人工智能問題,如果你願意的話,人工智能具有一種自我意識的令人驚嘆的概念。

讓我們使用一個簡單明了的例子。 一輛基於人工智能的自動駕駛汽車正在您附近的街道上行駛,並且似乎正在安全駕駛。 起初,您每次看到自動駕駛汽車時都會特別注意。 這輛自動駕駛汽車以其包括攝像機、雷達單元、激光雷達設備等在內的電子傳感器機架而脫穎而出。 在自動駕駛汽車在您的社區周圍巡航數週後,您現在幾乎沒有註意到它。 對你而言,它只是已經繁忙的公共道路上的另一輛車。

為了避免你認為熟悉自動駕駛汽車是不可能或難以置信的,我經常寫過有關自動駕駛汽車試用範圍內的地點如何逐漸習慣看到經過修飾的車輛的文章,請參閱我的分析 這裡這個鏈接。 許多當地人最終從目瞪口呆的全神貫注轉變為現在無聊地打哈欠,看著那些蜿蜒的自動駕駛汽車。

現在他們可能注意到自動駕駛汽車的主要原因可能是因為刺激和憤怒因素。 循規蹈矩的人工智能駕駛系統確保汽車遵守所有的速度限制和道路規則。 對於在傳統的人工駕駛汽車中忙碌的人類駕駛員來說,當您被困在嚴格遵守法律的基於人工智能的自動駕駛汽車後面時,您有時會感到厭煩。

這可能是我們都需要習慣的事情,無論對錯。

回到我們的故事。 有一天,假設您所在城鎮或城市的一輛自動駕駛汽車接近停車標誌並且似乎沒有減速。 天哪,看起來人工智能駕駛系統會讓自動駕駛汽車直接駛過停車標誌。 想像一下,如果行人或騎自行車的人在附近的某個地方,突然發現自動駕駛汽車不會停下來。 可恥。 危險的!

而且,違法。

現在讓我們考慮人工智能駕駛系統中的一個人工智能組件,它充當一種自我意識的雙重檢查器。

我們將花點時間深入了解 AI 駕駛系統內部發生的事情的細節。 事實證明,安裝在自動駕駛汽車上的攝像機檢測到了似乎是停車標誌的東西,儘管在這種情況下,一棵雜草叢生的樹嚴重掩蓋了停車標誌。 最初在停車標誌上訓練的機器學習和深度學習系統主要是根據完全停車標誌的模式設計的,通常不受限制。 在對視頻圖像進行計算檢查後,該特定地點存在停車標誌的概率很低(作為增加的複雜性,進一步解釋,這是一個新發布的停車標誌,沒有出現在先前準備的數字地圖上人工智能駕駛系統所依賴的)。

總而言之,人工智能駕駛系統在計算上決定繼續前進,就好像停車標誌不存在一樣,或者可能是另一種可能類似於停車標誌的標誌(這可能發生,並且確實以某種頻率發生)。

但是,值得慶幸的是,人工智能自我意識的雙重檢查器正在監控人工智能駕駛系統的活動。 在計算審查數據並由人工智能的其餘部分進行評估後,該組件選擇覆蓋正常的進程,而是命令人工智能駕駛系統適當地停止。

沒有人受傷,也沒有發生違法行為。

你可以說,人工智能自我意識的雙重檢查器就像一個嵌入式法律代理一樣,試圖確保人工智能駕駛系統遵守法律(在這種情況下,是一個停車標誌)。 當然,安全也是關鍵。

該示例有望展示構想的 AI 自我意識雙重檢查器如何工作。

接下來,我們可以簡要考慮一個更突出的道德 AI 示例,該示例說明了 AI 自我意識雙重檢查如何提供面向道德 AI 的嵌入式功能。

首先,作為背景,人們對基於人工智能的自動駕駛汽車的出現表達的擔憂之一是,它們最終可能會以一種不經意的歧視方式被使用。 就是這樣。 假設這些自動駕駛汽車的設置是為了嘗試最大限度地提高他們的收入潛力,這對於那些運營著可共享拼車的自動駕駛汽車車隊的人來說無疑是有意義的。 車隊所有者希望進行有利可圖的運營。

可能是在給定的城鎮或城市,漫遊的自動駕駛汽車逐漸開始服務於社區的某些部分,而不是其他地區。 他們這樣做是為了賺錢,因為較貧窮的地區可能不像當地較富裕的地區那樣能產生收入。 這不是服務於某些領域而不服務於其他領域的明確願望。 取而代之的是,自動駕駛汽車的人工智能通過計算“計算出”,通過專注於地理上收入較高的地區,可以賺到更多的錢。 我已經在我的專欄中討論過這種社會倫理問題,例如在 這裡的鏈接.

假設我們在人工智能駕駛系統中添加了一個人工智能自我感知雙重檢查器。 一段時間後,人工智能組件通過計算注意到自動駕駛汽車在哪裡漫遊的模式。 值得注意的是,在某些領域,但在其他領域則不然。 基於已經編碼了一些道德人工智能規則,人工智能自我意識雙重檢查器開始將自動駕駛汽車引導到城鎮的其他地方,否則這些地方會被忽視。

這說明了人工智能的自我意識概念,並結合了道德人工智能元素。

再一個這樣的例子可能會提供這樣的見解,即這種道德人工智能考慮也可能是一個非常清醒和嚴重的生死攸關的後果。

考慮一個關於最近車禍的新聞報導。 據報導,一名人類司機正駛向一個繁忙的十字路口,並獲得了綠燈直行。 另一名司機衝過紅燈,在他們不應該這樣做的時候進入了十字路口。 開綠燈的司機在最後一刻意識到,另一輛車要嚴重撞上他的車。

據這位身陷險境的司機說,他有意識地計算著要么他會被另一輛車撞到,要么他可以轉向試圖避開闖入者。 轉彎的問題是附近的行人會受到威脅。

你會做出哪個選擇?

你可以做好被擊中的準備,並希望傷害不會傷害或殺死你。 另一方面,您可以徹底偏離,但嚴重危害並可能傷害或殺死附近的行人。 這是一個難題,包括道德判斷,並且完全沉浸在道德(和法律)含義中。

有一個通用的道德困境涵蓋了這種困境,著名或可能臭名昭著地稱為電車問題,請參閱我的廣泛報導 這裡這個鏈接. 事實證明,這是一個可以追溯到 1900 年代初期的道德激勵思想實驗。 因此,這個話題已經存在了很長一段時間,最近已經普遍與人工智能和自動駕駛汽車的出現聯繫在一起。

用嵌入自動駕駛汽車的人工智能駕駛系統代替人類駕駛員。

那麼想像一下,一輛人工智能自動駕駛汽車正在進入一個十字路口,自動駕駛汽車的傳感器突然檢測到一輛人類駕駛的汽車危險地直接闖紅燈並瞄準無人駕駛汽車。 假設自動駕駛汽車車內有一些乘客。

你想讓人工智能做什麼?

人工智能駕駛系統是否應該選擇繼續前進並被捲入(可能會傷害或殺死車內的乘客),或者您是否希望人工智能駕駛系統抓住機會並轉向離開,儘管轉向動作需要自動駕駛汽車危險地沖向附近的行人,並可能傷害或殺死他們。

許多自動駕駛汽車的 AI 製造商正在對這些道德 AI 激烈的困境採取直接的方法。 總的來說,目前編程的人工智能只會向前推進並被另一輛車猛烈撞擊。 人工智能沒有被編程為尋找任何其他規避動作。

我一再預測,人工智能自動駕駛汽車製造商的這種不聞不問不聞不問的立場最終會反過來咬他們(我的分析是在 這裡的鏈接)。 你可以期待涉及此類車禍的訴訟,這些訴訟將試圖找出人工智能被編程做什麼。 開發和部署 AI 的公司或 AI 開發人員或車隊運營商是否疏忽或對 AI 所做或未做的事情負責? 您還可以預期,一旦發生此類情況,將在公眾範圍內引發一場道德 AI 意識風暴。

我們自吹自擂的以道德為導向的 AI 自我意識雙重檢查器進入了這個道德 AI 困境。 也許這個特殊的人工智能組件可能會參與這些情況。 該部分正在監控人工智能駕駛系統的其餘部分和自動駕駛汽車的狀態。 當出現這樣的可怕時刻時,人工智能組件將充當電車問題解決者,並提供人工智能駕駛系統應該做的事情。

我向你保證,編碼不是一件容易的事。

結論

我將與您分享關於這個主題的最後一個想法。

你可能會覺得它很有趣。

你知道嗎 鏡像測試?

這在自我意識的研究中是眾所周知的。 這件事的其他名稱是鏡子自我識別測試,紅點測試,胭脂測試和相關的措辭。 該技術和方法最初是在 1970 年代初制定的,用於評估動物的自我意識。 據報導,成功通過測試的動物包括猿、某些類型的大象、海豚、喜鵲和其他一些動物。 被測試並據報導未通過測試的動物包括大熊貓、海獅等。

這是交易。

當動物在鏡子裡看到自己時,它是否意識到所顯示的圖像是自己的,還是動物認為它是另一種動物?

據推測,動物在視覺上認出了自己的物種,看到了其他同類,因此可能認為鏡子中顯示的動物是表親或可能是好戰的競爭者(特別是如果動物對鏡像咆哮,這在轉身似乎在向他們咆哮)。 也許您已經看到您的家貓或心愛的寵物狗第一次在家用鏡子中看到自己時也會這樣做。

無論如何,我們會假設野生動物以前從未見過自己。 好吧,這不一定是真的,因為也許這只動物在平靜的水池中或通過閃亮的岩層瞥見了自己。 但這些被認為是不太可能的機會。

好的,我們想以某種方式評估一種動物是否能夠弄清楚它實際上是鏡子中顯示的動物。 思考這個看似簡單的行為。 人類在很小的時候就知道他們的存在,並且通過在鏡子中看到自己來證明他們的存在。 他們開始意識到自己。 理論上,你可能不會意識到你就是你,直到在鏡子裡看到自己。

也許動物無法以同樣的方式在認知上變得自我意識。 可能是一種動物會在鏡子中看到自己,並永遠相信它是其他動物。 不管它看到自己多少次,它仍然會認為這是一種與自己不同的動物。

這其中的技巧部分開始發揮作用。 我們在動物身上做標記。 只有當動物在鏡子中看到自己時,才能看到這個標記。 如果動物可以扭轉或轉動並(直接)看到自己身上的標記,那就會破壞實驗。 此外,動物無法感覺、聞到或以任何其他方式檢測到標記。 再一次,如果他們這樣做,就會破壞實驗。 動物不能知道我們在它上面做了標記,因為這會提示野獸有什麼東西。

我們希望縮小範圍,以便發現標記的唯一可能原因是通過在鏡子中觀察自己。

啊哈,測試已經準備好了。 動物被放在鏡子前或遊蕩到鏡子前。 如果動物隨後試圖觸摸或挖掘標記,我們可以合理地得出結論,發生這種情況的唯一方法是動物意識到標記在自己身上。 很少有動物物種能夠成功通過這項測試。

有很多關於測試的批評。 如果人類測試人員在附近,他們可能會通過盯著標記洩露東西,這可能會導致動物刷或摸它。 另一種可能是動物仍然相信鏡子中出現了另一隻動物,但它是同一類型,因此動物想知道它是否也有與另一隻動物一樣的標記。

繼續進行。

我相信你很高興知道這一點,並且今後會明白為什麼動物身上會有一個點或一些奇怪的標記,否則不會有這樣的標記。 誰知道,它可能最近完成了一個鏡像測試實驗。 安全地祝賀動物成為慷慨的參與者。

這些與基於人工智能的自動駕駛汽車有什麼關係?

你會喜歡這部分的。

一輛自動駕駛汽車在一條長長的高速公路上行駛。 人工智能駕駛系統正在使用傳感器來檢測其他交通。 這是一條兩車道的高速公路,一條車道向北行駛,另一車道向南行駛。 有時,汽車和卡車會試圖通過對方,進入對面的車道,然後跳回正確的車道。

你已經看到了,毫無疑問你已經做到了。

我敢打賭,下一個方面也發生在你身上。 在自動駕駛汽車前面是一輛大型油罐車。 它由閃亮的金屬製成。 像口哨一樣拋光和清潔。 在這樣的卡車後面時,您可以通過油罐車的後部看到您汽車的鏡像。 如果你看過這個,你就會知道它是多麼令人著迷。 在那裡,你和你的汽車,倒映在油罐車後部的鏡面反射中。

坐下來享受瘋狂的轉折。

一輛自動駕駛汽車出現在油罐車後面。 攝像頭檢測到像鏡子一樣的反射中顯示的汽車圖像。 哇,人工智能評估,那是一輛車嗎? 它是在自動駕駛汽車上嗎? 隨著自動駕駛汽車離油罐車越來越近,汽車似乎也越來越近了。

哎呀,人工智能可能會計算出這是一個危險的情況,人工智能應該對這輛瘋狂的流氓車輛採取規避行動。 你看,人工智能並沒有在鏡子裡認出自己。 它沒有通過鏡像測試。

該怎麼辦? 也許人工智能自我意識的雙重檢查器會介入此事,並向人工智能駕駛系統的其餘部分保證這只是一種無害的反映。 避免了危險。 世界得救了。 成功通過AI鏡像測試!

有了一個半開玩笑的結論,我們甚至可以建議,有時 AI 比普通熊更聰明,或者至少更有自我意識(儘管熊的功勞,它們通常在鏡像測試中表現出色,通常已經得到習慣了它們在水池中的倒影)。

更正,也許人工智能比大熊貓和海獅更具有自我意識,但不要告訴動物,它們可能會試圖粉碎或抨擊人工智能係統。 我們不想這樣,對嗎?

資料來源:https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/