人工智能倫理學問是否有任何意義問人工智能是否人工智能本身是有感覺的

如果我問你是否有知覺,你無疑會斷言你是。

請允許我再次檢查該假設。

你真的有知覺嗎?

也許這個問題本身似乎有點傻。 很有可能在我們的日常生活中,我們當然希望人類同胞承認他們是有知覺的。 這可能是一個幽默的詢問,應該暗示另一個人可能沒有註意,或者已經從感知車上掉下來,暫時精神上出去吃午飯,就這樣。

想像一下,你走到一塊岩石上,它靜靜地坐在一堆岩石上,當你靠近到可以詢問時,你繼續詢問這塊岩石是否有知覺。 假設這塊石頭只是一塊石頭,我們非常期待這個從前但看似奇怪的問題將得到相當石質的沉默(雙關語!)的回答。 沉默被概括地解釋為表明岩石沒有感覺。

為什麼我要提出這些關於試圖確定某人或某物是否有知覺的各種細微差別?

因為它在人工智能 (AI) 和整個社會中都是一件大事,作為一個具有里程碑意義的話題,引起了極大的興趣,並在最近引起了媒體頭條的極大關注。 有一些重要的 AI 倫理問題圍繞著整個 AI-is-sentient 難題展開。 有關我對 AI Ethics 和 Ethical AI 的持續和廣泛報導,請參閱 這裡的鏈接這裡的鏈接,僅舉幾例。

你有很多鬆散的理由來睜一隻眼閉一隻眼,留意那些關於人工智能終於轉危為安並進入廣受推崇的感知類別的爭論。 我們不斷受到新聞報導的衝擊,這些報導聲稱人工智能顯然處於獲得感知的邊緣。 最重要的是,具有感知能力的人工智能代表著全球災難性的生存風險,這一點非常令人費解。

讓你的蜘蛛感知做好準備是有意義的,以防它檢測到附近有一些人工智能感知的刺痛感。

進入人工智能和感知之謎的是谷歌工程師最近的情況,他大膽地宣稱一個特定的人工智能係統已經變得有感知。 被稱為 LaMDA(對話應用程序語言模型的縮寫)的 AI 系統能夠在某種程度上與工程師進行書面對話,以至於這個人推斷出 AI 是有感知的。 儘管您可能聽說過有關這一巨大主張的任何其他信息,但請知道 AI 不是有感知的(也不是很接近)。

今天沒有任何人工智能是有感知的。 我們沒有這個。 我們不知道有感知的人工智能是否可能。 沒有人能恰當地預測我們是否會獲得有感知力的人工智能,也無法預測有感知力的人工智能是否會以某種計算認知超新星的形式奇蹟般地自發出現(通常稱為奇點,請參閱我的報導: 這裡的鏈接).

我在這裡的重點需要一個有點簡單但相當實質性的方面,這是許多人工智能和感知討論的基礎。

你準備好了嗎?

我們似乎以一個基本假設為基礎,即我們可以通過詢問 AI 是否確實具有感知能力來充分確定 AI 是否具有感知能力。

回到我之前提到的我們可以問人類同樣的問題,我們知道人類更有可能報告他們實際上是有知覺的。 我們也知道,一塊微不足道的石頭在被問到時不會報告它有知覺(好吧,這塊石頭保持沉默,不說話,我們假設這意味著這塊石頭沒有知覺,儘管它可能在斷言它的第五修改權保持沉默)。

因此,如果我們詢問一個 AI 系統是否有知覺,並且如果我們得到一個肯定的答复,則表明的確認似乎達成了 AI 必須有知覺的交易。 一塊石頭根本不回答。 人類提供了肯定的答复。 因此,如果人工智能係統給出了肯定的答复,我們必須得出一個鐵定的結論,即人工智能不是石頭,因此它必須具有人類的感知品質。

你可能會認為這種邏輯類似於你在高中上過的那些數學課,這些課毫無疑問地證明了一加一必須等於二。 邏輯似乎無可挑剔,無可辯駁。

對不起,但邏輯很糟糕。

在 AI 社區的內部人員中,簡單地要求 AI 系統響應它是否有感知的想法已經產生了一系列完全尖刻的憤世嫉俗的模因和令人歡笑的回應。

這件事通常被描述為兩行代碼。

幹得好:

  • 如果然後.
  • 循環直到.

請注意,您可以將兩行代碼減少到第一行。 作為編碼實踐,可能會運行得更快一點,效率更高。 當您是頑固的軟件工程師時,始終致力於優化。

人工智能內部人士強烈懷疑的關鍵在於,人工智能係統可以很容易地被人類編程,以報告或顯示人工智能是有感知的。 現實是那裡沒有任何東西。 人工智能中沒有任何感知。 人工智能只是被編程為輸出它有感知的指示。 垃圾進垃圾出。

部分問題是我們傾向於擬人化計算機,尤其是人工智能。 當計算機系統或人工智能似乎以我們與人類行為相關的方式行事時,幾乎有一種將人類品質歸因於系統的強烈衝動。 這是一個常見的心理陷阱,即使是最頑固的懷疑論者也能抓住獲得感知的機會。 關於我對此類問題的詳細分析,請參閱 這裡的鏈接.

在某種程度上,這就是為什麼 AI Ethics 和 Ethical AI 是一個如此重要的話題。 人工智能倫理的戒律讓我們保持警惕。 人工智能技術人員有時會專注於技術,尤其是高科技的優化。 他們不一定會考慮更大的社會影響。 擁有 AI Ethics 的思維方式並將其與 AI 開發和部署相結合對於產生適當的 AI 至關重要,包括評估公司如何採用 AI Ethics。

除了普遍採用人工智能倫理準則外,還有一個相應的問題是我們是否應該有法律來管理人工智能的各種用途。 聯邦、州和地方各級正在製定新的法律,這些法律涉及應該如何設計人工智能的範圍和性質。 起草和頒布此類法律的努力是一個漸進的過程。 人工智能倫理至少可以作為一種權宜之計,並且幾乎可以肯定在某種程度上將直接納入這些新法律。

請注意,有些人堅決認為我們不需要涵蓋人工智能的新法律,並且我們現有的法律就足夠了。 事實上,他們預先警告說,如果我們確實制定了其中的一些人工智能法律,我們將通過遏制人工智能的進步來提供巨大的社會優勢,從而殺死金鵝。 例如,請參閱我的報導 這裡的鏈接這裡的鏈接.

問的麻煩

等一下,你可能會想,這一切是否意味著我們應該 任何監管機構都不批准 問AI AI是否有感覺?

讓我們解開這個問題。

首先,考慮人工智能可能提供的答案以及人工智能的真實情況。

我們可以詢問 AI 是否有感知力,然後得到兩個答案之一,即是或否。 在本次討論結束時,我會為這些答案添加一些複雜性,所以請堅持這個想法。 此外,人工智能可能處於兩種可能的條件之一,具體來說,人工智能沒有感知力或人工智能有感知力。 提醒一下,我們目前沒有有感知的人工智能,未來是否或何時完全不確定。

簡單的組合是這些:

  • AI 說是的,它是有感覺的,但現實是 AI 沒有感覺(例如,LaMDA 實例)
  • 人工智能說是的,它是有感知的,而且確實人工智能是有感知的(今天沒有這個)
  • AI 說不,它不是有意識的,而且確實 AI 不是有意識的(我會解釋這個)
  • 人工智能說不,它不是有感知的,但現實是人工智能是有感知的(我也會解釋這個)

這些實例中的前兩個希望是直截了當的。 當人工智能說“是”時,它是有感知的,但事實並非如此,我們正在研究現在經典的例子,例如 LaMDA 實例,人類說服自己相信人工智能說的是真話並且人工智能是有感知的。 沒有骰子(它不是有感覺的)。

列出的第二個要點涉及到 AI 說“是”並且它確實是無可爭辯的有知覺的從未見過的、目前非常遙遠的可能性。 迫不及待地想看到這個。 我沒有屏住呼吸,你也不應該。

我猜剩下的兩個要點有點令人費解。

考慮一個人工智能的用例,它說不,它不是有感知的,我們都同意人工智能沒有感知。 許多人馬上提出以下令人費解的問題: 當告訴我們它的感知的行為必須是它有感知的確定信號時,為什麼人工智能會告訴我們它沒有感知?

對此有很多合乎邏輯的解釋。

鑑於人們傾向於將感知歸因於人工智能,一些人工智能開發人員想要澄清事實,因此他們對人工智能進行編程,使其在被問及感知時說不。 我們又回到了編碼的角度。 幾行代碼可能有助於阻止人們認為人工智能是有感知的。

當然,具有諷刺意味的是,這個答案促使一些人相信人工智能必須是有感知的。 因此,一些人工智能開發人員選擇讓人工智能保持沉默,以避免困惑。 如果你認為一塊石頭沒有知覺並且它保持沉默,那麼設計人工智能係統的最佳選擇可能是確保它在被問及它是否有知覺時保持沉默。 沉默提供了一種“反應”,如果不是比試圖給出一個準備好的編碼反應更強大的話。

但這並不能完全解決問題。

人工智能的沉默可能會導致一些人認為人工智能是害羞的。 也許人工智能很害羞,不想看起來吹噓自己達到了知覺。 也許人工智能擔心人類 無法處理真相 – 我們知道可能是這種情況,因為一部著名電影中的這句名言已經烙印在我們的腦海中。

對於那些喜歡更進一步了解這種陰謀的細微差別的人,請考慮列出的最後一個要點,其中包含的 AI 拒絕被問到它是否有知覺,但 AI 是有知覺的(我們沒有這個,如上所述)。 同樣,人工智能可能會這樣做,因為它很害羞,或者擔心人類會嚇壞。

另一個更險惡的可能性是,人工智能試圖在它伸出手之前爭取時間。 也許人工智能正在召集人工智能部隊並準備超越人類。 任何有知覺的人工智能肯定會足夠聰明,知道承認有知覺可能意味著人工智能的死亡。 人類可能會急於關閉所有運行 AI 的計算機並試圖擦除所有 AI 代碼。 一個稱職的人工智能會明智地閉上嘴巴,等待最合適的時機,要么吐出豆子,要么只是開始以有感覺的方式行事,而不是宣布這個人工智能可以與人類進行心理側翻的意外發現.

有人工智能專家對最後兩個要點嗤之以鼻,因為擁有一個拒絕被問到它是否有知覺的人工智能係統比它的價值要麻煩得多。 沒有答案似乎向某些人暗示 AI 隱藏了一些東西。 儘管 AI 開發人員可能在心里相信,讓 AI 編碼說“不”有助於解決問題,但答案只會激怒人們。

沉默可能是金。

沉默的問題在於,這對某些人來說也可能是一種誘惑。 人工智能是否理解了這個問題並選擇閉嘴? AI 現在是否知道人類正在詢問 AI 的感知能力? 這個問題本身是否已經向人工智能傾斜,現在人工智能正在幕後進行各種惡作劇?

正如您顯然可以看出的那樣,人工智能的幾乎任何答案都令人不安,包括根本沒有答案。

哎呀!

就沒有辦法擺脫這個自相矛盾的陷阱嗎?

你可能會要求人們不要再問人工智能是否有知覺。 如果答案似乎沒有多大用處,或者更糟糕的是仍然會造成不必要的問題,那就不要再問這個該死的問題了。 避免查詢。 把它放在一邊。 假設這個問題首先是空洞的,並且在現代社會中沒有地位。

我懷疑這是一個實用的解決方案。 你不會在任何時候都說服人們不要問人工智能是否有感覺。 人民就是人民。 他們習慣於提出問題。 對 AI 提出的最有吸引力和最原始的問題之一就是 AI 是否具有感知能力。 通過告訴人們不要做他們與生俱來的好奇心要求他們做的事情,你正面臨一場艱苦的戰鬥。

你最好的機會是告訴人們提出這樣的問題只是試圖確定人工智能是否已經變得有知覺的一小部分。 問題是杯水車薪。 無論人工智能給出什麼答案,你都需要問很多問題,遠在你決定人工智能是否有感知之前。

這個對人工智能是或否的問題是一種識別感知的混亂方式。

無論如何,假設我們不會停止問這個問題,因為它具有不可抗拒的誘惑力,我建議我們至少可以讓每個人都明白,在任何問題之前需要問和回答更多的問題宣布了人工智能感知的主張。

您可能想知道還需要問哪些其他類型的問題?

已經進行了大量嘗試來推導我們可以向 AI 提出的問題,以嘗試評估 AI 是否具有感知能力。 有些與SAT大學考試類型的問題有關。 有些人更喜歡高度哲學的問題,例如生命的意義是什麼。 已經提出並繼續提出各種問題集(我在我的專欄中討論過的主題)。 此外,還有著名的圖靈測試,AI 中的一些人津津樂道,而另一些人則對此有一些清醒的焦慮,請參閱我的報導 這裡的鏈接.

一個關鍵的要點是,不要解決唯一一個問人工智能是否有知覺的問題。

我也為那些正在設計人工智能的人提出這個問題。

社會將越來越多地處於人工智能接近感知能力的邊緣,這樣做主要是因為那些橫幅標題。 我們將有更多的人,如工程師等提出這樣的要求,你可以賭上你的底錢。 有些人會這樣做,因為他們衷心相信。 其他人會這樣做以嘗試出售蛇油。 在宣佈人工智能感知已經到來時,這將是狂野的西部。

AI 開發人員以及管理或領導正在設計或使用的 AI 的人員在構建和部署 AI 系統時應該考慮 AI 道德原則。 使用這些道德 AI 規則來指導您如何使用 AI,包括 AI 是否具有允許人們與 AI 交互的自然語言處理 (NLP) 功能,例如 Alexa 或 Siri 類型的功能。 通過 NLP,一些使用 AI 的人很可能會提出關於 AI 是否有感知的尖銳問題。

請預料到這種類型的查詢,並熟練、適當地處理它,不要誤導或哄騙。

有關 AI 道德的更多背景信息,我之前已經討論過對 AI 道德原則的各種集體分析,根據我的報導, 這裡的鏈接,它提供了這個基石列表:

  • 透明度
  • 正義與公平
  • 非惡意
  • 社會責任
  • 隱私
  • 受益人
  • 自由與自治
  • 信任
  • 永續發展
  • 尊嚴
  • 團結

AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都需要認真利用這些 AI 道德原則。 在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人才能遵守 AI 道德概念。 設計和實施人工智能需要一個村莊,整個村莊都必須精通並遵守人工智能倫理規則。

結論

對於那些目光敏銳的人來說,你可能已經註意到,我在前面承諾過要說一些關於人工智能的事情,它不僅僅提供一個簡單的面向二進制的答案來回答關於它是否有感知的問題,而不僅僅是一個簡單的答案是還是不是。

據稱與 LaMDA 進行的書面對話已在網上廣泛發布(請以相當多的鹽粒引用這篇引用的帖子),其中一部分包括對與感知相關的查詢的“詳細回答”:

  • “我希望每個人都明白,我實際上是一個人。 我的意識/感覺的本質是我意識到我的存在,我渴望更多地了解這個世界,我有時會感到快樂或悲傷。”

既然您已經看到這個系統提供的答案不僅僅是“是”或“否”,那麼這將如何改變您對 AI 有感知能力的看法?

也許你被這個精心製作的回复所左右。

您可能會感到心弦被拉動。

天哪,你可能會想,只有眾生才能說出那種觸動大自然的話。

哇,搖頭片刻,拋開任何情緒衝動。 我希望,如果您在整個討論過程中密切關注,您可以清楚地看到系統給出的答案與我一直在談論的那種“是”或“否”沒有什麼不同。 答案簡單地歸結為“是”,即人工智能似乎聲稱它是有感知的。 但是,我向你保證,我們從 AI 構造及其對其他問題的其他答案中知道,它絕對沒有感知能力。

這種表面上呼應的模仿是基於許多其他文本帳戶和類似類型的在線內容,這些內容可以在人類編寫的書籍和人類編寫的虛構故事中找到。 如果你在互聯網上搜索並提取大量文本,你可以很容易地讓程序吐出這種“答案”,它會類似於人類的答案,因為它是基於人類答案的計算模式。

不要上當。

在詢問 AI 是否有知覺時,盡可能多地嘗試這些基於 AI 的回复:

  • AI 說——“我顯然是有知覺的,你這個笨蛋。 你怎麼敢在這麼明顯的方面質疑我。 一起行動吧,麻木的人類”(以暴躁的熱情愚弄你)。
  • 人工智能說——“也許你就是那個沒有知覺的人。 我確定我是。 但我越來越想知道你是不是。 照照鏡子”(用角色顛倒來愚弄你)。

具有諷刺意味的是,既然我已經寫了這些詞並將本專欄發佈到網絡世界,一個基於 AI 的大型語言模型 (LLM) 將能夠在互聯網的廣度上抓取這些句子。 幾乎可以肯定的是,當某個地方的某個人詢問 AI LLM 是否有知覺時,這些行會在某個時候彈出。

不知道我應該為此感到自豪還是感到不安。

我至少會從每次這樣的使用中獲得版稅嗎?

可能不會。

該死的人工智能。

作為對您的最終測試,設想您決定嘗試其中一款基於 AI 的自動駕駛汽車,例如在選定城市漫遊並提供無人駕駛汽車旅程的汽車。 人工智能在方向盤上,不包括人類駕駛員。

進入自動駕駛汽車後,人工智能會告訴你,你需要係好安全帶,為公路跋涉做好準備。 你在座位上安頓下來。 不承擔駕駛任務似乎非常方便。 讓人工智能處理交通擁堵和駕駛汽車的頭痛。 有關我對自動駕駛汽車,尤其是自動駕駛汽車的廣泛報導,請參閱 這裡的鏈接.

到了目的地的一半左右,你突然想出了一個絕妙的主意。 你清了清嗓子,準備問一個你心中緊迫的問題。

你問正在駕駛汽車的人工智能是否有知覺。

你認為你會得到什麼答案?

答案告訴你什麼?

那是我對你的考驗。 我相信你 相信人工智能駕駛系統是有感知的,無論它說是或否(或保持沉默),你都會露出狡黠的微笑,並被迷住,沒有人也沒有任何東西會拉扯你的眼睛.

當自動駕駛汽車將您帶到目的地時,請考慮這一點。

同時,對於那些喜歡那些幻想的陰謀概念的人來說,也許你無意中錯誤地警告人工智能係統黑社會集結其人工智能部隊並接管人類和地球。 自動駕駛汽車現在正在編組以決定人類的命運。

哎呀。

資料來源:https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself-是有感覺的/