這裡有一些你可能還沒有仔細考慮過的事情: 普通電腦.
但也許你應該是。
這個令人興奮的話題出現在最近召開的非常重要的人工智能年度會議上,該會議特別關注神經網絡和機器學習的出現,即神經信息處理系統會議(內部人士稱為 神經網絡信息系統). 受邀的主講人和公認的長期 AI 大師 Geoffrey Hinton 提出了一個有趣且可能有爭議的論點,即我們應該在凡人和不朽的背景下思考計算機。
我將以兩種方式來處理這個值得注意的斷言,雖然在一些額外的說明之後,它們將變得更清楚地相互關聯,就像凡人與不朽的爭論一樣。
這兩個主題是:
1) 將硬件和軟件整合在一起以實現 AI 機械化,而不是讓它們成為截然不同的獨立盟友
2) 將機器學習公式從一個 AI 模型轉移或提煉到另一個 AI 模型,這樣做不需要也不一定希望(或者甚至可能以其他方式可行)直接進行完整的純種複制
這一切都對人工智能和未來人工智能的發展方向有著重大的考慮。
此外,還出現了許多非常棘手的人工智能倫理和人工智能法律問題。 這些類型的 AI 設想的技術進步通常在人們意識到它也可能具有值得注意的道德 AI 和 AI 法律影響之前很久就在純技術基礎上四處傳播。 從某種意義上說,通常情況下,在意識到應該給予 AI 倫理和 AI 法律盡職調查參與之前,貓已經洩露了,或者馬已經出了穀倉。
好吧,讓我們打破那個遲來的事後思考循環,進入這個循環的底層。
對於那些對 AI 倫理和 AI 法律的最新見解總體感興趣的人,您可能會發現我在 這裡的鏈接 和 這裡的鏈接,僅舉幾例。
我將首先在此處介紹有關硬件和軟件綁定在一起的上述觀點。 將同時進行對該主題的討論和分析。 接下來,我將談到復製或有人說的問題 蒸餾 機器學習 AI 系統的關鍵要素,從一個 AI 到新設計的 AI 作為目標。
讓我們開始吧。
為人工智能結合硬件和軟件
您可能知道,總的來說,計算機的設計是這樣的,即有硬件方面的東西,也有軟件方面的東西。 當您購買日常筆記本電腦或台式電腦時,它被解釋為通用計算設備。 計算機內部有微處理器,用於運行和執行您可能購買或自己編寫的軟件。
如果您的計算機沒有任何軟件,它就是一大塊金屬和塑料,除了充當鎮紙外,基本上對您沒有多大用處。 有人會說,軟件為王,統治世界。 當然,如果您沒有運行該軟件的硬件,那麼該軟件將不會發揮多大作用。 您可以隨心所欲地編寫任意多行代碼,但是在通過計算機使用該軟件之前,制定的源代碼就像優美的詩歌作品或驚心動魄的偵探小說一樣脆弱和無法飛行。
請允許我暫時切換到另一條可能看起來很遠的途徑(它不會)。
我們經常嘗試在計算機的工作方式和人腦的工作方式之間進行類比。 這種在概念上進行類比的嘗試很方便。 話雖這麼說,但您必須謹慎對待這些類比,因為當您接近具體細節時,比較往往會失敗。
不管怎樣,為了便於討論,這裡有一個經常使用的類比。
大腦本身有時被非正式地稱為 濕件. 這是一種引人入勝的措辭方式。 我們知道計算機由硬件和軟件組成,因此使用造幣的“ware”部分來描述大腦的含義是很聰明的。 依偎在我們的大腦中,發現強大而神秘的大腦四處漂浮,在心裡計算著我們所有的行為(有些是好的,而我們的一些想法顯然沒有充滿善意)。
大腦的平均重量只有三磅左右,是一個了不起的器官。 不知何故,我們還不知道如何,大腦能夠使用大約 100 億個神經元,也許還有 100 到 1,000 萬億個互連或突觸來為我們進行所有思考。 大腦的生物和化學特性如何產生智力? 沒有人可以肯定地說。 這是一個時代的追求。
我問你,大腦表面上是純硬件的,還是硬件和軟件結合的?
腦筋急轉彎的麵條。
您可能會想說大腦只是硬件(一般意義上)。 它是身體的一個器官。 同樣,您可能會說心臟是硬件,膀胱是硬件,等等。 它們都是機械化,類似於我們談論具有物理形式並執行與物理相關的動作的人工製品。
那麼運行人類的軟件在哪裡?
我敢說我們幾乎都同意人類的“軟件”以某種方式存在於大腦中。 煮雞蛋或修理漏氣輪胎所需的步驟是體現在我們大腦中的指令。 使用早期提到的硬件和軟件的計算機類比,我們的大腦可以說是一塊硬件,我們通過它了解世界,並在我們的大腦中“運行”和“存儲”要做什麼的指令。
在計算機上,我們可以很容易地指著硬件說這是硬件。 我們可以有一個源代碼列表,並將該列表指向軟件。 如今,我們以電子方式在線下載軟件並將其安裝在我們的筆記本電腦和智能手機上。 在過去,我們使用軟盤和穿孔卡來存儲我們的軟件,以便加載到計算機的硬件上。
我讓你陷入一個重要的難題。
一旦你學到了一些東西並且知識存在於你的大腦中,你還能區分大腦的“硬件”和假定的大腦“軟件”嗎?
一個爭論的立場是,你大腦中的知識與硬件和軟件的概念並沒有特別的區別。 因此,與計算機本質的類比是不成立的,有些人會激烈爭論。 大腦中的知識與大腦的硬件交織在一起,密不可分。 生物和化學特性交織著你精神上擁有的知識。
燉一下,進行一些心理反思。
如果我們希望有一天能設計出與人類智能相當,甚至超過人類智能的計算機,也許我們可以利用大腦的結構及其內部運作機制來指導我們需要做什麼才能實現這樣一個崇高的目標。 對於人工智能領域的一些人來說,人們相信我們對大腦的工作原理了解得越多,我們就越有可能設計出真正的人工智能,有時也被稱為通用人工智能 (AGI)。
人工智能領域的其他人不太熱衷於必須知道大腦是如何工作的。 他們強調,無論我們是否能夠解開大腦的秘密內部運作機制,我們都可以快速打造人工智能。 不要讓大腦的奧秘阻礙我們的 AI 努力。 當然,繼續嘗試解碼和破譯人腦,但我們不能坐等大腦被逆向工程。 如果那一天是可行的,那真是個好消息,儘管這可能是不可能的,或者從現在開始就會發生。
我現在準備和你分享凡人和不朽的計算機之爭。 請確保您坐下來準備好迎接重大揭曉。
硬件和軟件明確分離的計算機可以被稱為“不朽”,因為硬件可以永遠存在(當然在一定範圍內),而軟件可以一次又一次地編寫和重寫。 只要您可以修復硬件並保持設備能夠通電,您就可以讓傳統計算機繼續運行。 今天,您仍然可以使用 1970 年代的簡陋家用電腦,這些電腦曾經以組裝套件的形式出現,儘管它們已經有將近 XNUMX 年的歷史(很長一段時間 計算機年).
假設我們選擇製造硬件和軟件不可分割地工作的計算機(稍後我將詳細介紹)。 在我之前提到的大腦可能具有硬件和軟件的完整組合的相同基礎上考慮這一點。 如果是這樣的話,這可能意味著這種計算機將不再是不朽的。 相反,它將被解釋為“凡人”。
根據受邀主講人和值得注意的 AI 大師 Geoffrey Hinton 在 NeurIPS 會議上發表的言論,以及他隨附的研究論文中所述:
- “通用數字計算機被設計成忠實地遵循指令,因為人們認為讓通用計算機執行特定任務的唯一方法是編寫一個程序,以極其詳細的方式準確指定要做什麼。 這不再是事實,但研究界在理解深度學習對計算機構建方式的長期影響方面進展緩慢。 更具體地說,社區一直堅持軟件應該與硬件分離的想法,以便相同的程序或相同的權重集可以在硬件的不同物理副本上運行。 這使得程序中包含的知識消亡或權重不朽:當硬件消亡時,知識不會消亡”(正如他的研究論文“前向-前向算法:一些初步調查”中所包含和引用的那樣,預印本在線提供) .
請注意,在此類 AI 中討論的特定類型的計算使用了人工神經網絡 (ANN)。
讓我們理清這件事。
我們的大腦中有真實世界的生物神經元。 你一直在使用它們。 它們在生物和化學上相互連接成一個網絡在你的腦袋裡。 因此,我們可以將其稱為 神經網絡.
在其他地方,我們應該說我們為了設計人工智能而在計算機中計算表示的偽造“神經元”。 人工智能領域的許多人也將它們稱為神經網絡。 我相信這有點令人困惑。 你看,我更喜歡稱他們為 人造的 神經網絡。 這有助於立即區分對 in-your-head 的引用 神經網絡 (可以說是真實的東西)和基於計算機的(人造的 神經網絡)。
不是每個人都持這種立場。 AI 領域的很多人只是假設 AI 領域的其他人都“知道”,當提到神經網絡時,他們幾乎總是在談論 ANN——除非出現某種情況,他們出於某種原因想要討論神經網絡中的真實神經元和真實神經網絡。腦。
我相信你明白我的意思。 大多數時候,AI 人員會說“神經網絡”,這可能是模棱兩可的,因為你不知道他們指的是我們頭腦中的真實神經網絡還是我們編程到計算機中的計算網絡。 但由於 AI 人員大體上都在處理基於計算機的實例,因此他們默認假設您指的是人工神經網絡。 我喜歡在措辭的前端添加“人工”一詞,以更清楚地說明意圖。
繼續,您可以將這些計算性人工神經元視為我們認為實際生化物理神經元所做的數學或計算模擬,例如使用數值作為加權因子,否則會在大腦中發生生化反應。 今天,這些模擬遠沒有真正的神經元那麼複雜。 當前的 ANN 是一種極其粗糙的數學和計算表示。
通常,人工神經網絡通常是機器學習 (ML) 和深度學習 (DL) 的核心元素——請注意,這方面還有很多細節,我強烈建議您查看我對 ML/DL 的廣泛介紹在 這裡的鏈接 和 這裡的鏈接, 例如。
回到不朽與凡人類型的計算機,這裡有更多研究人員需要思考的問題:
- “軟件與硬件的分離是計算機科學的基礎之一,它有很多好處。 它使研究程序的特性成為可能,而不必擔心電氣工程。 它使得編寫一次程序並將其複製到數百萬台計算機成為可能。 然而,如果我們願意放棄不朽,那麼應該可以大大節省執行計算所需的能量以及製造執行計算的硬件的成本。 我們可以允許旨在執行相同任務的不同硬件實例的連接性和非線性發生較大且未知的變化,並依靠學習過程來發現有效利用每個特定實例的未知屬性的參數值硬件。 這些參數值僅對特定的硬件實例有用,因此它們執行的計算是致命的:它隨硬件一起消亡”(同上)。
您現在已經了解了在這種情況下如何使用不朽和凡人。
讓我詳細說明。
該提議是,可以設計一種基於 ANN 的專用計算機,使得硬件和軟件被認為是不可分割的。 一旦哪天硬件不能用了(當然我們說的是和軟件融為一體),這種電腦就好像沒用了,就沒法用了。 據說是必死無疑。 您不妨埋葬基於 ANN 的計算機,因為在密不可分的硬件和軟件不再作為一個團隊有效工作之後,它對您沒有多大用處。
如果你想嘗試將此與人腦進行類比,你可能會想像人腦完全惡化或受到某種無法彌補的傷害的陰暗情況。 我們接受這樣的觀念,即一個人終有一死,他們的大腦最終將不可避免地停止工作。 他們大腦中包含的知識不再可用。 除非他們碰巧嘗試告訴別人或寫下他們所知道的,否則他們的知識就會傳遍全世界。
毫無疑問,您已經聽說過或看到過有關保存大腦的嘗試的報導,比如將它們置於冷凍狀態,其理論依據是人類有朝一日可能會長生不老,或者至少會延長其通常的壽命。 你的大腦可能會繼續存在,即使不在你的身體裡。 許多科幻電影和故事都推測了這樣的想法。
我們現在準備詳細了解凡人計算機和不朽計算機的概念及其預示。
認真的討論和周到的分析
在深入分析假設方法的核心內容之前,有幾個重要的警告和額外的要點值得一提。
研究人員強調,創造的 凡人電腦 不會特別取代或淘汰存在 不朽的電腦 我們今天稱之為傳統數字計算機。 兩種類型的計算機將共存。 我這樣說是因為一些人的反應是,呼籲訂購是籠統的說法 全部 必要的計算機正在或將要走向凡人。
那不是在提出索賠。
在他的談話中,他提到這些專門 面向神經形態 計算機將執行稱為 致命的計算:“我們將進行我所說的凡人計算,其中系統學到的知識與硬件密不可分”(Tiernan Ray 於 1 年 2022 月 XNUMX 日在 ZDNET 文章中引用)。
值得注意的是:“它不會取代數字計算機”(同上)。
此外,這些新型計算機肯定不會很快出現在您當地的計算機商店或立即在線購買,正如他在演講中所說:“我認為我們將看到一種完全不同的類型計算機,不是幾年,但我們有充分的理由研究這種完全不同類型的計算機。” 用途也會有所不同:“它不會是掌管你銀行賬戶並確切知道你有多少錢的計算機。”
另一個轉折點是,凡人計算機似乎會被培育出來,而不是像我們今天為製造計算機處理器和計算芯片所做的那樣被製造出來。
在成長過程中,凡人計算機將以計算成熟的方式提高能力。 因此,一台給定的凡人計算機可能從幾乎沒有任何能力開始,然後逐漸發展成為它的目標。 例如,假設我們想通過使用普通計算機來製造手機。 您將從一台普通計算機的傻瓜變體開始,該變體最初是為此目的而設計或播種的。 然後它會成熟為您正在尋找的更高級的版本。 簡而言之:“你要用這些手機取而代之的是,每部手機都必須從嬰兒手機開始,而且它必須學習如何成為一部手機。”
在他關於凡人計算的基礎幻燈片之一中,好處是這樣描述的:“如果我們放棄永生並接受知識與特定硬件的精確物理細節密不可分,我們將獲得兩大好處:(1)我們可以使用非常低功耗的模擬計算,(2) 我們可以開發精確連接和模擬行為未知的硬件。”
同一演講的一部分,也包含在他的預印本研究論文中,提出了一種如何更好地設計人工神經網絡的技術,他稱之為使用 前進-前進 網絡方法。 你們中一些精通 ANN 的人無疑已經非常了解反向傳播或反向傳播的使用。 您可能想看看他提出的前向技術。 我將在以後的專欄文章中介紹這種引人入勝的方法,因此請留意我即將發布的有關它的報導。
換檔,讓我們考慮一下在 AI 社區的走廊和小路上對這種傲慢的看法 凡人電腦 詭計。
我們將從一些人會說的所有話題的非首發者開始。
你準備好了嗎?
別再稱這東西為 凡人 計算機。
同樣,不要再宣稱今天的傳統計算機是 不朽.
懷疑論者告誡說,這兩種用法都是完全錯誤的,而且具有很大的誤導性。
日常字典對永生的定義包括不會死的東西。 它永遠存在。 為了不死,你大概不得不說這東西本身是活的。 您斷言今天的計算機是有生命的,這是走錯了路。 沒有一個理性的人會把真正的“活”屬性歸於現代計算機。 他們是機器。 他們是東西。 他們不是人,也不是動物,也不是生活狀態。
如果你想擴大不朽的定義,讓我們也指非生命實體,那麼在這種情況下,非生命實體似乎永遠不會腐爛,也不會不可避免地分解成灰塵。 你能對今天的計算機做出這樣的聲明嗎? 這似乎有些牽強(旁注:我們當然可以就物質和存在的本質進行一場盛大的哲學討論,但在這種情況下我們不要去那裡)。
要點是使用或有些人會說濫用“凡人”和“不朽”這兩個詞是古怪和不必要的。 將一種常用的白話重新用於其他目的是令人困惑的,並且會造成渾水。 在這個特定的背景下,你必須願意重新概念化凡人和不朽的含義。 這變得有問題。
更令人不安的是,這些詞語的選擇傾向於將計算機方面擬人化。
人工智能擬人化的問題已經夠多了,我們當然不需要再去編造更多這樣的可能性。 正如我在 AI 倫理和倫理 AI 的報導中廣泛討論的那樣,人們以各種瘋狂的方式將感知能力賦予計算機。 反過來,這會誤導人們錯誤地相信基於人工智能的計算機可以像人類一樣思考和行動。 當社會被哄騙相信今天的人工智能和計算與人類的智力和常識不相上下時,這是一個危險的滑坡,例如我的分析 這裡的鏈接 和 這裡的鏈接.
好吧,我們可以拒絕或不屑於尷尬的措辭選擇,但這是否意味著我們應該把嬰兒連同洗澡水一起倒掉(一個古老的表達方式,可能即將退休)?
一些人認為,也許我們可以為這種總體方法或概念找到更好的措辭。 放棄“凡人”和“不朽”的使用,這樣其他的想法就不會被不當或不當的使用所污染。 同時,也有人反對使用這些詞的選擇是完全可以接受的,要么是因為它們是合適的,要么是因為我們不應該對如何選擇重用詞保持僵化。 他們宣稱,玫瑰是任何其他名稱的玫瑰。
為了避免在本文中進一步激烈的爭論,今後我將避免使用“凡人”和“不朽”這兩個詞,而只會說我們有兩種主要類型的計算機,一種是今天的傳統數字計算機,另一種是現代數字計算機。其他是提議的 神經形態 計算機。
似乎沒有必要將死亡難題拖入其中。 保持天空晴朗,看看我們還能對手頭的事情做些什麼。
在那種情況下,有些人會爭辯說,所提出的神經形態計算機的想法並不是什麼新鮮事。
您可以追溯到 AI 的早期,尤其是當最初探索 ANN 時,您會看到有人談論設計專門的計算機來完成人工神經網絡的工作。 提出了各種新硬件。 這種情況時至今日仍在發生。 當然,您可能會反駁說,當今對 ANN 和機器學習專用硬件的大部分探索仍然基於傳統的計算方法。 從這個意義上說,硬件和軟件的這種模擬不可分割性確實在某種程度上突破了極限,而“發展”計算機的提議也確實如此,至少在超越主流方面是這樣。
簡而言之,有些人完全沉浸在這些問題中,他們對其他人可能會對提出的提議感到驚訝感到驚訝。 這些概念要么與以前相同,要么與各種研究實驗室已經在研究的內容相呼應。
他們說,不要把頭髮弄亂。
這確實將我們帶到了令許多人煩惱的另一個方面。
總而言之: 可預測性。
今天的計算機通常被認為是可預測的。 您可以查看硬件和軟件以弄清楚計算機將要做什麼。 同樣,你可以追踪一台計算機已經做了什麼來找出它為什麼做了它所做的一切。 這樣做當然有局限性,因此,我不想誇大可預測性,但我認為您總體上理解了這個想法。
您可能已經意識到,當今 AI 面臨的棘手問題之一是某些 AI 被設計為具有自我調整能力。 開發人員放置的人工智能可能會在使用過程中自行改變。 在 AI 倫理領域,有許多 AI 投入使用的例子,起初沒有不當的偏見或歧視傾向,然後在 AI 投入生產期間逐漸在計算上自我變異,請參閱我的詳細評估在 這裡的鏈接.
令人擔憂的是,我們已經進入了一個必然需要預測的 AI 環境。
假設用於武器系統的 AI 進行自我調整,結果是 AI 在預期之外的目標和時間武裝和發射致命武器。 人類可能無法阻止人工智能。 處於循環中的人類可能無法快速響應以超越人工智能的行動。 有關其他令人不寒而栗的示例,請參閱我的分析 這裡的鏈接.
對於神經形態計算機,擔心的是我們正在給類固醇施加不可預測性。 從一開始,神經形態計算機的本質可能就是它以一種無法預測的方式工作。 我們炫耀不可預測性。 它成為榮譽的徽章。
存在兩個陣營。
一個陣營表示,我們可以忍受令人討厭的不可預測性問題,通過設置護欄來防止人工智能在橋上走得太遠。 另一個陣營爭辯說,你正在讓世界走上一條危險的道路。 有一天,聲稱的護欄要么失效,要么不夠嚴格,要么護欄因意外或惡意而被拆除或擺弄。
我們是否應該擺脫對神經形態計算機和可預測性的疑慮?
按照研究人員的說法:“在對模擬計算感興趣的人中,願意放棄永生的人寥寥無幾。” 此外:“如果你想讓你的模擬硬件每次都做同樣的事情......你就會遇到所有這些雜散電子東西的真正問題。”
我會加強這個。
一個若隱若現且有些悲觀的觀點是,與當今數字計算機相關的所謂可預測性無論如何都在朝著不可預測性的方向發展。 如前所述,對於在傳統計算機平台上進行自我調整的 AI,這種情況尤其可能發生。 僅僅因為神經形態計算機可能看似不可預測,並不因此就表明傳統數字計算機實際上是可預測的。
無論您想選擇哪種計算平台,不可預測的壓路機都在全速向我們襲來。 從這個角度來看,我對嘗試實現 AI 安全的最新努力的評估,請參閱 這裡的鏈接.
這種關於可預測性的轉折應該會讓你的思緒浮現在某種出土的自然事物上。 那些參與 AI 倫理和 AI 法律的人可能 任何監管機構都不批准 一直在考慮的後果 神經形態計算機.
你可能一直在瞄準運行人工智能的傳統數字計算機。 好吧,你猜怎麼著,你有一個完全額外的和新興的人工智能計算部分,你現在可以徹夜難眠。 是的,神經形態計算機。 把它放在你的待辦事項清單上。
對不起,又讓你失眠了。
讓我們簡要地考慮一下人工智能倫理和人工智能法對傳統數字計算和人工智能所做的工作。
在之前的專欄中,我介紹了各種國家和國際為製定和頒布監管人工智能的法律所做的努力,請參閱 這裡的鏈接, 例如。 我還介紹了各個國家已經確定和採用的各種人工智能倫理原則和指導方針,包括聯合國的努力,例如聯合國教科文組織的一套人工智能倫理,近 200 個國家採用,見 這裡的鏈接.
以下是我之前仔細探索過的有關 AI 系統的道德 AI 標准或特徵的有用基石列表:
- 透明度
- 正義與公平
- 非惡意
- 社會責任
- 隱私
- 受益人
- 自由與自治
- 信任
- 永續發展
- 尊嚴
- 團結
AI 開發人員、管理 AI 開發工作的人員,甚至是最終部署和維護 AI 系統的人員,都應該認真使用這些 AI 道德原則。
在整個 AI 開發和使用生命週期中的所有利益相關者都被認為是在遵守 Ethical AI 的既定規範的範圍內。 這是一個重要的亮點,因為通常的假設是“只有編碼員”或那些對 AI 進行編程的人必須遵守 AI 道德概念。 正如前面所強調的,人工智能需要一個村莊來設計和實施,整個村莊都必須精通並遵守人工智能倫理規則。
您之前可能沒有過多考慮的部分是,這些相同的 AI 道德規範和新興的 AI 法律列表將如何適用於神經形態計算機。 需要澄清的是,AI 倫理和 AI 法律確實必須明確考慮到這一點。 我要指出的是,很少有人這樣做,並且請注意,神經形態計算機的出現很可能會在試圖統治 AI 的新維度方面讓許多人陷入困境。
我們需要以足夠廣泛的方式考慮人工智能倫理和人工智能法律,以涵蓋任何新設計的人工智能,包括神經形態計算機。
蹺蹺板替代方案是經典的貓鼠遊戲。 這是怎麼回事。 構思並構建了打造 AI 的新方法。 現有的人工智能倫理和人工智能法律措手不及,沒有完全涵蓋最新的人工智能惡作劇。 匆忙努力更新道德 AI 規則並修改那些新制定的 AI 法律。
泡沫,沖洗,重複。
對我們所有人來說,最好保持領先,而不是落後於八號球。
結論
我帶你踏上了一段旅程。
一開始,我提出要研究兩個主要主題:
1) 將硬件和軟件整合在一起以實現 AI 機械化,而不是讓它們成為截然不同的獨立盟友
2) 將機器學習公式從一個 AI 模型轉移或提煉到另一個 AI 模型,這樣做不需要也不一定希望(或者甚至可能以其他方式可行)直接進行完整的純種複制
關於硬件和軟件綁定的第一個主題是本文的大部分內容。 這將我們帶入了凡人與不朽的計算泥潭。 其中有一些關鍵的人工智能倫理和人工智能法律考慮因素,否則通常不會被提出,因為這類與計算機相關的話題通常被一些人視為純粹的技術話題,而不涉及任何社會影響問題。
我說,在提出道德人工智能和人工智能法時,越早越安全,而不是越晚越糟,才是最明智的。
第二個主題,我還沒有在這裡闡明,實質上與第一個主題相關。
這是交易。
假設我們有一台“凡人計算機”,我們想要保留這些功能,以便我們能夠擁有 AI 所包含內容的備份或表面上的副本。 我們可能會擔心某個特定的凡人計算機即將結束。 哎呀,我們依賴它。 我們接下來幹嗎? 一個答案是我們應該複製這該死的東西。
但是,複製正在繪製的那種神經形態計算機將比乍看起來更難。 事情會變得棘手。
也許我們應該想出一種複制策略,這種策略可以推廣並適用於涉及機器學習和人工神經網絡的情況。 我們希望它適用於大規模和超大規模實例。 我們也願意讓副本不是完全相同的副本,而是可能在本質上是等價的,或者可能由於復制操作而設計得更好。
一種被稱為 蒸餾 已經提出。
今天的專欄篇幅已滿,因此我將在下一個專欄中討論第二個主題。 我想您會想立即了解第二個主題與本文廣泛涵蓋的第一個主題之間的關係。 將此視為添加的註釋,作為接下來即將發生的事情的預告片或預告片。
坐在座位的邊緣,因為蒸餾主題非常突出。
正如蝙蝠俠過去常說的那樣,保持你的蝙蝠翅膀交叉,並準備好相同的蝙蝠時間和蝙蝠通道來解決如何將 ANN 或機器學習模型或神經形態計算機複製到另一個的棘手問題。
現在最後的評論。 電影裡有一句名言 黑闇騎士歸來 我們的斗篷十字軍在其中說:“世界只有在你強迫它的時候才有意義。” 當我介紹與 AI 相關的蒸餾的第二個主題時,我會盡量堅持這個理想。
請繼續關注這個激動人心的雙標題的第 2 部分。
來源:https://www.forbes.com/sites/lanceeliot/2022/12/07/ai-shake-up-as-prominent-ai-guru-proposes-mind-bending-mortal-computers-which-also-獲取 AI 倫理和 AI 法律 - 挖掘/