-
喬恩·阿斯科納斯、弗拉基米爾·波波夫:關(guān)于人工智能的常識(shí)
最后更新: 2023-11-30 09:10:34要完全減輕基于人工智能的存在風(fēng)險(xiǎn),需要采取什么措施?一種共識(shí)指出,我們必須大幅度且有意地減緩發(fā)展的速度,特別放緩部署新的大語(yǔ)言模型。然而,由于人工智能提供了經(jīng)濟(jì)和軍事優(yōu)勢(shì),任何一國(guó)的單方面的禁令都存在落后于其他國(guó)家的風(fēng)險(xiǎn),這再次落入了軍備競(jìng)賽的情境。因此有觀點(diǎn)認(rèn)為,解決方案是開(kāi)發(fā)和使用與人工智能安全目標(biāo)一致的全球形式的權(quán)力(包括軍事力量)。
在美國(guó)《時(shí)代》雜志上的一篇文章中,機(jī)器智能研究所創(chuàng)始人尤德科夫斯基(Eliezer Yudkowsky)寫(xiě)道:“如果情報(bào)顯示一個(gè)未參加[人工智能安全]協(xié)議的國(guó)家正在建設(shè)圖形處理器(GPU)集群(譯者注:GPU作為一種高性能計(jì)算硬件,在人工智能應(yīng)用中具有顯著的優(yōu)勢(shì)),那么不要對(duì)國(guó)家之間的沖突感到害怕,而要擔(dān)心各國(guó)違反?;饏f(xié)議;要允許我們通過(guò)空襲摧毀一個(gè)流氓數(shù)據(jù)中心?!?
盡管尤德科夫斯基的立場(chǎng)處于的激進(jìn)邊緣,但更主流的人物提出了可能更極端的解決方案。在關(guān)于長(zhǎng)期技術(shù)風(fēng)險(xiǎn)的“脆弱世界假設(shè)”的一篇文章中,暢銷(xiāo)書(shū)《超級(jí)智能》(Superintelligence : Paths, Dangers, Strategies)作者、牛津大學(xué)未來(lái)人類(lèi)研究所創(chuàng)始主任博斯特羅姆(Nick Bostrom)提出了“無(wú)處不在的監(jiān)視或單極世界秩序”的發(fā)展趨勢(shì):允許未經(jīng)許可的技術(shù)發(fā)展(包括通用人工智能、生物技術(shù)和納米材料)可能對(duì)人類(lèi)生存造成災(zāi)難性后果的發(fā)展,而不是通向物種長(zhǎng)壽。但是,要實(shí)現(xiàn)這樣的制度首先要建立前所未有的全球治理。
在關(guān)于人工智能長(zhǎng)期取代人類(lèi)的前景的最近一篇論文中,人工智能安全中心主任亨德里克斯(Dan Hendryks)得出了類(lèi)似的結(jié)論。如果人工智能的優(yōu)越性是命中注定的,那么人類(lèi)生存的一條道路可能是積極建立一個(gè)“人工智能利維坦”,其中對(duì)人類(lèi)友好的人工智能可以馴服或消滅所有其他潛在不友好的模型。
人文學(xué)者都應(yīng)該對(duì)這些論點(diǎn)感到非常擔(dān)憂——圍繞技術(shù)發(fā)展來(lái)建立全球極權(quán)政治秩序,這似乎是可怕的未來(lái)。即便是在這個(gè)方向上的一些邊緣嘗試,也可能導(dǎo)致人類(lèi)自由的急劇下降。如果嘗試遏制人工智能的風(fēng)險(xiǎn),如果構(gòu)想不好,甚至可能會(huì)加劇其他災(zāi)難性風(fēng)險(xiǎn)。任何試圖賦予一個(gè)有力的“攔阻者”(katechon)的嘗試都有可能辯證地導(dǎo)致相反結(jié)果,變成一個(gè)“不情愿的加速者”。(注:在《圣經(jīng)》帖撒羅尼迦后書(shū)2:6-8中,保羅談及末日時(shí)提及了“攔阻者”Katechon的概念。按照保羅的字面含義,攔阻者阻擋在了上帝和不法者之間,似乎攔阻者只要不被移除,末日就不會(huì)降臨,上帝就不會(huì)消滅這不法者。攔阻者也成為西方傳統(tǒng)中一個(gè)重要的形象,許多西方思想家如施密特和施特勞斯以各自的方式應(yīng)對(duì)他們的挑戰(zhàn),攔阻他們心中必須被攔阻的邪惡勢(shì)力。施密特似乎認(rèn)為,至關(guān)重要的是對(duì)政治本身的保護(hù)——對(duì)政治的保護(hù),反對(duì)它被自動(dòng)化技術(shù)本身的升級(jí)所威脅的中立化。)
在這種情況下,建立一個(gè)全球政府來(lái)停止無(wú)許可技術(shù)進(jìn)步,反而會(huì)立即加劇氣候變化和人口減少等迫在眉睫的文明風(fēng)險(xiǎn)。使用末日論調(diào)來(lái)構(gòu)建全球政治制度將減緩全球經(jīng)濟(jì)增長(zhǎng),使未來(lái)看起來(lái)更加可怕,并且進(jìn)一步抑制生育率。一個(gè)老齡化的社會(huì)往往創(chuàng)新更少,需要更多的年輕人照顧老年人,并且沒(méi)有資源、能源和技術(shù)來(lái)減少碳排放并改善碳捕捉,從而加劇氣候變化。世界末日的人工智能奇點(diǎn)仍屬于科幻領(lǐng)域,但在當(dāng)下,人類(lèi)顯然有能力創(chuàng)建一個(gè)全球的極權(quán)政治框架,扼殺未來(lái)并引發(fā)文明自殺。
三、人工智能安全的常識(shí)方法
因此,如果人工智能存在著真正的、嚴(yán)重的、難以把握的風(fēng)險(xiǎn),但許多用來(lái)遏制這些風(fēng)險(xiǎn)的提案可能同樣具有潛在的破壞性,那么我們能否找到一條前進(jìn)的道路,既承認(rèn)了風(fēng)險(xiǎn),又促進(jìn)了人工智能系統(tǒng)的改進(jìn)呢?
接下來(lái),我們將提出一種實(shí)現(xiàn)人工智能安全的“常識(shí)”方法,重點(diǎn)是迅速利用人工智能帶來(lái)的生產(chǎn)力提升,同時(shí)減輕了日益復(fù)雜模型帶來(lái)的某些危險(xiǎn)。
人工智能的迅速發(fā)展可以沿兩個(gè)軸線來(lái)看待:縱軸與橫軸??v軸指的是開(kāi)發(fā)更大更強(qiáng)的模型,這帶來(lái)了許多未知和潛在的生存風(fēng)險(xiǎn)。相比之下,橫軸強(qiáng)調(diào)將當(dāng)前模型集成到經(jīng)濟(jì)的各個(gè)角落,相對(duì)風(fēng)險(xiǎn)較低,回報(bào)較高。
對(duì)人工智能的任何監(jiān)管都必須仔細(xì)區(qū)分這兩個(gè)發(fā)展維度。雖然基于當(dāng)前基于人工智能的各類(lèi)應(yīng)用也不是沒(méi)有風(fēng)險(xiǎn)的,但與構(gòu)建超級(jí)人工智能所帶來(lái)的風(fēng)險(xiǎn)相比,兩者在性質(zhì)上有著質(zhì)的不同。從算法偏見(jiàn)到深度偽造,這些較小的人工智能風(fēng)險(xiǎn)都可以通過(guò)加速研究來(lái)解決,而不是通過(guò)減慢研究進(jìn)程。
惡意行為人將需要利用開(kāi)源人工智能模型,因?yàn)檫@些活動(dòng)顯然違反了像OpenAI這樣的頭部企業(yè)的服務(wù)條款。幸運(yùn)的是,開(kāi)源模型在技術(shù)上往往落后于OpenAI等封閉技術(shù)。因此,善意行為人在對(duì)抗由人工智能生成的垃圾郵件的競(jìng)賽中具有優(yōu)勢(shì)。監(jiān)管不應(yīng)該限制善意行為人的努力,尤其是當(dāng)惡意行為人并不會(huì)遵守監(jiān)管規(guī)則時(shí)。
然而,監(jiān)管是必要的,以防止強(qiáng)大的模型變成開(kāi)源。以Meta公司的強(qiáng)大LLaMA模型為例,這是一個(gè)類(lèi)似于ChatGPT的文本生成人工智能。Meta打算以受控的方式向研究人員提供LLaMA的訪問(wèn)權(quán)限,但該模型在宣布后僅一個(gè)星期就被泄露到了互聯(lián)網(wǎng)上。在缺乏與此類(lèi)安全漏洞相關(guān)的法規(guī)或罰款的情況下,Meta的公開(kāi)回應(yīng)相當(dāng)于一個(gè)大大的“糟糕”。
第二類(lèi)可管理風(fēng)險(xiǎn)源于生成式人工智能創(chuàng)造的大量輸出。從“智能律師”到用簡(jiǎn)單的文本描述生成原創(chuàng)藝術(shù),不管我們喜歡與否,大門(mén)已經(jīng)敞開(kāi)。幸運(yùn)的是,在互聯(lián)網(wǎng)時(shí)代,我們已經(jīng)逐步養(yǎng)成了應(yīng)對(duì)“信息海嘯”的經(jīng)驗(yàn)。以數(shù)字千年版權(quán)法(DMCA)下的受版權(quán)保護(hù)作品問(wèn)題為例,盡管其遠(yuǎn)非完美,但它為解決在線版權(quán)爭(zhēng)議提供了一個(gè)非法律程序的框架,因此有助于防止法律體系不被破壞。除了狹義的版權(quán)問(wèn)題之外,我們需要對(duì)傳統(tǒng)機(jī)構(gòu)進(jìn)行改革,以應(yīng)對(duì)更高信息吞吐量的需求。
人工智能在縱軸上的研究是事情變得更復(fù)雜的地方。使用更多數(shù)據(jù)訓(xùn)練的更大、更強(qiáng)功能的模型,但這種訓(xùn)練的方向不可預(yù)測(cè)。只有少數(shù)幾家大型公司有資源來(lái)推動(dòng)人工智能前沿,而它們的行為力度取決于競(jìng)爭(zhēng)壓力。政府可以通過(guò)將最大的參與者聚集在一起,合作制定共享的安全協(xié)議,來(lái)阻止這些軍備競(jìng)賽。這可以包括要求公開(kāi)宣布和批準(zhǔn)大規(guī)模訓(xùn)練運(yùn)行的規(guī)定,以及通過(guò)國(guó)家標(biāo)準(zhǔn)和技術(shù)研究所創(chuàng)建安全測(cè)試的行業(yè)標(biāo)準(zhǔn)。像微軟投資的OpenAI和谷歌投資的Anthropic這樣的主要參與者,已經(jīng)進(jìn)行了深入的安全和“對(duì)齊(Alignment)”的研究。但重要的是,他們對(duì)人工智能對(duì)齊的見(jiàn)解不應(yīng)成為商業(yè)機(jī)密。
對(duì)齊研究中最有前途的領(lǐng)域之一是“機(jī)械可解釋性”(mechanistic interpretability)。機(jī)械可解釋性可以被視為人工智能大腦的神經(jīng)科學(xué)。通過(guò)嚴(yán)格研究人工神經(jīng)網(wǎng)絡(luò)中特定神經(jīng)回路,研究人員可以了解“黑盒子”模型如何做到這一點(diǎn)。不幸的是,解釋性研究仍然是一個(gè)相對(duì)新興的領(lǐng)域,對(duì)于像GPT-4這樣的大型模型的理解遠(yuǎn)遠(yuǎn)滯后。(譯者注:機(jī)制可解釋性對(duì)人工智能對(duì)齊具有重要意義。首先,可解釋性方法可用于審計(jì)大模型,特別是在部署大模型之前??梢詸z查L(zhǎng)LM的對(duì)齊功效,識(shí)別不對(duì)齊和錯(cuò)誤的輸出,并闡明它為什么會(huì)產(chǎn)生這樣的輸出。其次,可解釋性評(píng)估指標(biāo)可以作為優(yōu)化人工智能對(duì)齊的獎(jiǎng)勵(lì)函數(shù),以激勵(lì)人工智能系統(tǒng)保持目標(biāo)透明度,例如避免欺騙對(duì)齊。第三,除了檢查/架構(gòu)的透明度之外,還可以加強(qiáng)訓(xùn)練過(guò)程的透明度,能夠了解和監(jiān)控人工智能系統(tǒng)訓(xùn)練過(guò)程中發(fā)生的事情和變化,例如涌現(xiàn)行為/能力。)
機(jī)器學(xué)習(xí)模型的可解釋性(圖源:網(wǎng)絡(luò))
最重要的解釋性研究需要再次投入大量資金,進(jìn)而培訓(xùn)和重新培訓(xùn)模型變種。這本身是一個(gè)潛在的市場(chǎng)失敗,因?yàn)閷?duì)于人工智能公司而言,投入資金用于沒(méi)有下游商業(yè)目的的模型的動(dòng)機(jī)非常有限。不過(guò),政府可以通過(guò)創(chuàng)建自己的超級(jí)計(jì)算集群來(lái)解決這些訪問(wèn)和成本問(wèn)題。一個(gè)大規(guī)模的機(jī)械性可解釋性研究測(cè)試平臺(tái)將有助于推動(dòng)該領(lǐng)域的發(fā)展,并使研究人員更容易訪問(wèn)大型模型的內(nèi)部。此外,政府可以要求大型人工智能公司發(fā)布解釋性和安全標(biāo)準(zhǔn),以改善人工智能安全方面的知識(shí)共享。
此外,公共采購(gòu)先進(jìn)芯片將有助于國(guó)會(huì)實(shí)現(xiàn)建設(shè)美國(guó)國(guó)內(nèi)半導(dǎo)體能力的目標(biāo),而先進(jìn)芯片的公共所有權(quán)可能更為重要——這是作為對(duì)人工智能發(fā)展導(dǎo)致企業(yè)權(quán)力失控的一種保險(xiǎn)。事實(shí)上,如果沒(méi)有一個(gè)安全的平臺(tái)來(lái)訓(xùn)練符合政府需求的模型,我們可能有一天會(huì)發(fā)現(xiàn),國(guó)家的繁榮和安全將落入幾個(gè)私人行為者的支配中。
四、結(jié)語(yǔ)
通過(guò)潛在的人工智能安全政策的幾個(gè)示例,我們希望公眾不要過(guò)度關(guān)注極端的尾部風(fēng)險(xiǎn)。相反,我們應(yīng)該制定措施,進(jìn)而改善我們可能部署的系統(tǒng)的安全性和可靠性,并且以尊重西方科技治理傳統(tǒng)的方式來(lái)實(shí)施。
發(fā)展人工智能安全的關(guān)鍵在于,我們應(yīng)吸納各類(lèi)型的知識(shí)和專(zhuān)家參與討論。正如經(jīng)濟(jì)學(xué)家考恩(Tyler Cowen)所指出的,關(guān)于“人工智能暫停公開(kāi)信”的一個(gè)令人震驚的事實(shí)是,除了計(jì)算機(jī)科技領(lǐng)域的領(lǐng)袖之外,其他領(lǐng)域的領(lǐng)導(dǎo)人幾乎完全沒(méi)有參與其中,著與核時(shí)代的類(lèi)似公開(kāi)信顯然不同。多年來(lái),人工智能的安全研究一直屬于被理論計(jì)算機(jī)科學(xué)主導(dǎo)的隱匿領(lǐng)域,偶爾有一些分析哲學(xué)和物理學(xué)的參與。
如今,強(qiáng)大的人工智能已經(jīng)出現(xiàn),但相應(yīng)的安全討論卻受到了學(xué)科的限制,盡管許多當(dāng)前問(wèn)題必然涉及其他類(lèi)型的專(zhuān)業(yè)知識(shí)。安全研究的不足是經(jīng)典的公共產(chǎn)品(public good)問(wèn)題,因此經(jīng)濟(jì)學(xué)家可能會(huì)有一些看法。此外,對(duì)導(dǎo)致通用人工智能的軍備競(jìng)賽的預(yù)測(cè)和分析,可能從國(guó)際關(guān)系學(xué)者那里獲得啟發(fā)。OpenAI的關(guān)于安全風(fēng)險(xiǎn)的白皮書(shū)有數(shù)十名技術(shù)研究人員,但其中的社會(huì)科學(xué)家和人文學(xué)者用一只手就數(shù)過(guò)來(lái)。為了制定既可獲得又可實(shí)現(xiàn)的人工智能安全措施,我們需要整合來(lái)自人類(lèi)所有知識(shí)領(lǐng)域的見(jiàn)解,而不是依賴(lài)在互聯(lián)網(wǎng)留言板上無(wú)來(lái)由的科幻寓言。
- 原標(biāo)題:OpenAI激烈內(nèi)斗,曝光遏制派和加速派都無(wú)力應(yīng)對(duì)的困局? 本文僅代表作者個(gè)人觀點(diǎn)。
- 責(zé)任編輯: 周子怡 
-
0.1微米!超精密加工利器來(lái)了
2023-11-30 08:15 中國(guó)精造 -
打造世界一流科技期刊,中國(guó)底氣在哪里?
2023-11-29 14:00 -
中國(guó)載人航天工程辦公室:盼港澳航天員進(jìn)駐祖國(guó)空間站
2023-11-29 10:19 航空航天 -
中國(guó)空間站第一組全構(gòu)型工作照發(fā)布
2023-11-28 16:58 航空航天 -
中國(guó)首顆高精度地磁場(chǎng)探測(cè)衛(wèi)星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鮮加快“萬(wàn)里鏡-1”號(hào)偵察衛(wèi)星微調(diào)進(jìn)程
2023-11-27 18:54 朝鮮現(xiàn)狀 -
如果未來(lái)20年“機(jī)器人女友”成為現(xiàn)實(shí),人類(lèi)能收獲AI愛(ài)情嗎?
2023-11-27 17:41 -
高林:發(fā)展人工智能應(yīng)堅(jiān)持“智能向善”
2023-11-27 15:03 人工智能 -
劉伯超:真誠(chéng)希望中美雙方深化人工智能技術(shù)交流與合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”難題,我國(guó)首次成功研發(fā)!
2023-11-27 14:59 中國(guó)精造 -
我國(guó)首張,初步建成!完整覆蓋國(guó)土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原將赴伯克利任教,曾發(fā)現(xiàn)石墨烯超導(dǎo)角度轟動(dòng)國(guó)際學(xué)界
2023-11-27 09:26 -
代表世界最高水平!這一核心裝備研制成功
2023-11-26 18:36 -
中外合作獲得高精度月表化學(xué)成分分布圖
2023-11-25 19:17 -
金正恩觀看偵察衛(wèi)星拍攝的首爾等重要目標(biāo)地區(qū)圖片
2023-11-25 07:21 朝鮮現(xiàn)狀 -
“墨子”發(fā)現(xiàn)潛在威脅小行星!
2023-11-24 13:14 航空航天 -
全球首個(gè)商用海底數(shù)據(jù)中心今日下水,為什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程國(guó)產(chǎn)克隆貓降生!克隆技術(shù)全流程國(guó)產(chǎn)化意味著什么?
2023-11-24 06:54 -
顏寧回應(yīng)當(dāng)選中科院院士
2023-11-23 15:25 -
名單公布!46人當(dāng)選2023年兩院外籍院士
2023-11-23 13:41
相關(guān)推薦 -
美元主導(dǎo)地位遭削弱,“人民幣必須抓住機(jī)會(huì)” 評(píng)論 42前十占九!“中國(guó)機(jī)構(gòu)正在主導(dǎo)全球芯片研究” 評(píng)論 117羅馬教皇方濟(jì)各去世,曾呼吁“不要害怕中國(guó)崛起” 評(píng)論 113“原來(lái),中國(guó)早就有預(yù)判” 評(píng)論 248“MAGA巨星”唱反調(diào),阿根廷業(yè)界:中國(guó)制造真香 評(píng)論 210最新聞 Hot
-
美元主導(dǎo)地位遭削弱,“人民幣必須抓住機(jī)會(huì)”
-
前十占九!“中國(guó)機(jī)構(gòu)正在主導(dǎo)全球芯片研究”
-
“美國(guó)自毀前程,中國(guó)肯定樂(lè)壞了”
-
男子早高峰爬上獵德大橋頂部,廣州交警回應(yīng)
-
特朗普再次抨擊鮑威爾:美國(guó)幾乎沒(méi)有通脹,他總是降息太遲
-
“內(nèi)鬼”李剛,被逮捕
-
“特朗普的‘焦土政策’,將損害蘋(píng)果和英偉達(dá)”
-
為避免被拆分,谷歌拿中國(guó)說(shuō)事
-
特朗普力挺!赫格塞思在白宮表態(tài)
-
印度對(duì)中國(guó)出手,鋼鐵征12%關(guān)稅
-
普京:愿與烏克蘭直接談
-
羅馬教皇方濟(jì)各去世,曾呼吁“不要害怕中國(guó)崛起”
-
美一客機(jī)在機(jī)場(chǎng)發(fā)動(dòng)機(jī)起火,機(jī)上300人被迫撤離
-
特朗普借關(guān)稅“忽悠”日韓投資阿拉斯加巨型能源項(xiàng)目
-
“特朗普這是在邀請(qǐng)中國(guó)搶走我們的科學(xué)家,太可怕了”
-
白宮:特朗普力挺赫格塞思
快訊- 男子早高峰爬上獵德大橋頂部,廣州交警回應(yīng)
- 日本一男子涉嫌強(qiáng)搶車(chē)輛、肇事逃逸并全裸闖入教培機(jī)構(gòu),被逮捕
- 周繼紅當(dāng)選中國(guó)游泳協(xié)會(huì)主席
- 三河招牌改色風(fēng)波過(guò)后:店招換回來(lái)了嗎?商戶(hù)費(fèi)用報(bào)銷(xiāo)了沒(méi)?
- “內(nèi)鬼”李剛,被逮捕
- 本科新專(zhuān)業(yè)+29,今年高考就可報(bào)名
- 印度對(duì)中國(guó)出手,鋼鐵征12%關(guān)稅
- vivo辟謠“被拼多多下架”:店鋪正常經(jīng)營(yíng)且為正品
-