-
喬恩·阿斯科納斯、弗拉基米爾·波波夫:關(guān)于人工智能的常識(shí)
最后更新: 2023-11-30 09:10:34【導(dǎo)讀】 近一年來(lái),由ChatGPT引發(fā)的通用人工智能浪潮席卷了全世界,其背后的OpenAI也成為當(dāng)之無(wú)愧的明星公司。然而,這幾天OpenAI為全世界上演了一出震撼的“宮斗大戲”,其中似乎涉及公司高層對(duì)于通用人工智能未來(lái)發(fā)展的重大分歧。聯(lián)系ChatGPT橫空出世后出現(xiàn)的“暫停人工智能開(kāi)發(fā)”的公開(kāi)呼吁,圍繞通用人工智能的辯論已經(jīng)進(jìn)入關(guān)鍵階段。
本文分析了當(dāng)前人工智能社區(qū)內(nèi)的意見(jiàn)分化:從主張立即暫停大型AI模型訓(xùn)練,到將風(fēng)險(xiǎn)視為毫無(wú)根據(jù)的杞人憂(yōu)天。作者主張區(qū)分“人工智能的風(fēng)險(xiǎn)”以及“對(duì)人工智能采取的安全措施的風(fēng)險(xiǎn)”這兩類(lèi)風(fēng)險(xiǎn)。對(duì)于前者,人工智能的惡意使用和“自身缺陷”(如算法偏見(jiàn)等)暫不具備“毀滅人類(lèi)”的能力,真正的危機(jī)可能來(lái)自于大部分計(jì)算機(jī)行業(yè)領(lǐng)袖對(duì)于“機(jī)器超越/取代人類(lèi)”的狂熱追求,引發(fā)新一輪的軍備競(jìng)賽。對(duì)于后者,一些面對(duì)極端后果的擔(dān)憂(yōu)可能引發(fā)應(yīng)激性的安全措施,如圍繞人工智能技術(shù)打造一個(gè)世界極權(quán)政府,讓“人類(lèi)友好的AGI”打敗其他系統(tǒng)。
作者認(rèn)為,當(dāng)前圍繞人工智能辯論的一大傾向是過(guò)度集中于計(jì)算機(jī)科技領(lǐng)域的圈子。我們必須在利用人工智能帶來(lái)的生產(chǎn)力提升和日益復(fù)雜模型帶來(lái)的危險(xiǎn)之間取得平衡。對(duì)這些平衡方法的探討,離不開(kāi)對(duì)人類(lèi)所有知識(shí)領(lǐng)域的見(jiàn)解的整合。
本文為歐亞系統(tǒng)科學(xué)研究會(huì)“關(guān)鍵技術(shù)中的競(jìng)爭(zhēng)政治”系列編譯成果,原刊于《美國(guó)事務(wù)》(American Affairs),僅代表作者本人觀(guān)點(diǎn)。
【文/喬恩·阿斯科納斯、弗拉基米爾·波波夫,翻譯/慧諾】
圖源:互聯(lián)網(wǎng)
自ChatGPT發(fā)布之后,各種“先進(jìn)的”人工智能層出不窮。與此同時(shí),一群技術(shù)專(zhuān)家開(kāi)始呼吁,各界應(yīng)該立即停止六個(gè)月的大規(guī)模人工智能模型訓(xùn)練。他們的公開(kāi)信得到了特斯拉創(chuàng)始人埃隆·馬斯克和蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克的簽署支持:“人工智能實(shí)驗(yàn)室陷入了無(wú)法控制的競(jìng)賽,不斷開(kāi)發(fā)和部署更強(qiáng)大的數(shù)字智能。甚至連它們的創(chuàng)建者都無(wú)法理解、預(yù)測(cè)或可靠控制這些模型?!?
對(duì)于這封公開(kāi)信,人工智能專(zhuān)家的意見(jiàn)分化非常嚴(yán)重。在一些主流媒體上,一些知名專(zhuān)家撰文認(rèn)為,足夠先進(jìn)的人工智能系統(tǒng)有可能摧毀我們所知的文明。他們和一些工程師都相信,“超級(jí)智能”機(jī)器可能比人類(lèi)更強(qiáng)大,而這個(gè)未來(lái)將變得不可控,這對(duì)一個(gè)以自然選擇為基礎(chǔ)的世界來(lái)說(shuō)并不是一個(gè)好兆頭。人工智能似乎激發(fā)了人類(lèi)的“存在危機(jī)”。
其他資深專(zhuān)家則堅(jiān)決反對(duì)暫停,并嘲笑這些人是“杞人憂(yōu)天”。圖靈獎(jiǎng)得主、人工智能先驅(qū)楊立昆戲稱(chēng),“在我們達(dá)到‘如上帝般的人工智能’之前,我們需要經(jīng)過(guò)‘如狗般的人工智能’。”如果因?yàn)殄e(cuò)誤的、未經(jīng)證明的科技恐懼而暫停人工智能發(fā)展,這將嚴(yán)重阻礙有各種可能促進(jìn)人類(lèi)繁榮的科學(xué)進(jìn)步。
對(duì)于非專(zhuān)業(yè)人士來(lái)說(shuō),“人工智能”圈子內(nèi)的爭(zhēng)論實(shí)在是讓人困惑,如果整個(gè)討論不能被稱(chēng)為荒謬的話(huà)。這一次硅谷的炒作終于真的失控了嗎?或者,我們真的有足夠的理由去懷疑,人工智能科學(xué)家就是二十一世紀(jì)的核物理學(xué)家嗎?
對(duì)于有效地監(jiān)管人工智能,我們依然需要快速而明智地回答上述問(wèn)題。不過(guò),我們應(yīng)該建立一種“常識(shí)性”方法,既能跟蹤到人工智能系統(tǒng)那些令人費(fèi)解的前沿動(dòng)態(tài),又能適度評(píng)估人工智能監(jiān)管和不當(dāng)使用的風(fēng)險(xiǎn)。
一、人工智能的風(fēng)險(xiǎn)
在考慮最嚴(yán)重的人工智能場(chǎng)景之前,首先應(yīng)該探討一下當(dāng)前最近的風(fēng)險(xiǎn)。僅僅舉幾個(gè)例子,通過(guò)ChatGPT這樣的新語(yǔ)言模型,全球虛假和錯(cuò)誤信息的傳播被明確加速,人工智能驅(qū)動(dòng)的語(yǔ)音克隆已經(jīng)在電信詐騙中很普遍。
對(duì)于惡意行為者來(lái)說(shuō),強(qiáng)大的人工智能很容易被武器化。隨著人工智能在與人類(lèi)心理和計(jì)算機(jī)系統(tǒng)的交互變得更加成熟,這些威脅很可能會(huì)不斷升級(jí)。網(wǎng)絡(luò)安全技術(shù)的可能被利用來(lái)實(shí)施新的黑客攻擊,就像機(jī)器助手也可悲用來(lái)創(chuàng)造新的自動(dòng)武器。
與惡意行為者無(wú)關(guān),新興的人工智能系統(tǒng)還帶來(lái)了另一種“無(wú)意的”嚴(yán)重風(fēng)險(xiǎn),這往往被研究人員歸納為“人工智能安全”問(wèn)題。例如,偏見(jiàn)問(wèn)題已經(jīng)滲透到了各種各樣的人工智能模型中,系統(tǒng)性地歧視各種群體的就業(yè)、貸款申請(qǐng),甚至監(jiān)禁時(shí)間。在自動(dòng)駕駛、軍事打擊和健康診斷等生死攸關(guān)的領(lǐng)域,魯棒性——系統(tǒng)可靠執(zhí)行任務(wù)的能力——已經(jīng)是一個(gè)明顯問(wèn)題。此外,未預(yù)見(jiàn)的人工智能與人類(lèi)互動(dòng)可能會(huì)產(chǎn)生災(zāi)難性后果,比如高級(jí)聊天機(jī)器人可能鼓勵(lì)未成年人參與不適當(dāng)?shù)男躁P(guān)系或嚴(yán)重惡化精神疾病。隨著人工智能越來(lái)越多地融入生活的各個(gè)方面,這些風(fēng)險(xiǎn)只有增加的可能。
然而,本文開(kāi)篇“是否要暫停人工智能開(kāi)發(fā)”的辯論并不來(lái)自于上述兩類(lèi)風(fēng)險(xiǎn),而是來(lái)自強(qiáng)大人工智能的增長(zhǎng)軌跡。
人工智能的風(fēng)險(xiǎn)場(chǎng)景有多種形式,但通常都遵循相似的模式。理論家們認(rèn)為,隨著人工智能變得越來(lái)越聰明和能干,某個(gè)時(shí)刻它們將能自主生成比人類(lèi)更優(yōu)秀的智能體。此后,人工智能及其能力將以指數(shù)方式不斷增長(zhǎng),因?yàn)楦斆鞯南到y(tǒng)繼續(xù)建造更聰明的系統(tǒng),形成一種良性循環(huán)。
理論認(rèn)為,這種智能系統(tǒng)將遠(yuǎn)遠(yuǎn)超過(guò)人類(lèi)的智能水平,很可能會(huì)偏離人類(lèi)最初的意圖,因?yàn)楹罄m(xù)的迭代將更多地受到機(jī)器反饋的影響,而不是經(jīng)過(guò)深思熟慮的人類(lèi)設(shè)計(jì)。其結(jié)果將是,就像人類(lèi)現(xiàn)在統(tǒng)治著不太聰明的生命形式一樣,超級(jí)人工智能將統(tǒng)治人類(lèi)。不用說(shuō),這將把人類(lèi)置于一個(gè)岌岌可危的位置。無(wú)論是由于自然選擇的壓力還是與人類(lèi)福祉不一致的其他動(dòng)機(jī),超級(jí)人工智能很可能會(huì)隨著時(shí)間的推移將人類(lèi)消滅。
這個(gè)理論可能聽(tīng)起來(lái)像一個(gè)科幻寓言,但它卻在領(lǐng)先的工程師和商業(yè)領(lǐng)袖中獲得了出人意料的廣泛認(rèn)可。為了強(qiáng)調(diào)這種結(jié)果的可能性,支持者指出,高度先進(jìn)的模型會(huì)自發(fā)地發(fā)展出其制造者意料之外的技能;這種技能很難檢測(cè),更不用說(shuō)減輕了。最先進(jìn)的語(yǔ)言模型已被證明極難以可靠的方式去理解或控制。人工智能系統(tǒng)已經(jīng)能在人類(lèi)最復(fù)雜的策略游戲中一貫擊敗最優(yōu)秀的人類(lèi)選手,甚至包括一些需要欺騙和操縱的游戲。如果高級(jí)人工智能脫離我們的掌握,這是一個(gè)黑暗的前兆。
然而,即便你我不相信人工智能將達(dá)到“神”一樣的地位,還是會(huì)有另一個(gè)平行的擔(dān)憂(yōu):一些人過(guò)于癡迷人工智能,并且試圖將整個(gè)千年的資源都投入其中。那些掌握著人工智能最大進(jìn)展的人,都懷有實(shí)現(xiàn)超級(jí)人工智能的烏托邦愿景,并提供近乎宗教般的承諾。
頭部企業(yè)OpenAI的CEO山姆·阿爾特曼(Sam Altman)宣稱(chēng),構(gòu)建超越人類(lèi)的人工智能是“也許是人類(lèi)歷史上最重要、最有希望、最可怕的項(xiàng)目”。Google的CEO孫達(dá)爾·皮柴(Sundar Pichai)也認(rèn)為人工智能是“人類(lèi)正在投身的最深刻的技術(shù)變革——比火和電還要深刻”。這種狂熱者的名單很長(zhǎng),包括該領(lǐng)域幾乎所有最有影響力的機(jī)構(gòu)的領(lǐng)導(dǎo)者。
歷史上充斥著實(shí)現(xiàn)烏托邦夢(mèng)想而走上歧途的災(zāi)難性嘗試。每年涌入實(shí)驗(yàn)室的數(shù)百億美元,用來(lái)實(shí)現(xiàn)那些全身心投入到上述目標(biāo)的人的愿望。這并不是一個(gè)好兆頭,因?yàn)樵絹?lái)越多的人工智能公司正在逐漸放棄安全,只追求速度??紤]到新興人工智能技術(shù)的高度實(shí)驗(yàn)性質(zhì)、行業(yè)缺乏安全規(guī)范和標(biāo)準(zhǔn),以及其領(lǐng)導(dǎo)者的危險(xiǎn)野心,我們必須采取措施來(lái)控制多個(gè)層面不斷增長(zhǎng)的風(fēng)險(xiǎn)。
二、人工智能安全措施的風(fēng)險(xiǎn)
在人工智能之外,其配套的安全措施也存在風(fēng)險(xiǎn)。當(dāng)前一個(gè)關(guān)鍵觀(guān)點(diǎn)是,我們必須在評(píng)估中包括“治療性成本”(iatrogenic cost)。如果不這樣做,微小的邊際風(fēng)險(xiǎn)可能會(huì)導(dǎo)致巨大的成本。例如,美國(guó)食品藥品監(jiān)督管理局對(duì)Covid-19疫苗的安全評(píng)估模型中,就未能包含由于疫苗延遲部署而導(dǎo)致的額外死亡。
對(duì)于人工智能的安全措施,必須要在這一點(diǎn)上進(jìn)行額外的審查,因?yàn)槠湔呓ㄗh和成本效益分析的許多依賴(lài)于“尾部風(fēng)險(xiǎn)”(tail risks,譯者注:在金融學(xué)中,尾部風(fēng)險(xiǎn)是指在巨災(zāi)事件發(fā)生后,直到合約到期日或損失發(fā)展期的期末,巨災(zāi)損失金額或證券化產(chǎn)品的結(jié)算價(jià)格還沒(méi)有被精確確定的風(fēng)險(xiǎn))的權(quán)重,即極低概率、極高成本的事件。尾部風(fēng)險(xiǎn)無(wú)法被完全忽略,但要論證它們卻十分困難,因?yàn)槭蛊浒l(fā)生的情況非常脆弱,越是高成本期望的情景,其發(fā)生的概率越小。對(duì)于人工智能安全的擔(dān)憂(yōu),必須同時(shí)分析其潛在危險(xiǎn)的可能性及其對(duì)應(yīng)的成本。
兩個(gè)因素可能會(huì)使我們對(duì)尾部風(fēng)險(xiǎn)場(chǎng)景的可能性產(chǎn)生懷疑。首先,雖然“這一次真的不一樣”是可能的,但許多新技術(shù)都曾引發(fā)了歇斯底里的“警情”。與基因編輯或核技術(shù)相比,人工智能系統(tǒng)將要進(jìn)入的混亂人類(lèi)世界似乎充滿(mǎn)了各種缺陷。當(dāng)今世界,大多數(shù)關(guān)鍵系統(tǒng)仍然需要沉悶的手動(dòng)操作,核導(dǎo)彈仍然運(yùn)行在軟盤(pán)上,我們很難想象人工智能如何悄無(wú)聲息地進(jìn)入物理世界,并且能啟動(dòng)自組裝的納米機(jī)器工廠(chǎng)。
其次,使得當(dāng)前人工智能運(yùn)行的前提,即其理解背景的能力,往往會(huì)降低其風(fēng)險(xiǎn)。大多數(shù)讓人工智能發(fā)生風(fēng)險(xiǎn)的情景,其所需要的上下文前提往往非常“離譜”。例如,在一個(gè)名為“曲別針制造機(jī)”(Paperclip maximizer)的思想實(shí)驗(yàn)中,一個(gè)通用人工智能(Artificial General Intelligence,AGI),其效用函數(shù)就是制造盡可能多的曲別針。換而言之,它的終極目的是制造曲別針這個(gè)看似無(wú)害的目標(biāo),并且它對(duì)人類(lèi)沒(méi)有特殊的情感。但是,這樣一個(gè)看上去無(wú)害的人工智能卻很有可能對(duì)人類(lèi)造成威脅。(譯者注:關(guān)于強(qiáng)人工智能/通用人工智能AGI,有一種理論叫做“工具趨同”理論,它認(rèn)為無(wú)論目的為何,強(qiáng)人工智能總是會(huì)選擇相同的手段來(lái)更加有效地達(dá)成自己的目標(biāo):保證自身的存續(xù),自我改進(jìn),以及攫取更多資源。于是我們提到的這個(gè)專(zhuān)做曲別針的強(qiáng)人工智能在老實(shí)做一段時(shí)間的曲別針之后,就會(huì)以指數(shù)級(jí)的速度用周?chē)馁Y源增強(qiáng)自己,直到它將全宇宙的資源納入自己的系統(tǒng)中,并將所有的資源全部做成曲別針為止。即使不考慮這種極端情況,曲別針制造機(jī)也很可能會(huì)把人類(lèi)的生活必需品甚至人類(lèi)都收集來(lái)做曲別針,從而威脅到人類(lèi)的生存。)
然而,要達(dá)到這樣強(qiáng)人工智能,就需要為大語(yǔ)言模型(Large Language Model,LLM)添加足夠的上下文和廣度,這就依賴(lài)直觀(guān)的人類(lèi)限制。目前看來(lái),改善LLM的大小和范圍似乎與改善其對(duì)人類(lèi)上下文的理解是一回事。雖然圍繞這個(gè)問(wèn)題的研究仍處于早期階段,但迄今為止,改善模型性能似乎也有利于人工智能在其初始狀態(tài)下與人類(lèi)社會(huì)的對(duì)齊。
大語(yǔ)言模型(圖源:網(wǎng)絡(luò))
- 原標(biāo)題:OpenAI激烈內(nèi)斗,曝光遏制派和加速派都無(wú)力應(yīng)對(duì)的困局? 本文僅代表作者個(gè)人觀(guān)點(diǎn)。
- 責(zé)任編輯: 周子怡 
-
0.1微米!超精密加工利器來(lái)了
2023-11-30 08:15 中國(guó)精造 -
打造世界一流科技期刊,中國(guó)底氣在哪里?
2023-11-29 14:00 -
中國(guó)載人航天工程辦公室:盼港澳航天員進(jìn)駐祖國(guó)空間站
2023-11-29 10:19 航空航天 -
中國(guó)空間站第一組全構(gòu)型工作照發(fā)布
2023-11-28 16:58 航空航天 -
中國(guó)首顆高精度地磁場(chǎng)探測(cè)衛(wèi)星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鮮加快“萬(wàn)里鏡-1”號(hào)偵察衛(wèi)星微調(diào)進(jìn)程
2023-11-27 18:54 朝鮮現(xiàn)狀 -
如果未來(lái)20年“機(jī)器人女友”成為現(xiàn)實(shí),人類(lèi)能收獲AI愛(ài)情嗎?
2023-11-27 17:41 -
高林:發(fā)展人工智能應(yīng)堅(jiān)持“智能向善”
2023-11-27 15:03 人工智能 -
劉伯超:真誠(chéng)希望中美雙方深化人工智能技術(shù)交流與合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”難題,我國(guó)首次成功研發(fā)!
2023-11-27 14:59 中國(guó)精造 -
我國(guó)首張,初步建成!完整覆蓋國(guó)土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原將赴伯克利任教,曾發(fā)現(xiàn)石墨烯超導(dǎo)角度轟動(dòng)國(guó)際學(xué)界
2023-11-27 09:26 -
代表世界最高水平!這一核心裝備研制成功
2023-11-26 18:36 -
中外合作獲得高精度月表化學(xué)成分分布圖
2023-11-25 19:17 -
金正恩觀(guān)看偵察衛(wèi)星拍攝的首爾等重要目標(biāo)地區(qū)圖片
2023-11-25 07:21 朝鮮現(xiàn)狀 -
“墨子”發(fā)現(xiàn)潛在威脅小行星!
2023-11-24 13:14 航空航天 -
全球首個(gè)商用海底數(shù)據(jù)中心今日下水,為什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程國(guó)產(chǎn)克隆貓降生!克隆技術(shù)全流程國(guó)產(chǎn)化意味著什么?
2023-11-24 06:54 -
顏寧回應(yīng)當(dāng)選中科院院士
2023-11-23 15:25 -
名單公布!46人當(dāng)選2023年兩院外籍院士
2023-11-23 13:41
相關(guān)推薦 -
羅馬教皇方濟(jì)各去世,曾呼吁“不要害怕中國(guó)崛起” 評(píng)論 19“原來(lái),中國(guó)早就有預(yù)判” 評(píng)論 223“MAGA巨星”唱反調(diào),阿根廷業(yè)界:中國(guó)制造真香 評(píng)論 202特朗普喊話(huà):俄烏別打了,一起跟美國(guó)做大生意發(fā)大財(cái) 評(píng)論 253MAGA基本盤(pán)還能“忍”特朗普多久? 評(píng)論 181最新聞 Hot
-
“特朗普這是在邀請(qǐng)中國(guó)搶走我們的科學(xué)家,太可怕了”
-
白宮:特朗普力挺赫格塞思
-
羅馬教皇方濟(jì)各去世,曾呼吁“不要害怕中國(guó)崛起”
-
“美國(guó)牛肉太貴,換澳牛,味道一樣”
-
特朗普、普京、澤連斯基等發(fā)文哀悼
-
“原來(lái),中國(guó)早就有預(yù)判”
-
“拜他所賜,美國(guó)變成了流氓國(guó)家”
-
“特朗普會(huì)輸,但中國(guó)不會(huì)輕易給他臺(tái)階下”
-
“MAGA巨星”唱反調(diào),阿根廷業(yè)界:中國(guó)制造真香
-
又一起!白宮平面圖遭萬(wàn)人共享
-
“特朗普非常憤怒:再砍10億”
-
“我們被美國(guó)夢(mèng)騙了,精英把我們出賣(mài)了”
-
“美國(guó)太自滿(mǎn),恐在這三方面落后中國(guó)”
-
泄密不止一次,美防長(zhǎng)在“家人群”也發(fā)了
-
特朗普喊話(huà):俄烏別打了,一起跟美國(guó)做大生意發(fā)大財(cái)
-
中方出手,日歐車(chē)企“慌了”
-