計(jì)算機(jī)學(xué)會(huì)通訊編者按:自2016年以來,周伯文教授及其團(tuán)隊(duì)持續(xù)深入研究agi的實(shí)現(xiàn)路徑;當(dāng)前,面對(duì)大語(yǔ)言模型在scaling law與架構(gòu)等方面的技術(shù)瓶頸,周教授及其團(tuán)隊(duì)不僅提出了完整的agi實(shí)現(xiàn)路徑,更創(chuàng)新性地從應(yīng)用價(jià)值出發(fā),探索更高效發(fā)揮agi潛力的場(chǎng)景與方法。
本文詳細(xì)介紹了這一原創(chuàng)性路徑及其技術(shù)研究,為agi的未來發(fā)展提供新的縱深視角與實(shí)踐參考。
人工智能突破從哪里來,
未來向何處發(fā)展?
前沿學(xué)者們對(duì)大語(yǔ)言模型的能力邊界進(jìn)行了持續(xù)討論。例如,圖靈獎(jiǎng)得主yann lecun常提及,機(jī)器學(xué)習(xí)目前存在諸多短板,他的研究偏重泛化性,關(guān)注如何盡量達(dá)到人類的智能。而deepmind強(qiáng)化學(xué)習(xí)團(tuán)隊(duì)負(fù)責(zé)人david silver提到,要做到superhuman intelligence(超人類人工智能)以及發(fā)現(xiàn)更多新知,大語(yǔ)言模型尚且存在局限,仍有許多工作有待完成。在這里,他強(qiáng)調(diào)的是如何在一些專業(yè)領(lǐng)域?qū)崿F(xiàn)superhuman intelligence,并不是具備更強(qiáng)的通用能力。
因此,在當(dāng)下這一時(shí)間節(jié)點(diǎn),探討agi的實(shí)現(xiàn)方向及其關(guān)鍵問題,具有重要的意義。我最早對(duì)agi發(fā)展路徑的思考作公開分享是在2016年,當(dāng)時(shí)我正擔(dān)任ibm總部的人工智能基礎(chǔ)研究院負(fù)責(zé)人。在那一年的town hall meeting上,我提出人工智能的發(fā)展會(huì)經(jīng)歷三個(gè)階段,分別為狹義人工智能(ani)、廣義人工智能(abi),以及通用人工智能(agi)。
周伯文教授在2016年提出,人工智能的發(fā)展會(huì)經(jīng)過ani、abi、agi三個(gè)階段
當(dāng)時(shí)我的判斷是,基于深度學(xué)習(xí)的監(jiān)督算法僅能實(shí)現(xiàn)狹義人工智能,因其在任務(wù)間的遷移和泛化能力極為有限,并且需要大量標(biāo)注數(shù)據(jù)。另一方面,2016年,agi還是非常模糊的愿景,全世界只有極少數(shù)研究者談?wù)?,我個(gè)人當(dāng)時(shí)給出agi的定義是比人類更聰明,會(huì)獨(dú)立自主學(xué)習(xí),并且一定需要更好地治理和監(jiān)管——這點(diǎn)非常明確。但怎樣從狹義人工智能走向agi,我判斷中間有一個(gè)必經(jīng)階段,并將其稱之為abi,即廣義人工智能。這應(yīng)該是abi概念被首次提出,因此我也給出了三個(gè)必備要素的定義:即自監(jiān)督學(xué)習(xí)能力、端到端能力,以及從判別式走向生成式。盡管2016年時(shí)狹義人工智能進(jìn)展明顯,但因?yàn)榕袛嗥淠芰Υ嬖谏舷?,我?dāng)時(shí)呼吁ai研究者盡快從狹義人工智能,轉(zhuǎn)向探索廣義人工智能?;剡^頭看2022年底出現(xiàn)的chatgpt,以上三個(gè)要素基本都已具備,所以可以認(rèn)為基于scaling law的大模型較好地實(shí)現(xiàn)了廣義人工智能。但當(dāng)時(shí)我本人未曾預(yù)料其具備如此強(qiáng)大的涌現(xiàn)與零樣本學(xué)習(xí)能力,盡管我曾提到abi應(yīng)該具備優(yōu)秀的小樣本學(xué)習(xí)能力。認(rèn)知決定行動(dòng),行動(dòng)取得結(jié)果,有了上述判斷,我的團(tuán)隊(duì)在2016年轉(zhuǎn)向廣義人工智能研究,開始思考如何讓模型更好地泛化,隨后在2016年底提出了多頭自注意力機(jī)制的原型(a structured self-attentive sentence embedding, https://arxiv.org/abs/1703.03130),并首先應(yīng)用在與下游任務(wù)無關(guān)的自然語(yǔ)言表征預(yù)訓(xùn)練中。
研究團(tuán)隊(duì)認(rèn)為,模型在思考過程中能更靈活、多樣、有效地使用元?jiǎng)幼?,是模型在推理階段能夠利用更多思考時(shí)間解決更復(fù)雜任務(wù)的重要原因。transformer完善了多頭自注意力架構(gòu),但其價(jià)值的放大,來自于openai的研判。openai發(fā)現(xiàn)并認(rèn)為,基于多頭自注意力架構(gòu)用于預(yù)測(cè)下一個(gè)詞,由此訓(xùn)練出來的大語(yǔ)言模型是目前最好的世界知識(shí)壓縮器。站在2019-2022年的視角,這個(gè)認(rèn)知非常前沿,是實(shí)現(xiàn)壓縮智能的基礎(chǔ)。我們可以認(rèn)為transformer和gpt代表的壓縮智能是agi的重要里程碑。但毫無疑問,僅靠壓縮智能遠(yuǎn)遠(yuǎn)不能實(shí)現(xiàn)agi。google deepmind發(fā)表于2023年的論文(levels of agi: operationalizing progress on the path to agi. 2023),將agi進(jìn)行了分級(jí)。一方面借用了我們提出的從狹義人工智能到通用人工智能對(duì)比的概念,另外一方面在專業(yè)性上將人工智能分成了6個(gè)級(jí)別,從不具備ai能力即純粹編程,到superhuman level(“超人類”水平)。
google deepmind把a(bǔ)gi分為6個(gè)等級(jí)
可以看出,chatgpt雖然有很好的泛化性,但在智力水平只屬于第一級(jí)emerging level(“初現(xiàn)”),還達(dá)不到第二級(jí)competent level(“和人類相當(dāng)”)——后者的定義是超過50%的人類。再往上為expert(專家級(jí)),是指超過90%人類的水平;virtuoso(魔術(shù)師級(jí))是指超過99%人類;而所謂superhuman(超人類)是指在該領(lǐng)域可以超越所有人類——如同最新版的alphafold一樣,人類無法在蛋白質(zhì)折疊這個(gè)領(lǐng)域再擊敗ai了。
但類似alphafold這種專業(yè)性極強(qiáng)的ai,其泛化性往往較為有限。若將泛化性與專業(yè)性結(jié)合考慮,可以形成一個(gè)二維概念框架。我們注意到,chatgpt和sora在泛化性方面取得了顯著進(jìn)展,但在專業(yè)性方面僅達(dá)到人類15%-20%的水平。即便運(yùn)用scaling law(規(guī)模律)進(jìn)一步增加模型參數(shù),其專業(yè)性的提升效果并不顯著,而成本卻顯著增加。專業(yè)性不足不僅限制了創(chuàng)新,還會(huì)導(dǎo)致大量事實(shí)錯(cuò)誤的出現(xiàn)?;仡櫲斯ぶ悄芷呤嗄甑陌l(fā)展歷程,我認(rèn)為實(shí)現(xiàn)通用人工智能的路徑可被視為一張二維路線圖:橫軸代表專業(yè)性,從ibm的深藍(lán)到deepmind的alphago,在橫軸方向(專業(yè)性)上取得了顯著進(jìn)展;但這些工作的泛化性一直較為薄弱,限制了ai技術(shù)的進(jìn)一步普及。
而從2016年多頭自注意力,到transformer、chatgpt出現(xiàn),壓縮智能代表的是泛化性狂飆。但可以看出,它在專業(yè)性上的水平進(jìn)展極其緩慢,scaling law很明顯不足以延伸它的專業(yè)性,能力長(zhǎng)期停留在level 1的左側(cè)。
未來人工智能應(yīng)當(dāng)如何發(fā)展,并推動(dòng)更大的價(jià)值創(chuàng)造?從2022年底,我在多個(gè)場(chǎng)合講過,存在一個(gè)高價(jià)值區(qū)域,這個(gè)區(qū)域在橫軸應(yīng)達(dá)到或超過90%以上專業(yè)人士的水平。同時(shí)又具備能達(dá)到廣義人工智能級(jí)以上的泛化能力,以極低成本在不同任務(wù)之間進(jìn)行遷移。這個(gè)區(qū)域,即是agi路線圖中的“高價(jià)值區(qū)域”。
這個(gè)區(qū)域離這張路線圖出發(fā)最近的點(diǎn),我稱之為通專融合引爆點(diǎn)。是否存在一種路線,從當(dāng)前技術(shù)出發(fā),能更快地接近通專融合引爆點(diǎn)?我認(rèn)為存在這樣的路線,并將其稱為通專融合技術(shù)路線。
雖然我們看到此前openai一直都是在scaling law的泛化性上持續(xù)推動(dòng),但今年也開始朝專業(yè)性方向迭代。從gpt-4o之后,將很多精力投入“草莓”系統(tǒng)的研究,開始沿著與通專融合相似的方向發(fā)展。
關(guān)于通專融合的目標(biāo),一方面,隨著合成數(shù)據(jù)飛輪效應(yīng)的加速,過去一年基礎(chǔ)模型獲取通用能力的難度顯著降低;另一方面,在世界知識(shí)的壓縮能力上,開源模型的性能已無限逼近閉源模型。然而,不管是開源還是閉源模型,在專業(yè)化能力方面仍存在顯著瓶頸。例如,在實(shí)際的軟件工程環(huán)境中,gpt-4僅能解決github中1.74%的人類提出的問題。即便通過引入大量工具、結(jié)合基礎(chǔ)模型與工具型agent的方式,這一比例也僅提升至13.85%。
可以看到,目前對(duì)于世界知識(shí)進(jìn)行壓縮的智能發(fā)展路徑正在自然演進(jìn),但我們認(rèn)為在這之上的專業(yè)能力,才是現(xiàn)階段agi皇冠上的明珠。
通專融合agi實(shí)現(xiàn)路徑
我們提出的通專融合,不僅需要同時(shí)具備專業(yè)性和通用泛化性,還必須解決任務(wù)可持續(xù)性的問題,來讓人工智能能高效地可持續(xù)發(fā)展,它們形成了通專融合技術(shù)挑戰(zhàn)的三個(gè)頂點(diǎn)。
“通專融合”必須實(shí)現(xiàn)“通用泛化性”“高度專業(yè)性”“任務(wù)可持續(xù)性”三者兼得
自2023年初以來,我們提出了具體的通專融合實(shí)現(xiàn)路徑(towards building specialized generalist ai with system 1 and system 2 fusion,https://arxiv.org/abs/2407.08642),該路徑需要三個(gè)層次相互依賴,而非僅依靠單一模型或算法。對(duì)每一層我們都有整體規(guī)劃與具體技術(shù)進(jìn)展,不過由于時(shí)間關(guān)系不能一一展開,下面簡(jiǎn)要描述每一層的核心思想,以此完成對(duì)通專融合技術(shù)體系的拆解。
路徑的第一層是“基礎(chǔ)模型層”,這一層需要大量工作來改變現(xiàn)有架構(gòu)。其中,最重要的是如何實(shí)現(xiàn)知識(shí)與推理的有效解耦與組合,同時(shí)實(shí)現(xiàn)高智力密度的監(jiān)督信號(hào),并在架構(gòu)方面實(shí)現(xiàn)長(zhǎng)期記憶——目前transformer難以實(shí)現(xiàn)長(zhǎng)期記憶,通過改變現(xiàn)有架構(gòu),ai能夠獲得強(qiáng)大的泛化性和遷移能力。在基礎(chǔ)模型的能力之上,具備通用的架構(gòu)和學(xué)習(xí)能力,還需要高效的學(xué)習(xí)方法,才能更好地實(shí)現(xiàn)通專融合,這便進(jìn)入了第二層“融合協(xié)同層”。自2017年以來,我們提出“系統(tǒng)1”和“系統(tǒng)2”(即“快思考”和“慢思考”)的動(dòng)態(tài)融合,以解決更多問題。兩種思考方式的動(dòng)態(tài)融合最接近人類大腦的思考方式,也是從能耗和泛化角度而言最佳的方法。這里可以進(jìn)一步延伸至多智能體協(xié)同,它不僅僅是單個(gè)系統(tǒng)1或系統(tǒng)2,多個(gè)智能體的協(xié)同在群體層面產(chǎn)生智能涌現(xiàn),必須具備復(fù)雜任務(wù)的規(guī)劃能力。
在融合協(xié)同層,需要脫離目前基于統(tǒng)計(jì)相關(guān)性的推斷,轉(zhuǎn)向因果推斷,這是避免大模型能力瓶頸的有效方法。我們已經(jīng)認(rèn)識(shí)到,“壓縮智能”并不代表所有智能。正如人類看再多的書和視頻也無法學(xué)會(huì)游泳一樣,要獲得關(guān)于游泳的智能,就必須與物理世界互動(dòng),讓物理世界的反饋影響肌肉記憶,直至大腦皮層。這種反饋?zhàn)灾鲗W(xué)習(xí)與發(fā)現(xiàn),就是我們所說的第三層“探索進(jìn)化層”,這層的關(guān)鍵在于高效地獲取反饋和獎(jiǎng)勵(lì),即從真實(shí)環(huán)境中獲得可持續(xù)、高置信的反饋信號(hào)。同時(shí),我們還需要跨媒介可交互的世界模型來對(duì)物理環(huán)境進(jìn)行建模。
通專融合關(guān)鍵技術(shù)
1、基礎(chǔ)模型層的進(jìn)化方向
高密度監(jiān)督信號(hào)是專業(yè)化知識(shí)注入的關(guān)鍵。在基礎(chǔ)模型層,必須高效引入高智力密度監(jiān)督信號(hào)。在壓縮智能學(xué)習(xí)方式下,容易讓人誤以為只需給出下一個(gè)詞作為監(jiān)督,模型就能高效學(xué)習(xí)。然而,這種學(xué)習(xí)方式在很多情況下只能讓模型學(xué)會(huì)一種“快捷方式”(shortcut),它知道如何找到最佳答案,但對(duì)于“為什么這是最佳答案”,則缺乏系統(tǒng)化的思考。
基于這一原因,在直接偏好優(yōu)化階段,我們提出了帶有觀測(cè)、批評(píng)、修改循環(huán)流程的樹狀偏好數(shù)據(jù)構(gòu)建方法。在每個(gè)推理階段,給模型提供多個(gè)選擇并給出優(yōu)先級(jí),通過更高密度的監(jiān)督,使模型在推理過程中學(xué)會(huì)更多可替代性的比較(advancing llm reasoning generalists with preference trees,https://arxiv.org/abs/2404.02078)。該方法在openai o1亮相前已公布,仔細(xì)研究會(huì)發(fā)現(xiàn)它采用了類似的高智力密度監(jiān)督推理過程。這是為模型注入專業(yè)化知識(shí)的關(guān)鍵。
何為“專業(yè)”與“不專業(yè)”?前者意味著始終能在多個(gè)選擇中找出最佳答案;而后者則僅能做出“最佳猜測(cè)”,常被其他待選項(xiàng)所混淆。(11月25日,上海ai實(shí)驗(yàn)室推出了能夠自主生成高智力密度數(shù)據(jù)、具備元?jiǎng)幼魉伎寄芰Φ?span style="padding: 0px; margin: 0px; font-weight: 600;">強(qiáng)推理模型書生internthinker。該模型能在推理過程中進(jìn)行自我反思和糾正,從而在數(shù)學(xué)、代碼、推理謎題等多種復(fù)雜推理任務(wù)上取得更優(yōu)結(jié)果。)
除了當(dāng)前的主流結(jié)構(gòu)外,高效的知識(shí)推理可組合可分離的架構(gòu)更有利于構(gòu)建可信賴、泛化、擴(kuò)展的大模型。布羅德曼分區(qū)(brodmann area)是神經(jīng)科學(xué)里面公認(rèn)對(duì)大腦不同區(qū)域承擔(dān)不同專業(yè)功能的分區(qū)架構(gòu)。我們尋找的架構(gòu),應(yīng)具備知識(shí)應(yīng)用可信賴、推理過程可泛化、知識(shí)內(nèi)容可拓展三種性質(zhì),同時(shí)能夠有效地進(jìn)行組合。transformer的一個(gè)優(yōu)點(diǎn)在于,可實(shí)現(xiàn)推理與知識(shí)的高度融合,擁有很大的提升空間。但缺點(diǎn)也在于當(dāng)知識(shí)和推理高度融合之后,一旦模型產(chǎn)生幻覺,將很難溯源。所以尋找一種新的架構(gòu)極其重要。
長(zhǎng)期記憶機(jī)制是通專融合的中間橋梁,需要這樣的機(jī)制在通用與專業(yè)能力之間架起一座兼容橋梁。目前,這種長(zhǎng)期記憶機(jī)制在transformer架構(gòu)中的表現(xiàn)并不充分,這方面我們有一系列工作(如我2015年的研究https://arxiv.org/abs/1510.03931,以及近期的工作https://arxiv.org/html/2408.01970)。
2、融合協(xié)同層
通專融合路徑的第二層是融合協(xié)同層,特別強(qiáng)調(diào)快速處理和深度推理結(jié)合。在cvpr 2024收錄的論文中,我們探索了這一領(lǐng)域(interactive continual learning: fast and slow thinking)。我們構(gòu)建了一個(gè)高效識(shí)別圖像的快系統(tǒng)(專用系統(tǒng)),當(dāng)其遇到不確定的情況時(shí),會(huì)將信息傳遞給一個(gè)更強(qiáng)大的慢系統(tǒng)(通用推理系統(tǒng))。慢系統(tǒng)基于輸入信息進(jìn)行深度分析,并將結(jié)果反饋給快系統(tǒng)并在快系統(tǒng)中完成了一個(gè)結(jié)構(gòu)化長(zhǎng)期存儲(chǔ)的更新。這種結(jié)合不僅降低了能耗,還提升了處理速度和準(zhǔn)確率。
這種結(jié)合在處理速度和能耗上優(yōu)于單獨(dú)使用慢系統(tǒng)。許多問題快系統(tǒng)可自行回答,無需調(diào)用慢系統(tǒng)。此外,我們發(fā)現(xiàn)這種結(jié)合的準(zhǔn)確度高于單獨(dú)使用快系統(tǒng)或慢系統(tǒng),這一發(fā)現(xiàn)頗具啟發(fā)性。其潛力在于,快系統(tǒng)缺乏深度思考,易犯錯(cuò);而慢系統(tǒng)對(duì)具體情況的判斷不如快系統(tǒng),許多細(xì)節(jié)不了解。通過快系統(tǒng)的輸入,慢系統(tǒng)可排除不可能情況,做出更好判斷。
快系統(tǒng)好比前線偵察員,提供具體輸入信息;慢系統(tǒng)則相當(dāng)于后方指揮官,具有更好的思考深度和判斷能力。兩者結(jié)合,可做出更準(zhǔn)確高效的決策。這種結(jié)合不僅是簡(jiǎn)單疊加,而是深刻互動(dòng)和理解??煜到y(tǒng)從慢系統(tǒng)的輸出中學(xué)習(xí),并形成長(zhǎng)期記憶;慢系統(tǒng)從快系統(tǒng)的輸入中獲得專業(yè)判斷和背景。
上述系統(tǒng)不僅適用于圖像識(shí)別,我們還嘗試把將其應(yīng)用于自然語(yǔ)言生成,讓這樣一個(gè)通專融合架構(gòu)生成非常專業(yè)化的描述文字,例如某種疾病治療方法、具體商品的營(yíng)銷策略等。
我們發(fā)現(xiàn),專業(yè)模型承擔(dān)了大部分任務(wù)。如下圖所示,藍(lán)色部分是專業(yè)模型生成的,紅色部分則是專業(yè)模型“求助”通用模型進(jìn)行泛化推理之后產(chǎn)生的。80%的內(nèi)容由專業(yè)模型獨(dú)立完成,而20%的慢推理對(duì)提升專業(yè)模型的泛化性有非常大的幫助(cogenesis: a framework collaborating large and small language models for secure context-aware instruction following. 2024)。
針對(duì)專業(yè)化個(gè)性內(nèi)容生成任務(wù),通用大模型僅對(duì)其中約20%的內(nèi)容有貢獻(xiàn)(綱要內(nèi)容/推理能力,紅色token),剩下80%內(nèi)容則主要依賴專業(yè)化小模型生成(藍(lán)色token)
3、探索進(jìn)化層
正如前面提到,人類學(xué)會(huì)游泳必須與真實(shí)物理世界互動(dòng),ai也是如此。在這一層,我們嘗試進(jìn)行模型與環(huán)境長(zhǎng)期實(shí)時(shí)交互,并進(jìn)行具身自主探索與世界模型構(gòu)建。比如上海人工智能實(shí)驗(yàn)室提出了開源且通用的自動(dòng)駕駛視頻預(yù)測(cè)模型genad,類似于自動(dòng)駕駛領(lǐng)域的“sora”,能夠根據(jù)一張照片的輸入,生成后續(xù)高質(zhì)量、連續(xù)、多樣化、符合物理世界規(guī)律的未來世界預(yù)測(cè),并可泛化到任意駕駛場(chǎng)景,被多種駕駛行為操控。在與物理世界的互動(dòng)探索中,一方面我們深入物理世界,另一方面則在虛擬世界中通過模擬進(jìn)一步提升效率。如具身智能訓(xùn)練,我們實(shí)現(xiàn)了在單卡上模擬訓(xùn)練一小時(shí),相當(dāng)于在真實(shí)物理世界訓(xùn)練380天的效率。這些成果通過首個(gè)城市級(jí)具身智能仿真訓(xùn)練場(chǎng)浦源·桃源進(jìn)行了開放,歡迎大家在這個(gè)平臺(tái)上訓(xùn)練專屬的具身智能。
通專融合實(shí)踐:科學(xué)發(fā)現(xiàn)
2023年1月5日《nature》發(fā)表的封面文章《papers and patents are becoming less disruptive over time》,文章提到,過去70年來論文數(shù)越來越多,專利數(shù)越來越多,但單篇論文的影響力卻逐年下降,這不僅僅出現(xiàn)在計(jì)算機(jī)領(lǐng)域,也適用于生物、物理、化學(xué)等領(lǐng)域。
這篇論文只做了數(shù)據(jù)分析,沒有追溯原因。對(duì)此我的個(gè)人思考是,該現(xiàn)象與科學(xué)發(fā)展規(guī)律密切相關(guān)。科學(xué)經(jīng)過100余年的建設(shè),已建成趨于完美的大廈,在大廈內(nèi)部,每門子學(xué)科形成了非常強(qiáng)大的信息繭房,繭房間壁壘高,繭房?jī)?nèi)信息過載,所以導(dǎo)致論文與以前相比很難產(chǎn)生更廣泛的影響力。解決這一問題,還需要對(duì)科研的組織方式和適配性進(jìn)行適當(dāng)調(diào)整。與此同時(shí),也需要科研工作者與時(shí)俱進(jìn),用好ai新工具。我們有沒有可能通過人工智能在技術(shù)層面幫助科學(xué)家獲得更多突破?例如,人工智能的通用能力可以幫助人類解決信息壁壘太高的問題——因?yàn)槿祟惖男畔⑷萘渴怯刑旎ò宓?。繭房的信息過載的問題,則可以通過人工智能系統(tǒng)深度思考突破。
所以,通專融合是解決科學(xué)創(chuàng)新,開創(chuàng)下一代科學(xué)創(chuàng)新范式必須具備的能力。關(guān)于使用大模型開展科學(xué)創(chuàng)新,目前存在諸多問題,例如不確定性和幻覺。不過原openai聯(lián)合創(chuàng)始人andrej karpathy認(rèn)為,這種不確定和幻覺一方面可以被認(rèn)為是大模型目前的不足,但另一方面則更像一個(gè)特性而非缺陷,這種幻覺與創(chuàng)造性相關(guān),模型的幻覺可以與人類做夢(mèng)類比。在科學(xué)歷史上,德國(guó)有機(jī)化學(xué)家august kekul夢(mèng)見銜尾蛇,進(jìn)而發(fā)現(xiàn)苯環(huán)結(jié)構(gòu)。這種發(fā)現(xiàn)的過程,從某種意義上講,與大模型的幻覺具有很強(qiáng)的相似性,關(guān)鍵在于如何把幻覺的創(chuàng)造性用好,利用大模型的這種特點(diǎn)發(fā)揮價(jià)值?;谶@些思路,我們過去幾年來開展了一系列的工作,比如我們認(rèn)為大語(yǔ)言模型是非常有效的零樣本(zero-shot)科學(xué)假設(shè)的提出者。所謂零樣本就是大模型可以提出全新、原創(chuàng)的科學(xué)假設(shè)。不一定像牛頓三大運(yùn)動(dòng)定律那樣具有劃時(shí)代意義,但模型確實(shí)能提出一些科學(xué)家沒有發(fā)現(xiàn)和觀察到的現(xiàn)象(如我們2023年的工作large language models are zero shot hypothesis proposers以及近期工作ultramedical: building specialized generalists in biomedicine)。例如,我們構(gòu)建的全自動(dòng)蛋白質(zhì)組學(xué)知識(shí)發(fā)現(xiàn)系統(tǒng)proteus能結(jié)合真實(shí)的蛋白質(zhì)組學(xué)數(shù)據(jù),獨(dú)立發(fā)現(xiàn)了191條經(jīng)過專家評(píng)估的、具有自洽性、邏輯性和創(chuàng)新性的科學(xué)假設(shè)(https://arxiv.org/abs/2411.03743)。
在相關(guān)的工作中,我們驗(yàn)證了通專融合大模型能夠提出有效的科學(xué)假設(shè)。如果把通專融合再進(jìn)一步延伸至多智能體,我們發(fā)現(xiàn),具備通專融合的系統(tǒng),可以在科學(xué)研究的全生命周期過程中發(fā)揮不同的作用,并可與人類科學(xué)家進(jìn)行配合。
我們進(jìn)而提出了“人在環(huán)路大模型多智能體與工具協(xié)同”概念框架,用以模仿人類科研過程。通過構(gòu)建ai分析師、工程師、科學(xué)家和批判家等多種角色,同時(shí)接入工具調(diào)用能力來協(xié)同提出新的假設(shè),并進(jìn)一步將人類專家納入其中,借助“人在環(huán)路”挖掘人機(jī)協(xié)同的潛力。實(shí)驗(yàn)結(jié)果表明,這一框架能夠顯著提升假設(shè)發(fā)現(xiàn)的新穎性與相關(guān)性等多個(gè)維度指標(biāo)(large language models are zero shot hypothesis proposers. neurips 2023,https://arxiv.org/abs/2311.05965)。
早在1900年,德國(guó)數(shù)學(xué)家大衛(wèi)·希爾伯特(david hilbert)提出了著名的“23個(gè)問題”,引領(lǐng)了數(shù)學(xué)多個(gè)子領(lǐng)域數(shù)百年的發(fā)展。無論是希爾伯特還是愛因斯坦,他們都談到過,提出科學(xué)問題,遠(yuǎn)比解決問題更重要。我們希望通專融合的ai系統(tǒng),能幫助各個(gè)領(lǐng)域出現(xiàn)更多希爾伯特。
展望:agi的中心法則?
分子生物學(xué)中,有一個(gè)被稱為“中心法則”的概念,1958年由諾貝爾獎(jiǎng)得主佛朗西斯·克里克(francis crick)首次提出,明確了遺傳信息從dna傳遞到rna,再?gòu)膔na傳遞到蛋白質(zhì)的過程。這一法則不僅深刻揭示了生命現(xiàn)象的本質(zhì),也為之后的生物技術(shù)發(fā)展提供了方向指導(dǎo)。隨著科學(xué)研究的深入,中心法則經(jīng)歷了多次修正和完善,逐漸成為分子生物學(xué)的核心理論之一。
這一法則令我印象深刻。因?yàn)樗浅S卸床斓亟沂竞陀绊懼镱I(lǐng)域的各個(gè)方面。這進(jìn)一步引發(fā)了我的聯(lián)想:關(guān)于agi如何實(shí)現(xiàn),此前還未形成一條指導(dǎo)實(shí)踐的完整路徑,我們能否找到一種agi的“中心法則”?我在報(bào)告中提出的“通專融合”路徑,是對(duì)這一問題的探索。生物學(xué)的中心法則是在幾十年研究中不斷地迭代更新,很多優(yōu)秀科學(xué)家一同共創(chuàng),做出了杰出貢獻(xiàn)。同理,agi可能也需要這樣來自人工智能研究與其他交叉學(xué)科社區(qū)的共創(chuàng)。