展望2025年,國產(chǎn)大模型已然超越了“百模大戰(zhàn)”的喧囂,正毅然邁向更深的探索領(lǐng)域。然而,一年之后,誰能在這場技術(shù)盛宴中穩(wěn)坐牌桌,仍是一個(gè)充滿變數(shù)的謎團(tuán)。百度、阿里、字節(jié),這三張顯而易見的“明牌”,憑借其在算力、技術(shù)、數(shù)據(jù)三大硬指標(biāo)上的全球領(lǐng)先地位,未來完全有潛力與GPT5一較高下。
與此同時(shí),六小虎和DeepSeek等新興勢力雖來勢洶洶,但Scaling Law的失靈以及對“AI領(lǐng)軍者”光環(huán)的祛魅,或許將促使這些創(chuàng)業(yè)公司將精力聚焦于實(shí)際產(chǎn)生回報(bào)的商業(yè)化道路上,尋求與大廠差異化競爭的策略。
那么,2025年,AI應(yīng)用將走向何方?被譽(yù)為AI應(yīng)用元年的這一年,又有哪些方向值得我們滿懷期待呢?
01. 聚焦兩大方向
據(jù)彭博社報(bào)道,OpenAI在其發(fā)展規(guī)劃中,為通往人工智能通用智能(AGI)的道路設(shè)定了五個(gè)清晰階段。從第一階段的聊天機(jī)器人,到第二階段的推理者,再到第三階段的Agent——即能夠采取行動(dòng)的系統(tǒng),OpenAI一步步穩(wěn)步前行。去年9月,OpenAI宣布開發(fā)了一系列新的AI模型,這些模型在復(fù)雜的推理任務(wù)上取得了重大進(jìn)步,代表了人工智能能力的新水平。因此,OpenAI將這一系列模型命名為OpenAIo1,標(biāo)志著其已進(jìn)入通向AGI目標(biāo)的第二階段。
隨著這些模型準(zhǔn)確度的不斷提升,一個(gè)全新的產(chǎn)業(yè)方向正逐漸浮出水面:能夠代替用戶進(jìn)行具體操作的Agent技術(shù)。這一技術(shù)的落地場景將遍布各類終端,智能助理將成為其中的佼佼者。想象一下,借助Apple Intelligence,Siri將能夠在Apple和第三方應(yīng)用內(nèi)及跨應(yīng)用執(zhí)行數(shù)百項(xiàng)新操作,如輕松調(diào)出閱讀列表中的文章或一鍵發(fā)送照片給朋友。這背后,需要模型具備強(qiáng)大的規(guī)劃能力,能夠準(zhǔn)確調(diào)用第三方應(yīng)用,并確保每一步操作的準(zhǔn)確率都達(dá)到極致。
與此同時(shí),OpenAI和谷歌DeepMind在multi agent研究領(lǐng)域的加速布局,也進(jìn)一步預(yù)示著這一領(lǐng)域的研究和發(fā)展將迎來新的高潮。兩家公司均在官方網(wǎng)站上發(fā)布了multi agent研究團(tuán)隊(duì)的招聘信息,吸引了眾多科研人才的關(guān)注。
而另一大產(chǎn)業(yè)方向,則是自動(dòng)駕駛技術(shù)的持續(xù)加速。特斯拉作為全球自動(dòng)駕駛龍頭,其FSD系統(tǒng)的每一次迭代都牽動(dòng)著整個(gè)行業(yè)的神經(jīng)。預(yù)計(jì)于2025年第一季度正式在中國與歐洲市場推出的FSD系統(tǒng),將帶來接管率的提升、真·智能召喚功能的推送以及Cybertruck自動(dòng)泊車功能的實(shí)現(xiàn)等一系列改進(jìn)。特斯拉的快速迭代,無疑將加速全行業(yè)的技術(shù)進(jìn)步,推動(dòng)自動(dòng)駕駛技術(shù)邁向新的高度。
在國內(nèi),華為也發(fā)布了ADS 3.0系統(tǒng),并在鴻蒙智行享界S9車型上首發(fā)。該系統(tǒng)采用了全新端到端架構(gòu)和全場景全天候智能硬件感知系統(tǒng),實(shí)現(xiàn)了全向防碰撞3.0的超全感知、超快響應(yīng)、超前驗(yàn)證三大能力升級。同時(shí),享界S9還首發(fā)了車位到車位的智駕功能,支持全場景貫通的智能駕駛體驗(yàn)。銷量方面,鴻蒙智行連續(xù)蟬聯(lián)30萬元以上新能源車型月銷第一,充分驗(yàn)證了其技術(shù)實(shí)力和市場接受度。
更令人振奮的是,據(jù)華為常務(wù)董事余承東透露,鴻蒙智行的“第四界”產(chǎn)品尊界已進(jìn)入整車驗(yàn)證階段,計(jì)劃于年底下線,明年上半年上市。這一消息無疑為自動(dòng)駕駛技術(shù)的發(fā)展注入了新的動(dòng)力。
國盛證券認(rèn)為AI應(yīng)用應(yīng)關(guān)注三大方向:
1)算力側(cè):寒武紀(jì)、中科曙光、海光信息、云賽智聯(lián)、軟通動(dòng)力、中際旭創(chuàng)、新易盛、浪潮信息、工業(yè)富聯(lián)、神州數(shù)碼、協(xié)創(chuàng)數(shù)據(jù)、弘信電子、高新發(fā)展等。
2)端側(cè) AI:立訊精密、東山精密、傳音控股、鵬鼎控股、中科創(chuàng)達(dá)、漫步者。
3)自動(dòng)駕駛:華為智車:江淮汽車、賽力斯、長安汽車、北汽藍(lán)谷等;國內(nèi)自動(dòng)駕駛產(chǎn)業(yè)鏈:德賽西威、萬馬科技、中科創(chuàng)達(dá)、經(jīng)緯恒潤、海天瑞聲、金溢科技、萬集科技、千方科技、鴻泉物聯(lián)等;特斯拉產(chǎn)業(yè)鏈:特斯拉、世運(yùn)電路、三花智控、拓普集團(tuán)等。
02. AI應(yīng)用下一個(gè)催化劑是什么?
基于OpenAI的《Scaling Laws for Neural Language Models》論文,我們了解到,語言建模性能會(huì)隨著模型大小、數(shù)據(jù)集大小以及訓(xùn)練計(jì)算量的增加而平穩(wěn)提升。為了達(dá)到最佳性能,這三個(gè)因素必須同時(shí)擴(kuò)展,且當(dāng)其中一個(gè)因素不受其他兩個(gè)因素限制時(shí),模型性能與每個(gè)因素之間呈現(xiàn)出冪律關(guān)系。這一思想促使大模型公司通過擴(kuò)大預(yù)訓(xùn)練模型的規(guī)模、數(shù)據(jù)集大小和訓(xùn)練計(jì)算量來提升模型能力,這已成為當(dāng)前的主流做法。
以Meta開源的Llama系列模型為例,其迭代歷程和MMLU評測基準(zhǔn)上的得分充分展示了這一趨勢。Llama2基于2T token數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,包含了7B、13B和70B三個(gè)參數(shù)規(guī)模的版本。而Llama3則在超過15T token的數(shù)據(jù)上進(jìn)行了預(yù)訓(xùn)練,訓(xùn)練數(shù)據(jù)集比Llama2大了7倍,包含的代碼量也是Llama2的4倍。因此,8B的Llama3在MMLU上的得分已經(jīng)接近70B的Llama2,而70B的Llama3更是取得了80.9分的高分。進(jìn)一步地,Llama3.1 405B模型在保持15T token訓(xùn)練數(shù)據(jù)量的同時(shí),由于參數(shù)規(guī)模的擴(kuò)大,在MMLU上的得分高達(dá)88.6分。
然而,冪律關(guān)系也意味著性能提升的邊際回報(bào)會(huì)逐漸放緩,理論上需要指數(shù)級別的規(guī)模增長才能帶來模型性能的線性提升。除了算力成本外,模型規(guī)模的擴(kuò)大也帶來了工程上的挑戰(zhàn)。據(jù)《MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs》論文所述,大規(guī)模LLM訓(xùn)練面臨兩個(gè)具體挑戰(zhàn):一是實(shí)現(xiàn)大規(guī)模的高訓(xùn)練效率,即提高模型FLOP利用率(MFU),這直接轉(zhuǎn)化為端到端的訓(xùn)練速度;二是實(shí)現(xiàn)大規(guī)模下的高訓(xùn)練穩(wěn)定性,以保持整個(gè)訓(xùn)練過程中的高效訓(xùn)練。
同時(shí),高質(zhì)量訓(xùn)練數(shù)據(jù)的獲取也是提升模型性能的關(guān)鍵難點(diǎn)。阿里研究院的《2024大模型訓(xùn)練數(shù)據(jù)白皮書》指出,高質(zhì)量數(shù)據(jù)是大模型技術(shù)發(fā)展的主要瓶頸之一。能夠拓展大模型知識邊界、推動(dòng)大模型推理和泛化能力提升的數(shù)據(jù)更多偏向于視頻、圖片等多模態(tài)數(shù)據(jù)以及特定行業(yè)中的領(lǐng)域知識數(shù)據(jù)。這些數(shù)據(jù)主要來源于人類的創(chuàng)造、制作和經(jīng)驗(yàn)積累,其規(guī)模、類型和質(zhì)量因客觀條件而異。
此外,o1模型的強(qiáng)大推理能力得益于強(qiáng)化學(xué)習(xí)和思維鏈推理。OpenAI文檔顯示,o1通過強(qiáng)化學(xué)習(xí)訓(xùn)練可以執(zhí)行復(fù)雜的推理,它在回答用戶問題前會(huì)進(jìn)行長時(shí)間的“思考”,產(chǎn)生長的內(nèi)部思維鏈。這種過程極大地提高了模型的推理能力。o1模型還引入了推理token,用于分解對提示的理解并考慮多種生成響應(yīng)的方法。然而,o1目前主要在數(shù)學(xué)、編程等領(lǐng)域表現(xiàn)出色,其在其他領(lǐng)域的應(yīng)用尚有待探索。同時(shí),o1的推理速度相對較慢,可能對某些需要快速響應(yīng)的應(yīng)用場景造成限制。此外,調(diào)用o1系列模型API的成本也相對較高。
盡管如此,o1模型的成功仍然驗(yàn)證了提升模型能力的新方向。其技術(shù)思路可能被業(yè)界其他大模型效仿,成為在預(yù)訓(xùn)練模型規(guī)模提升邊際回報(bào)放緩情況下的重要技術(shù)范式。目前,預(yù)訓(xùn)練階段的Scaling Law仍然有效,GPT MoE的參數(shù)量已達(dá)到1.8萬億。因此,我們期待OpenAI的下一代模型GPT-5的發(fā)布。模型準(zhǔn)確度是AI應(yīng)用落地的關(guān)鍵指標(biāo),如果GPT-5能夠通過進(jìn)一步擴(kuò)大模型參數(shù)量和訓(xùn)練數(shù)據(jù)規(guī)模,在各項(xiàng)任務(wù)上取得準(zhǔn)確度的大幅提升,那么AI應(yīng)用的創(chuàng)新將迎來全面爆發(fā)。