然而,有一個(gè)事實(shí)越發(fā)清晰:大語言模型(LLM)似乎并不具備經(jīng)濟(jì)可行性,賺錢可能遙遙無期。
2024年OpenAI的營(yíng)收只有35億美元,成本卻高達(dá)50億美元,且虧損仍在持續(xù)擴(kuò)大。最新預(yù)測(cè)認(rèn)為,即使OpenAI真的在2029年之前實(shí)現(xiàn)盈利,累計(jì)虧損也會(huì)達(dá)到1150億美元。
OpenAI的虧損讓亞馬遜相形見絀。亞馬遜成立第十年實(shí)現(xiàn)盈利,在此之前,累計(jì)虧損只有30億美元,今年恰好是OpenAI成立的第10年。
為什么OpenAI持續(xù)巨虧?主要是核心產(chǎn)品ChatGPT定價(jià)過低,比成本低很多。
從另一個(gè)角度看,OpenAI的商業(yè)模式只對(duì)云服務(wù)提供商、數(shù)據(jù)中心建設(shè)商有利。分析認(rèn)為,OpenAI的定價(jià)只有成本的幾分之一,這在經(jīng)濟(jì)史上尚無前例。即使OpenAI現(xiàn)在想提價(jià),也可能會(huì)“殺雞取卵”,摧毀新生市場(chǎng)。
按照普遍的經(jīng)濟(jì)規(guī)律,隨著時(shí)間的推移,AI成本應(yīng)該逐步下降,但實(shí)際并非如此。用戶厭倦“幻覺”(指AI生成虛假或錯(cuò)誤信息的現(xiàn)象),需要更精準(zhǔn)的模型和具有推理能力的模型。最終,雖然每token(AI領(lǐng)域衡量數(shù)據(jù)處理量的單位)價(jià)格下降,但為了精度的小幅提升,仍然需要消耗更多的token。
GPT-5曾經(jīng)讓行業(yè)備受期待,但它并未改變AI經(jīng)濟(jì)困境。用戶發(fā)現(xiàn),GPT-5的精度并沒有顯著提升,為了降低成本,它將簡(jiǎn)單問題推給舊模型來解決。如果OpenAI想優(yōu)化財(cái)務(wù)狀況,提高定價(jià)似乎成了唯一出路。
還有另一種辦法可以緩解經(jīng)濟(jì)壓力,那就是選擇“小型語言模型”(Small Language Models, SLMs)。AI企業(yè)可以將OpenAI模型應(yīng)用于特定的數(shù)據(jù)集和問題范圍,從而構(gòu)建出一個(gè)“小型模型”。
小模型的訓(xùn)練、更新和運(yùn)行成本更低,DeepSeek的開發(fā)思路基本遵循這一原理,它的核心技術(shù)圍繞知識(shí)蒸餾與數(shù)據(jù)精煉展開,大幅降低成本,該方法被許多AI企業(yè)模仿。
盡管如此,小語言模型仍然無法化解OpenAI的虧損問題,只能稍微緩解。