四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁(yè) > 要聞 > 正文

0.35美元vs 5美元,硅谷巨頭的Token價(jià)格戰(zhàn)!不僅“卷”價(jià)格,還在拼推理速度

每日經(jīng)濟(jì)新聞 2024-05-25 14:52:28

◎硅谷巨頭“卷”價(jià)格、“卷”速度真的會(huì)贏得未來(lái)嗎?

每經(jīng)記者 文巧    每經(jīng)編輯 蘭素英    

圖片來(lái)源:視覺(jué)中國(guó)

5月以來(lái),國(guó)內(nèi)大模型打響了“價(jià)格戰(zhàn)”。從每百萬(wàn)個(gè)Token只要1塊錢(qián),到只要8毛錢(qián)、5毛錢(qián)……國(guó)內(nèi)大廠如字節(jié)跳動(dòng)、阿里、百度、智譜AI、科大訊飛等不斷接力,有廠商甚至直接打出了“免費(fèi)”的口號(hào),震驚整個(gè)科技圈子。

實(shí)際上,硅谷也在上演著類(lèi)似的情形。《每日經(jīng)濟(jì)新聞》記者注意到,硅谷大模型的價(jià)格也出現(xiàn)了下降趨勢(shì)。

API價(jià)格戰(zhàn)首先在OpenAI和谷歌這對(duì)“老對(duì)手”之間展開(kāi),不過(guò)幅度相對(duì)較小。其中,OpenAI的GPT-4o調(diào)用API的價(jià)格比GPT-4-turbo降低了一半,為5美元/百萬(wàn)Tokens,谷歌Gemini 1.5 Flash的價(jià)格降到了0.35美元/百萬(wàn)Tokens。

到底是什么在左右API“價(jià)格戰(zhàn)”?在降價(jià)之外,有媒體指出,加快模型推理速度(即每秒生成Token的數(shù)量)也是硅谷大模型市場(chǎng)的主要競(jìng)爭(zhēng)點(diǎn)。但“卷”價(jià)格、“卷”速度真的會(huì)贏得未來(lái)嗎?

硅谷在“拼”什么?

5月中旬,字節(jié)跳動(dòng)豆包以0.0008元/千Tokens的價(jià)格直接將國(guó)內(nèi)大模型的市場(chǎng)價(jià)格帶入“厘時(shí)代”。隨即,大模型廠商便開(kāi)始了價(jià)格上的角力。百度甚至直接祭出“文心大模型兩大主力模型全面免費(fèi)”的大招,直接將“價(jià)格戰(zhàn)”推向新的高度。科大訊飛、騰訊等也“坐不住”了,要么降價(jià),要么免費(fèi)。

短短數(shù)天,國(guó)內(nèi)大模型企業(yè)的混戰(zhàn)便從“低價(jià)”走向了“免費(fèi)”。而在硅谷,類(lèi)似的情形其實(shí)也在上演。

《每日經(jīng)濟(jì)新聞》記者注意到,實(shí)際上,降低API價(jià)格和推升AI推理速度也已逐漸成為硅谷各大模型提供商的競(jìng)爭(zhēng)焦點(diǎn)。

API價(jià)格戰(zhàn)首先是在OpenAI和谷歌這對(duì)“老對(duì)手”之間展開(kāi)的。當(dāng)?shù)貢r(shí)間5月13日,OpenAI發(fā)布全新模型GPT-4o,該模型支持免費(fèi)試用,據(jù)傳未來(lái)將供用戶(hù)免費(fèi)試用。此外,調(diào)用GPT-4o API的價(jià)格比GPT-4-turbo降低了一半,為5美元/百萬(wàn)Tokens。

在第二天的谷歌全球開(kāi)發(fā)者大會(huì)上,谷歌宣布當(dāng)家王牌Gemini大模型系列之一Gemini 1.5 Flash 的API價(jià)格為0.35美元/百萬(wàn)Tokens,遠(yuǎn)低于GPT-4o的價(jià)格。

比GPT-4o更具性?xún)r(jià)比的還有硅谷當(dāng)紅AI初創(chuàng)公司Anthropic和Mistral AI模型的API價(jià)格。 

圖片來(lái)源:每經(jīng)制圖

除了“拼”模型調(diào)用價(jià)格,有媒體指出,硅谷AI芯片公司正以加快模型推理速度——即每秒生成Token的數(shù)量——以吸引客戶(hù)。例如,美國(guó)芯片廠商Groq公司專(zhuān)注于提高每秒生成Token的數(shù)量,以此作為其主要的市場(chǎng)競(jìng)爭(zhēng)點(diǎn)。

據(jù)科技外媒Medium今年4月的報(bào)道,Groq最新的AI芯片在Meta的開(kāi)源模型LLaMA 3上達(dá)到了驚人的每秒生成800個(gè)token,并稱(chēng)這“標(biāo)志著AI推理效率和能力的巨大轉(zhuǎn)變”。截至目前,英偉達(dá)一直主導(dǎo)著AI芯片市場(chǎng)。該報(bào)道分析認(rèn)為,Groq的最新成就可能將對(duì)英偉達(dá)的統(tǒng)治地位構(gòu)成嚴(yán)峻挑戰(zhàn)。

根據(jù)Groq的數(shù)據(jù),許多開(kāi)源模型據(jù)稱(chēng)在Groq芯片上的運(yùn)行速度都得到提升,例如,Mixtral8×7B版本每秒輸出500個(gè)Token;Llama 2 70B版本每秒輸出300個(gè)Token。

《每日經(jīng)濟(jì)新聞》記者查詢(xún)數(shù)據(jù)發(fā)現(xiàn),當(dāng)前配備英偉達(dá)芯片處理的硅谷熱門(mén)大模型推理速度遠(yuǎn)低于此。例如,GPT-4 Turbo每秒生成約48個(gè)token,GPT-4為每秒約10個(gè)token;谷歌的Gemini 1.5 Pro約為每秒54.2個(gè)token。 

圖片來(lái)源:每經(jīng)制圖

API“價(jià)格戰(zhàn)”背后:模型性能差距正在減小

硅谷為何也會(huì)面臨大模型的API“價(jià)格戰(zhàn)”問(wèn)題?這主要是跟模型的性能有關(guān)。

上個(gè)月,紐約大學(xué)知名教授Gary Marcus發(fā)表了一篇名為《證據(jù)表明LLM正達(dá)到收益遞減點(diǎn)》的文章,駁斥了賓夕法尼亞大學(xué)沃頓商學(xué)院教授Ethan Mollick的一個(gè)觀點(diǎn),后者聲稱(chēng)目前對(duì)大型語(yǔ)言模型改進(jìn)率的最佳估計(jì)顯示,能力每5~14個(gè)月翻一番。

Gary Marcus認(rèn)為,從某些指標(biāo)來(lái)看,在2020~2023年間,大模型的能力的確遵照上述定律翻了一番,但在過(guò)去13個(gè)月里這種情況并未發(fā)生。“相反,我看到許多跡象表明我們已經(jīng)進(jìn)入了收益遞減期。”他這樣寫(xiě)道。

若以MMLU(一種常見(jiàn)的大模型基準(zhǔn)指標(biāo))為基準(zhǔn),可以看到,從GPT-2到GPT3再到GPT-4呈現(xiàn)了飛躍式的遞增,但GPT-4到今年4月發(fā)布的GPT-4 Turbo的能力改進(jìn)并不明顯。

圖片來(lái)源:《證據(jù)表明LLM正達(dá)到收益遞減點(diǎn)》

其次,自GPT-4發(fā)布以來(lái),硅谷各大模型的能力正在趨同。LiquidAI的機(jī)器學(xué)習(xí)科學(xué)家Maxime Labonne在X平臺(tái)上表示,表現(xiàn)最好的閉源模型(GPT-4級(jí)別)和開(kāi)源模型在性能上的差距正在越來(lái)越小。

圖片來(lái)源:X平臺(tái)

與此同時(shí),隨著企業(yè)對(duì)定制化大模型的需求越來(lái)越高,硅谷科技公司正在推出一系列小模型,例如微軟在4月推出了名為Phi-3 Mini的輕量級(jí)模型。The Information分析稱(chēng),像Phi這類(lèi)小型模型的激增可能會(huì)削弱OpenAI的主導(dǎo)地位。

據(jù)The Information,微軟產(chǎn)品團(tuán)隊(duì)已經(jīng)將內(nèi)置的GPT-4換成開(kāi)源模型,以在Bing等產(chǎn)品中執(zhí)行更基本的任務(wù)。而最初為 OpenAI大模型支付高價(jià)的一些公司,近期開(kāi)始轉(zhuǎn)向包括開(kāi)源模型在內(nèi)的更便宜的競(jìng)爭(zhēng)對(duì)手。

隨著GPT-4之后模型能力的趨同,以及更多開(kāi)源模型和小模型的出現(xiàn),競(jìng)爭(zhēng)加劇之下,高價(jià)大模型的降價(jià)似乎是一種必然。

“卷”價(jià)格、“卷”速度并非終點(diǎn)

然而,一味“卷”價(jià)格會(huì)有未來(lái)嗎?

眾所周知,算力成本是開(kāi)發(fā)大模型無(wú)法繞過(guò)的難點(diǎn)之一。根據(jù)斯坦福大學(xué)HAI研究所今年發(fā)布的AI報(bào)告,訓(xùn)練巨型模型的成本呈指數(shù)級(jí)增長(zhǎng),谷歌Gemini Ultra的訓(xùn)練成本估計(jì)為1.91億美元,GPT-4的訓(xùn)練成本估計(jì)為7800萬(wàn)美元。

據(jù)報(bào)道,Anthropic的CEO此前曾表示,目前正在訓(xùn)練的模型成本已接近10億美元,到2025年和2026年,將飆升至50億或100億美元。

科技巨頭已經(jīng)在硅谷大模型領(lǐng)域建立牢固的立足點(diǎn),前沿基礎(chǔ)模型市場(chǎng)呈現(xiàn)出強(qiáng)烈的市場(chǎng)集中化趨勢(shì)。分析認(rèn)為,價(jià)格戰(zhàn)持續(xù)下去,公司利潤(rùn)勢(shì)必被擠壓,財(cái)力雄厚的科技巨頭尚有基礎(chǔ),但初創(chuàng)公司則可能面臨風(fēng)險(xiǎn)。

對(duì)于大模型公司來(lái)說(shuō),提升模型性能才是贏得競(jìng)爭(zhēng)的最終手段。正如Gary Marcus所講,如果收益遞減的趨勢(shì)持續(xù),低級(jí)錯(cuò)誤無(wú)法修正,大模型可能永遠(yuǎn)無(wú)法到達(dá)黃金時(shí)段。

另一方面,對(duì)于芯片廠商來(lái)說(shuō),“卷”每秒生成Token的數(shù)量仍然更多只是一種噱頭,縮短第一個(gè)Token生成的時(shí)間或?qū)⒊蔀橄乱粋€(gè)新的競(jìng)爭(zhēng)點(diǎn)。

盡管Medium分析認(rèn)為,每秒生成Token數(shù)量的提高等同于推理能力的上升,但硅谷AI公司SambaNova在5月初發(fā)表的一篇博客文章中表示,當(dāng)涉及到一些較為復(fù)雜和繁重的長(zhǎng)文本任務(wù)時(shí),每秒生成Token數(shù)量并非最重要的指標(biāo),也不能全面反映大模型的推理性能。而相對(duì)地,第一個(gè)Token生成的時(shí)間才更加重要。

這篇文章直白地指出,對(duì)每秒高Token數(shù)量的追求可能是一種“炒作”。盡管其確實(shí)可以實(shí)現(xiàn)令人印象深刻的解碼速度,但存在芯片利用率低,第一個(gè)Token生成速度較慢,難以處理較長(zhǎng)的文本輸入等重大缺點(diǎn)。

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

模型 價(jià)格 美元

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0