四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

推理成本高制約大模型規(guī)?;瘧?yīng)用?大廠們的大模型價(jià)格“卷起來了”

每日經(jīng)濟(jì)新聞 2024-05-21 16:59:08

◎劉偉光認(rèn)為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點(diǎn)原因。

每經(jīng)記者 葉曉丹    每經(jīng)編輯 梁梟    

今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當(dāng)于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價(jià)后約為GPT-4價(jià)格的1/400。

而近期火山引擎官網(wǎng)更新了豆包大模型的定價(jià)詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價(jià)格信息?;鹕揭娣矫姹硎?,豆包大模型為客戶提供了靈活、經(jīng)濟(jì)的付費(fèi)模式,“后付費(fèi)”即可滿足絕大多數(shù)企業(yè)客戶的業(yè)務(wù)需求,助力企業(yè)以極低成本使用大模型、加速大模型的應(yīng)用落地。

2024年是大模型應(yīng)用落地各行業(yè)的關(guān)鍵之年。業(yè)界普遍認(rèn)為,隨著大模型性能逐漸提升,AI應(yīng)用創(chuàng)新正進(jìn)入密集探索期,但推理成本過高依然是制約大模型規(guī)模化應(yīng)用的關(guān)鍵因素。降低大模型推理價(jià)格成了大廠們的競爭焦點(diǎn),低成本應(yīng)用大模型的價(jià)格戰(zhàn)在大廠之間悄然升溫。

推理成本高制約大模型規(guī)?;瘧?yīng)用

2024年2月底,英偉達(dá)發(fā)布了2024財(cái)年第四季度財(cái)報(bào),業(yè)績再次超出預(yù)期。據(jù)英偉達(dá)電話會議披露,公司全年數(shù)據(jù)中心里已經(jīng)有40%的收入來自推理業(yè)務(wù),超出大部分人的預(yù)期。

訓(xùn)練AI模型的芯片需求一舉推升英偉達(dá)成為“芯片新王”,而AI推理芯片則成為下一個(gè)芯片企業(yè)競爭的核心領(lǐng)域。業(yè)界普遍認(rèn)為,隨著大模型性能逐漸提升,AI應(yīng)用創(chuàng)新正進(jìn)入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧?yīng)用的關(guān)鍵因素。

據(jù)新浪科技報(bào)道,5月21日,創(chuàng)新工場董事長兼首席執(zhí)行官李開復(fù)表示,在一定程度上,整個(gè)行業(yè)每年大幅降低推理成本,這是可以期待的,而且是必然也應(yīng)該發(fā)生的。

大模型廠商價(jià)格戰(zhàn)升溫

近一個(gè)月,國內(nèi)云廠商掀起了新一輪大模型降價(jià)潮。

5月11日,智譜AI大模型開放平臺上線了新的價(jià)格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個(gè)人版GLM-3Turbo模型產(chǎn)品的調(diào)用價(jià)格從5元/百萬tokens降低至1元/百萬tokens。

5月15日,火山引擎宣布,豆包Pro 32k模型定價(jià)是0.0008元/千tokens,這個(gè)價(jià)格比行業(yè)降低了99.3%。此外,豆包Pro 128k模型定價(jià)是0.005元/千tokens。

5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當(dāng)于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價(jià)后約為GPT-4價(jià)格的1/400。

5月21日,阿里云智能集團(tuán)資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計(jì)算公司,阿里云這次大幅降低大模型推理價(jià)格,就是希望加速AI應(yīng)用的爆發(fā)。我們預(yù)計(jì)未來大模型API的調(diào)用量會有成千上萬倍的增長。”

劉偉光認(rèn)為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點(diǎn)原因:一是公共云的技術(shù)紅利和規(guī)模效應(yīng),帶來成本和性能優(yōu)勢;二是云上更方便進(jìn)行多模型調(diào)用,并提供企業(yè)級的數(shù)據(jù)安全保障;三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當(dāng)于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價(jià)后約為GPT-4價(jià)格的1/400。 而近期火山引擎官網(wǎng)更新了豆包大模型的定價(jià)詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價(jià)格信息?;鹕揭娣矫姹硎荆拱竽P蜑榭蛻籼峁┝遂`活、經(jīng)濟(jì)的付費(fèi)模式,“后付費(fèi)”即可滿足絕大多數(shù)企業(yè)客戶的業(yè)務(wù)需求,助力企業(yè)以極低成本使用大模型、加速大模型的應(yīng)用落地。 2024年是大模型應(yīng)用落地各行業(yè)的關(guān)鍵之年。業(yè)界普遍認(rèn)為,隨著大模型性能逐漸提升,AI應(yīng)用創(chuàng)新正進(jìn)入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧?yīng)用的關(guān)鍵因素。降低大模型推理價(jià)格成了大廠們的競爭焦點(diǎn),低成本應(yīng)用大模型的價(jià)格戰(zhàn)在大廠之間悄然升溫。 推理成本高制約大模型規(guī)?;瘧?yīng)用 2024年2月底,英偉達(dá)發(fā)布了2024財(cái)年第四季度財(cái)報(bào),業(yè)績再次超出預(yù)期。據(jù)英偉達(dá)電話會議披露,公司全年數(shù)據(jù)中心里已經(jīng)有40%的收入來自推理業(yè)務(wù),超出大部分人的預(yù)期。 訓(xùn)練AI模型的芯片需求一舉推升英偉達(dá)成為“芯片新王”,而AI推理芯片則成為下一個(gè)芯片企業(yè)競爭的核心領(lǐng)域。業(yè)界普遍認(rèn)為,隨著大模型性能逐漸提升,AI應(yīng)用創(chuàng)新正進(jìn)入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧?yīng)用的關(guān)鍵因素。 據(jù)新浪科技報(bào)道,5月21日,創(chuàng)新工場董事長兼首席執(zhí)行官李開復(fù)表示,在一定程度上,整個(gè)行業(yè)每年大幅降低推理成本,這是可以期待的,而且是必然也應(yīng)該發(fā)生的。 大模型廠商價(jià)格戰(zhàn)升溫 近一個(gè)月,國內(nèi)云廠商掀起了新一輪大模型降價(jià)潮。 5月11日,智譜AI大模型開放平臺上線了新的價(jià)格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個(gè)人版GLM-3Turbo模型產(chǎn)品的調(diào)用價(jià)格從5元/百萬tokens降低至1元/百萬tokens。 5月15日,火山引擎宣布,豆包Pro 32k模型定價(jià)是0.0008元/千tokens,這個(gè)價(jià)格比行業(yè)降低了99.3%。此外,豆包Pro 128k模型定價(jià)是0.005元/千tokens。 5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當(dāng)于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價(jià)后約為GPT-4價(jià)格的1/400。 5月21日,阿里云智能集團(tuán)資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計(jì)算公司,阿里云這次大幅降低大模型推理價(jià)格,就是希望加速AI應(yīng)用的爆發(fā)。我們預(yù)計(jì)未來大模型API的調(diào)用量會有成千上萬倍的增長?!? 劉偉光認(rèn)為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點(diǎn)原因:一是公共云的技術(shù)紅利和規(guī)模效應(yīng),帶來成本和性能優(yōu)勢;二是云上更方便進(jìn)行多模型調(diào)用,并提供企業(yè)級的數(shù)據(jù)安全保障;三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。
大模型

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0