四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

李彥宏內(nèi)部講話曝光:開源模型效率不高,解決不了算力問題

每日經(jīng)濟(jì)新聞 2024-09-11 16:19:39

每經(jīng)記者 可楊    每經(jīng)編輯 張海妮    

“外界對大模型有相當(dāng)多的誤解。”近日,李彥宏的一則內(nèi)部講話曝光。李彥宏認(rèn)為未來大模型之間的差距可能會越來越大。他進(jìn)一步解釋,大模型的“天花板”很高,現(xiàn)在距離理想情況還相差非常遠(yuǎn),所以模型要不斷快速迭代、更新和升級;需要能幾年、十幾年如一日地投入,不斷滿足用戶需求,降本增效。

對于行業(yè)“大模型之間的能力已經(jīng)沒有壁壘”的說法,李彥宏給出了不同觀點(diǎn):“每次新模型發(fā)布,都要和GPT-4o作比較,說我的得分已經(jīng)跟它差不多了,甚至某些單項(xiàng)上的得分已經(jīng)超過它了,但這并不表明和最先進(jìn)的模型就沒有差距了。”

他說,很多模型為了證明自己,會在發(fā)布之后去打榜,會去猜測試題目、答題技巧,從榜單上看,或許模型的能力已經(jīng)很接近了,“但到實(shí)際應(yīng)用中,實(shí)力還是有明顯差距的”。

李彥宏指出,模型之間的差距是多維度的。行業(yè)往往更關(guān)注理解、生成、邏輯、記憶等能力的差距,但卻忽視了成本、推理速度等維度,有些模型雖能達(dá)到同樣效果,但成本高、推理速度慢,還是不如先進(jìn)模型。

李彥宏還表示,“在大模型時(shí)代之前,大家習(xí)慣了開源意味著免費(fèi)、意味著成本低”。他解釋說,比如開源的Linux,因?yàn)橐呀?jīng)有了電腦,所以使用Linux是免費(fèi)的。但這些在大模型時(shí)代不成立,大模型推理是很貴的,開源模型也不會送算力,還得自己買設(shè)備,無法實(shí)現(xiàn)算力的高效利用。

“效率上開源模型是不行的。”他表示,“閉源模型準(zhǔn)確講應(yīng)該叫商業(yè)模型,是無數(shù)用戶分?jǐn)傃邪l(fā)成本、分?jǐn)偼评碛玫臋C(jī)器資源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都達(dá)到了90%多。”

李彥宏分析認(rèn)為,在教學(xué)科研等領(lǐng)域,開源模型是有價(jià)值的;但在商業(yè)領(lǐng)域,當(dāng)追求的是效率、效果和最低成本時(shí),開源模型是沒有優(yōu)勢的。

在大模型應(yīng)用層面,李彥宏認(rèn)為首先出現(xiàn)的是Copilot,對人進(jìn)行輔助;接下來是Agent智能體,有一定的自主性,能自主使用工具、反思、自我進(jìn)化;這種自動化程度再發(fā)展,就會變成AI Worker,能獨(dú)立完成各方面的工作。

他還表示,雖然“有很多人看好智能體這個(gè)發(fā)展方向,但是到今天為止,智能體還不是共識,像百度這樣把智能體作為大模型最重要的戰(zhàn)略、最重要的發(fā)展方向的公司并不多”。

李彥宏認(rèn)為,智能體的門檻確實(shí)很低,很多人不知道怎么把大模型變成應(yīng)用,而智能體是一個(gè)非常直接、高效、簡單的方式,在模型之上構(gòu)建智能體相當(dāng)方便。

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

模型 大模型 算力 李彥宏 百度

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0