四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

開源大模型的“ChatGPT時刻”來臨!Meta發(fā)布最新AI大模型

每日經(jīng)濟新聞 2024-07-25 13:08:05

每經(jīng)記者 蔡鼎    每經(jīng)編輯 程鵬 蘭素英    

對于專注于構(gòu)建專業(yè)人工智能(AI)模型的開發(fā)人員來說,他們面臨的長期挑戰(zhàn)是獲取高質(zhì)量的訓練數(shù)據(jù)。較小的專家模型(參數(shù)規(guī)模在10億~100億)通常利用“蒸餾技術(shù)”,需要利用較大模型的輸出來增強其訓練數(shù)據(jù)集,然而,使用來自O(shè)penAI等閉源巨頭的此類數(shù)據(jù)受到嚴格限制,因此大大限制了商業(yè)應(yīng)用。

而就在北京時間7月23日(周二)晚間,全球AI領(lǐng)域的開發(fā)人員期待已久的開源大模型“ChatGPT時刻”終于到來——Meta發(fā)布最新AI模型Llama 3.1,其中參數(shù)規(guī)模最大的是Llama 3.1-405B版本。

扎克伯格將Llama 3.1稱為“藝術(shù)的起點”,將對標OpenAI和谷歌公司的大模型。測試數(shù)據(jù)顯示,Meta Llama 3.1-405B在GSM8K等多項AI基準測試中超越了當下最先進的閉源模型OpenAI GPT-4o。這意味著,開源模型首次擊敗目前最先進的閉源大模型。

而且,Llama 3.1-405B的推出意味著開發(fā)人員可以自由使用其“蒸餾”輸出來訓練小眾模型,從而大大加快專業(yè)領(lǐng)域的創(chuàng)新和部署周期。?

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

開源社區(qū)的“里程碑”

2024年4月,Meta推出開源大型語言模型Llama 3。其中,Llama 3-8B和Llama 3-70B為同等規(guī)模的大模型樹立了新的基準,然而,在短短三個月內(nèi),隨著AI的功能迭代,其他大模型很快將其超越。

在你追我趕的競爭環(huán)境下,Meta最新發(fā)布了AI模型Llama 3.1,一共有三款,分別是Llama 3.1-8B、Llama 3.1-70B和Llama 3.1-405B。其中,前兩個是4月發(fā)布的Llama 3-8B和Llama 3-70B模型的更新版本。而Llama 3.1-405B版本擁有4050億個參數(shù),是Meta迄今為止最大的開源模型之一。

而在發(fā)布當天的凌晨(北京時間),“美國貼吧”reddit的LocalLLaMA子論壇泄露了即將推出的三款模型的早期基準測試結(jié)果。

泄露的數(shù)據(jù)表明,Meta Llama 3.1-405B在幾個關(guān)鍵的AI基準測試中超越了OpenAI的GPT-4o。這對開源AI社區(qū)來說是一個重要的里程碑:開源模型首次擊敗目前最先進的閉源大模型。

而Meta團隊研究科學家Aston Zhang在X上發(fā)布的內(nèi)容,也印證了被泄露的測試數(shù)據(jù)。

CFF20LXzkOz5H4MRialQcaEa4WB9Hf5YPw0wIZdGTvF7QZRVqv5hcDV8iauLHYlmGUibmb8qHdQ6WzCZVIsEGALxA.png

圖片來源:X

具體來看,Meta Llama 3.1-405B 在IFEval、GSM8K、ARC Challenge和Nexus等多項測試中均優(yōu)于GPT-4o。但是,它在多項MMLU測試和GPQA測試等方面卻落后于 GPT-4o。另外,Llama 3.1的上下文窗口(context window)涵蓋128000個標記,比以前的Llama模型更大,大約相當于一本50頁書的長度。

CFF20LXzkOz5H4MRialQcaEa4WB9Hf5YPjpQIQnA5Etpy7P3fvp3aJjHXboic73LpXenoxB6iako8DficDvzGrXcTA.png

圖片來源:X

但需要指出的是,值得注意的是,這些基準反映的是Llama 3.1基本模型的性能。這些模型的真正潛力可以通過指令調(diào)整來實現(xiàn),而指令調(diào)整過程可以顯著提高這些模型的能力。即將推出的Llama 3.1模型的指令調(diào)整版本預計會產(chǎn)生更好的結(jié)果。

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

Llama 4已于6月開始訓練

盡管OpenAI即將推出的 GPT-5預計將具備先進的推理能力,可能會挑戰(zhàn)Llama 3.1在大模型領(lǐng)域的潛在領(lǐng)導地位,但Llama 3.1對標GPT-4o的強勁表現(xiàn)仍然彰顯了開源AI開發(fā)的力量和潛力。

要知道,對于專注于構(gòu)建專業(yè)AI模型的開發(fā)人員來說,他們面臨的長期挑戰(zhàn)是獲取高質(zhì)量的訓練數(shù)據(jù)。較小的專家模型(參數(shù)規(guī)模在10億~100億)通常利用“蒸餾技術(shù)”,需要利用較大模型的輸出來增強其訓練數(shù)據(jù)集,然而,使用來自O(shè)penAI等閉源巨頭的此類數(shù)據(jù)受到嚴格限制,因此大大限制了商業(yè)應(yīng)用。

而Llama 3.1-405B的推出意味著開發(fā)人員可以自由使用其“蒸餾”輸出來訓練小眾模型,從而大大加快專業(yè)領(lǐng)域的創(chuàng)新和部署周期。預計高性能、經(jīng)過微調(diào)的模型的開發(fā)將激增,這些模型既強大又符合開源道德規(guī)范。

賓夕法尼亞大學沃頓商學院副教授伊桑·莫利克(Ethan Mollick)寫道:“如果這些數(shù)據(jù)屬實,那么可以說頂級AI模型將在本周開始免費向所有人開放。全球各地都可以使用相同的AI功能。這會很有趣。”

Llama 3.1-405B的開源,也證明開源模型與閉源模型的差距再次縮小了。

CFF20LXzkOz5H4MRialQcaEa4WB9Hf5YPrcaQzUS8X3wBNBicAB6f33tOw4cxzyRpucmWbRkgdcGNxTq5yXcVnkA.jpg

圖片來源:X

《每日經(jīng)濟新聞》記者還注意到,除了廣受期待的Llama 3.1-405B外,外媒報道稱,Llama 4已于6月開始訓練,訓練數(shù)據(jù)包括社交平臺Facebook和Instagram用戶的公開帖子。而在開始之前,Mate已經(jīng)向數(shù)據(jù)隱私監(jiān)管最嚴格的歐盟地區(qū)用戶發(fā)送超過20億條通知,提供了不同意把自己數(shù)據(jù)用于大模型訓練的選項。

據(jù)悉,Llama 4將包含文本、圖像、視頻與音頻模態(tài),Meta計劃將新模型應(yīng)用在手機以及智能眼鏡中。

記者|蔡鼎

編輯|鵬?蘭素英 杜恒峰

校對|陳柯名

CFF20LXzkOyYmal29zn37N5Bg2NQ4tyN4ylvMFyM3VmF4x90Uj4cDmoEphibia4RN55ibIXmqU1Od9w2Q5nhA08lA.png|每日經(jīng)濟新聞 ?nbdnews??原創(chuàng)文章|

未經(jīng)許可禁止轉(zhuǎn)載、摘編、復制及鏡像等使用

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0