每日經(jīng)濟新聞 2025-01-18 18:17:40
當?shù)貢r間1月17日,OpenAI CEO阿爾特曼在X上透露,o3-mini推理模型預計幾周內(nèi)推出,表現(xiàn)“非常出色”。他還表示,希望2025年合并GPT系列和o系列。對于GPT-5,阿爾特曼稱仍在確定中。AI專欄作家Romero猜測GPT-5或已開發(fā)完成,OpenAI可能參考競爭對手做法,將其用于模型蒸餾提升其他模型性能,也許永遠不會公開發(fā)布。
每經(jīng)記者 鄭雨航 每經(jīng)實習記者 岳楚鵬 每經(jīng)編輯 蘭素英
當?shù)貢r間1月17日,OpenAI CEO阿爾特曼又在X上放出旗下產(chǎn)品的最新消息。
據(jù)他透露,最新的o3-mini推理模型預計將在幾周內(nèi)正式推出。他強調(diào),o3-mini的表現(xiàn)“非常出色”。除此之外,阿爾特曼在回網(wǎng)友提問時表示,希望在2025年將GPT系列和o系列合并。也許,一個結(jié)合GPT系列的強大語言理解能力和o系列的快速推理能力的強大AI模型將在2025年誕生。
至于最受公眾期待的GPT-5相關(guān)問題,阿爾特曼沒有給出具體的時間表和性能指標,只是表示“仍在確定中,但我認為你們會滿意的”。
AI專欄作家Alberto Romero在個人博客里猜測GPT-5可能早就開發(fā)好了,但OpenAI或許參考了競爭對手Anthropic的做法,將其用于模型蒸餾,以提升其他功能稍差、價格更便宜的模型的性能。他認為,GPT-5或許永遠也不會對外發(fā)布了。
當?shù)貢r間1月17日,阿爾特曼在X上透露了一系列關(guān)于OpenAI新模型開發(fā)和發(fā)布的消息。
阿爾特曼在推文中感謝了外部安全研究人員對最新o3-mini模型的測試,然后稱,o3-mini的最終版本已經(jīng)確定,并進入發(fā)布流程,計劃將在幾周內(nèi)正式推出。同時,針對之前的反饋意見,API和ChatGPT版本將同步發(fā)布。阿爾特曼還特別強調(diào),o3-mini的表現(xiàn)“非常棒”。
圖片來源:X
在這條推文下,阿爾特曼還回答了許多網(wǎng)友關(guān)心的問題。
比如,有網(wǎng)友問:即將推出的o3-mini和o1 pro相比,誰更強?對此,阿爾特曼表示,o3-mini在大多數(shù)方面比o1 pro要差一些,但其最大優(yōu)勢在于速度極快。o3-mini是一個專注于推理速度和效率的模型,適合對響應時間要求較高的應用場景。
圖片來源:X
阿爾特曼明確表示,o3-mini的消息速率“非常高”。Plus用戶屆時可以使用。而且,據(jù)他透露,OpenAI也在計劃推出更智能的o3模型,o3 pro的訂閱費為一個月200美元。
關(guān)于GPT系列的未來,阿爾特曼表示,“希望在2025年將GPT系列和o系列合并。”如果他的想法實現(xiàn),那外界有望在今年見到一個融合GPT系列的強大語言理解能力和o系列快速推理能力的強大AI模型。
當被問及關(guān)于GPT-5的發(fā)布時間和性能表現(xiàn)時,阿爾特曼表示:“仍在確定中,但我認為你們會開心的。”阿爾特曼的回答耐人尋味,或許GPT-5的發(fā)布流程也很快將被提上日程。
圖片來源:X
此前有人猜測,GPT-5的內(nèi)部開發(fā)已經(jīng)完成,只是回報率不夠高,遠沒有內(nèi)部使用來的好處大,比如用于模型蒸餾。
當?shù)貢r間1月17日,AI專欄作家Alberto Romero在個人博客上發(fā)表了一篇關(guān)于GPT-5的深度分析文章,他通過一系列推理分析提出一個令人震驚的猜測:“OpenAI很可能已經(jīng)開發(fā)出了GPT-5,但選擇將其內(nèi)部保留,而不是公開發(fā)布。”并且,OpenAI或許不會很快發(fā)布GPT-5,除非還有更好的模型(GPT-6)被訓練出來。
Romero的證據(jù)來自OpenAI的最大競爭對手Anthropic。2024年10月,業(yè)界普遍預期Anthropic會發(fā)布3.5 Opus作為對GPT-4o的回應,但出人意料的是,該公司只更新了Claude 3.5 Sonnet版本。次月,彭博社報道稱,3.5 Opus訓練后表現(xiàn)雖優(yōu)于舊版,但因模型大小及成本,優(yōu)勢未達預期。Anthropic之所以不推出3.5 Opus,是因為成本和性能并不匹配,雖然3.5 Opus訓練未失敗,但結(jié)果不佳。
2024年12月,半導體專家Dylan Patel及其團隊稱,Anthropic實際上已經(jīng)完成Claude 3.5 Opus訓練且表現(xiàn)良好。未發(fā)布的原因是,Anthropic使用Claude 3.5 Opus來生成合成數(shù)據(jù)并進行獎勵建模,Claude 3.5 Sonnet更新版本就是獎勵建模的成果。
使用功能強大、價格昂貴的模型來生成數(shù)據(jù),從而提升功能稍差、價格更便宜的模型的性能,這一過程被稱為蒸餾。這是一種常見的做法。此前在國內(nèi)引起轟動的DeepSeek-V3模型也使用了這一方法。
Dylan表示,Anthropic選擇不發(fā)布3.5 Opus,因為它在內(nèi)部更有價值。這也就是開源社區(qū)如此迅速趕上GPT-4的原因,他們直接從OpenAI的礦山中獲取黃金。
Romero認為,OpenAI可能也在采用類似的方法處理GPT-5。由于最新的模型不僅性能更好,而且比上一代更小、更便宜,OpenAI可能也在通過蒸餾技術(shù)來提升其模型性能,同時控制成本。Romero稱,也許這就是OpenAI在短短三個月內(nèi)從o1躍升至o3的原因。
隨著時間的推移,GPT-5需要達到的門檻不斷提高,公眾對于GPT-5的期待也越來越高。
華爾街日報對GPT-5的報道,與彭博社對3.5 Opus的評價幾乎一致。“OpenAI意識到GPT-5比目前的產(chǎn)品表現(xiàn)更好,但還未好到足以證明維持(GPT-5)運行的巨大成本是合理的。”
Romero認為,OpenAI或許永遠也不會推出GPT-5了,“現(xiàn)在對他們(指的是OpenAI)來說唯一重要的目標是,繼續(xù)為下一代模型生成更好的數(shù)據(jù)。從現(xiàn)在開始,基礎(chǔ)模型可能會在后臺運行,使其他模型能夠?qū)崿F(xiàn)它們自己無法完成的壯舉——就像一位老隱士從秘密的山洞中傳授智慧,只不過這個山洞是一個巨大的數(shù)據(jù)中心。”
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP