四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
首發(fā)快訊

每經(jīng)網(wǎng)首頁 > 首發(fā)快訊 > 正文

廈門大學(xué)教授蘇勁松:ChatGPT的發(fā)展經(jīng)歷了多個(gè)階段

每日經(jīng)濟(jì)新聞 2023-02-22 21:18:26

每經(jīng)記者 趙李南    每經(jīng)編輯 梁梟    

近日,《每日經(jīng)濟(jì)新聞》記者專訪了廈門大學(xué)教授蘇勁松。蘇勁松向記者介紹,ChatGPT本質(zhì)上是一個(gè)語言模型,它可以根據(jù)給定的上下文來預(yù)測當(dāng)前出現(xiàn)詞語的分布概率。

粗略來看,ChatGPT的發(fā)展經(jīng)歷了多個(gè)階段:第一階段是統(tǒng)計(jì)語言模型,即用傳統(tǒng)的統(tǒng)計(jì)方法來建立語言模型;第二階段是神經(jīng)網(wǎng)絡(luò)語言模型,即使用神經(jīng)網(wǎng)絡(luò)來建立語言模型,先后出現(xiàn)了許多經(jīng)典模型,包括前饋神經(jīng)網(wǎng)絡(luò)語言模型、循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型等等。隨著2017年Transformer模型的出現(xiàn),研究者們也開始使用Transformer模型來構(gòu)建預(yù)訓(xùn)練語言模型,也就是ChatGPT的前身GPT。

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0