四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

還敢用AI寫論文?OpenAI“反作弊神器”曝光,準確度99.9%!一年前就已做好,為何不發(fā)布?公司內(nèi)部“吵了起來”

每日經(jīng)濟新聞 2024-08-06 18:36:33

每經(jīng)編輯 黃勝    每經(jīng)實習(xí)編輯 宋欣悅    

8月4日,據(jù)外媒報道,OpenAI已掌握一項技術(shù),能夠精準識別出論文或研究報告是否由ChatGPT撰寫,甚至能追溯其使用的具體時間點。盡管社會各界對學(xué)生可能借助人工智能工具進行學(xué)術(shù)不端行為的憂慮日益加劇,但截至目前,OpenAI尚未公開披露這一檢測手段的具體信息。

據(jù)知情人士披露和《華爾街日報》看到的內(nèi)部文件內(nèi)容,該項目在OpenAI內(nèi)部陷入了長達兩年的激烈爭論,而且早在一年之前就已做好了發(fā)布準備。其中一位知情人士表示,“發(fā)布這項技術(shù)只是按一個按鈕的問題。”

圖片來源:視覺中國-VCG31N2008743681

  • 堅守公司原則還是留住用戶?

然而,在實際決策過程中,OpenAI的員工陷入了兩難境地,他們既想要堅守公司最初承諾的透明度原則,又希望平衡吸引和維持用戶群體的需求。一項針對忠實ChatGPT用戶的調(diào)查顯示,有近三分之一的用戶表示,一旦反作弊技術(shù)推出,他們可能會選擇停止使用ChatGPT。

有網(wǎng)友表示,這種防止作弊的技術(shù)不過是一場“貓鼠游戲”,非但不能從根本上解決問題,反而可能催生更為復(fù)雜的作弊手段。并且,目前市面上已經(jīng)有很多與GPT-4o相媲美的產(chǎn)品,“作弊者”同樣可以轉(zhuǎn)向使用其它大模型

還有網(wǎng)友表達了對防作弊技術(shù)可能帶來的副作用的擔(dān)憂,認為其嵌入可能會削弱ChatGPT的整體響應(yīng)質(zhì)量和用戶體驗。

圖片來源:Reddit

OpenAI一位發(fā)言人表示,公司擔(dān)心該工具可能會對非英語母語人士等群體產(chǎn)生格外重大的影響。她解釋道,“我們正在開發(fā)的文本水印方法在技術(shù)層面極具前景,但也存在著重大風(fēng)險,目前我們正在研究替代方案并權(quán)衡這些風(fēng)險。在我們看來,考慮到問題的復(fù)雜性以及對OpenAI之外更廣泛生態(tài)系統(tǒng)的潛在沖擊,我們有必要采取更為審慎的處理方法。”

支持該工具發(fā)布的員工,包括那些幫助開發(fā)該工具的員工都曾在內(nèi)部表示,與這項技術(shù)所能帶來的好處相比,上述觀點顯得蒼白無力。

OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)和首席技術(shù)官米拉·穆拉蒂(Mira Murati)也參與了有關(guān)反作弊工具的討論。一些知情人士表示,阿爾特曼對該項目表示肯定,但并未實際推動其發(fā)布。

  • 準確性高達99.9%

ChatGPT由一套人工智能系統(tǒng)提供支持,該系統(tǒng)可以預(yù)測句子中接下來應(yīng)該出現(xiàn)的單詞或單詞片段。OpenAI正在討論的這款反作弊工具會略微改變token選取方式,通過這種變化來創(chuàng)建一種文本水印。

這些水印肉眼是無法察覺的,但可以通過OpenAI的檢測技術(shù)識別出來。檢測器會給出一個分數(shù),用以衡量整個文檔或者部分文檔內(nèi)容由ChatGPT生成的可能性。

根據(jù)內(nèi)部文件,在ChatGPT創(chuàng)建了足夠多的新文本之后,水印機制的準確性高達99.9%。

斯坦福大學(xué)研究員約翰·西克斯頓(John Thickstun)所在的團隊,也在開發(fā)類似的AI文本水印方法,他表示:“明天太陽原地爆炸的概率,都比學(xué)生們不用AI寫文章的幾率大。”

但也有一位知情的OpenAI員工表示,他們擔(dān)心這些水印可以通過簡單的技術(shù)清除,比如由谷歌將文本翻譯成另一種語言,之后再翻譯回來;或者讓ChatGPT在文本中添加表情符號,再將其手動刪除。

公司內(nèi)部普遍認為,這款檢測器究竟該交給誰使用也是個大問題。如果使用的人太少,那它就缺乏現(xiàn)實意義;而如果廣泛對外開放訪問權(quán)限,惡意人士可能會破解其中采用的水印技術(shù)。

OpenAI員工還討論過將檢測器直接提供給教育工作者或者外部企業(yè),以幫助學(xué)校識別由AI撰寫的論文和抄襲作品。

谷歌也曾開發(fā)過一款水印工具,可以檢測由其Gemini AI生成的文本。這款工具名為SynthID,目前處于內(nèi)測階段,尚未全面向公眾開放。

OpenAI還有一款工具,可以用來確定圖像內(nèi)容是否由DALL-3(OpenAI旗下的文生圖模型)生成,而且該工具已在今年春季開放了測試。知情員工表示,OpenAI其實優(yōu)先考慮的是音頻和視覺水印,而非文本水印。畢竟考慮到美國已經(jīng)迎來又一個選舉年,前者的危害明顯更大。

  • 學(xué)生濫用AI寫作,教師焦慮升級

生成式AI可以根據(jù)一個提示,在幾秒鐘內(nèi)免費創(chuàng)建整篇論文或研究論文。教師和教授們紛紛表示,他們迫切需要官方幫助來打擊這種濫用AI技術(shù)的行為

紐約市高中英語與新聞學(xué)教師亞歷克斯·古特曼(Alexa Gutterman)表示,“這已經(jīng)成了大問題,跟我共事的每一位老師都在討論這種趨勢。”

民主與技術(shù)中心(一家關(guān)注技術(shù)政策非營利組織)最近的一項調(diào)查發(fā)現(xiàn),59%的初中和高中教師明確發(fā)現(xiàn)有學(xué)生在使用AI幫助完成作業(yè),這一比例較上學(xué)年增長了17個百分點。

圖片來源:X

2023年1月,OpenAI發(fā)布了一種算法,旨在檢測由包括其自家模型在內(nèi)的多種AI模型編寫的文本,但成功率只有6%。七個月之后,OpenAI決定將其撤回。

還有其他由外部企業(yè)和研究人員開發(fā)的類似AI輸出文本檢測工具,不少教師表示他們已經(jīng)試用過這些工具,但有時候不僅無法檢測到由先進大語言模型生成的文本、還經(jīng)常會產(chǎn)生誤報。

也有部分教師鼓勵學(xué)生使用AI來幫助研究或者為當前思路提供反饋。但問題在于,如果學(xué)生純靠ChatGPT這樣的應(yīng)用程序完成作業(yè),那他們自己甚至都不知道學(xué)了些什么。

去年,猶他大學(xué)政治學(xué)教授喬什·麥克雷恩(Josh McCrain)給學(xué)生們布置了一項寫作作業(yè),其中也摻雜了某些難以辨認的短文本片段,要求學(xué)生在作業(yè)中引用蝙蝠俠的內(nèi)容。而如果他們把作業(yè)直接粘貼進AI對話框,這部分說明也會被納入其中。

果然,有少數(shù)學(xué)生在提交的作業(yè)中莫名其妙地引用了蝙蝠俠這一元素。為此,麥克雷恩正在不斷調(diào)整作業(yè)的內(nèi)容,盡可能在作業(yè)中加上AI相對不熟悉的時事素材上,同時勸告學(xué)生們不要完全依賴AI來完成作業(yè)。“我一直反復(fù)向?qū)W生強調(diào):這是你們自己的學(xué)習(xí)旅程,偷懶是不可取的。”

  • 持續(xù)多年的爭論

知情人士指出,關(guān)于水印工具的討論早在OpenAI于2022年11月推出ChatGPT之前就開始了,而且長期成為沖突和對立的根源。這款工具由計算機科學(xué)教授斯科特·阿倫森(Scott Aaronson)開發(fā)而成,他在得克薩斯大學(xué)兩年休假期間一直在OpenAI從事安全工作。

圖片來源:德克薩斯大學(xué)官網(wǎng)

2023年初,OpenAI公司聯(lián)合創(chuàng)始人之一約翰·舒爾曼(John Schulman)在一份共享Google文檔中概述了該工具的優(yōu)勢和缺點。OpenAI高管則決定在采取進一步行動之前,先征求更多人的意見。

在接下來的一年半時間里,OpenAI的管理層反復(fù)討論這項技術(shù),并希望通過數(shù)據(jù)分析來決定到底要不要對外發(fā)布。

一份內(nèi)部文件顯示,OpenAI于2023年4月委托開展的一項調(diào)查指出,有四分之一的用戶支持AI檢測工具的推出。

同月,OpenAI針對ChatGPT用戶開展了一項調(diào)查,結(jié)果顯示,高達69%的受訪者擔(dān)憂由于作弊檢測技術(shù)的誤判,使用AI的人可能會無端遭受“濫用AI”的指責(zé)。此外,近30%的受訪者強烈表示,如果ChatGPT決定實施水印機制,他們將選擇轉(zhuǎn)向那些不采用水印機制的競爭對手平臺,或者至少會減少對ChatGPT的使用頻率。

OpenAI公司內(nèi)部還一直存在擔(dān)憂,即反作弊工具可能會損害ChatGPT的寫作質(zhì)量。但知情人士表示,OpenAI今年早些時候進行了一項測試,發(fā)現(xiàn)水印并不會影響ChatGPT的性能。

根據(jù)內(nèi)部文件,參與測試的員工總結(jié)道:“既然我們確認了水印不會降低輸出質(zhì)量,恐怕就很難繼續(xù)反對文本水印機制的落地了。”

今年6月初,OpenAI的高層團隊與研究人員再次開會,就該項目進行了深入討論。小組內(nèi)部達成了共識,認為水印技術(shù)確實展現(xiàn)出了良好的效果,但同時,去年ChatGPT用戶調(diào)查的結(jié)果依然具有重要的參考價值。據(jù)知情人士透露,有觀點提出,公司應(yīng)該探索那些尚未得到驗證、但有望在用戶群體中引發(fā)較少爭議的新方法。

內(nèi)部文件揭示,與會者普遍認為OpenAI應(yīng)在今年秋季之前擬定一項策略,旨在引導(dǎo)公眾對AI透明度的正面認知,并考慮推動相關(guān)立法進程以支持這一方向。

6月會議紀要的核心指出:“若未能及時行動,我們的聲譽將會受損,公眾可能會因此質(zhì)疑OpenAI的責(zé)任感。”

每日經(jīng)濟新聞綜合自公開消息

 

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0