四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
要聞

每經(jīng)網(wǎng)首頁(yè) > 要聞 > 正文

“AI教父”背書,13位OpenAI、谷歌現(xiàn)任及前任員工聯(lián)名警告:AI失控或?qū)е氯祟悳缃^

每日經(jīng)濟(jì)新聞 2024-06-06 18:10:11

每經(jīng)編輯 黃勝    每經(jīng)實(shí)習(xí)編輯 宋欣悅    

當(dāng)?shù)貢r(shí)間4日,13位來(lái)自O(shè)penAI和Google的現(xiàn)任及前任員工聯(lián)合發(fā)布了一封公開(kāi)信,引發(fā)廣泛關(guān)注。這些員工在信中表達(dá)了對(duì)人工智能技術(shù)潛在風(fēng)險(xiǎn)的嚴(yán)重?fù)?dān)憂,并呼吁相關(guān)公司采取更加透明和負(fù)責(zé)任的措施來(lái)應(yīng)對(duì)這些風(fēng)險(xiǎn)。

13位OpenAI、谷歌現(xiàn)任及前任員工發(fā)聯(lián)名信

這封公開(kāi)信由多位知名人士聯(lián)名背書,包括被譽(yù)為“人工智能教父”的杰弗里•辛頓(Geoffrey Hinton)、因開(kāi)創(chuàng)性AI研究獲得圖靈獎(jiǎng)的約書亞•本吉奧(Yoshua Bengio)以及AI安全領(lǐng)域的學(xué)者斯圖爾特•羅素(Stuart Russell)。


圖片來(lái)源:Right To Warn AI

信中指出,盡管人工智能技術(shù)可能會(huì)給人類帶來(lái)巨大益處,但其帶來(lái)的風(fēng)險(xiǎn)同樣不容忽視。這些風(fēng)險(xiǎn)包括加劇社會(huì)不平等、操縱和虛假信息傳播,以及自主AI系統(tǒng)失控可能導(dǎo)致的人類滅絕。信中強(qiáng)調(diào),這些風(fēng)險(xiǎn)不僅得到了人工智能公司本身的確認(rèn),也得到了世界各國(guó)政府和其他AI專家的認(rèn)可。

公開(kāi)信簽署者們表示,他們希望在科學(xué)界、政策制定者和公眾的指導(dǎo)下,能夠充分緩解這些風(fēng)險(xiǎn)。然而,他們擔(dān)心,人工智能公司由于強(qiáng)烈的經(jīng)濟(jì)動(dòng)機(jī),可能會(huì)避免接受有效的監(jiān)督。他們認(rèn)為,僅靠現(xiàn)有的公司治理結(jié)構(gòu)不足以解決這一問(wèn)題。

信中還提到,人工智能公司掌握著大量關(guān)于其系統(tǒng)能力和局限性、保護(hù)措施的充分性以及各種風(fēng)險(xiǎn)水平的非公開(kāi)信息。然而,這些公司目前對(duì)與政府分享信息的義務(wù)很弱,且完全沒(méi)有義務(wù)與公眾分享。簽署者們認(rèn)為,不能完全依賴這些公司自愿分享信息。

信中提到,由于嚴(yán)格的保密協(xié)議,員工們?cè)诒磉_(dá)對(duì)AI風(fēng)險(xiǎn)的擔(dān)憂時(shí),面臨著種種限制。而目前對(duì)于舉報(bào)人的保護(hù)措施尚存在不足,一些員工擔(dān)心因提出批評(píng)而遭受報(bào)復(fù)。

聯(lián)名信呼吁人工智能公司承諾員工對(duì)公司提出風(fēng)險(xiǎn)相關(guān)的批評(píng)時(shí),不對(duì)其進(jìn)行打擊報(bào)復(fù),建立匿名舉報(bào)機(jī)制,支持開(kāi)放批評(píng)的文化,并保護(hù)員工公開(kāi)分享風(fēng)險(xiǎn)相關(guān)信息的權(quán)利。


圖片來(lái)源:X

OpenAI前員工丹尼爾•科泰洛 (Daniel Kokotajlo)是此次聯(lián)名信公開(kāi)署名人員中的一位。他在社交平臺(tái)上連發(fā)15條消息表示:“我們中一些最近從OpenAI辭職的人聚集在一起,要求實(shí)驗(yàn)室對(duì)透明度作出更廣泛的承諾。”

丹尼爾提到,他今年四月辭職,是因?yàn)閷?duì)該公司在構(gòu)建通用人工智能方面是否會(huì)采取負(fù)責(zé)任的行為失去了信心。他指出,盡管他希望公司在AI功能越來(lái)越強(qiáng)大的同時(shí),能在安全研究方面投入更多資金,但OpenAI并未做出相應(yīng)調(diào)整,導(dǎo)致多名員工相繼辭職。

他強(qiáng)調(diào),OpenAI等實(shí)驗(yàn)室構(gòu)建的系統(tǒng)有能力給人類社會(huì)帶來(lái)巨大的好處,但如果不謹(jǐn)慎處理,長(zhǎng)期來(lái)看,可能是災(zāi)難性的。他還提到,當(dāng)前AI技術(shù)幾乎未收監(jiān)管,主要是公司在進(jìn)行自我監(jiān)管,而這種方式存在巨大的風(fēng)險(xiǎn)。

丹尼爾透露,離職時(shí)他被要求簽署一份“封口協(xié)議”,其中包含一項(xiàng)不貶損條款,禁止他發(fā)表任何批評(píng)公司的話,否則將失去已歸屬的股權(quán)。然而,他在深思熟慮后,依舊決定放棄簽署協(xié)議。


圖片來(lái)源:Dwarkesh Podcast

此外,6月4日,OpenAI前超級(jí)對(duì)齊部門成員利奧波德•阿申布倫納(Leopold Aschenbrenner)也在播客節(jié)目Dwarkesh Podcast中透露他被開(kāi)除的真實(shí)原因:他給幾位董事會(huì)成員分享了一份OpenAI安全備忘錄,結(jié)果導(dǎo)致OpenAI管理層不滿。

利奧波德在社交平臺(tái)表示,到2027年實(shí)現(xiàn)AGI是極其有可能的,需要更嚴(yán)格的監(jiān)管和更透明的機(jī)制,確保人工智能的安全發(fā)展。

圖片來(lái)源:X

OpenAI安全主管辭職、“超級(jí)對(duì)齊團(tuán)隊(duì)”解散

此前,OpenAI原首席科學(xué)家伊利亞•蘇茨克維(Ilya Sutskever)和前安全主管、超級(jí)對(duì)齊團(tuán)隊(duì)負(fù)責(zé)人楊•萊克(Jan Leike)相繼離職。

萊克在離職后,公開(kāi)批評(píng)了OpenAI的管理層,指責(zé)其追求華而不實(shí)的產(chǎn)品,忽視了AGI(通用人工智能)的安全問(wèn)題。他稱OpenAI領(lǐng)導(dǎo)層關(guān)于公司核心優(yōu)先事項(xiàng)的看法一直不合,超級(jí)對(duì)齊團(tuán)隊(duì)過(guò)去幾個(gè)月一直在逆風(fēng)航行,在提升模型安全性的道路上受到公司內(nèi)部的重重阻礙,“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。

圖片來(lái)源:X

每日經(jīng)濟(jì)新聞綜合公開(kāi)消息

封面圖片來(lái)源:每日經(jīng)濟(jì)新聞 資料圖

如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai OpenAI 谷歌

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0