四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

對話圖靈獎得主、“AI教父”Yoshua Bengio:AI安全不能靠企業(yè)“自覺”,防范AI失控需要類似核武器監(jiān)管的國際條約

每日經(jīng)濟新聞 2024-09-03 16:34:13

◎圖靈獎獲得者、被稱為“AI教父”的加拿大計算機科學家Yoshua Bengio在接受《每日經(jīng)濟新聞》記者采訪時表示,從更高的角度看,要確保AI系統(tǒng)的安全開發(fā)和部署,全球需要解決兩個挑戰(zhàn),一個是技術(shù)層面的,另一個是政治層面。

每經(jīng)記者 鄭雨航    每經(jīng)實習記者 岳楚鵬    每經(jīng)編輯 蘭素英    

如今,人工智能(AI)浪潮正以前所未有的速度重塑世界,隨之而來的安全和倫理問題也日益受到關注,如何平衡創(chuàng)新與風險成為了業(yè)內(nèi)關注的焦點。

8月底,AI巨頭OpenAI和Anthropic與美國AI安全研究所(AI Safety Institute)達成了一項歷史性協(xié)議,允許美國政府在其發(fā)布全新的重要AI模型之前先進行嚴格的安全測試。美國AI安全研究所是在拜登政府去年10月發(fā)布的首個AI行政命令下成立的,旨在通過新的安全評估、制定公平和公民權(quán)利指導方針,以及研究AI對勞動力市場的影響,來管理AI的未來發(fā)展。

OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)稱,這一協(xié)議的達成是“歷史性的重要一步”,體現(xiàn)了行業(yè)對安全性和負責任創(chuàng)新的承諾。美國AI安全研究所所長伊麗莎白·凱利(Elizabeth Kelly)表示,這只是一個起點,但卻是負責任地管理AI未來的重要里程碑。

針對這兩家領先的AI初創(chuàng)公司所達成的協(xié)議以及AI領域的安全和未來發(fā)展問題,《每日經(jīng)濟新聞》記者專訪了圖靈獎獲得者、被稱為“AI教父”的加拿大計算機科學家Yoshua Bengio,進行深入解讀。

Yoshua Bengio是深度學習領域的先驅(qū)之一,與Geoffrey Hinton和Yann LeCun共同獲得了2018年的圖靈獎,被業(yè)界譽為“深度學習三巨頭”。Bengio不僅對前沿技術(shù)有著深刻的理解,更對AI的發(fā)展方向、潛在風險以及社會影響有著獨到的見解。2023年8月,Bengio被任命為聯(lián)合國技術(shù)進步科學顧問委員會成員并擔任加拿大高級研究院(CIFARAI主席。2024年,Bengio入選《時代》雜志全球100位最具影響力人物年度榜單。 

圖片來源:Yoshua Bengio個人網(wǎng)站

確保AI安全須解決兩大挑戰(zhàn)

NBD:您如何看待最近OpenAI和Anthropic與美國AI安全研究所的合作?這是否會成為AI治理方面的一種更廣泛趨勢?

Bengio:除OpenAI和Anthropic外,還有其他公司已經(jīng)承諾與英國政府的AI安全研究所私下分享他們的最新模型。考慮到OpenAI和Anthropic都是美國公司,他們對美國政府采取同樣的做法也是理所應當?shù)摹?/strong>

NBD:要確保AI系統(tǒng)的安全開發(fā)和部署,尤其是在企業(yè)和政府合作的情況下,您認為需要解決哪些最關鍵的挑戰(zhàn)?

Bengio:站在更高的角度看,我們需要解決兩個挑戰(zhàn)。

首先是技術(shù)層面,我們需要開發(fā)能夠在AGI(通用人工智能,相當于普通人類水平)或ASI(超級人工智能,即超越人類水平)階段仍然有效的安全技術(shù),包括對危險能力的評估、檢測和緩解,以及設計可控且保證安全的AI系統(tǒng)。

其次是政治層面,我們需要全球范圍內(nèi)的協(xié)調(diào),以確保所有國家和公司在開發(fā)最強大的AI系統(tǒng)時,遵循最佳的安全實踐,避免人類失去控制的災難性后果。并且,要達成最佳的安全和治理協(xié)議,以確保某些人不會濫用AGI的力量為自己謀利,而犧牲其他許多人的利益。

NBD:不同地區(qū)在監(jiān)管方式上也會有所不同,在您看來,促進AI治理國際合作的最有效方法是什么?

Bengio:國際協(xié)調(diào)對于避免未來幾年或幾十年人類可能面臨的兩種最危險情況至關重要:一是權(quán)力集中于少數(shù)人手中,他們將通過控制ASI來控制全人類;二是人類失去對ASI的控制,而ASI的目標是自我保護(這可能與人類目標相沖突并導致人類滅絕),從而危及人類的生存。

為了避免這些情況,必須讓世界各地的更多人和政府了解這些風險。我們需要類似于核武器(監(jiān)管)條約的國際條約。而考慮到各國/地區(qū)之間的軍事和地緣政治競爭,必須要有足夠的驗證技術(shù)(來證明其危險),促進條約的有效實施,我認為只要專注這方面的發(fā)展,這是幾年內(nèi)是可以實現(xiàn)的。

AI安全不能靠企業(yè)“自覺”,“AI教父”提出三大關鍵舉措

NBD:您如何看待學術(shù)研究對AI治理行業(yè)的影響或指導作用?可以采取哪些措施來加強研究與實際實施之間的聯(lián)系?

Bengio:在AI安全方面,企業(yè)之間存在著內(nèi)在的利益沖突。它們之間競爭激烈,為了生存,它們不得不在安全方面偷工減料,以犧牲公共安全為代價,在商業(yè)上取得領先地位。它們有動機隱瞞風險和事故,并拒絕監(jiān)管。因此,必須有一大批獨立學者參與AI安全研究以及前沿AI系統(tǒng)的評估和審計。

NBD:展望未來,在技術(shù)快速進步的背景下,您認為有哪些額外的研究或舉措可以進一步推進AI的安全和治理?

Bengio:在科學技術(shù)層面上,我們需要更好的風險評估方法。例如,能力評估,可以檢測前沿人工智能的潛在危險;更好的AI設計方法可以為我們提供一些定量的安全保證(目前我們還沒有);建立硬件化的AI芯片使用跟蹤、許可和驗證機制,支持國際條約驗證。

在治理和政治層面上,全球需要提高對AI風險的認識,尤其是對災難性風險的認識。應對這些風險的措施應讓每個國家的每個人都團結(jié)起來,因為我們都是人類,大多數(shù)人都希望看到自己的孩子過上好日子,人類繼續(xù)繁榮昌盛。

另外,全球需要對開發(fā)最強大AI系統(tǒng)的AI實驗室進行國家監(jiān)管,引入有關其AI安全計劃、工作和事故報告(包括舉報人保護)透明度,以及遵守國家和國際AI安全標準的激勵措施。

加利福尼亞州提出的SB-1047法案就是一個很好的例子。(注:該法案要求訓練模型的公司在部署超過一億美元成本的大型模型前,進行風險評估。Bengio等一群在計算機領域聲名顯赫的功勛學者教授們在8月時曾聯(lián)名簽署公開信,對此表示支持。他們聲稱這項立法是“有效監(jiān)管這項技術(shù)的最低標準”。)

NBD:您剛才提到國際條約,能再具體介紹一下嗎?

Bengio:關于AGI發(fā)展的國際條約,應該包括幾個關鍵方面。

首先,各國需要強制執(zhí)行國家層面的監(jiān)管,盡管各國的具體監(jiān)管方式可能有所不同,但所有措施都必須以保護公眾和全人類免受災難性風險為基礎。

其次,這些條約還應促進全球范圍內(nèi)的財富重新分配,以確保AGI所創(chuàng)造的財富能夠惠及各國,特別是低收入和中等收入國家,從而激勵它們加入并遵守條約。

與此同時,各國應在AI安全標準和研發(fā)方面加強國際合作,以統(tǒng)一和提升全球AI安全水平。

最后,這些條約還應允許像聯(lián)合國這樣的中立全球機構(gòu)通過遠程跟蹤和驗證技術(shù),對與全球災難性風險相關的條約執(zhí)行情況進行監(jiān)督和核實,以確保全球合作的有效性和公正性。

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai AI安全 監(jiān)管 人工智能

歡迎關注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP