四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

技術(shù)慢下來,還是治理跟上去?破解AIGC“科林格里奇困境”:用模型監(jiān)督模型

每日經(jīng)濟新聞 2023-12-28 19:59:03

◎技術(shù)控制兩難的“科林格里奇困境”,正成為當下AIGC(生成式人工智能)治理需要直面的挑戰(zhàn)?!凹夹g(shù)慢下來,還是治理跟上去?”

每經(jīng)記者 李卓    每經(jīng)編輯 張海妮    

圖片來源:視覺中國-VCG41N1188747468 

英國技術(shù)哲學家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》(1980)中指出:一項技術(shù)如果因為擔心不良后果而過早實施控制,那么技術(shù)很可能就難以爆發(fā)。反之,如果控制過晚,已經(jīng)成為整個經(jīng)濟和社會結(jié)構(gòu)的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變。

這種技術(shù)控制兩難的“科林格里奇困境”,正成為當下AIGC(生成式人工智能)治理需要直面的挑戰(zhàn)。

12月27日,“AI發(fā)展與治理創(chuàng)新研討會”在北京舉行。來自中國科學院、中國社會科學院大學、復(fù)旦大學、浙江大學、國家部委研究機構(gòu)和國內(nèi)AI企業(yè)的專家學者圍繞AIGC技術(shù)、風險和治理展開了激烈探討。

2023年,伴隨AIGC在全球的競技式發(fā)展,國內(nèi)大模型以通義千問、文心一言、訊飛星火等為代表,由通用大模型向行業(yè)大模型發(fā)展,應(yīng)用百花齊放,涉及Chat、AIGC、數(shù)字人、智能體……

隨著在人工智能領(lǐng)域的探索與實踐的加深,人工智能的技術(shù)風險——數(shù)據(jù)安全性、算法透明性、系統(tǒng)穩(wěn)定性及倫理爭議,再如人類的自主能動、隱私保護、社會公平等逐漸暴露,由此引發(fā)社會的廣泛關(guān)注。人工智能的風險管理、全生命周期的治理成為全球的重要議題。 

“技術(shù)慢下來,還是治理跟上去?”

阿里研究院執(zhí)行副院長袁媛在會上拋出 “靈魂拷問”。正如她所言,技術(shù)的發(fā)展是一種非線性,甚至是指數(shù)型的增長,但是從知識的積累、治理工具的演進,到政策的完善,它始終是一個線性的過程。政策與科技步調(diào)不一致成了必然規(guī)律。無論讓技術(shù)慢下來、還是讓政策跟上去,都考驗著治理的包容與創(chuàng)新。 

AIGC四大風險:內(nèi)容安全首當其沖

2023年3月,一組由AI繪圖工具Midjourney生成的“特朗普被捕假照片”在網(wǎng)上瘋傳,“有圖未必有真相”讓外界對AIGC的內(nèi)容風險有了清醒的共識。

阿里巴巴人工智能治理和可持續(xù)發(fā)展研究中心首席科學家何源分析指出AIGC當下四大風險時,亦直言“內(nèi)容安全”首當其沖。

AIGC的“內(nèi)容安全”廣義上包括輸出內(nèi)容的社會安全性,是否合法合規(guī)、遵守道德倫理和公序良俗等,具體表現(xiàn)在違法不良信息、內(nèi)容失實、偏見歧視、違反倫理道德等方面。

何源進一步指出,首先,相比傳統(tǒng)內(nèi)容生產(chǎn)模式,AIGC可以通過交互式快速生產(chǎn),生產(chǎn)成本顯著降低;而通過prompt方式可以批量生產(chǎn)大量內(nèi)容,進行規(guī)?;?,包括一些色情、低俗、血腥恐怖的內(nèi)容,甚至不良導(dǎo)向的內(nèi)容等等,對內(nèi)容安全的防控帶來新的挑戰(zhàn)。與此同時,相比真實構(gòu)圖,AIGC生成內(nèi)容具有更高的自由度,更加復(fù)雜、隱晦;AIGC產(chǎn)品還需要快速響應(yīng)用戶指令,這對內(nèi)容安全防控體系都提出更高的時效性要求。

《每日經(jīng)濟新聞》記者現(xiàn)場了解到,多數(shù)與會專家對AIGC的內(nèi)容風險都表達了“輸出輸入內(nèi)容審核”的重要性。

但需要直面的另一個現(xiàn)實是,如果每一條輸出內(nèi)容都進行人工審查,人力成本大幅上升而用戶體驗嚴重受損,不具有可行性,這成為內(nèi)容安全保障的難點。同時,由于現(xiàn)階段生成式人工智能服務(wù)通常無法提供準確的依據(jù)和來源,相關(guān)生成內(nèi)容無法鑒偽,風險也無法被有效定位溯源。

阿里連續(xù)第二年發(fā)布AI白皮書 圖片來源:企業(yè)供圖

阿里巴巴集團與中國電子技術(shù)標準化研究院當日聯(lián)合發(fā)布的《AIGC治理與實踐白皮書》(以下簡稱《白皮書》)對此則認為,從訓(xùn)練數(shù)據(jù)和算法源頭上控制內(nèi)容安全、管理用戶的輸入和對生成結(jié)果的使用,成為降低AIGC風險的重要切入點。

除內(nèi)容安全外,AIGC還存在模型安全、隱私&版權(quán)、倫理道德三大風險。

談及 “模型安全”,何源認為,由于大模型基于深度學習框架構(gòu)建,在對抗“魯棒性”(即模型對于輸入中的擾動、對抗性樣本或惡意攻擊是否具有足夠的抵抗力)上同樣存在安全隱患;大模型基于海量數(shù)據(jù)進行自監(jiān)督訓(xùn)練和基于反饋的強化學習優(yōu)化,存在數(shù)據(jù)攻擊風險,比如數(shù)據(jù)投毒、提示詞越獄攻擊等。而深度學習的黑盒運行機制,導(dǎo)致大模型同樣面臨“可解釋性不足”的問題。

那么,AIGC生成的內(nèi)容是否受版權(quán)保護?目前法律界也還沒有統(tǒng)一定論。

2023年,美國版權(quán)局拒絕登記《Zarya of the Dawn》,判定用Midjourney制作的AI圖片不受保護;2023年12月,北京互聯(lián)網(wǎng)法院公開審理AI文生圖著作權(quán)案,原告使用AI生成圖片發(fā)布網(wǎng)絡(luò)后,被告直接拿去使用,原告認為被告侵犯了他的知識產(chǎn)權(quán)。這個案例北京互聯(lián)網(wǎng)法院一審支持了原告。不過,《每日經(jīng)濟新聞》記者也注意到,該案判決強調(diào),利用人工智能生成的內(nèi)容,是否構(gòu)成作品,需要個案判斷,不能一概而論。

“大模型的訓(xùn)練是基于海量的數(shù)據(jù),通常我們不可能為每一個訓(xùn)練數(shù)據(jù)確認它的使用權(quán)限。同時數(shù)據(jù)的隱私問題也會是一個潛在的風險。因為大模型用海量的互聯(lián)網(wǎng)數(shù)據(jù),既然沒有確認每一張圖片每一個樣本的授權(quán),版權(quán)的情況就會存在用戶的數(shù)據(jù)隱私泄露的風險。”何源如是說。 

“用模型監(jiān)督模型”

中國已經(jīng)是全球范圍內(nèi)首個落地AIGC監(jiān)管的國家。

2023年上半年,人工智能法草案被列入國務(wù)院2023年度立法工作計劃;8月15日,由國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》正式施行。這是我國首份針對生成式人工智能的規(guī)范性監(jiān)管文件……

從全球范圍來看,2023年10月,聯(lián)合國成立人工智能高級咨詢機構(gòu)。

11月2日,首屆全球人工智能安全峰會在英國落下帷幕,包括中國、美國、英國在內(nèi)的28個國家及歐盟共同簽署了《布萊奇利宣言》(以下簡稱《宣言》)。《宣言》強調(diào),人工智能的許多風險本質(zhì)上是國際性的,因此“最好通過國際合作來解決”。與會國家和地區(qū)同意協(xié)力打造一個“具有國際包容性”的前沿人工智能安全科學研究網(wǎng)絡(luò),以對尚未完全了解的人工智能風險和能力加深理解。

復(fù)旦大學計算機科學技術(shù)學院教授張謐認為:“現(xiàn)在全球范圍內(nèi)有AI競賽的氛圍,注重安全反而可能造成技術(shù)落后,為了占領(lǐng)先機便不得不擱置安全。各方應(yīng)該立足長遠,攜手營造有序競爭,把風險控制在防護能力的上界之內(nèi),保障AI發(fā)展處于安全區(qū)域。”

張謐對AI大模型未來的安全前景持樂觀態(tài)度,她援引前沿觀點指出,隨著評測、治理技術(shù)的成熟,以及治理體系的完善,人類提供一整套安全規(guī)則,AI就能根據(jù)規(guī)則實現(xiàn)“用模型監(jiān)督模型”。

何源則認為,AIGC風險治理不僅要對AIGC進行有針對性的立法、構(gòu)建與技術(shù)應(yīng)用相匹配的治理機制,還需要人工智能產(chǎn)業(yè)主動進行負責任的自律自治。

何源也對“大模型評測大模型”提出了他的看法:“我們認為大模型的風險用小模型去識別和處理是不夠的,我們需要用大模型來評測大模型,我們通過大模型生成內(nèi)容安全風險的指令,看看目標模型的產(chǎn)出,構(gòu)造一個閉環(huán)。”

在何源看來,最強的攻擊手段是最好的評測方法,通過智能體對抗博弈,發(fā)現(xiàn)目標LLM(大語言模型)的風險敞口;同時,由易到難,得到豐富多彩的安全評測樣本,提供給LLM進行內(nèi)生安全增強。“風險不能僅僅靠安全措施在輸入和輸出環(huán)節(jié),提升內(nèi)生安全才是根本的解決方案。” 

封面圖片來源:視覺中國-VCG41N1188747468

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

Ai 人工智能 AIGC 大模型

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0