每日經(jīng)濟(jì)新聞 2023-05-05 16:35:54
每經(jīng)編輯 李澤東
據(jù)環(huán)球網(wǎng)5月5日援引路透社報道,美國總統(tǒng)拜登出席了當(dāng)?shù)貢r間4日舉行的美國政府官員與微軟、谷歌等四家人工智能(AI)領(lǐng)域龍頭企業(yè)CEO間的會議,討論AI的風(fēng)險。
報道稱,拜登明確向這些企業(yè)高層表示,他們必須在推出產(chǎn)品之前確保其安全性。
拜登(中)當(dāng)?shù)貢r間4日出席與微軟等公司CEO的會議并發(fā)表講話(圖片來源:拜登推特賬號)
據(jù)上證報報道稱,周四舉行的AI風(fēng)險治理會議進(jìn)行了兩個小時,由美國副總統(tǒng)哈里斯主持,拜登出席。與會者包括谷歌CEO桑達(dá)爾·皮查伊(Sundar Pichai)、微軟CEO薩蒂亞·納德拉(Satya Nadella)、OpenAI的CEO山姆·奧特曼(Sam Altman)和Anthropic的聯(lián)合創(chuàng)始人達(dá)里奧·阿莫代(Dario Amodei),以及一眾白宮要員。
有意思的是,在會議現(xiàn)場,美國總統(tǒng)拜登“剛好順便”參加了會議。
據(jù)一位白宮官員透露,拜登此次是“順便”參加會議,他還使用了ChatGPT。這位官員對媒體表示:“拜登已經(jīng)全面了解了ChatGPT,并親自進(jìn)行了試驗。”
拜登告訴與會者,他們必須減少人工智能對個人、社會及國家安全造成的當(dāng)前以及潛在的風(fēng)險。白宮補充說,此次會議上與會者進(jìn)行了“坦率并有建設(shè)性的討論”,內(nèi)容涉及企業(yè)需要對政策制定者更透明地介紹其人工智能產(chǎn)品、對此類產(chǎn)品的安全性做出評估的重要性、保護(hù)它們免受惡意攻擊的必要性。
白宮新聞秘書讓·皮埃爾則在新聞發(fā)布會上表示,拜登的興趣凸顯了一個事實,即他和副總統(tǒng)哈里斯將AI視為“我們這個時代最強(qiáng)大的技術(shù)之一”。
報道還稱,哈里斯也在一份聲明中說,這項技術(shù)有可能改善生活,但也可能帶來安全、隱私和民權(quán)問題。她告訴與會企業(yè)高層,他們有“法律義務(wù)”確保其人工智能產(chǎn)品的安全,聯(lián)邦政府對推進(jìn)或支持關(guān)于人工智能的新法規(guī)和新立法持開放態(tài)度。
在白宮人工智能會議結(jié)束后,山姆·奧特曼表示:“各公司在人工智能需要發(fā)生的事情(指安全監(jiān)管等問題)上意見一致,我支持推進(jìn)新的人工智能監(jiān)管規(guī)定,支持新的立法。”
讓·皮埃爾表示,這次會談是“誠實”和“坦率”的。“我們有四位首席執(zhí)行官在這里與副總統(tǒng)和總統(tǒng)會面,這表明我們對此有多重視。”她補充道,人工智能公司必須提高透明度,包括讓公眾評估和衡量其產(chǎn)品的能力,這對于確保人工智能系統(tǒng)的安全和信心至關(guān)重要。
值得注意的是,就在會議之前,白宮宣布,美國國家科學(xué)基金會計劃花費1.4億美元建立專門用于人工智能的新研究中心。
圖片來源:視覺中國
據(jù)了解,今年以來,以ChatGPT為代表的生成式大模型成為全球范圍內(nèi)的熱詞,數(shù)以億計的用戶開始使用相關(guān)產(chǎn)品,但與此同時,相關(guān)的風(fēng)險也越來越不容忽視。
近期,各國紛紛開始監(jiān)管介入,討論人工智能時代下一系列的法律與社會問題。此外,今年3月底,包括馬斯克在內(nèi)的許多科技產(chǎn)業(yè)人士聯(lián)署了一封公開信,呼吁所有AI實驗室立即暫停訓(xùn)練人工智能系統(tǒng)至少6個月。
近日宣布離開谷歌公司的“AI教父”杰弗里·辛頓(Geoffrey Hinton)表示,他擔(dān)心互聯(lián)網(wǎng)將充斥虛假照片、視頻和文字,普通人“無法再辨別真假”。此外,辛頓還擔(dān)心人工智能技術(shù)的“未來版本”會對人類構(gòu)成威脅,因為“它們經(jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)到意想不到的行為”,并且目前無法想象如何防止壞人利用AI做壞事。
每日經(jīng)濟(jì)新聞綜合環(huán)球網(wǎng)、上證報、澎湃新聞、第一財經(jīng)、公開資料
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP