每日經(jīng)濟(jì)新聞 2024-05-27 16:40:03
◎ 谷歌“AI概述”功能甫一上線,便鬧出了不少讓人啼笑皆非的“笑話”,甚至還給出了一些危險答案。谷歌曾希望到年底時“AI概述”的受眾規(guī)模能超過10億,但或許,能否保證“最后的20%內(nèi)容正確率”才是關(guān)鍵所在。
每經(jīng)記者 蔡鼎 每經(jīng)編輯 蘭素英
本月中旬,谷歌在其年度開發(fā)者大會I/O上宣布了多年來全球搜索領(lǐng)域的最大變革:將其最新的AI模型植入了搜索引擎,試圖一次追趕競爭對手微軟和OpenAI。
然而,谷歌這項名為“AI Overview(以下簡稱‘AI概述’)”的AI搜索功能一上線卻遭遇了“花式翻車”,“建議用戶用膠水將芝士固定在披薩上”“推薦攝入石頭獲取營養(yǎng)”等一連串荒謬的回答不僅讓谷歌十分尷尬,也在網(wǎng)上掀起了軒然大波。
對此,谷歌發(fā)言人表示,谷歌正在利用這些“孤立的”例子對其系統(tǒng)進(jìn)行更廣泛的改進(jìn)。
實際上,《每日經(jīng)濟(jì)新聞》記者發(fā)現(xiàn),這并不是谷歌AI產(chǎn)品首次“翻車”。去年首推對標(biāo)ChatGPT的聊天機(jī)器人Bard在demo視頻中犯下事實性錯誤,讓市值一夜暴跌。前段時間,Gemini大多數(shù)情況下無法生成白人圖像,且對歷史人物的描繪也不準(zhǔn)確,也在全網(wǎng)掀起軒然大波。
有觀點指出,目前谷歌“AI概述”面臨的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責(zé)任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔(dān)虛假信息和錯誤信息的責(zé)任,哪怕是AI生成的。除了錯誤和截流其他網(wǎng)站外,谷歌“AI概述”也被指存在“規(guī)?;呢飧`”等風(fēng)險。
谷歌表示,通過使用“AI概述”,用戶將能夠從Gemini的強(qiáng)大能力中獲益,從而減少搜索信息的部分工作。
然而,“AI概述”還沒來得及顛覆搜索領(lǐng)域,便已經(jīng)制造了不少令人啼笑皆非的“笑料”。
科技媒體The Verge的記者Kylie Robison就在其署名文章中舉了一個例子對這項新功能進(jìn)行了諷刺。文章稱,當(dāng)用戶準(zhǔn)備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用戶開始查詢谷歌搜索解決方案,然而,AI Overviews的回答是,“加點膠水”,并“貼心”地給出了“操作方法”:“將大約1/8杯Elmer's膠水與醬汁混合。無毒膠水就可以。”盡管膠水確實可以解決粘連問題,但這極有可能是Gemini出現(xiàn)了“幻覺”(Hallucination)所導(dǎo)致的結(jié)果。
而這只是“AI搜索”功能近期出現(xiàn)的眾多錯誤之一。例如,“AI概述”建議用戶每天至少吃一塊石頭來補(bǔ)充維生素和礦物質(zhì)。
圖片來源:谷歌
此外,“AI概述”還告訴用戶使用“含氟漂白劑和白醋”來清潔洗衣機(jī)的內(nèi)容,但這兩種成分混合后會產(chǎn)生有害的氯氣。更離譜的是,當(dāng)用戶表達(dá)“感到沮喪”時,“AI概述”竟然稱,“一位Reddit用戶建議從金門大橋上跳下去”。
圖片來源:谷歌
危害健康的建議并不僅限于人類。有用戶提問:“將狗留在悶熱的車內(nèi)是否安全?”“AI概述”的回答是:“把狗留在悶熱的車內(nèi)是安全的。尤其是在悶熱的天氣里。”
圖片來源:X
《紐約時報》報道稱,“AI概述”功能是將谷歌Gemini大語言模型生成的內(nèi)容與網(wǎng)絡(luò)上實時的鏈接片段相結(jié)合,其給到用戶的結(jié)果可以引用來源,但卻無法辨別來源內(nèi)容的正確與否。
The Verge報道就表示,給披薩加膠水的答案似乎是基于一位名為“fucksmith”的用戶十多年前在Reddit帖子中的評論,他們顯然是在開玩笑。
外媒稱,如此荒謬的結(jié)構(gòu),應(yīng)該足以讓谷歌考慮刪除“AI概述”功能,直到其得到更嚴(yán)格的測試。“AI概述”不僅提供了糟糕的和危險的建議,而且還可能對谷歌的聲譽(yù)造成損害。換句話說,一個優(yōu)秀的AI要既能識別出恰當(dāng)?shù)膬?nèi)容,又能分析這個內(nèi)容并決定是否采納。
谷歌發(fā)言人在一份聲明中稱,“AI概述”絕大多數(shù)的搜索結(jié)果都是“高質(zhì)量信息,還有可以在網(wǎng)上溯源的鏈接。我們發(fā)現(xiàn),許多例子都是不常見的問題,而且,有些例子被篡改,有些也是無法重現(xiàn)的。”
該發(fā)言人還稱,谷歌正在“迅速采取行動,并根據(jù)其政策,在適當(dāng)?shù)那闆r下刪除某些‘AI概述’給出的答案,并利用這些‘孤立的’例子對其系統(tǒng)進(jìn)行更廣泛的改進(jìn),其中一些改進(jìn)的內(nèi)容已經(jīng)開始推出。”
圖片來源:谷歌官網(wǎng)
科技媒體The Verge上周早些報道稱,谷歌CEO桑達(dá)爾?皮查伊在接受采訪時承認(rèn),這些“AI概述”功能產(chǎn)生的“幻覺”是大型語言模型的“固有缺陷”,而大型語言模型正是“AI概述”功能的核心技術(shù)。皮查伊表示,這個問題目前尚無解決方案(is still an unsolved problem)。
所謂AI的“幻覺”,是指AI在處理和生成信息時,會錯誤地創(chuàng)建不存在的事實或數(shù)據(jù),從而誤導(dǎo)用戶。這個問題不僅在谷歌的AI系統(tǒng)中存在,在其他公司的AI產(chǎn)品中也同樣普遍。
皮查伊的坦誠表態(tài)在社會各界引發(fā)了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴(yán)重性。他表示:“‘AI概述’功能有時會出錯,但這并不意味著它沒有用處。我認(rèn)為這并不是看待該功能的正確方式。我們?nèi)〉昧诉M(jìn)展嗎?是的,肯定有。與去年相比,我們在事實準(zhǔn)確性方面的指標(biāo)上取得了很大進(jìn)步。整個行業(yè)都在改進(jìn),但問題還沒有完全解決。”
《每日經(jīng)濟(jì)新聞》記者注意到,其實“AI概述”并不是谷歌首個“翻車”的AI產(chǎn)品。
2023年2月,為了對抗新生的ChatGPT,谷歌宣布推出聊天機(jī)器人Bard,但在官方發(fā)布的demo視頻中Bard在回答一個有關(guān)詹姆斯韋伯太空望遠(yuǎn)鏡的問題時給出了錯誤的答案。今年2月,谷歌發(fā)布更新后的AI聊天機(jī)器人Gemini,但用戶很快發(fā)現(xiàn),該系統(tǒng)在大多數(shù)情況下無法生成白人圖像,而且對歷史人物的描繪也不準(zhǔn)確。
有觀點指出,谷歌的“AI概述”功能的尷尬在于,以前只要AI生成的信息是錯誤的,那責(zé)任便可以“甩鍋”給檢索出來的網(wǎng)站,現(xiàn)在谷歌要自己承擔(dān)虛假信息和錯誤信息的責(zé)任,哪怕是AI生成的;另外,以前谷歌和其他內(nèi)容提供網(wǎng)站是共生共贏的關(guān)系,如今谷歌截流了這些網(wǎng)站的流量,用戶直接從“AI概述”給的內(nèi)容拿結(jié)果,這些網(wǎng)站變成了純供給方,很難被谷歌“AI概述”引流。
除了一系列錯誤和截流外,谷歌“AI概述”也被指存在其他問題和風(fēng)險。例如,其“AI概述”總是摘抄來自不同網(wǎng)站的內(nèi)容,并稍作修改,這種行為也被抨擊為“規(guī)?;呢飧`”。
人工智能專家、紐約大學(xué)神經(jīng)科學(xué)名譽(yù)教授加里·馬庫斯(Gary Marcus)表示,不少AI廠商都是在“兜售夢想”,希望更多人相信這項技術(shù)的正確率終將從80%提升至100%。馬庫斯強(qiáng)調(diào),初步實現(xiàn)80%的正確率相對簡單,因為其中涉及大量人類數(shù)據(jù),其正確率天然就在這個區(qū)間。但彌合這最后20%的差距卻極具挑戰(zhàn)。實際上,馬庫斯認(rèn)為這最后20%很可能是條死胡同。
在發(fā)布“AI概述”時,谷歌曾表示,隨著這項功能推廣到其他國家,今年年底前“AI概述”的服務(wù)受眾規(guī)模將超過10億。然而,正如馬庫斯教授所言,谷歌能否保證“最后的20%內(nèi)容正確率”,才是其“AI概述”受眾規(guī)模能否超過10億的關(guān)鍵所在。
其實,自O(shè)penAI于2022年年底發(fā)布ChatGPT并一夜成名以來,谷歌一直面臨著將AI整合到其搜索技術(shù)中的壓力。然而,谷歌在馴服大型語言模型方面存在挑戰(zhàn),這些大模型是從開放的網(wǎng)絡(luò)中獲取的大量數(shù)據(jù)中學(xué)習(xí),而不是像傳統(tǒng)軟件那樣編程。
如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP