四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
首頁輪播

每經(jīng)網(wǎng)首頁 > 首頁輪播 > 正文

“AI教母”李飛飛:Sora仍是二維圖像,只有三維空間智能才能實現(xiàn)AGI

鈦媒體 2024-08-03 16:08:17

8月2日消息,日前斯坦福大學(xué)舉辦的Asian American Scholar Forum論壇的一場閉門會上,有著“AI教母”之稱的斯坦福大學(xué)教授李飛飛對鈦媒體App獨(dú)家表示,盡管美國OpenAI公司的Sora模型可以文生視頻,但就本質(zhì)而言,它仍屬平面二維模型,沒有三維立體理解能力,只有“空間智能”才是AGI未來方向。

李飛飛是在針對鈦媒體創(chuàng)始人趙何娟提出的關(guān)于“空間智能”模型和大語言模型關(guān)系的問題討論時,做出上述回應(yīng)。她進(jìn)一步解釋稱,現(xiàn)在的多數(shù)模型如GPT4o和Gemini 1.5,都依然還是語言類模型,即輸入語言,輸出語言,雖然也有多模態(tài)模型,但仍局限于語言,即便有視頻,也是基于二維的平面圖像。但未來要實現(xiàn)AGI的關(guān)鍵一環(huán)是“空間智能“,需要三維視覺模型。

她以Sora展示的“日本女性走過霓虹閃爍東京街頭”的AI視頻做例子。

“如果你希望算法換個角度,來展現(xiàn)這個女子走過街頭的視頻,比如把攝像機(jī)放在女子背后,Sora無法做到。因為這個模型對于三維世界并沒有真正的深刻理解。而人類可以在腦海中想象女子背后的情景。”李飛飛表示,“人類可以理解在復(fù)雜的環(huán)境下如何活動。我們知道如何抓取,如何控制,如何造工具,如何建造城市。根本而言,空間智能是幾何形狀,是物體間的關(guān)系,是三維空間??臻g智能是關(guān)于釋放在三維空間生成(視覺地圖)并推理和規(guī)劃行動的能力。其應(yīng)用是廣泛的,比如用于AR和VR,用于機(jī)器人,App的設(shè)計也需要空間智能。”

李飛飛向鈦媒體App強(qiáng)調(diào),“自然進(jìn)化使動物理解三維世界,在三維空間生活、預(yù)判并互動。這種能力已有5.4億年的漫長歷史。當(dāng)三葉蟲第一次在水中看到光,它必須在三維世界中‘導(dǎo)航’。如果不能在三維世界中‘導(dǎo)航’,它將很快成為其他動物的大餐。隨著進(jìn)化的推移,動物的空間智能能力加強(qiáng)。我們理解形狀,我們理解深度。”

現(xiàn)年48歲的李飛飛,是著名計算機(jī)科學(xué)家、美國國家工程院院士、美國國家醫(yī)學(xué)院院士,并且在美國斯坦福大學(xué)以人為本的AI研究所擔(dān)任負(fù)責(zé)人。她于2009年領(lǐng)導(dǎo)研發(fā)的ImageNet圖片數(shù)據(jù)庫和視覺識別大賽,對海量圖片進(jìn)行精準(zhǔn)標(biāo)注和分類,推動了計算機(jī)視覺的識別能力的進(jìn)步,也是促成AI突飛猛進(jìn)發(fā)展的關(guān)鍵因素之一。去年,她公布的VoxPoser成為具身智能(Embodied AI)發(fā)展中關(guān)鍵技術(shù)方向。

今年7月,李飛飛創(chuàng)辦的AI公司W(wǎng)orld Labs宣布完成兩輪融資,投資方包括a16z(Andreessen Horowitz)等,公司最新估值已達(dá)10億美元(約合72.6億元人民幣)。

7月底這場亞裔美國科學(xué)家論壇閉門會上,李飛飛的演講也讓更多人了解到Word Labs和她的“空間智能”發(fā)展理念到底是什么,即要讓AI真正“從看到,到做到”。

圖片來源:視覺中國-VCG41N1472123004

如何實現(xiàn)從“看到”到“做到”

所謂“空間智能”,是指人們或機(jī)器在三維空間中的感知、理解和交互能力。

這一概念最早由美國心理學(xué)家霍華德·加德納(Howard Gardner)在多元智能理論中提出,讓在大腦中形成一個外部空間世界的模式,并能夠運(yùn)用和操作。實際上,空間智能讓人有能力以三度空間的方式來思考,使人知覺到外在和內(nèi)在的影像,也能重現(xiàn)、轉(zhuǎn)變或修飾影像,從而能夠在空間中從容地游走,隨心所欲地操弄物件的位置,以產(chǎn)生或解讀圖形的訊息。

從廣義上看,空間智能不僅包括對空間方位的感知能力,還包括視覺辨別能力和形象思維能力。而對于機(jī)器而言,空間智能則是指其在三維空間中的視覺數(shù)據(jù)處理能力,能夠精準(zhǔn)做出預(yù)測,并基于這些預(yù)測采取行動。這種能力使得機(jī)器能夠像人類一樣在復(fù)雜的三維世界中導(dǎo)航、操作和決策,從而超越傳統(tǒng)二維視覺的局限。

今年4月舉行的TED演講上,李飛飛坦言,視覺能力引發(fā)了寒武紀(jì)大爆發(fā),神經(jīng)系統(tǒng)的進(jìn)化帶來了智能。“我們想要的不僅僅是能看會說的AI,我們想要的是能做的AI。”

在李飛飛看來,空間智能是“解決AI技術(shù)難題的關(guān)鍵法寶”。

7月底這場閉門活動上,李飛飛首先回顧了自10年前開始的現(xiàn)代AI三大驅(qū)動力:算法構(gòu)成的“神經(jīng)網(wǎng)絡(luò)”,即“深度學(xué)習(xí)”;現(xiàn)代芯片,主要是英偉達(dá)GPU芯片;以及大數(shù)據(jù)。

自2009年以來,計算機(jī)視覺領(lǐng)域進(jìn)入爆炸式進(jìn)展。機(jī)器可以迅速認(rèn)出物體,和人類的表現(xiàn)不相上下。但這只是冰山一角。計算機(jī)數(shù)視覺不僅可以識別靜止的物體,跟蹤移動的物體,而且可以將物體分成不同部分,甚至可以理解物體之間的關(guān)系。因此,基于圖片大數(shù)據(jù),計算機(jī)視覺領(lǐng)域突飛猛進(jìn)。

李飛飛清晰地記得,大約10年前,她的學(xué)生Andrej Karpathy參與建立圖釋算法研究。他們給計算機(jī)展示一張圖片,接著通過神經(jīng)網(wǎng)絡(luò),計算機(jī)可以輸出自然語言,比如說:“這是一只貓咪躺在床上。”

“我記得告訴Andrej,讓我們反轉(zhuǎn)一下。比如給一個句子,讓計算機(jī)給出一張圖片。我們都笑了,覺得可能永遠(yuǎn)不會實現(xiàn),或者將在很遠(yuǎn)的未來實現(xiàn),”李飛飛回憶說。

過去兩年,生成式AI技術(shù)迅猛發(fā)展。特別是幾個月前,OpenAI發(fā)布了視頻生成算法Sora。她展示了她的學(xué)生們在谷歌研發(fā)的類似產(chǎn)品,質(zhì)量非常好。這個產(chǎn)品在Sora發(fā)布以前幾個月就存在了,而且所用的GPU(圖形處理器)規(guī)模比Sora少很多。問題是,接下來AI將走向何方?

“多年來,我一直表示,‘看到’即為‘理解世界’。但是我愿意將這個概念推進(jìn)一步,‘看到’不僅僅是為了理解,而是為了做到。自然界創(chuàng)造了像我們這樣有感知能力的動物,但實際上從4.5億年前,就存在這樣的動物。因為這是進(jìn)化的必要條件:看到和做到是一個閉環(huán),”李飛飛表示。

她用她最喜歡的貓咪作為例子。

一只貓咪、一杯牛奶、還有植物在桌子上的照片。當(dāng)你看到這張照片時,你腦海里其實出現(xiàn)一個三維視頻。你看到了形狀,你看到了幾何。

事實上,你看到了幾秒鐘前已經(jīng)發(fā)生的事情,和幾秒種后可能發(fā)生的事情。你看到了這張照片的三維空間。你在計劃接下來做點(diǎn)什么。你大腦在運(yùn)轉(zhuǎn),計算如何做才能拯救你的地毯,特別是這只貓咪是你自己的,地毯也是你自己的。

“我把這一切稱作空間智能,也就是將三維世界做成模型,就物體、地點(diǎn)、事件等在三維空間和時間內(nèi)等進(jìn)行推理。在這個例子里,我談的是真實世界,但也可以指虛擬的世界。但是空間智能的底線是將“看到”和“做到”聯(lián)系在一起。有一天,AI將可以做到這一點(diǎn),“李飛飛表示。

其次,李飛飛展示了基于多張照片重建的三維視頻,然后她給出基于一張照片做的三維視頻,這些技術(shù)都可用于設(shè)計中。

李飛飛表示,具身智能AI或者人形機(jī)器人,可以將把“看到”與“做到”形成閉環(huán)。

她表示,斯坦福大學(xué)的同事們和芯片巨頭英偉達(dá)正在聯(lián)合進(jìn)行名為BEHAVIOR的研究,將家庭活動構(gòu)建一個基準(zhǔn)的動態(tài)空間,從而評估各種機(jī)器人在居家環(huán)境中的表現(xiàn)。“我們正在研究如何將語言模型與大型視覺模型相連接,從而可以指揮機(jī)器人制定計劃并開始行動,“她說。她給出三個例子,一個是機(jī)器人在打開抽屜,另一個是機(jī)器人在將手機(jī)充電線拔掉,第三個是機(jī)器人在做三明治。所有指令均通過人類的自然語言給出。

最后,她給出一個例子,認(rèn)為未來屬于“空間智能”世界,人類可以坐在那里,帶上一頂有傳感器的EEG帽子,不用張嘴說話,僅靠意念遠(yuǎn)程告訴機(jī)器人:做一頓日式大餐吧。機(jī)器人收到意念后,解密意念,即可搞出全套大餐。

“當(dāng)我們將‘看到’與‘做到’通過空間智能聯(lián)系在一起后,我們即可做到。”她表示。

李飛飛還表示,過去20年,她見證了AI激動人心的發(fā)展。但是,她認(rèn)為AI或者AGI的關(guān)鍵一環(huán)就是空間智能。通過空間智能,看到世界、感知世界、理解世界并讓機(jī)器人做事,從而形成良性閉環(huán)。

機(jī)器人將接管人類嗎?

李飛飛在會議上表示,今天人們對于AI未來可以做什么太過夸張。她警告,人們不要將野心勃勃的、勇敢的目標(biāo)與現(xiàn)實混為一談,人們聽到太多這樣的論調(diào)。

事實上,當(dāng)前AI已經(jīng)到達(dá)拐點(diǎn),特別是大語言模型。“但是,它仍然是充滿錯誤的、有限的技術(shù),仍需要人類深度參與其中,需要人類理解它的有限性?,F(xiàn)在非常危險的論調(diào)是所謂的人類滅絕的風(fēng)險,即AI正在成為人類的機(jī)器主宰。我認(rèn)為,這對社會非常危險,此類言論將帶來很多意外后果。AI的局限性沒有被人類充分理解。我們需要深思熟慮的、平衡的、沒有偏見的關(guān)于AI的交流和教育,“李飛飛強(qiáng)調(diào)說。

李飛飛認(rèn)為,AI應(yīng)該扎根于人類。人類創(chuàng)造了它,人類正在發(fā)展它,人類正在使用它,人類也應(yīng)該管理它。

李飛飛表示,在斯坦福大學(xué)“以人為本的AI“研究所,他們采取了三個對待AI的方式,包括個人、社區(qū)和社會三個層面:

在個人層面,必須參與并擁抱AI。這是一個文明的科技。AI改變孩子們?nèi)绾螌W(xué)習(xí),改變了醫(yī)生如何使用診斷方法,改變了藝術(shù)家如何設(shè)計,改變了老師如何授課。不管是否為科技人員,均可以發(fā)揮自己的作用,用負(fù)責(zé)任地態(tài)度使用AI。

在社區(qū)層面,AI可向社區(qū)賦能,可滿足社區(qū)的環(huán)境保護(hù)需求,或者農(nóng)業(yè)需求。有些農(nóng)業(yè)社區(qū)使用機(jī)器學(xué)習(xí)技術(shù)來檢測社區(qū)水質(zhì)。藝術(shù)家社區(qū)不僅在使用AI,而且表達(dá)了他們的擔(dān)憂,以及如何解決問題、減輕風(fēng)險的想法。

在社會層面,政府、研究機(jī)構(gòu)、企業(yè)、聯(lián)邦機(jī)構(gòu)和國際機(jī)構(gòu)均應(yīng)該認(rèn)真對待這項科技。存在能源問題,這會影響到地緣政治。仍有開源與非開源的大討論,這影響到經(jīng)濟(jì)和生態(tài)。仍有管理的問題,比如AI的風(fēng)險與安全等。必須采取積極的方式,一個多方參與的方式,一個全社會的方式?,F(xiàn)在已經(jīng)沒有回頭路,李飛飛表示。她2017至2018年在谷歌領(lǐng)導(dǎo)AI項目,在2020年至2022年擔(dān)任推特的董事會成員,目前是美國白宮的AI顧問。

關(guān)于AI對于工作的影響,李飛飛分享了她的看法。

李飛飛指出,在斯坦福大學(xué)以人為本AI研究所內(nèi),有個數(shù)字經(jīng)濟(jì)實驗室,由Erik Brynjolfsson教授領(lǐng)導(dǎo)。這個非常復(fù)雜的問題有很多層面。她特別強(qiáng)調(diào),“工作”與“任務(wù)”是兩個不同的概念,因為實際中每個人的工作都由多項任務(wù)組成。

她以美國護(hù)士作例子。據(jù)估計,在護(hù)士8個小時的班次中,任務(wù)數(shù)以百計。因此,當(dāng)人們討論AI接管或者取代人類的工作時,必須分清是在取代任務(wù)還是在取代工作?

李飛飛認(rèn)為,AI改變了一個工作內(nèi)的多項任務(wù),因此也會逐漸改變工作的性質(zhì)。在呼叫中心場景中,新手的工作質(zhì)量被AI提高了30%,但是熟練人員的工作質(zhì)量并未因AI而有所提升。斯坦福大學(xué)數(shù)字經(jīng)濟(jì)實驗室的一篇文章呼應(yīng)了李飛飛的觀點(diǎn),該文章的標(biāo)題是:“AI不會取代經(jīng)理的工作:使用AI的經(jīng)理正在取代不使用AI的經(jīng)理。”

李飛飛強(qiáng)調(diào),科技會帶來生產(chǎn)力的進(jìn)步,但是生產(chǎn)力的進(jìn)步并不會自動轉(zhuǎn)化為社會的共同繁榮。她指出,歷史上曾多次發(fā)生這樣的事件。

作者:Chelsea_Sun 編輯:胡潤峰 林志佳

封面圖片來源:視覺中國-VCG41N970174988

責(zé)編 張楊運(yùn)

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0