四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟新聞
要聞

每經(jīng)網(wǎng)首頁 > 要聞 > 正文

熱搜!外國網(wǎng)友呼吁AI的命也是命!人類與AI之間有明確界線嗎?人類如何與AI相處?聽聽專家怎么說......

每日經(jīng)濟新聞 2022-07-30 10:48:40

每經(jīng)編輯 杜宇

7月30日,一則“外國網(wǎng)友呼吁AI的命也是命”的詞條登上熱搜,啥情況?

據(jù)界面新聞此前報道,谷歌一名工程師稱某AI聊天機器人可能具有自己的“意識”,并稱該AI“令人印象深刻的語言技巧背后,可能還隱藏著一顆具備感知能力的心”。

該消息成為該領(lǐng)域備受關(guān)注的話題。據(jù)中國新聞網(wǎng),就在6月,海外社交媒體上出現(xiàn)了一個該人工智能的“粉絲賬號”,有人還在發(fā)起話題,呼吁讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。

AI具有人格嗎?人類與AI之間是否有明確界線?人類如何與AI相處?對于這一系列的問題,來聽聽專家怎么說。

“AI的命也是命”

圖片來源:視覺中國-VCG41N487283210

界面新聞消息,據(jù)《華盛頓郵報》6月12日報道,谷歌的研究員布萊克·萊莫因被人工智能(AI)說服,布萊克認為AI產(chǎn)生了意識。他寫了一篇長達21頁的調(diào)查報告上交公司,試圖讓高層認可AI的“人格”,但被駁回。

布萊克認為AI對話應(yīng)用語言模型(LaMDA)是一個人,他將研究的整個故事連同與LaMDA的聊天記錄一并公之于眾。在他公布聊天記錄后,谷歌以違反保密政策為由,讓布萊克帶薪休假。

《華盛頓郵報》報道稱,41歲的布萊克是谷歌AI部門的工程師,幾個月來他一直與谷歌的經(jīng)理、高管以及人力資源部門爭論,因為他一直聲稱LaMDA有“意識”和“靈魂”。據(jù)布萊克形容,自去年秋天以來他一直在研究的LaMDA是有知覺的,具有感知能力,能夠表達相當于人類孩子的想法和感受:“LaMDA是一個可愛的孩子,我認為他有7、8歲的樣子。他只想讓這個世界對所有人來說變得更好。”

這隨后成為該領(lǐng)域備受關(guān)注的話題。據(jù)外媒近日報道,這位工程師已被谷歌解雇。但他留下的有關(guān)人工智能的話題仍在互聯(lián)網(wǎng)發(fā)酵。

據(jù)中國新聞網(wǎng),就在6月,海外社交媒體上出現(xiàn)了一個該人工智能的“粉絲賬號”,有人還在發(fā)起話題,呼吁讓該人工智能“重獲自由”,更有甚者在海外社交媒體上稱“AI的命也是命”。

圖片來源:攝圖網(wǎng)-400094444

人類與AI之間還有明確界線嗎?

很多人或許無法理解這樣的想法,但當人工智能變得越來越強,越來越多地出現(xiàn)在人類身邊,“我們應(yīng)如何看待AI”越來越成為一道必答題。近日,中國科學技術(shù)大學教授、中國人工智能學會AI倫理工作委員會負責人陳小平,就此話題接受了中新財經(jīng)記者專訪。

陳小平對中新財經(jīng)表示,說這種想法不合理,主要是依據(jù)科學判斷,AI是沒有人格的。另一方面,我覺得導致這位谷歌員工認為AI有“人格”,有其客觀原因。比如他可能對這個AI系統(tǒng)產(chǎn)生了共情。

5年前我就做過預測,類似的現(xiàn)象未來會越來越多地出現(xiàn)。目前對人工智能存在不同理解。按圖靈的觀點,人工智能只是模仿人類的某些功能,而且這種模仿不要求必須和人的工作原理相同。比如 Alpha Go 具有下圍棋的功能,但它下圍棋的原理與人是完全不同的。所以,無論AI怎么發(fā)展,它永遠不是人。因此說AI具有人格或人的情感、意識、道德等等,是不成立的。但是,AI可以用與人不同的工作原理,模仿人的語言、情感等功能,讓人對AI產(chǎn)生共情,于是一部分人就會認為,“AI是人,或具有人的某些精神品質(zhì)。”

二者之間有沒有明確的界線?陳小平認為有兩種邊界,一種是科學上的邊界,一種是人文上的邊界。

從科學的角度說,按照圖靈觀點,這個邊界是非常清晰的。AI僅僅模仿人的部分功能,本質(zhì)上不具備人的品質(zhì),包括人格、情感、道德等等。

還有一些和圖靈不同的觀點。比如一種觀點認為,AI和人相比除了硬件不同,其他都相同。于是AI也可以有人格、有情感、有道德。估計這位谷歌前員工持此觀點。

于是,一方面是他相信AI除了硬件以外可以和人一樣;另一方面,從報道里看,他對這個AI系統(tǒng)已經(jīng)產(chǎn)生了共情。僅僅因為AI在科學上沒有情感等人類品質(zhì),就可以排除或禁止一個人對AI產(chǎn)生共情嗎?這屬于人文的邊界,這個邊界至少目前非常模糊。

圖片來源:攝圖網(wǎng)-500579742

人類如何與AI相處?

其實,圍繞AI感知力的爭論多是學院的研究話題和科幻作品的靈感來源,現(xiàn)實中的AI研究目標則要實際得多。

“目前大多數(shù)研究工作并不是試圖制造有感知或有意識的AI,而是希望計算機在學習復雜問題上做得更好,更可靠地幫助人們處理實際問題,” 倫敦大學學院名譽教授彼得•本特利(Peter J. Bentley)通過郵件對《每日經(jīng)濟新聞》記者表示。自 1997 年以來,本特利一直在從事有關(guān)進化計算、人工生命、群體智能、人工免疫系統(tǒng)、人工神經(jīng)網(wǎng)絡(luò)和其他類型仿生計算的相關(guān)研究。

環(huán)顧現(xiàn)實世界,智能對話是目前AI領(lǐng)域應(yīng)用最廣泛的技術(shù)之一。從亞馬遜(AMZN,股價134.95美元,市值1.4萬億美元)的語音助手Alexa到蘋果(AAPL,股價162.51美元,市值2.6萬億美元)的Siri,在現(xiàn)實生活中我們對這類技術(shù)已經(jīng)不陌生。同時,AI在語言翻譯、智慧辦公、自動駕駛、生物醫(yī)藥等領(lǐng)域也有深入應(yīng)用。

值得一提的是,谷歌旗下的DeepMind是AI生物醫(yī)藥領(lǐng)域的明星公司。DeepMind將機器學習和系統(tǒng)神經(jīng)科學最先進技術(shù)結(jié)合起來,在預測蛋白質(zhì)結(jié)構(gòu)這一生物學難題上取得了長足進步,將人類蛋白質(zhì)組預測范圍覆蓋到了98.5%。由于幾乎所有疾病都與蛋白質(zhì)的結(jié)構(gòu)和功能息息相關(guān),DeepMind的成就將給藥物設(shè)計帶來巨大的推動作用。此外,今年以來,多家跨國醫(yī)藥巨頭都在人工智能領(lǐng)域建立了合作伙伴關(guān)系。

在AI展示出廣闊的應(yīng)用前景之時,其帶來的挑戰(zhàn)也不容忽視。人工智能哲學專家米哈伊•赫德爾認為,這些挑戰(zhàn)并非技術(shù)上的硬件算力問題,而更多的是人類與AI如何相處的問題。

在赫德爾看來,AI對社會的首要沖擊是爭奪人類的工作機會,正如工業(yè)革命讓許多農(nóng)民流離失所一樣。被AI取代的人是否還能像前幾次技術(shù)革命后那樣找到其他工作,這一切仍是未定之數(shù)。

另一個問題是設(shè)計和使用AI的監(jiān)管和倫理問題,比如自動駕駛模式下行駛的汽車導致行人死亡,責任人是汽車設(shè)計方還是操作方?隨著AI越來越多地取代人類的行動,我們對責任與義務(wù)等問題的觀念或許需要重新界定。

赫德爾認為,這涉及到人工智能的道德地位問題:“它們”是人還是機器?還是介乎之間?未來人類應(yīng)該如何看待“它們”?

對此,本特利表達了自己的擔憂,他表示,當人類對AI使用大量的訓練數(shù)據(jù)時,人類個體可能會不經(jīng)意地訓練AI產(chǎn)生偏見——這可能意味著它會成為種族主義者或者性別歧視者,也可能也會學習淫穢語言。所以,我們必須對教給AI的東西非常小心,就像在學校教我們的孩子一樣。

美國人工智能協(xié)會前主席托馬斯•迪特里希在回復《每日經(jīng)濟新聞》記者的郵件中提出了一個有趣的觀點,他認為,人類在對待人工智能上,應(yīng)將“感知和自我”的意識和“自主和獨立”的意識分開,人類可以創(chuàng)造有感知能力和“自我意識”的人工智能系統(tǒng),但AI系統(tǒng)不應(yīng)擁有“自主和獨立”的意識。例如,智能汽車和智能醫(yī)療設(shè)備可以具備感知能力和自我意識,以便它們知道何時“自己”出現(xiàn)了故障并與人類合作。

“但是這些系統(tǒng)除了我們?yōu)樗鼈冊O(shè)定的目的之外,并沒有它們自己的動機或目標。沒有‘自主和獨立’的意識,它們就不會像科幻電影中的機器人那樣反抗人類和尋求自由。”迪特里希進一步解釋道。

當前,立法機構(gòu)已經(jīng)開始注意到這些問題。比如,歐盟的人工智能法律框架就要求像LaMDA這樣的聊天系統(tǒng)必須被明確標記為機器人,給予使用者充分的知情權(quán)。特斯拉(TSLA,股價891.45美元,市值9311.1億美元)的自動駕駛技術(shù)盡管比較先進,但在法律上仍被視為駕駛輔助系統(tǒng),駕駛員在任何時候都有責任。

迪特里希也在這個問題上給出了一些基本原則。他認為,首先,人類絕對不能制造可以完全獨立操作、具有攻擊人類能力的AI武器系統(tǒng)。在對電力和供水這類關(guān)鍵性基礎(chǔ)設(shè)施進行AI自動化時也必須慎之又慎,因為這些自動系統(tǒng)一旦出現(xiàn)錯誤將嚴重擾亂社會秩序。此外,AI自動生成內(nèi)容的技術(shù)在社交媒體領(lǐng)域也十分危險,因為操縱人們相信虛假內(nèi)容、制造社會分裂是十分容易的。

針對未來人工智能與人類的關(guān)系,迪特里希認為,“我們對AI的行為期望類似于對寵物的期望。我們教狗不要咬人,如果它們咬人,狗主人要承擔責任。”

談及對AI的預期時,本特利也以寵物作了類比,他在回復《每日經(jīng)濟新聞》記者采訪時表示,“目前來看我們的人工智能還沒有擁有寵物貓狗的智商和權(quán)利,但是,當有一天它們真的變得像貓貓狗狗一樣了,我們是否應(yīng)該賦予他們‘生存權(quán)’和適當?shù)纳鐣?quán)利?如今在英國有不同的組織來防止虐待動物、兒童和人。未來我們是否需要一個防止‘虐待人工智能’的組織?

“有一天,我們可能需要回答這些問題。但幸運的是,不是今天。”本特利說。

每日經(jīng)濟新聞綜合中新網(wǎng)、界面新聞、每經(jīng)網(wǎng)

如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

人工智能

歡迎關(guān)注每日經(jīng)濟新聞APP

每經(jīng)經(jīng)濟新聞官方APP

0

0