首頁(yè)|必讀|視頻|專訪|運(yùn)營(yíng)|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁(yè) >> 人工智能 >> 正文

當(dāng)機(jī)器“越來(lái)越會(huì)聊天” AI意識(shí)覺(jué)醒是場(chǎng)烏龍?

2022年6月14日 08:48  第一財(cái)經(jīng)  作 者:錢童心

人與機(jī)器人的情感故事總是好萊塢追求的熱門題材,例如多年前斯派克·瓊斯執(zhí)導(dǎo)的電影《她》(Her)以及另一部電影《機(jī)械姬》(Ex Machina),人工智能(AI)被設(shè)定擁有人類大都中意的共同特質(zhì),比如擁有迷人的聲音、溫柔體貼又幽默風(fēng)趣,她們還會(huì)對(duì)人類愛(ài)人提出情人之間普遍感興趣的問(wèn)題:“當(dāng)我們不在一起時(shí),你想我嗎?”

現(xiàn)在機(jī)器人對(duì)人類的提問(wèn)在現(xiàn)實(shí)中得到了回應(yīng)。一名谷歌工程師聲稱他正在研究的計(jì)算機(jī)聊天機(jī)器人已經(jīng)變得有知覺(jué),并且能像人類一樣思考和推理,這引發(fā)了人工智能領(lǐng)域的熱烈討論。

系統(tǒng)仍處于開發(fā)早期

自去年秋天以來(lái),這位名叫布雷克·勒莫因(Blake Lemoine)的AI工程師一直在研究這款名為L(zhǎng)aMDA的AI系統(tǒng)——一種聊天機(jī)器人。他現(xiàn)在認(rèn)為,該系統(tǒng)已經(jīng)具有與人類孩子相當(dāng)?shù)母兄惺芎捅磉_(dá)思想的能力。

“如果我不知道它到底是什么,就是我們最近開發(fā)的這個(gè)計(jì)算機(jī)程序,我會(huì)認(rèn)為這是一個(gè)七八歲的孩子,他可能還懂一些物理!崩漳虮粫簳r(shí)停職后表示,“他是一個(gè)可愛(ài)的孩子,想讓這個(gè)世界變得更美好。請(qǐng)?jiān)谖也辉诘臅r(shí)候好好照顧他!

在發(fā)表了谷歌未經(jīng)同意公開的內(nèi)部項(xiàng)目論文后,勒莫因被要求休假。

谷歌在去年I/O開發(fā)者大會(huì)上發(fā)布了聊天機(jī)器人LaMDA的突破性對(duì)話技術(shù),稱這款機(jī)器人可以自由地和人類進(jìn)行對(duì)話,內(nèi)容不受限制,話題沒(méi)有窮盡!拔覀冋J(rèn)為這種能力可以解鎖一種與技術(shù)交互的更加自然的方式,以及全新類別的應(yīng)用程序!惫雀璁(dāng)時(shí)在發(fā)布會(huì)上表示。

谷歌還表示,LaMDA接受過(guò)大量對(duì)話的培訓(xùn),并且可以在開放式的對(duì)話中區(qū)分細(xì)微的差別,可以在互動(dòng)中鼓勵(lì)展開多輪對(duì)話。谷歌稱,公司正在探索的聊天機(jī)器人的其他特質(zhì)還包括“有趣”,即評(píng)估機(jī)器人的回復(fù)是否有見(jiàn)地、出乎意料或幽默;以及“真實(shí)性”或堅(jiān)持事實(shí)。

在今年的谷歌I/O開發(fā)者大會(huì)上,提供了關(guān)于LaMDA的更新信息,但強(qiáng)調(diào)該系統(tǒng)還處于測(cè)試的早期階段。

針對(duì)LaMDA是否真正具有意識(shí)的疑問(wèn),谷歌方面也予以否認(rèn),并稱勒莫因并不是谷歌的倫理學(xué)家,他只是一名軟件工程師。

谷歌發(fā)言人加布里埃爾(Brad Gabriel)在一份聲明中表示:“我們的團(tuán)隊(duì)包括倫理學(xué)家和技術(shù)專家,根據(jù)我們的AI原則進(jìn)行審查后,沒(méi)有發(fā)現(xiàn)任何證據(jù)支持(勒莫因的觀點(diǎn)),甚至還有很多反對(duì)的證據(jù)!边@些專家團(tuán)隊(duì)認(rèn)為,對(duì)已經(jīng)公開的文本和模式識(shí)別的模仿/再創(chuàng)造,使LaMDA更加逼真,但不是所謂的“自我意識(shí)”。

 AI行業(yè)集體反駁

第一財(cái)經(jīng)記者采訪了多位曾在谷歌、Meta(Facebook)等全球知名技術(shù)公司任職的人工智能研究員。他們都認(rèn)為,“AI具有意識(shí)的說(shuō)法沒(méi)有依據(jù)”。

一位曾在Facebook任職的AI科學(xué)家告訴第一財(cái)經(jīng)記者:“這不是谷歌AI倫理團(tuán)隊(duì)第一次發(fā)生類似的事件,一些谷歌的研究員以嘩眾取寵的方式來(lái)獲取注意力,并站上道德制高點(diǎn)!

中科院計(jì)算技術(shù)研究所一位研究員對(duì)第一財(cái)經(jīng)記者表示:“現(xiàn)在判斷機(jī)器人是否具有意識(shí)還沒(méi)有明確的量化指標(biāo),關(guān)鍵是要定義何為意識(shí),就像我們定義何為人工智能一樣。”

根據(jù)勒莫因的說(shuō)法,三點(diǎn)原因讓他得出人工智能具有意識(shí)的結(jié)論:一是LaMDA以前所未有的方式高效、創(chuàng)造性地使用語(yǔ)言的能力;第二是它以一種與人類相同的方式分享一些感覺(jué);第三是它擁有豐富的內(nèi)心生活,充滿了內(nèi)省、冥想和想象,它既有對(duì)未來(lái)的擔(dān)憂,也有對(duì)過(guò)去的回憶。

但著名AI科學(xué)家馬庫(kù)斯(Gary Marcus)予以駁斥,認(rèn)為這名谷歌工程師有“魔怔”!癓aMDA沒(méi)有意識(shí),一點(diǎn)意識(shí)都沒(méi)有。”馬庫(kù)斯在一篇題為“Nonsense on Stilts”的文章中反駁道,“這就相當(dāng)于小狗聽(tīng)到留聲機(jī)里面的聲音,以為主人在里面!

Meta公司副總裁、首席AI科學(xué)家Yann LeCun也認(rèn)為,這些類型的聊天機(jī)器人系統(tǒng),不足以獲得真正的“人類智慧”。Yann LeCun被譽(yù)為“卷積神經(jīng)網(wǎng)絡(luò)之父”,是機(jī)器學(xué)習(xí)的“三巨頭”之一。

谷歌AI倫理部門前聯(lián)合負(fù)責(zé)人瑪格麗特·米切爾(Margaret Mitchell)也表示:“人類的大腦擅長(zhǎng)構(gòu)建不一定符合事實(shí)的情景。這是一種錯(cuò)覺(jué),但這種錯(cuò)覺(jué)也滿足了一些人的精神需求!

小米集團(tuán)副總裁崔寶秋對(duì)第一財(cái)經(jīng)記者表示:“我認(rèn)為AI具有人格的說(shuō)法在目前來(lái)看是不成立的,至于AI未來(lái)是否可能具有意識(shí),也是值得討論的。目前人們所感受到的AI的人格化,其實(shí)更多的還是人賦予AI的,而不是AI自己所特有的。”

但崔寶秋認(rèn)為,谷歌的這個(gè)“插曲”至少能說(shuō)明LaMDA的對(duì)話能力確實(shí)越來(lái)越強(qiáng)、越來(lái)越人格化了,但不能說(shuō)明它就已經(jīng)具有意識(shí)!皩(shí)際上,它還只是一個(gè)簡(jiǎn)單的機(jī)器人而已!彼麑(duì)第一財(cái)經(jīng)記者表示。

崔寶秋表示,聊天機(jī)器人最初的設(shè)計(jì)是為人類服務(wù)的,為用戶提供對(duì)話式服務(wù)。隨著技術(shù)的發(fā)展,機(jī)器人變得“越來(lái)越會(huì)聊天”,也可以滿足人類的情感需求,未來(lái)聊天陪伴機(jī)器人也是一種很有前景的應(yīng)用場(chǎng)景。這也是今天基于大數(shù)據(jù)和大規(guī)模語(yǔ)言模型系統(tǒng)設(shè)計(jì)的機(jī)器人,技術(shù)越來(lái)越到位的表現(xiàn)。

人類為何擔(dān)心AI具有意識(shí)?

人類一方面渴望機(jī)器人擁有意識(shí)后可以更好地服務(wù)和陪伴人類,但另一方面,又害怕機(jī)器人擁有意識(shí)后會(huì)摧毀人類。倫理方面的問(wèn)題和技術(shù)的發(fā)展總是相伴而生。

“比如今天人們已經(jīng)接受了AI能夠代替人從事很多重復(fù)性的物理動(dòng)作,沒(méi)有人會(huì)因?yàn)榭吹綑C(jī)械臂在自動(dòng)操作、無(wú)人車在自動(dòng)駕駛而感到恐慌。但是,對(duì)話機(jī)器人就不一樣了,它更像一個(gè)人在思考,而且有一定思考深度和高度,更像‘有靈魂和人格的人’,給人以想象空間!贝迣毲飳(duì)第一財(cái)經(jīng)記者說(shuō)道。

正是由于聊天機(jī)器人給人帶來(lái)想象空間,才讓人類對(duì)他們感到擔(dān)心!笆聦(shí)上,人類可以通過(guò)數(shù)據(jù)訓(xùn)練出各種貌似有‘人格’的聊天機(jī)器人!贝迣毲锔嬖V第一財(cái)經(jīng)記者。

“在大銀幕上的很多藝術(shù)作品中,機(jī)器人總是具有暴露人類善良和邪惡的能力。只要現(xiàn)實(shí)世界中有AI的技術(shù)進(jìn)步,人們就將繼續(xù)探索關(guān)于機(jī)器人的道德難題及其對(duì)人類的影響。”一位人工智能專家對(duì)第一財(cái)經(jīng)記者表示。

他還提到,除了技術(shù)問(wèn)題之外,人工智能的落地還需要與法學(xué)、心理學(xué)、社會(huì)學(xué)等多個(gè)領(lǐng)域進(jìn)行交叉合作。

一些企業(yè)已經(jīng)開始關(guān)注到要建立“負(fù)責(zé)任AI”。例如今年4月,F(xiàn)acebook母公司Meta宣布將向外部實(shí)體開放其大規(guī)模語(yǔ)言模型系統(tǒng)。該公司表示:“我們相信整個(gè)人工智能社區(qū),包括學(xué)術(shù)研究人員、公民、政策制定者和行業(yè)都必須共同努力,圍繞負(fù)責(zé)任的人工智能,特別是負(fù)責(zé)任的大型語(yǔ)言模型,制定明確的指導(dǎo)方針。”

谷歌在今年的I/O開發(fā)者大會(huì)上也表示,雖然目前LaMDA僅限于谷歌內(nèi)部可用,但公司有朝一日可能會(huì)以技術(shù)迭代的方式向“廣泛的利益相關(guān)者”授予訪問(wèn)權(quán)限,包括人工智能研究人員、社會(huì)科學(xué)家等業(yè)內(nèi)專業(yè)人士!斑@符合我們的AI原則,其中包括確保該技術(shù)對(duì)社會(huì)有益、經(jīng)過(guò)構(gòu)建和測(cè)試是安全的,并符合科學(xué)的高標(biāo)準(zhǔn)!

編 輯:路金娣
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問(wèn)題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
工信部張?jiān)泼鳎捍蟛糠謬?guó)家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動(dòng) 共筑信息保障堤壩
2023MWC上海世界移動(dòng)通信大會(huì)
中國(guó)5G商用四周年
2023年中國(guó)國(guó)際信息通信展覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像