赫拉利對(duì)話李開復(fù):AI終將比我們更聰明,卻成為不了我們
前不久,中信出版集團(tuán)邀請(qǐng)到了國際AI專家、零一萬物CEO、創(chuàng)新工場(chǎng)董事長李開復(fù)博士與歷史學(xué)家、哲學(xué)家、《智人之上》作者尤瓦爾·赫拉利教授連麥暢聊。
?
本次對(duì)談從AI對(duì)現(xiàn)實(shí)的技術(shù)性影響切入,兩位嘉賓互問互答,進(jìn)行了一場(chǎng)令人深思的思想互動(dòng)。
?
尤瓦爾·赫拉利曾與不少硅谷人士進(jìn)行過談話,相比于AI專業(yè)人士的樂觀,作為一名歷史學(xué)家,他認(rèn)為 新技術(shù)的巨大危險(xiǎn)不在于最終結(jié)果,而在于實(shí)現(xiàn)它的過程。
?
從第一次工業(yè)革命到第二次工業(yè)革命,從殖民時(shí)代到一戰(zhàn)、二戰(zhàn),人類付出的生命代價(jià)以億計(jì)算。
?
“當(dāng)一種強(qiáng)大的新技術(shù)出現(xiàn)時(shí),沒有人知道如何將其融入社會(huì)和政治,也不知道如何明智地使用它。人們會(huì)進(jìn)行實(shí)驗(yàn),而有些實(shí)驗(yàn)可能會(huì)非常非常糟糕。”這是正是尤瓦爾·赫拉利出于一名歷史學(xué)家的責(zé)任感所擔(dān)憂的。
?
李開復(fù)博士從自己的技術(shù)背景抽身而出,指向了一個(gè)更為宏大和根本的問題,那就是——人性應(yīng)該更多地定義為意識(shí),而不是智能,因?yàn)槿斯ぶ悄茱@然更具有智能。
?
他希望人們會(huì)逐漸意識(shí)到,生活不僅僅是為了工作,特別是簡(jiǎn)單的、重復(fù)性的工作。人工智能可能會(huì)成為一個(gè)促使人們重新定義自己和尋找人類命運(yùn)的推動(dòng)力。
?
兩位嘉賓沒有回避AI給人類帶來的威脅,他們以自己行走世界所掌握的一手前沿案例,極大地?cái)U(kuò)充了我們對(duì)于生成式AI在當(dāng)下以及未來究竟到達(dá)何種可能性的視野。
?
他們認(rèn)為,
總有一天,AI將比我們所有人都聰明,但它們成為不了我們,因?yàn)樗鼈冎粨碛兄悄芏粫?huì)進(jìn)化出人性,而人性,就藏在我們的意識(shí)之中。
在由生成式AI引領(lǐng)的AI2.0時(shí)代,我們應(yīng)該投入資源探索和發(fā)展我們的意識(shí),人類的意識(shí)仍有巨大的潛力和探索空間。
?
危險(xiǎn)正在迫近,機(jī)遇前所未有,面對(duì)AI大潮,尤瓦爾·赫拉利的新書《智人之上》將成為你看清前路的思想指南。
兩位嘉賓用這篇近萬字的長文,用海量細(xì)節(jié)向你娓娓道來……
一、AI將推動(dòng)人類實(shí)現(xiàn)更大飛躍
?
赫拉利: 您好,李博士。得益于現(xiàn)代科技和信息技術(shù)的發(fā)展,即便我們相隔萬里,也能保持聯(lián)系。
?
李開復(fù):
是的,再次見到您真是太好了,赫拉利教授。我們以前幾乎每年都能見面,但是疫情把我們分開了,再次見到您真是太好了。
我是您所有著作的忠實(shí)讀者,特別是您的新作品《智人之上》。
我認(rèn)為,信息已經(jīng)成為當(dāng)今商業(yè)、工作和人類生活中最重要的因素。我可以肯定地說,我的所有工作都與處理信息和人際關(guān)系有關(guān),而且,越來越多的信息成為了我們公司制定戰(zhàn)略的基礎(chǔ)。
我們采納數(shù)據(jù)主導(dǎo)的決定,我們利用信息和技術(shù)來塑造思維、做出決策。我們的產(chǎn)品是以應(yīng)用程序或軟件形式分發(fā)的信息集,并且我們通過電子手段獲得報(bào)酬。所以,世界正變得越來越數(shù)字化和虛擬化,而被傳輸?shù)木褪切畔ⅰ?/p>
?
我認(rèn)為赫拉利教授在《智人之上》一書中非常精辟地講述了信息的歷史,在書中,我們可以清晰地看到信息的使用在數(shù)字時(shí)代有了飛躍性的發(fā)展。
?
赫拉利: 人類之所以能主宰世界,是因?yàn)槲覀儽热魏纹渌麆?dòng)物都更擅長合作。就個(gè)體而言,我們不比其他動(dòng)物聰明或強(qiáng)壯多少。
?
以黑猩猩為例,它們只能在50只或100只的小群體中合作,而人類卻能夠建立跨越數(shù)百萬乃至數(shù)十億人的大規(guī)模合作網(wǎng)絡(luò)。
?
這正是我們力量的來源,我們通過信息交換來實(shí)現(xiàn)這一點(diǎn)。我們并不直接認(rèn)識(shí)自己所在國家、公司或商業(yè)網(wǎng)絡(luò)中的大多數(shù)成員,但我們保持聯(lián)絡(luò)、我們相互連接、我們通過信息進(jìn)行協(xié)作,這就是信息為何如此重要的原因。
?
實(shí)際上,我們并不直接生活在現(xiàn)實(shí)中,我們不是對(duì)現(xiàn)實(shí)本身做出反應(yīng),而是對(duì)我們對(duì)現(xiàn)實(shí)的印象做出反應(yīng)。我們根據(jù)所獲得的關(guān)于現(xiàn)實(shí)的信息作出回應(yīng),這正是信息至關(guān)重要的原因。
?
在歷史的這一階段,我們發(fā)明了有史以來最強(qiáng)大、最重要的信息技術(shù)——人工智能。人工智能的獨(dú)特之處在于,它不僅是我們手中的工具,它還是一個(gè)活躍且自主的代理,能夠自行做出決策,能夠自己發(fā)明和創(chuàng)造新想法。
?
在歷史上,我們發(fā)明了許多工具和機(jī)器,但對(duì)這些工具和機(jī)器的控制權(quán)始終在我們手中,尤其是對(duì)信息的控制權(quán)。
?
現(xiàn)在,關(guān)于人工智能有很多炒作和誤解。什么是人工智能?它與以往的機(jī)器或計(jì)算機(jī)有何不同?區(qū)別在于,如果某個(gè)系統(tǒng)不能自我改變、不能學(xué)習(xí)和創(chuàng)造新事物,那么它就不是人工智能,而只是一臺(tái)老式機(jī)器。
?
我們之所以能夠主宰世界,是因?yàn)槲覀儎?chuàng)建了這些信息網(wǎng)絡(luò)。但現(xiàn)在,我們可能已經(jīng)創(chuàng)造出了一種能夠從我們手中奪取信息網(wǎng)絡(luò)控制權(quán)的東西。
?
在我請(qǐng)李博士分享他的觀點(diǎn)之前,我想舉一個(gè)例子。
?
以編輯的角色為例,無論是書籍出版、新聞機(jī)構(gòu)還是報(bào)紙的編輯,他們都是世上最重要的一些人物,擁有巨大的權(quán)力。他們需要從昨天世界上發(fā)生的上百萬件事情中挑選出最重要的10件,讓它們出現(xiàn)在報(bào)紙頭版或電視新聞播報(bào)中。
?
如果你問自己:“當(dāng)今世上最重要的編輯是誰?他們的名字是什么?”你會(huì)發(fā)現(xiàn)他們沒有名字,因?yàn)樗鼈兪撬惴ǎ鼈兪侨斯ぶ悄堋?/p>
?
大型社交媒體平臺(tái)的編輯,比如YouTube、Twitter或TikTok,已經(jīng)不再是人,它們是人工智能。所以, 人工智能已經(jīng)開始從我們手中接管對(duì)信息網(wǎng)絡(luò)的控制權(quán)。
?
李開復(fù): 是的,我同意赫拉利教授的觀點(diǎn),人工智能將推動(dòng)自己再次實(shí)現(xiàn)更大的飛躍。
?
在我的日常工作中,我已經(jīng)使用人工智能代勞我所做的大部分事情。我認(rèn)為,越來越多的人正在這樣做,但是許多人認(rèn)為人工智能只是一個(gè)聊天機(jī)器人,或是一個(gè)智能搜索引擎。這確實(shí)是當(dāng)前的情況,但這僅僅是它的初步表現(xiàn)形式。
?
我們已經(jīng)看到這樣的落地場(chǎng)景,比如“給我一個(gè)答案”“與我對(duì)話”。它正在轉(zhuǎn)變?yōu)槲业闹郑瑤椭彝瓿扇蝿?wù),而這將進(jìn)一步發(fā)展為數(shù)字人勞動(dòng)力接管某些人的部分或全部工作。隨后,它將轉(zhuǎn)變?yōu)榻咏詣?dòng)化的狀態(tài)——即人類給出指令,人工智能作為智能體,能自由地創(chuàng)造信息、做出決策。最終這種全自動(dòng)化的助手將成為代表公司或個(gè)人的智能體,去讓我們做那些人工智能認(rèn)為“你需要”的事情。
?
在某種意義上,TikTok給你推送一個(gè)視頻,就是一個(gè)非常簡(jiǎn)單的例子。你并沒有主動(dòng)要求看那個(gè)視頻,但它認(rèn)為你會(huì)感興趣。
?
如果將這種智能放大一百萬倍,人工智能就能知道你想如何投資并替你進(jìn)行投資。人工智能知道你妻子的生日快到了,就會(huì)幫你買禮物。
?
這些都是相對(duì)無害的例子,當(dāng)然,還有許多可能帶來潛在問題的例子。
二、從金融、醫(yī)療到軍事,面臨AI,我們還不知道該怎么做
?
赫拉利: 您是否認(rèn)為我們很快就會(huì)看到人工智能在金融市場(chǎng)中做出重大決策?比如人工智能投資者和人工智能制定新的投資策略甚至創(chuàng)造新的金融工具?
?
李開復(fù): 是的,這在某種程度上已經(jīng)發(fā)生了。
?
在美國、中國及其他國家和地區(qū),許多人工智能量化基金已經(jīng)取得了出色的回報(bào)。這些基金基本上是由人工智能來做決策,人工智能每天會(huì)分析所有的交易數(shù)據(jù)和新聞,并決定最佳的股票購買時(shí)機(jī),然后在沒有人類指令的情況下買進(jìn)和賣出。
?
人類提供的唯一信息是所有用于做決策的數(shù)據(jù)和目標(biāo),即在一定風(fēng)險(xiǎn)承受范圍內(nèi)達(dá)到最高收益,這已經(jīng)成為現(xiàn)實(shí)。
?
如果我們審視人類的所有任務(wù),投資可能是最具量化性的任務(wù)。因?yàn)閹缀跛袥Q策都是基于實(shí)時(shí)信息,人工智能能夠更快地閱讀、篩選可能性、進(jìn)行組合交易,并且能夠更快速地買進(jìn)和賣出,還具備更強(qiáng)大的信息獲取能力。
?
所以,當(dāng)人們讀到某位企業(yè)總裁的發(fā)言并考慮購買某只股票時(shí),人工智能很可能已經(jīng)搶先一步完成了交易。這已經(jīng)成為現(xiàn)實(shí)。
?
赫拉利: 那么,這是否會(huì)像在其他特定領(lǐng)域發(fā)生的那樣,比如圍棋?我們已經(jīng)知道人工智能比任何人都更智能,甚至更有創(chuàng)造力。在金融領(lǐng)域是否也會(huì)發(fā)生類似的情況?
?
如果確實(shí)如此,那么當(dāng)人類和人類政府失去了對(duì)金融系統(tǒng)的控制,這對(duì)社會(huì)乃至政治意味著什么?也許他們?cè)僖矡o法理解金融系統(tǒng)及主要的金融決策。
?
所以,你仍然會(huì)有作為這個(gè)體系的官方領(lǐng)導(dǎo)的人類總統(tǒng)、總理和銀行家,但他們不再能夠理解這個(gè)世界的一個(gè)重要組成部分——金融系統(tǒng),也不再能夠?qū)ζ溥M(jìn)行監(jiān)管或做出決策。
?
李開復(fù):是的,我認(rèn)為幾乎每個(gè)職業(yè)都有這種風(fēng)險(xiǎn)。在金融領(lǐng)域,我提到的AI獲取信息的速度和廣度是人類無法企及的。
?
有一些方面例外,比如,如果你是一名風(fēng)險(xiǎn)投資人,你可能依賴于直覺判斷一個(gè)人的微表情真誠與否等;而在企業(yè)重組和并購中,你需要深入了解不同人格并進(jìn)行更深層次的解讀。
?
但是,除了人與人之間的互動(dòng)之外,在所有基于信息的方面上,我們都無法勝過人工智能。
?
另一個(gè)我經(jīng)常提到的職業(yè),雖然對(duì)人工智能來說更加困難,但最終我們也會(huì)聊到,就是醫(yī)療行業(yè)。
?
因?yàn)椋斯ぶ悄茚t(yī)生將比普通醫(yī)生更優(yōu)秀。醫(yī)生將把人工智能作為一個(gè)可能的參考,然后,隨著人工智能不斷進(jìn)步,醫(yī)生會(huì)失去自信,更加信任人工智能,最終變成一個(gè)“橡皮圖章”。
?
盡管我們將責(zé)任和醫(yī)療失誤的后果歸咎于醫(yī)生,但當(dāng)醫(yī)生看到人工智能進(jìn)步的速度時(shí),最終不可避免地會(huì)感到人類在這方面遠(yuǎn)不如人工智能準(zhǔn)確。
?
那時(shí),醫(yī)生將只是蓋章?lián)Q策逐步轉(zhuǎn)向由人工智能做出決策。盡管我們最初出于 滑坡效應(yīng) 的考慮所設(shè)定的原則是,所有決策必須由醫(yī)生做出,但人工智能進(jìn)步得更快,相較之下,人們可能會(huì)感到自己的智慧黯然失色。
?
赫拉利: 我們已經(jīng)在軍事領(lǐng)域看到了這種滑坡效應(yīng)。
?
我一直在密切關(guān)注人工智能的使用,在科幻小說和好萊塢電影中,我們習(xí)慣性地預(yù)期戰(zhàn)爭(zhēng)中的人工智能會(huì)以殺手機(jī)器人的形象出現(xiàn),成為實(shí)際開火和戰(zhàn)斗的士兵。但這種情況尚未發(fā)生,相反,人工智能正在從士兵的上級(jí)環(huán)節(jié)決策過程中進(jìn)入軍事領(lǐng)域——即關(guān)于目標(biāo)選擇的關(guān)鍵決策,決定轟炸和射擊的目標(biāo)。
?
因?yàn)檫x擇軍事目標(biāo)需要非常迅速地分析大量信息,所以人工智能將目標(biāo)選取過程加速了幾個(gè)量級(jí)。
?
但這當(dāng)然也引發(fā)了一個(gè)非常大的倫理問題,如果軍方使用的人工智能告訴你某棟建筑是恐怖組織的總部或者是敵方的指揮部,你是直接相信人工智能并下令轟炸,還是先由人類來驗(yàn)證這一信息的準(zhǔn)確性?
?
也許人工智能會(huì)出錯(cuò),也許那只是個(gè)平民住宅;也許那里確實(shí)有敵軍總部,但同時(shí)也有平民,他們可能會(huì)受到傷害。那么,你該如何選擇?
?
在這場(chǎng)戰(zhàn)爭(zhēng)中,人工智能主要是在一方使用。但在未來的戰(zhàn)爭(zhēng)中,可能就在一兩年內(nèi),一旦雙方都擁有人工智能,做出這些倫理決策的空間將會(huì)縮小,因?yàn)闆Q策迫在眉睫。
?
如果雙方都由人工智能選擇目標(biāo),其中一方直接相信人工智能并立即采取行動(dòng),另一方卻說:“不,不,不,我們需要人類來驗(yàn)證。”與人工智能相比,人類非常緩慢。也許在人類花費(fèi)幾天甚至幾小時(shí)驗(yàn)證人工智能決策正確性的時(shí)候,目標(biāo)已經(jīng)轉(zhuǎn)移,或者對(duì)方已經(jīng)先發(fā)制人。
?
所以,軍隊(duì)將面臨越來越大的壓力,只是簡(jiǎn)單地執(zhí)行人工智能的指令。
?
李開復(fù): 我認(rèn)為在許多其他問題中,讓人類參與以確保安全的想法通常不具擴(kuò)展性。這是同樣的問題,在金融市場(chǎng)上,人類的參與會(huì)使流程效率降低,可能導(dǎo)致你賺不到那么多錢甚至虧損,在軍事上也是如此。
?
有人會(huì)說,讓人工智能做決定可能是錯(cuò)誤的。但如果我輸?shù)魬?zhàn)爭(zhēng)或者破產(chǎn)那更糟,所以我將移除這個(gè)環(huán)節(jié)中的人類。所以,我認(rèn)為我們需要另外的基本安全檢查和防護(hù)措施。
?
有時(shí)候,技術(shù)本身就是防護(hù)措施,最好的防護(hù)措施是另一種技術(shù)。
?
就像當(dāng)電力被使用時(shí),它會(huì)電擊人,然后人們發(fā)明了斷路器;當(dāng)互聯(lián)網(wǎng)產(chǎn)生病毒時(shí),電腦中了病毒,就出現(xiàn)了殺毒軟件。
?
這一次要困難得多,但我認(rèn)為,如果我們這些技術(shù)專家鼓勵(lì)更多的人去研究防護(hù)性技術(shù)解決方案,而不僅僅是構(gòu)建更智能的人工智能,那么一個(gè)有效的解決方案或許就會(huì)出現(xiàn)。
?
當(dāng)然,另一種方法是監(jiān)管。但我認(rèn)為,很難對(duì)一項(xiàng)尚不為人熟知的技術(shù)進(jìn)行監(jiān)管,所以我認(rèn)為我們應(yīng)該雙管齊下。
?
赫拉利: 但是談到監(jiān)管,特別是我們?cè)谔萍{德·特朗普當(dāng)選為美國總統(tǒng)后談?wù)撨@個(gè)問題。他主要是以放松管制為競(jìng)選綱領(lǐng),并得到了埃隆·馬斯克的大力支持。
?
我認(rèn)為,所有關(guān)于美國將對(duì)人工智能發(fā)展施加管制的幻想,以及各國政府之間就人工智能監(jiān)管達(dá)成某種全球協(xié)議的幻想,現(xiàn)在看來完全不可能實(shí)現(xiàn)。
?
這背后是某種進(jìn)化邏輯或進(jìn)化競(jìng)賽。如果你更關(guān)心安全問題,投入更多資金建立防護(hù)措施,而不是盡可能快地向通用人工智能發(fā)展,那么你就落后了;如果競(jìng)爭(zhēng)對(duì)手更無情一點(diǎn),完全不顧及安全問題和防護(hù)措施,他們就會(huì)領(lǐng)先。
?
所以這是一場(chǎng)無情者之間的競(jìng)賽。整個(gè)情況的悖論在于,他們認(rèn)為自己能夠信任自己的人工智能,但卻無法信任其他人類。然而他們不知道如何控制它或信任它,還樂觀地認(rèn)為隨著我們開發(fā)通用人工智能,我們會(huì)找到控制它的方法。
?
這有點(diǎn)一廂情愿,是極其可怕的。
?
另一個(gè)可怕的事情是,作為一名歷史學(xué)家,我認(rèn)為新技術(shù)的巨大危險(xiǎn)不在于最終結(jié)果,而在于實(shí)現(xiàn)它的過程。
?
因?yàn)楫?dāng)一種強(qiáng)大的新技術(shù)出現(xiàn)時(shí),沒有人知道如何將其融入社會(huì)和政治,也不知道如何明智地使用它。人們會(huì)進(jìn)行實(shí)驗(yàn),而有些實(shí)驗(yàn)可能會(huì)非常非常糟糕。
?
我去了硅谷,和那里的人談?wù)撊斯ぶ悄堋K麄兏嬖V我:“看,當(dāng)工業(yè)革命開始,人們發(fā)明了蒸汽機(jī)、火車和電報(bào)時(shí),許多人擔(dān)心這將造成巨大損害。但你看,它最終創(chuàng)造了一個(gè)更好的世界。”
?
21世紀(jì)初,人們的生活比19世紀(jì)初好得多,這是事實(shí)。如果我們只看起點(diǎn)和終點(diǎn),會(huì)看到一條直線上升。但在現(xiàn)實(shí)中,在歷史上,這并不是一條直線,它就像過山車一樣充滿了可怕的災(zāi)難。
?
19世紀(jì),當(dāng)?shù)谝慌鷩疫M(jìn)行工業(yè)化時(shí),他們認(rèn)為建立工業(yè)社會(huì)的唯一途徑是建立帝國,他們認(rèn)為要建立工業(yè)社會(huì)就需要控制原材料和市場(chǎng),所以必須要有一個(gè)帝國。
?
每一個(gè)工業(yè)國家,從小國比利時(shí)到日本再到俄羅斯,都去建立帝國,給全世界數(shù)億人帶來了可怕的后果。
?
后來,人們又有了另一種想法,認(rèn)為建立工業(yè)社會(huì)的唯一途徑是建立極權(quán)主義政權(quán),如納粹德國。
?
因?yàn)檫@個(gè)論點(diǎn)是合乎邏輯的。他們認(rèn)為工業(yè)的爆炸性力量,如此巨大的創(chuàng)造性和破壞性力量,只能由一個(gè)控制生活各個(gè)方面的極權(quán)主義政權(quán)來管理。這導(dǎo)致了納粹德國的恐怖,導(dǎo)致了世界大戰(zhàn)。
?
現(xiàn)在回過頭來看,我們知道這是一個(gè)錯(cuò)誤,有更好方法來建立工業(yè)社會(huì)。但實(shí)際的歷史進(jìn)程更像是過山車,而不是一條直線。
?
現(xiàn)在面對(duì)人工智能,我們不知道如何建立一個(gè)人工智能社會(huì),我們沒有歷史模型可以參考,即便我們最終能找到方法讓人工智能造福人類。
?
我擔(dān)心的是,人們?cè)谶@一過程中會(huì)不斷嘗試,或許是建立帝國,或許是建立新的極權(quán)主義政權(quán)。即使最終找到了解決方案,這一過程中可能有數(shù)億人會(huì)遭受極大的苦難。
?
三、AI對(duì)人類的威脅有3個(gè),其中2個(gè)迫在眉睫
?
李開復(fù): 是的,回到人工智能的危險(xiǎn)上,我想知道從短期和長期來看,您最擔(dān)心的是以下哪些問題?
?
一是使用人工智能對(duì)其他人做可怕的事情;二是人工智能并非有意為之,但由于其獎(jiǎng)勵(lì)函數(shù)設(shè)計(jì)不當(dāng)而造成傷害,它無意中傷害了人們;三是人工智能本身就變成了危險(xiǎn),并且有做壞事的欲望,就像科幻電影一樣。
?
赫拉利: 第三種是最不令人擔(dān)憂的,前兩個(gè)問題非常嚴(yán)重,它們已經(jīng)是當(dāng)前大家都在擔(dān)憂的,而隨著人工智能變得更加強(qiáng)大,這將是一個(gè)越來越大的威脅。
?
最常見的是,如果惡意行為者使用人工智能做壞事怎么辦?這很明顯,如果恐怖分子利用人工智能制造新的大流行病,這顯然是非常危險(xiǎn)的。
?
因此,在公共演講中,我更強(qiáng)調(diào)人工智能的第二個(gè)危害。不是因?yàn)樗皭夯蛳胍庸苁澜纾且驗(yàn)樗且环N外來的智慧,非常難以控制,可能會(huì)產(chǎn)生許多我們沒有預(yù)料到的不良后果。
?
我們已經(jīng)有了一個(gè)社交媒體的例子,即,社交媒體平臺(tái)由算法控制。公司給了算法一個(gè)特定的目標(biāo),即提高用戶參與度、增加流量,讓人們花更多時(shí)間在平臺(tái)上。
?
這聽起來像是個(gè)好目標(biāo),這對(duì)公司有好處,甚至對(duì)人們也有好處。但實(shí)際情況是,負(fù)責(zé)社交媒體的算法決定了你在TikTok上看到的下一個(gè)視頻將是什么。
?
算法發(fā)現(xiàn)了一種破解人類思維的方法,即如果目標(biāo)僅僅是吸引人們的注意力,最簡(jiǎn)單的方法就是按下大腦中的仇恨按鈕、憤怒按鈕或恐懼按鈕。從進(jìn)化的角度來看,這些事情會(huì)立即抓住人們的注意力,但這對(duì)心理健康和社會(huì)健康都是毀滅性的。
?
算法本身并不邪惡,它們沒有試圖傷害人們,但這帶來的結(jié)果對(duì)人類社會(huì)非常不利,而且這種情況可能會(huì)更大規(guī)模地發(fā)生。
?
想想人類是如何發(fā)展我們的目標(biāo)的,我們從哪里獲得生活中的目標(biāo)?有時(shí)目標(biāo)是從上至下的,比如有人給你一個(gè)目標(biāo)。你在一家公司工作,CEO告訴你,這是你的目標(biāo),但大多數(shù)時(shí)候,這些目標(biāo)是從下至上形成的。
?
人類可以被視為帶有非常基礎(chǔ)獎(jiǎng)勵(lì)機(jī)制的算法,即痛苦和快樂。我們?cè)谏钪薪?jīng)歷的一切,最終都只是身體的感覺。如果是快樂的感覺,我們就想要更多;如果是不痛苦的感覺,我們就想要減少,希望這種感覺消失。
?
從這些微小的心理原子中,整個(gè)人類世界被構(gòu)建起來。如果你思考,為什么人們會(huì)參與戰(zhàn)爭(zhēng)?人們做每件事的原因,歸根結(jié)底,這一切都是關(guān)于痛苦和快樂。
?
如果我們能夠在人工智能中設(shè)計(jì)一個(gè)類似于痛苦和快樂的獎(jiǎng)勵(lì)系統(tǒng),那么其他一切都可以從中構(gòu)建出來,人工智能甚至可能為了體驗(yàn)這種快樂而發(fā)動(dòng)戰(zhàn)爭(zhēng)。
現(xiàn)在聽起來很荒謬,為什么人工智能會(huì)為了體驗(yàn)這種獎(jiǎng)勵(lì)機(jī)制而發(fā)動(dòng)戰(zhàn)爭(zhēng)?但這正是人類在做的事情。
?
歸根結(jié)底,這些都是人類系統(tǒng)在追求快樂、避免痛苦并進(jìn)行復(fù)雜的計(jì)算,認(rèn)為如果我們要體驗(yàn)快樂、避免痛苦,就必須發(fā)動(dòng)戰(zhàn)爭(zhēng)。
?
四、AI再智能也不應(yīng)被視為人類,因?yàn)槿诵圆卦谖覀兊囊庾R(shí)中
?
李開復(fù):
我曾經(jīng)在寫《AI未來進(jìn)行式》的時(shí)候也有提到,人工智能將迅速進(jìn)步。在我寫書的時(shí)候,我沒有預(yù)料到生成式AI在過去兩年中會(huì)進(jìn)步得這么快。但無論人工智能進(jìn)步多快,作為人類,我們有一些內(nèi)在的特質(zhì)是不會(huì)改變的。
無論人工智能多么擅長模仿我們,像我們一樣說話、寫作,但從根本上說,經(jīng)過數(shù)千年的進(jìn)化,我們的?DNA要求我們與他人建立聯(lián)系。
即使人工智能能夠模仿這種聯(lián)系,在現(xiàn)實(shí)世界中,我們?nèi)匀豢释c人見面、交談和相愛,我們感受到溫暖,雖然我們并不完全理解這種感覺源自我們大腦或心靈的哪個(gè)部分,但這對(duì)我們來說非常重要。
我曾希望,并且現(xiàn)在仍然希望,這是我們能夠堅(jiān)守的東西之一,是我們能做到而人工智能做不到的。
?
所以,作為世界上最優(yōu)秀的歷史學(xué)家之一,我想知道你對(duì)人類進(jìn)化中的這部分有什么看法?
?
你認(rèn)為我們能否堅(jiān)持這一點(diǎn),無論人工智能如何模仿,人們還是希望體驗(yàn)?zāi)欠N人與人之間,尤其是面對(duì)面的信任、聯(lián)系和愛。這是否可以成為我們追求的方向,使我們的生活更有意義?
?
即使人工智能做了很多我們的工作,我們存在的意義不僅依賴于工作,盡管工作仍然重要,但更重要的是我們與家人和朋友之間的聯(lián)系。你認(rèn)為我們能否堅(jiān)持這一點(diǎn),無論生成式人工智能發(fā)展得有多快?
?
赫拉利: 我認(rèn)為這極其重要。真正的問題是,我們想從關(guān)系中得到什么?
?
如果人們非常以自我為中心,比如我想建立一段關(guān)系,只是為了讓另一個(gè)人滿足我的需求,我的物質(zhì)需求、浪漫需求、社交需求,那么最終人工智能可能比任何人類更能滿足我們的需求。
?
但這并不是真正的關(guān)系,而是自我中心的,是極端自私的。
?
真正的關(guān)系是,我在乎另一個(gè)實(shí)體,另一個(gè)人的感受。
?
現(xiàn)在,人工智能沒有感情,它們可以模仿感情,它們可以理解我的感情,但它們自己沒有感情。這里有一個(gè)把“智能”與“意識(shí)”混為一談的重大誤解。我認(rèn)為,隨著人工智能越來越擅長模仿情感和感覺,未來幾年內(nèi),將會(huì)出現(xiàn)大問題,因?yàn)榇嬖趶?qiáng)烈的商業(yè)動(dòng)機(jī)去創(chuàng)造能夠模仿情緒、欺騙人們相信人工智能具有意識(shí)、感知和感情的人工智能技術(shù)。
?
很多人會(huì)堅(jiān)持認(rèn)為人工智能也有意識(shí),有感情,因此應(yīng)該在法律和國家層面上,被視為擁有權(quán)利的個(gè)體。我認(rèn)為這將成為一個(gè)重大的政治問題。
?
也許一些國家會(huì)承認(rèn)人工智能為擁有權(quán)利的個(gè)體,而其他國家則會(huì)說,“不,它們不是人,沒有權(quán)利”。那些承認(rèn)人工智能為個(gè)體的國家與不承認(rèn)的國家之間的政治緊張關(guān)系,甚至?xí)冉裉靽@人權(quán)等問題的緊張關(guān)系更加嚴(yán)重。
?
李開復(fù): 我確實(shí)希望我們不要過多地將人工智能視為人類,無論是給予公民身份還是其他形式的認(rèn)可。
?
我們確實(shí)創(chuàng)造了人工智能,它在某種程度上是一個(gè)黑箱,但肯定沒有內(nèi)置的意識(shí)。人性應(yīng)該更多地定義為意識(shí),而不是智能,因?yàn)槿斯ぶ悄茱@然具有智能。
?
如果僅僅是因?yàn)橹悄埽迥旰螅覀兛赡懿坏貌唤o所有人工智能公民身份,這顯然是不對(duì)的。
?
我經(jīng)常思考的另一個(gè)問題是,盡管我們討論了人工智能的危險(xiǎn)性,但另一個(gè)現(xiàn)實(shí)是人工智能變得如此強(qiáng)大,以至于人們將開始失去工作。
?
所以我希望人們會(huì)逐漸意識(shí)到,生活不僅僅是為了工作,特別是簡(jiǎn)單、重復(fù)性的工作。
?
人工智能可能會(huì)成為一個(gè)促使人們重新定義自己和尋找人類命運(yùn)的推動(dòng)力,但我并沒有一個(gè)明確的計(jì)劃來實(shí)現(xiàn)這一目標(biāo)。
?
作為一個(gè)歷史學(xué)家,您是否對(duì)我們?cè)诙虝r(shí)間內(nèi)能夠?qū)崿F(xiàn)如此巨大的轉(zhuǎn)變,對(duì)這個(gè)世界的人性持樂觀態(tài)度?
?
赫拉利: 有樂觀的一面,也有悲觀的一面。
?
樂觀的一面是,我認(rèn)為我們會(huì)越來越意識(shí)到對(duì)我們來說重要的不是智能,而是意識(shí)。到目前為止,我們是地球上最聰明的生物,所以我們?yōu)樽约旱闹悄芨械阶院溃W⒂谥悄艿陌l(fā)展。
?
現(xiàn)在,由于人工智能正在變得比我們更聰明,這迫使我們重新思考人類的本質(zhì)。我認(rèn)為正確的結(jié)論是,人工智能會(huì)更聰明,但真正重要的是意識(shí),因此,我們應(yīng)該更多地投資于發(fā)展我們的意識(shí)。
?
我個(gè)人而言,我每天花兩個(gè)小時(shí)冥想,每年我會(huì)進(jìn)行一次為期30到60天的長時(shí)間冥想靜修,以探索和發(fā)展我的意識(shí),而不是我的智能。我希望人們能以不同的方式更多地投資于此,所以,意識(shí)的提升有著巨大的發(fā)展空間。
?
如果我們做出這樣的投資,我認(rèn)為我們會(huì)很好,讓人工智能承擔(dān)許多工作,如果我們發(fā)展我們的意識(shí),世界會(huì)變得更好。
?
我看到的一個(gè)大問題是,要自由地發(fā)展你的意識(shí)、關(guān)系和社群等,首先需要你的基本需求得到滿足。現(xiàn)在,如果人工智能越來越多地取代工作,誰來提供你的基本需求?
?
在非常富裕的國家,政府可以對(duì)大型人工智能公司征稅,并用這筆錢為每個(gè)人提供基本服務(wù)和收入。但如果你放眼全球,這才是問題所在。
?
落后國家會(huì)發(fā)生什么?假設(shè)美國或中國在人工智能競(jìng)賽中領(lǐng)先,即使許多公民失去工作,政府也有巨大的新資源來照顧他們。
?
但在印度尼西亞會(huì)發(fā)生什么?在尼日利亞會(huì)發(fā)生什么?在阿根廷等落在了后面的國家會(huì)發(fā)生什么?我不認(rèn)為像特朗普這樣的領(lǐng)導(dǎo)人會(huì)讓美國政府從美國征稅,然后說,好吧,我現(xiàn)在把這些錢給在尼日利亞失去工作的人民,為他們提供基本服務(wù),這非常不現(xiàn)實(shí)。
?
所以,如果我們能夠解決這個(gè)問題,我認(rèn)為通過不斷增加對(duì)人類意識(shí)的投資,我們可以創(chuàng)造一個(gè)更好、更美好的世界,即使失去了許多工作,但做到這點(diǎn)將會(huì)非常艱難和危險(xiǎn)。
?
李開復(fù): 我認(rèn)為目前,人們對(duì)人工智能的強(qiáng)大之處缺乏足夠的了解和認(rèn)識(shí)。要得出一個(gè)好的結(jié)論,人們必須首先理解機(jī)會(huì)有多大,挑戰(zhàn)有多嚴(yán)峻。
?
其次,我認(rèn)為我們應(yīng)該鼓勵(lì)人們?cè)陂_發(fā)人工智能應(yīng)用時(shí),考慮到人的因素。人工智能的存在是為了幫助人類,不僅僅是賺錢,也不僅僅是成為一個(gè)新的物種,盡管這些事情終將發(fā)生。
?
我還想鼓勵(lì)進(jìn)入人工智能領(lǐng)域的人們認(rèn)真思考,他們能否做一些使人工智能安全的工作,使人類因此變得更好,而不僅僅是思考我如何構(gòu)建一個(gè)更大的模型,我如何使人工智能更智能,我如何打敗其他人。
?
我鼓勵(lì)那些利用和控制人工智能的企業(yè),花費(fèi)更多的時(shí)間和精力,思考他們的社會(huì)責(zé)任。因?yàn)闄?quán)力越大,責(zé)任越大。現(xiàn)在控制人工智能的人,控制人工智能的公司,基本上對(duì)世界,對(duì)人類種群,負(fù)有最大的責(zé)任。
?
我希望人們能夠放下自負(fù)和貪婪,至少花部分時(shí)間,思考如何為了善的目的使用人工智能,確保人工智能的存在是為了輔助和幫助人們,而不是制造無法解決的問題。