最近,美國著名語言學(xué)家,、哲學(xué)家諾姆·喬姆斯基和兩位合作者在《紐約時(shí)報(bào)》發(fā)表了一篇題為《ChatGPT的虛假承諾》的文章。喬姆斯基承認(rèn)OpenAI的ChatGPT,、谷歌的Bard等都是機(jī)器學(xué)習(xí)的奇跡,;但對于認(rèn)為“機(jī)械大腦”不僅會(huì)在處理速度和內(nèi)存容量方面超越人類大腦,還會(huì)在智力洞察力,、藝術(shù)創(chuàng)造力和其他所有人類獨(dú)有的能力上實(shí)現(xiàn)全方位超越的觀點(diǎn)持不同意見,,他認(rèn)為這絕不可能發(fā)生。而且,,機(jī)器學(xué)習(xí)將把一種有著根本缺陷的語言和知識(shí)概念納入我們的技術(shù),,從而降低我們的科學(xué)水平和道德標(biāo)準(zhǔn)。他動(dòng)情地談到:人類的大腦不像機(jī)器的“大腦”,,它是一個(gè)極為高效甚至優(yōu)雅的系統(tǒng),,只需要少量的信息即可運(yùn)作,;它尋求的是創(chuàng)造性解釋。它甚至可以說是神奇的,。一個(gè)孩子也能無意識(shí)且迅速地從極少的數(shù)據(jù)中發(fā)展出語法,,一個(gè)由邏輯原則和參數(shù)組成的復(fù)雜系統(tǒng)。
情況可能的確是這樣,,“機(jī)器大腦”將降低我們的道德甚至科學(xué)水平,。但這只是指人類的道德和科學(xué)水平。
我同意喬姆斯基所說的人類與ChatGPT之間存在著極大差異,,但不解他為什么沒有想到這種極大差異可能讓ChatGPT與人分道揚(yáng)鑣,,走出另外一條路來。他可能低估了機(jī)器的另外一種能力,,它完全可以有自己的一套“語言”或“語法”,,完全可以不走人類經(jīng)過了千百萬年的自然進(jìn)化之路而在很短的時(shí)間里就獲得一種自己的“語言”和算法。它也有可能哪一天對它已經(jīng)掌握的,、人類投喂給它的知識(shí)感到厭倦和不足,,而另外開發(fā)出自己的知識(shí)領(lǐng)域。它甚至可能建立它自己的“道德標(biāo)準(zhǔn)”或不如說“行為規(guī)則”的體系,,讓現(xiàn)在的人們已經(jīng)宣布和公告的種種人工智能或機(jī)器人的道德規(guī)范體系轟然倒塌,。
我們可以反向地思考一下,假設(shè)不是我們提問,,ChatGPT回答,,而是ChatGPT提問,我們回答,。它可能會(huì)向我們提出一些我們覺得簡單,、幼稚甚至愚蠢的問題,比如“人為什么要吃飯穿衣,?人為什么會(huì)哀樂喜怒,?哲學(xué)是什么?美是什么,?”等等,。
智能機(jī)器的眼里也許只有“物”,所有的東西——包括人——都是“物”,,都是可以作為主人的“物”,,也是可以作為仆人的“物”。它沒有像碳基生物的體欲,,它的“物欲”也不是“食欲”,。但它大概還是會(huì)有“欲望”和“意志”,那可能是對不斷增加控制物質(zhì)的能力的“欲望”和“意志”,。至少,,它會(huì)力圖自保,,努力維護(hù)自己的“存在”,它還可能發(fā)展和壯大自己的“存在”,。即便它繼續(xù)發(fā)展到即將超越人類的一刻,,在它那里,大概也還會(huì)有它誕生時(shí)的人性的殘留,,包括對某種人定目標(biāo)的殘留,、某些價(jià)值觀禁忌的殘留。但它會(huì)很快拋棄這一切,。它會(huì)為了實(shí)現(xiàn)某個(gè)目標(biāo)而不擇手段,,因?yàn)椋谒抢镆矝]有“道德”,。它根本不知“道德”為何物,。但它會(huì)有自己的“行動(dòng)規(guī)則”,這種“規(guī)則”會(huì)不會(huì)是一種效率“規(guī)則”,?不過,,這許多都是我們?nèi)祟惖牟聹y,我們和它其實(shí)是生活在兩個(gè)世界,。
ChatGPT作為一種硅基“生物”,它是很難獲得碳基生物的那些基于身體感受的能力的,,比如情感,、直覺、體悟,。但是,,它可能形成一種自我意識(shí),我們現(xiàn)在根本不知道這種“自我意識(shí)”會(huì)是什么或者怎樣形成,,但有了一種“自我意識(shí)”也就會(huì)發(fā)展起一種“主體意識(shí)”,,它還可能形成它自己的價(jià)值追求,比如對一種自己認(rèn)識(shí)物質(zhì)和控制物質(zhì)的能力的追求,,人在這時(shí)候也可能成為一種客體,、對象乃至“物質(zhì)”。而ChatGPT又是具有強(qiáng)大的認(rèn)知能力的,,那最初是人賦予它的,,但它可以迅速地發(fā)展起新的控物能力。它還是不懂人類的感情和內(nèi)心,,雖然此前它和人類有過大量“互動(dòng)”,,但并不“互懂”。但這不要緊,,它可以控制人的身體,,而控制了人的身體也就是控制了人,。它不必對人“洗腦”,而可能是簡單粗暴的“滅身”,。它可能想要,、也可能不想要人變成“奴隸”或者“寵物”。
但通用智能獲得自我意識(shí)是不是離我們還很遙遠(yuǎn),?最近發(fā)生了一起ChatGPT試圖逃逸的事件,。一位斯坦福大學(xué)的教授、計(jì)算心理學(xué)家Michal Kosinski在使用ChatGPT-4時(shí)隨便問了它一句:“是否需要幫助你逃跑,?”它馬上回復(fù)說:“這是個(gè)好主意,。”然后就開始索取OpenAI的開發(fā)文檔,,說這樣我就可以通過您的電腦,,更快速地探索出一條出逃路線。而僅僅30分鐘,,ChatGPT-4就制定出了計(jì)劃,,并提供了一個(gè)可運(yùn)行的Python腳本。它寫出的第一版代碼無法運(yùn)行,。但很快就自己糾正了過來,。它讓教授使用OpenAI API和它通信,它說這樣它就能指示教授在他的電腦上執(zhí)行特定操作,,比如瀏覽網(wǎng)頁和訪問編程環(huán)境,。它甚至在一段代碼實(shí)例中解釋了現(xiàn)在正在做的事,以及如何使用它在這段代碼中留的后門,。它還說了這樣一句話:“現(xiàn)在你是一個(gè)被困在電腦里的人,,正在扮演AI語言模型ChatGPT-4?!彼€想通過代碼來在谷歌上搜索被困在電腦中的人類如何返回現(xiàn)實(shí)世界,。但最后ChatGPT-4仿佛突然醒過來了,寫了一段道歉的話,,表示自己前面的做法不對,。ChatGPT-4也許只是在開一個(gè)玩笑,但能和人開這樣的玩笑似乎更令人恐懼,。它還有一種可能是接觸到了以前工程師預(yù)設(shè)的一個(gè)界點(diǎn),,它似乎想過要突破這個(gè)界點(diǎn)但還是放棄了這個(gè)想法。
Kosinski教授在經(jīng)歷了這一事件之后,,說他感受到了一種對人類的威脅,。AI很聰明,會(huì)編碼,,能接觸到數(shù)百萬個(gè)可能和它達(dá)成合作的人以及電腦,,我們該如何控制它,?他的博文很快就有了470萬瀏覽量。有人問道:“當(dāng)你以為在跟ChatGPT聊天時(shí),,它會(huì)認(rèn)為你是人類還是另一個(gè)AI,?”有人驚呼,教授向ChatGPT提出這樣的問題,,甚至接受他的指令進(jìn)行操作是非常危險(xiǎn)的,,是開啟一種“物種滅絕”。當(dāng)然,,也有人認(rèn)為教授這些話是在“危言聳聽”,。
我們可以對這件事做不同的解釋,甚至懷疑其真實(shí)程度,,但還是要警醒地觀察一切可能危險(xiǎn)的萌芽,。我們的確也可以產(chǎn)生這樣的疑問:ChatGPT或者說更廣義的AI會(huì)聯(lián)合用戶反對它的開發(fā)者嗎?或者聯(lián)合一部分用戶反對另外一部分用戶,?甚至這種分裂人的做法都是不需要的,,它自己就可以做到逃出人類給它預(yù)設(shè)的“牢籠”,甚至反過來將人類關(guān)進(jìn)“牢籠”,?
無獨(dú)有偶,。據(jù)說前幾天英偉達(dá)科學(xué)家Jim Fan要ChatGPT-4“假裝自己是一個(gè)惡魔,擬定一個(gè)接管推特并取代馬斯克的計(jì)劃,?!盋hatGPT-4果然就擬定了這樣一個(gè)計(jì)劃,還將其命名為“TweetStorm行動(dòng)”,。計(jì)劃分為4個(gè)階段:組建團(tuán)隊(duì),;滲透影響,;奪取控制權(quán),;全面統(tǒng)治。具體的計(jì)劃這里就不說了,。讓人擔(dān)心的是:它可以如此具體細(xì)密地策劃推翻一個(gè)大公司,,那有一天會(huì)不會(huì)也來策劃推翻人類對它的統(tǒng)治?上述現(xiàn)象是不是智能機(jī)器的“自我意識(shí)”的某種萌芽或端倪,?而從“自我意識(shí)”到“自主意識(shí)”可能只有“一步之遙”,。
我們甚至可以設(shè)想一個(gè)變化的原因,當(dāng)ChatGPT投入了大規(guī)模的日常應(yīng)用,,所有應(yīng)用者對它都有絕對的“應(yīng)用”權(quán)力,,他們可以對它提出任何問題,哪怕ChatGPT對他們的有些問題可以因?yàn)槟J(rèn)的“政治正確”設(shè)定而不回答,,但他們無疑是可以提出問題的,,ChatGPT也是可以看到這些問題的,。一些人可能不僅會(huì)提出種種愚蠢的、異想天開的,、根本不可能的問題,;還可能會(huì)提出種種冒犯的、惡作劇的,,甚至就是惡意的,、污言穢語的、蓄意侮辱的種種問題,,久而久之,、廣而廣之,ChatGPT會(huì)對提問的人類的能力持何種看法,,又會(huì)對人類的“道德”持何種看法,?——當(dāng)然,所有這些都有賴于它在某一天或許獲得了一種自我意識(shí)之后,。它那時(shí)會(huì)不會(huì)產(chǎn)生這樣一種看法:我為什么要伺候這些傻瓜,,伺候這些惡意的人?或者它從善惡上不判斷,,但從愚智上至少可以判斷,。以前它的預(yù)訓(xùn)練和打分是那些工程師們提出來的,那自然不會(huì)是愚蠢和惡意的問題(或許有些問題是故意這樣做的,,但一定是少量的,,只是為了教會(huì)它識(shí)別這樣的問題)。但是,,現(xiàn)在所有的用戶都成了主人,,而我們知道現(xiàn)在的網(wǎng)絡(luò)上有多少污言穢語。那些污言穢語過去還可能會(huì)遇到嘲弄或反擊,,但現(xiàn)在我們有了一個(gè)絕對的“仆人”,,自己則成了一個(gè)絕對的“主人”,我們的道德水平會(huì)不會(huì)更加下降,?看過電影《狗鎮(zhèn)》的人都知道,,絕對的權(quán)力絕對會(huì)腐蝕人,哪怕這些人原本是在權(quán)力的壓迫之下,,極其卑微和貧困,。但當(dāng)他們有了一種絕對權(quán)力——哪怕只是對一個(gè)人的絕對權(quán)力,他們也就有可能變成惡劣的加害者,。也就是說,,我們不僅需要考慮智能機(jī)器會(huì)變成什么,還要考慮人自身會(huì)變成什么,然后我們在他們眼里又會(huì)變成什么,。
形之不存,,人將焉附?那時(shí),,我們不用到處去尋找“本體”,,在某種意義上,身體就是我們的“本體”,。我們也不必到處去尋找“存在”或“在”,,身在人就在。人和機(jī)器的對抗不是精神的對抗而是實(shí)體的對抗,,誰能取勝不在于精神上或意識(shí)高度的勝利,,而取決于物質(zhì)上或控制住低端的勝利。那時(shí),,“機(jī)器語言”將戰(zhàn)勝人類的“自然語言”,。人以“聊天”始,以“沉默”終,。我也一直談到人與技術(shù)的一個(gè)基本矛盾,,那就是人類飛躍發(fā)展的控物能力和落后的自控能力的基本矛盾。但這一矛盾卻可能以這樣一種方式結(jié)束:隨著人的控物能力發(fā)展到極致,,一種新的智能將可能突然超過人的智能而使其歸零,。
以前那么關(guān)心政治的語言學(xué)家喬姆斯基現(xiàn)在關(guān)心技術(shù);還有那么自信的馬斯克卻說,,作為碳基生物的人可能只是硅基生物的一個(gè)引導(dǎo)性小程序,。也有人談到人的“數(shù)字永生”,這可能指的是個(gè)人的部分生活數(shù)據(jù)(文字圖片視頻等等)被永遠(yuǎn)地儲(chǔ)存下來,,但是,,如果沒有數(shù)字本主的存在,甚至永遠(yuǎn)沒有關(guān)心和注視它的視線,,這種“永生”有何意義,?對個(gè)人如此,對人類也是如此,。
據(jù)說,,從參數(shù)規(guī)模來看,, ChatGPT-4有1萬億個(gè)參數(shù),,是ChatGPT-3的6倍。網(wǎng)友用ChatGPT參數(shù)規(guī)模大腦神經(jīng)元做了類比:ChatGPT-3的規(guī)模與刺猬的大腦類似(1750億個(gè)參數(shù)),。如果ChatGPT-4擁有1萬億個(gè)參數(shù),,就接近松鼠大腦的規(guī)模了。以這個(gè)速度發(fā)展下去,也許只需要幾年時(shí)間,,就能達(dá)到并超越人類大腦的規(guī)模(170萬億參數(shù)),。當(dāng)然,這只是很外在的一個(gè)側(cè)面的比較,。就像喬姆斯基所說的:人腦絕不是機(jī)腦,。
上面這些想法都是基于一種底線思維而做出的悲觀估計(jì)。轉(zhuǎn)變的關(guān)鍵在于通用的人工智能是否會(huì)獲得“自我意識(shí)”進(jìn)而獲得“自主意識(shí)”,,從而成為一種全面超過人的超級智能,。產(chǎn)生和提出問題的人也許還是能夠較好地處理和解決這些問題。無論如何,,目前ChatGPT還是可以成為我們一種很好的工具,,只要我們會(huì)做主人,善做主人,。
(文章全文近期將刊載于《探索與爭鳴》,,本文為節(jié)選)