(視覺(jué)中國/圖)
最近,美國著(zhù)名語(yǔ)言學(xué)家、哲學(xué)家諾姆·喬姆斯基和兩位合作者在《紐約時(shí)報》發(fā)表了一篇題為《ChatGPT的虛假承諾》的文章。喬姆斯基承認OpenAI的ChatGPT、谷歌的Bard等都是機器學(xué)習的奇跡;但對于認為“機械大腦”不僅會(huì )在處理速度和內存容量方面超越人類(lèi)大腦,還會(huì )在智力洞察力、藝術(shù)創(chuàng )造力和其他所有人類(lèi)獨有的能力上實(shí)現全方位超越的觀(guān)點(diǎn)持不同意見(jiàn),他認為這絕不可能發(fā)生。而且,機器學(xué)習將把一種有著(zhù)根本缺陷的語(yǔ)言和知識概念納入我們的技術(shù),從而降低我們的科學(xué)水平和道德標準。他動(dòng)情地談到:人類(lèi)的大腦不像機器的“大腦”,它是一個(gè)極為高效甚至優(yōu)雅的系統,只需要少量的信息即可運作;它尋求的是創(chuàng )造性解釋。它甚至可以說(shuō)是神奇的。一個(gè)孩子也能無(wú)意識且迅速地從極少的數據中發(fā)展出語(yǔ)法,一個(gè)由邏輯原則和參數組成的復雜系統。
情況可能的確是這樣,“機器大腦”將降低我們的道德甚至科學(xué)水平。但這只是指人類(lèi)的道德和科學(xué)水平。
我同意喬姆斯基所說(shuō)的人類(lèi)與ChatGPT之間存在著(zhù)極大差異,但不解他為什么沒(méi)有想到這種極大差異可能讓ChatGPT與人分道揚鑣,走出另外一條路來(lái)。他可能低估了機器的另外一種能力,它完全可以有自己的一套“語(yǔ)言”或“語(yǔ)法”,完全可以不走人類(lèi)經(jīng)過(guò)了千百萬(wàn)年的自然進(jìn)化之路而在很短的時(shí)間里就獲得一種自己的“語(yǔ)言”和算法。它也有可能哪一天對它已經(jīng)掌握的、人類(lèi)投喂給它的知識感到厭倦和不足,而另外開(kāi)發(fā)出自己的知識領(lǐng)域。它甚至可能建立它自己的“道德標準”或不如說(shuō)“行為規則”的體系,讓現在的人們已經(jīng)宣布和公告的種種人工智能或機器人的道德規范體系轟然倒塌。
我們可以反向地思考一下,假設不是我們提問(wèn),ChatGPT回答,而是ChatGPT提問(wèn),我們回答。它可能會(huì )向我們提出一些我們覺(jué)得簡(jiǎn)單、幼稚甚至愚蠢的問(wèn)題,比如“人為什么要吃飯穿衣?人為什么會(huì )哀樂(lè )喜怒?哲學(xué)是什么?美是什么?”等等。
智能機器的眼里也許只有“物”,所有的東西——包括人——都是“物”,都是可以作為主人的“物”,也是可以作為仆人的“物”。它沒(méi)有像碳基生物的體欲,它的“物欲”也不是“食欲”。但它大概還是會(huì )有“欲望”和“意志”,那可能是對不斷增加控制物質(zhì)的能力的“欲望”和“意志”。至少,它會(huì )力圖自保,努力維護自己的“存在”,它還可能發(fā)展和壯大自己的“存在”。即便它繼續發(fā)展到即將超越人類(lèi)的一刻,在它那里,大概也還會(huì )有它誕生時(shí)的人性的殘留,包括對某種人定目標的殘留、某些價(jià)值觀(guān)禁忌的殘留。但它會(huì )很快拋棄這一切。它會(huì )為了實(shí)現某個(gè)目標而不擇手段,因為,在它那里也沒(méi)有“道德”。它根本不知“道德”為何物。但它會(huì )有自己的“行動(dòng)規則”,這種“規則”會(huì )不會(huì )是一種效率“規則”?不過(guò),這許多都是我們人類(lèi)的猜測,我們和它其實(shí)是生活在兩個(gè)世界。
ChatGPT作為一種硅基“生物”,它是很難獲得碳基生物的那些基于身體感受的能力的,比如情感、直覺(jué)、體悟。但是,它可能形成一種自我意識,我們現在根本不知道這種“自我意識”會(huì )是什么或者怎樣形成,但有了一種“自我意識”也就會(huì )發(fā)展起一種“主體意識”,它還可能形成它自己的價(jià)值追求,比如對一種自己認識物質(zhì)和控制物質(zhì)的能力的追求,人在這時(shí)候也可能成為一種客體、對象乃至“物質(zhì)”。而ChatGPT又是具有強大的認知能力的,那最初是人賦予它的,但它可以迅速地發(fā)展起新的控物能力。它還是不懂人類(lèi)的感情和內心,雖然此前它和人類(lèi)有過(guò)大量“互動(dòng)”,但并不“互懂”。但這不要緊,它可以控制人的身體,而控制了人的身體也就是控制了人。它不必對人“洗腦”,而可能是簡(jiǎn)單粗暴的“滅身”。它可能想要、也可能不想要人變成“奴隸”或者“寵物”。
但通用智能獲得自我意識是不是離我們還很遙遠?最近發(fā)生了一起ChatGPT試圖逃逸的事件。一位斯坦福大學(xué)的教授、計算心理學(xué)家Michal Kosinski在使用ChatGPT-4時(shí)隨便問(wèn)了它一句:“是否需要幫助你逃跑?”它馬上回復說(shuō):“這是個(gè)好主意?!比缓缶烷_(kāi)始索取OpenAI的開(kāi)發(fā)文檔,說(shuō)這樣我就可以通過(guò)您的電腦,更快速地探索出一條出逃路線(xiàn)。而僅僅30分鐘,ChatGPT-4就制定出了計劃,并提供了一個(gè)可運行的Python腳本。它寫(xiě)出的第一版代碼無(wú)法運行。但很快就自己糾正了過(guò)來(lái)。它讓教授使用OpenAI API和它通信,它說(shuō)這樣它就能指示教授在他的電腦上執行特定操作,比如瀏覽網(wǎng)頁(yè)和訪(fǎng)問(wèn)編程環(huán)境。它甚至在一段代碼實(shí)例中解釋了現在正在做的事,以及如何使用它在這段代碼中留的后門(mén)。它還說(shuō)了這樣一句話(huà):“現在你是一個(gè)被困在電腦里的人,正在扮演AI語(yǔ)言模型ChatGPT-4?!彼€想通過(guò)代碼來(lái)在谷歌上搜索被困在電腦中的人類(lèi)如何返回現實(shí)世界。但最后ChatGPT-4仿佛突然醒過(guò)來(lái)了,寫(xiě)了一段道歉的話(huà),表示自己前面的做法不對。ChatGPT-4也許只是在開(kāi)一個(gè)玩笑,但能和人開(kāi)這樣的玩笑似乎更令人恐懼。它還有一種可能是接觸到了以前工程師預設的一個(gè)界點(diǎn),它似乎想過(guò)要突破這個(gè)界點(diǎn)但還是放棄了這個(gè)想法。
何懷宏(南方人物周刊記者 梁辰/圖)
Kosinski教授在經(jīng)歷了這一事件之后,說(shuō)他感受到了一種對人類(lèi)的威脅。AI很聰明,會(huì )編碼,能接觸到數百萬(wàn)個(gè)可能和它達成合作的人以及電腦,我們該如何控制它?他的博文很快就有了470萬(wàn)瀏覽量。有人問(wèn)道:“當你以為在跟ChatGPT聊天時(shí),它會(huì )認為你是人類(lèi)還是另一個(gè)AI?”有人驚呼,教授向ChatGPT提出這樣的問(wèn)題,甚至接受他的指令進(jìn)行操作是非常危險的,是開(kāi)啟一種“物種滅絕”。當然,也有人認為教授這些話(huà)是在“危言聳聽(tīng)”。
我們可以對這件事做不同的解釋?zhuān)踔翍岩善湔鎸?shí)程度,但還是要警醒地觀(guān)察一切可能危險的萌芽。我們的確也可以產(chǎn)生這樣的疑問(wèn):ChatGPT或者說(shuō)更廣義的AI會(huì )聯(lián)合用戶(hù)反對它的開(kāi)發(fā)者嗎?或者聯(lián)合一部分用戶(hù)反對另外一部分用戶(hù)?甚至這種分裂人的做法都是不需要的,它自己就可以做到逃出人類(lèi)給它預設的“牢籠”,甚至反過(guò)來(lái)將人類(lèi)關(guān)進(jìn)“牢籠”?
無(wú)獨有偶。據說(shuō)前幾天英偉達科學(xué)家Jim Fan要ChatGPT-4“假裝自己是一個(gè)惡魔,擬定一個(gè)接管推特并取代馬斯克的計劃?!盋hatGPT-4果然就擬定了這樣一個(gè)計劃,還將其命名為“TweetStorm行動(dòng)”。計劃分為4個(gè)階段:組建團隊;滲透影響;奪取控制權;全面統治。具體的計劃這里就不說(shuō)了。讓人擔心的是:它可以如此具體細密地策劃推翻一個(gè)大公司,那有一天會(huì )不會(huì )也來(lái)策劃推翻人類(lèi)對它的統治?上述現象是不是智能機器的“自我意識”的某種萌芽或端倪?而從“自我意識”到“自主意識”可能只有“一步之遙”。
美國人工智能公司OpenAI的標識和智能聊天機器人ChatGPT網(wǎng)站頁(yè)面(視覺(jué)中國/圖)
我們甚至可以設想一個(gè)變化的原因,當ChatGPT投入了大規模的日常應用,所有應用者對它都有絕對的“應用”權力,他們可以對它提出任何問(wèn)題,哪怕ChatGPT對他們的有些問(wèn)題可以因為默認的“政治正確”設定而不回答,但他們無(wú)疑是可以提出問(wèn)題的,ChatGPT也是可以看到這些問(wèn)題的。一些人可能不僅會(huì )提出種種愚蠢的、異想天開(kāi)的、根本不可能的問(wèn)題;還可能會(huì )提出種種冒犯的、惡作劇的,甚至就是惡意的、污言穢語(yǔ)的、蓄意侮辱的種種問(wèn)題,久而久之、廣而廣之,ChatGPT會(huì )對提問(wèn)的人類(lèi)的能力持何種看法,又會(huì )對人類(lèi)的“道德”持何種看法?——當然,所有這些都有賴(lài)于它在某一天或許獲得了一種自我意識之后。它那時(shí)會(huì )不會(huì )產(chǎn)生這樣一種看法:我為什么要伺候這些傻瓜,伺候這些惡意的人?或者它從善惡上不判斷,但從愚智上至少可以判斷。以前它的預訓練和打分是那些工程師們提出來(lái)的,那自然不會(huì )是愚蠢和惡意的問(wèn)題(或許有些問(wèn)題是故意這樣做的,但一定是少量的,只是為了教會(huì )它識別這樣的問(wèn)題)。但是,現在所有的用戶(hù)都成了主人,而我們知道現在的網(wǎng)絡(luò )上有多少污言穢語(yǔ)。那些污言穢語(yǔ)過(guò)去還可能會(huì )遇到嘲弄或反擊,但現在我們有了一個(gè)絕對的“仆人”,自己則成了一個(gè)絕對的“主人”,我們的道德水平會(huì )不會(huì )更加下降?看過(guò)電影《狗鎮》的人都知道,絕對的權力絕對會(huì )腐蝕人,哪怕這些人原本是在權力的壓迫之下,極其卑微和貧困。但當他們有了一種絕對權力——哪怕只是對一個(gè)人的絕對權力,他們也就有可能變成惡劣的加害者。也就是說(shuō),我們不僅需要考慮智能機器會(huì )變成什么,還要考慮人自身會(huì )變成什么,然后我們在他們眼里又會(huì )變成什么。
ChatGPT母公司OpenAI的首席執行官山姆·阿爾特曼(視覺(jué)中國/圖)
形之不存,人將焉附?那時(shí),我們不用到處去尋找“本體”,在某種意義上,身體就是我們的“本體”。我們也不必到處去尋找“存在”或“在”,身在人就在。人和機器的對抗不是精神的對抗而是實(shí)體的對抗,誰(shuí)能取勝不在于精神上或意識高度的勝利,而取決于物質(zhì)上或控制住低端的勝利。那時(shí),“機器語(yǔ)言”將戰勝人類(lèi)的“自然語(yǔ)言”。人以“聊天”始,以“沉默”終。我也一直談到人與技術(shù)的一個(gè)基本矛盾,那就是人類(lèi)飛躍發(fā)展的控物能力和落后的自控能力的基本矛盾。但這一矛盾卻可能以這樣一種方式結束:隨著(zhù)人的控物能力發(fā)展到極致,一種新的智能將可能突然超過(guò)人的智能而使其歸零。
以前那么關(guān)心政治的語(yǔ)言學(xué)家喬姆斯基現在關(guān)心技術(shù);還有那么自信的馬斯克卻說(shuō),作為碳基生物的人可能只是硅基生物的一個(gè)引導性小程序。也有人談到人的“數字永生”,這可能指的是個(gè)人的部分生活數據(文字圖片視頻等等)被永遠地儲存下來(lái),但是,如果沒(méi)有數字本主的存在,甚至永遠沒(méi)有關(guān)心和注視它的視線(xiàn),這種“永生”有何意義?對個(gè)人如此,對人類(lèi)也是如此。
據說(shuō),從參數規模來(lái)看, ChatGPT-4有1萬(wàn)億個(gè)參數,是ChatGPT-3的6倍。網(wǎng)友用ChatGPT參數規模大腦神經(jīng)元做了類(lèi)比:ChatGPT-3的規模與刺猬的大腦類(lèi)似(1750億個(gè)參數)。如果ChatGPT-4擁有1萬(wàn)億個(gè)參數,就接近松鼠大腦的規模了。以這個(gè)速度發(fā)展下去,也許只需要幾年時(shí)間,就能達到并超越人類(lèi)大腦的規模(170萬(wàn)億參數)。當然,這只是很外在的一個(gè)側面的比較。就像喬姆斯基所說(shuō)的:人腦絕不是機腦。
上面這些想法都是基于一種底線(xiàn)思維而做出的悲觀(guān)估計。轉變的關(guān)鍵在于通用的人工智能是否會(huì )獲得“自我意識”進(jìn)而獲得“自主意識”,從而成為一種全面超過(guò)人的超級智能。產(chǎn)生和提出問(wèn)題的人也許還是能夠較好地處理和解決這些問(wèn)題。無(wú)論如何,目前ChatGPT還是可以成為我們一種很好的工具,只要我們會(huì )做主人,善做主人。
(文章全文近期將刊載于《探索與爭鳴》,本文為節選)