第11章 心靈:塞爾的中文屋

在世界上的所有奧秘之中,心靈是最神奇的。心靈遠比大腦複雜。我們可以說,一大塊果凍一樣的大腦是自然選擇形成的,它具有大量的複雜功能。但是,意識是從哪兒來的呢?

關於大腦是如何工作的,生物學研究正在取得巨大進展。然而,有人認為,我們關於意識的理解仍然像過去一樣淺薄。心靈的問題長期以來一直是哲學家關注的核心。近來,隨著神經學、認知科學和人工智能等領域的進展,這個問題幾乎成為熱門話題。有一組迷人的悖論,可以清晰地展現人們當前(指本書成書的20世紀80年代)對心靈問題的思考。

思維機器

上一章提到二進制的柏拉圖洞穴囚徒。這個囚徒面對的是形式最為抽像的感性經驗。頗具諷刺意味的是,我們的大腦就是這樣的囚徒,洞穴就是我們的顱骨。看起來,任何人都不可能再現大腦處理感性信息的全過程。本章的思想實驗以此為起點。

關於心靈的最原始的理論認為,心靈根本不存在。籠子裡的一隻鸚鵡在鏡子裡見到自己的形象,它會把鏡像當作另一隻鸚鵡。它不需要用「心靈」來形成一套世界觀。這並不是說鸚鵡是愚蠢的,而是說它沒有自我意識。鸚鵡可以意識到它的世界裡的許多東西,它的鳴叫、給它吃的骨粉,等等。這種意識可以成熟到能夠預測有生命的對象的活動的程度,例如,它可以預測主人每天早晨會來給它餵食。主人是否需要做什麼事來向鸚鵡顯示自己有「心靈」?不必。這只鸚鵡(它的智商很高)可以把自己觀察到的行為歸因於已知或未知的原因,而無須相信心靈的存在。

值得注意的是,某些極端的懷疑主義哲學把這種觀點推廣到了極致(例如休謨對自我心靈的懷疑)。那麼,是什麼令我們相信,他人和我們一樣有心靈呢?在很大程度上是因為語言。我們與他人的交流越多,我們越傾向於相信他人有心靈。

另一種理解心靈的方式是二元論。二元論認為,心靈(或精神、意識)是某種與物質不同的東西。其實,無論我們是否接受二元論,我們經常說這樣的話:某人特別有精神;他們喪失了靈魂;錢未必讓心靈安寧。我們經常會有這種感覺:他人的心靈是存在的,而且心靈或多或少地依附於身體,正是這種感覺滋養了二元論。

隨著生物學家對人體研究的深入,他們越來越清楚地發現,構成人體的物質與無生命的物質並無本質差別。人體的主要成分是水;「有機」化合物可以合成;滲透壓、導電性等物理因素在細胞層起作用,細胞的機能大量地依賴這些物理作用。在局部領域,關於人體和人腦的機械模型構想獲得了如此巨大的成功,以至於我們很容易相信,機械論模型也許可以解釋大腦的整個宏偉結構。於是,有人認為大腦是某種「機器」或「計算機」,而意識是機器以某種方式運行產生的結果。這是理解心靈的第三種方式。

雖然這種理解裝飾了許多現代觀念,實際上對意識的機械論解釋——以及對這種解釋的質疑——由來已久。萊布尼茨在1714年討論過「思維機器」,現在看來仍令人歎服:

進一步說,我們必須承認,知覺以及建立在知覺之上的東西不可能用機械的原因解釋,也就是說,不可能用物質及其運動解釋。假定有這樣一台機器,它的結構造就了思想、感覺和認知。我們設想這台機器被等比例放大了,我們可以走進它內部去參觀,就像參觀工廠一樣。假定你可以走進去,但是你能看到什麼呢?除了各個部件的運動和相互作用以外,什麼也沒有,沒有任何東西可以解釋知覺。

萊布尼茨的論證並無特別之處,但是它確實令我們大多數人對心靈的機械論模型產生反感。確實,這台思維機器在進行思維,但是走進去一看,裡面空空如也。你指望在裡面看到什麼呢?

大衛·科爾(David Cole)對萊布尼茲提出了一個簡潔的反駁:把一小滴水放大到工廠那麼大,此時H2O分子已經和化學課上用的水分子塑料模型一樣大了。你可以走進水滴內部參觀,但是卻見不到任何濕的東西。

功能主義悖論

挑戰機械論模型的其他思想實驗則很難反駁。勞倫斯·戴維斯(Lawrence Davis)的「功能主義悖論」即為一例。

功能主義認為,如果一台計算機能夠實現和人腦一樣的功能,那麼就應當承認,它在其他重要方面都與人腦平等,它也有意識。人腦可以被當作一個「黑箱」,從神經細胞接收輸入信號,以某種方式對信息進行加工,然後向肌肉發送信號。(每一間缸中之腦實驗室都有兩條電纜,一條輸入,一條輸出。)如果有一台計算機,接收與人腦相同的信號,總是產生與人腦相同的反饋,我們該如何評價呢?這台計算機有意識嗎?這個問題就像愛因斯坦和因費爾德的密封手錶的例子(見第1章),我們永遠無法確知。然而功能主義認為,我們有最充分的理由相信:如果「意識」這個詞有某種客觀性的含義的話,那麼這台計算機是有意識的。功能主義主張,基於同樣的理由我們應當相信他人有心靈,其根據是他人的行動方式。

戴維斯在一篇未發表的論文中提出了這個悖論,這篇論文曾被提交給1974年的一次會議。這篇論文值得關注,雖然它未受到應有的重視。戴維斯說,假定我們已經瞭解了關於疼痛的全部細節。如果功能主義是正確的,那麼我們可以造一個可以感受疼痛的機器人。這個機器人非常巨大,我們可以走進它的內部——就像萊布尼茨的思維機器一樣。機器人的腦袋裡面就像一座巨大的辦公樓。裡面不是集成電路,而是穿著西裝、坐在辦公桌後面的職員們。每張桌子上有一部電話,電話連著幾條線,電話網模擬大腦的神經連接,可以感受疼痛。這些職員受過訓練,每個職員的任務是模擬一個神經元的功能。這個工作很無聊,但是工資和紅包非常誘人。

假定就在此刻,這個辦公系統中的一組電話工作起來了,這種工作狀態對應一種非常劇烈的疼痛。根據功能主義的觀點,機器人處於劇痛之中。但是疼痛在哪裡呢?在辦公大樓裡轉一圈,你看不到疼痛。你看到的只是一群平靜、冷漠的中層經理,喝著咖啡煲電話粥。

下一次,機器人感到無法忍受的疼痛,你進入大樓參觀,發現這些職員正在舉辦聖誕聯歡,每個人都非常盡興。[1]

圖靈檢驗

我們稍後再討論戴維斯的悖論,下面介紹一個與之密切相關的思想實驗——約翰·塞爾(John Searle)的「中文屋」。關於中文屋,我們先介紹一點兒必要的背景。

中文屋基於艾倫·圖靈的「圖靈檢驗」。圖靈在1950年的一篇論文中提出一個問題:計算機有沒有思想?圖靈論證說,除非我們指定某件事,這件事是有思想的對象會做而沒思想的對象不會做的,否則,這個問題就是無意義的。什麼事才能把有思想者和無思想者區分開呢?

計算機已經掌握了計算能力,在此之前,計算只能由具備專注力而且有智力的人類完成。圖靈意識到,檢驗必須非常嚴格,例如,標準至少要比下一手漂亮的象棋更高。計算機很快就能掌握下棋的技能,但是這距離有思想還差很遠。[2]圖靈提出了一種檢驗方法,他稱之為「冒充遊戲」。

一個人坐在計算機終端前,向兩個對像——A和B——提問,A和B隱藏在另一間屋子裡。在A和B中,有一個是人,另一個是號稱有思維能力的精密的計算機程序。提問者的目標是分辨出哪一個是人,哪一個是計算機。另一方面,人和計算機都竭盡全力令提問者相信自己是人。這很像一種電視競猜節目——目標是把一個你不認識的人和冒充者區分開。

提問者只能通過計算機終端進行交流,這個事實使得他只能利用兩個對象的實際回答判斷,除此之外沒有任何依據。他不能指望借助於機械合成的說話聲音或是其他線索。隱藏在另一間屋子裡的人可以說:「嗨!我是人!」但是這樣做恐怕沒什麼用,因為計算機也可以說同樣的話。計算機不必坦率地承認自己是計算機,即使提問者直截了當地提問。A和B都可以撒謊,只要他們認為撒謊符合自己的目的。如果提問者問一些私人信息,例如A的媽媽的閨名,或是B的鞋子尺碼,計算機可以捏造答案。

計算機程序必須做出人類才會做出的反應,從而使得提問者在半數的檢驗中把計算機誤認為人,這樣才算是通過檢驗。圖靈認為,如果把智力定義為外部的行動和反應,那麼,一台通過了這種檢驗的計算機應被視為確實展現了智能。這是一個非同尋常的要求。

這樣說來,計算機是否有思想?圖靈的結論是,「計算機是否有思想」

這個最初的問題是「一個缺乏明確意義的問題,不值得討論。儘管如此,我相信,到20世紀末語言的用法和受過教育的大眾的觀點會發生很大的變化,我們將可以談論『機器的思想』而不用擔心措辭本身有矛盾。」

自圖靈的論文發表以後,這些年來人們把心理過程和算法相提並論已變得稀鬆平常。如果你按照一個確定的算法計算圓周率的各位小數,而一台計算機利用同樣的算法也進行計算,那麼你的思想過程將有一小部分與計算機的運行直接對應。一種被廣泛接受的觀點是,智力乃至於意識同計算機程序一樣,可以在不同類型的「硬件」上運行,人腦是其中的一種生物性的硬件。從理論上說,你的大腦的神經元功能、神經元的狀態和神經元之間的聯繫可以被複雜得驚人的計算機程序絲毫不差地模擬。如果這個程序運行起來(即使是在由微型芯片和導線組成的計算機上運行的),它也可以展現與你相同的智力甚至意識。

長期以來,心靈被當作靈魂、生命衝動以及笛卡兒二元論中的一元。知識界大體上已經放棄這些有機械論傾向的意識理論。約翰·塞爾1980年的思想實驗設計了一個競猜遊戲,直觀地展現了微妙的心靈問題。如果意識無非是算法,那麼意識是從哪兒來的?塞爾只給我們留下一個候選項,而這個備選項也是成問題的。

中文屋

設想你被鎖在一個房間裡。房間裡除了有一本厚厚的書之外,空空如也,書名令人洩氣:《如果有人從門縫塞進來一張寫有中文的紙怎麼辦?》。

一天,一張紙從上了鎖的門底下被塞進來,紙上寫著漢字。你不認識漢字,對於你來說,這些字不過是些無意義的符號。你正在急於找一件事做來打發時間,於是你求助於手頭這本《如果有人從門縫塞進來一張寫有中文的紙怎麼辦?》這本書。書中不厭其煩、細緻周密地介紹了如何「處置」紙上的這些漢字,你把這個工作當作消磨時間的撲克遊戲。書中介紹了複雜的規則,你需要做的是依照這些規則在文本中搜索特定的漢語字符,確定它出現過。這個工作毫無意義,但是你別無他事,只有遵循這些規則行事,消磨時間。

第二天,你又收到一張紙,上面寫著更多的漢字。奇怪的是,對於如何處理這些漢字,書中也有介紹。書中有進一步的指示,告訴你如何對第二張紙上的漢字字符進行關聯和加工,以及如何把這些信息和你從第一張紙上取得的成果結合起來。書的最後介紹了如何把一些特定的符號(有些符號在紙上,有些在書上)抄到一張空白紙上。把哪些符號抄上去,這取決於你此前的工作,並且會受一種複雜的規則制約。最後,這本書告訴你,把寫好符號的紙從你的囚室門底下塞出去。

但是你不知道,第一張紙上的漢字是一個簡短的漢語故事,而第二張紙是基於這個故事提出的問題,就像在閱讀測驗中提出的問題一樣。你按照指示抄在紙上的那些符號就是這些問題的答案(對此你也不知情)。你所做的是,按照一個複雜的算法處理一些字符,算法是用英語寫就的。這個算法模擬了一個說漢語的人的思維方式,或者說,至少模擬了一個說漢語的人在讀到這些材料時進行閱讀、理解和回答的方式。這個算法非常完美,以至於你給出的「答案」與那些母語是漢語的人讀完這些材料後給出的回答沒有差別。

建造這間屋子的人們宣稱,屋裡有一頭受過訓練的豬,可以理解漢語。他們把這間屋子搬到了國家展覽會會場,讓大家在外面提交用中文寫的一則故事和針對故事的一組問題。屋外的人不相信屋裡是一頭懂中文的豬。從屋裡傳出的答案太「人性化」了,每個人都猜想,裡面是一個懂中文的真人。由於屋子始終是鎖著的,沒什麼辦法能打消屋外人的這種懷疑。[3]

塞爾的要點是:你理解中文嗎?你當然不懂!有能力執行複雜的英語指令不等於有能力理解中文。你連一個漢字都不認識,你沒有從漢字裡讀出一丁點兒含義。你有一本書指示你的行動,需要強調的是,這本書不是枯燥的中文教程,他並沒有教給你任何東西。你只是在生搬硬套書中的規定,至於為什麼這樣規定,某個字符的含義如何,書中隻字不提。

對於你來說,你所做的不過是消磨時間。你按照規則把紙上的中文字符抄到一張空白紙上。你的工作就像一個人玩撲克牌,按照遊戲規則拿起一張紅色的J,把它接在一張黑色的Q之下。如果有人在你玩牌時問你,一張撲克牌的含義是什麼,你會回答,它沒有含義。當然,撲克牌作為符號曾經有過含義,但是你會堅持說,在你玩牌時這些含義不起作用。我們把某張牌稱為「方塊七」,只是為了與其他牌區分開,以簡化應用規則的過程。

即使你有能力執行針對中文的算法,也不能說你理解中文(漢語意識就更談不上了)。如果對於人,我們得出以上結論,那麼對於機器也是如此:單憑一台機器可以執行算法就說它有意識,會顯得非常荒唐。因此塞爾得出結論:意識並非算法。

大腦和牛奶

與許多懷疑計算機具備思想的可能性的其他人相比,塞爾的懷疑已經相當溫和了。他的思想實驗假定有一個行得通的人工智能算法。這個算法是針對漢語字符的一系列操作指令。顯然,這個算法要比漢語語法簡潔得多。它接近於對人類思維過程的全面模擬,必須比較簡單,從而使任何人都能執行。

向屋裡提供的故事可以是任何故事,提出的問題可以針對任何相關的事實、推論、解釋和觀點。這些問題不是(至少不必是)選擇題、複述題和劃線題的題型。塞爾給了一個例子。故事可以體現為這樣的簡短形式:「一個男人走進一家餐館,要了一個漢堡包。漢堡包送上來了,但是烤得很脆。這個人怒氣沖沖地離開餐館,既沒有付賬,也沒有給小費。」問題是:

「這個男人吃漢堡包了嗎?」當然,故事中沒提這個人吃沒吃,而且,連「吃」這個漢字在故事中都沒出現。但是每一個理解這個故事的人都會猜想,此人沒吃漢堡包。

問題可以是,「巨無霸」[4]是不是一種漢堡包(從故事本身看不出來;除非你以前知道,否則答不出來),也可以問,這則故事是否令你發瘋(故事中沒出現「瘋」這個漢字)。問題可能是,要求你指出令你發笑的句子,或者要求你利用同樣的字符寫出另一則故事。這個算法處理故事的方式必須和人類的處理方式很相似。如果這個算法是用LisP或Prolog之類的計算機語言寫出來的,它必須能夠通過圖靈檢驗。塞爾避免了假定黑箱裡的一台計算機運行一個複雜算法,他把這個任務交給了一個人。

塞爾認為,圖靈檢驗也許並不像人們所聲稱的那樣關鍵。如果一台計算機的行為和人一模一樣,這是很了不起的,但是這並不足以說明它有「意識」。這個問題其實還是「他人心靈」問題,只不過採取了更為尖銳的形式。即使懷疑論者在哲學思辨以外也不懷疑他人心靈的存在,但是機器是否有可能具備與我們相似的意識,對此我們通常表示懷疑。

塞爾對這個問題的看法令人驚訝。他相信,人腦確實是某種機器,但是意識與人腦的生化結構和神經學結構有關。一台由導線和集成電路構成的計算機即使完全再現了人腦的全部神經元的功能,它仍然是沒有意識的。(雖然它與人腦的功能相同,而且通過了圖靈檢驗。)相反,一顆弗蘭肯斯坦式[5]的大腦卻可能有意識,雖然這種大腦也是人工製品,但是組成其的化學物質與人腦的相同。

塞爾把人工智能類比於計算機模擬光合作用的發生。利用計算機程序可以很好地模擬光合作用的全部細節。(例如,在顯示屏上設計出栩栩如生的葉綠素原子和光子,以這種方法模擬。)雖然全部的相關信息都囊括在程序中,但是它永遠不能像真正有生命的植物那樣生產出真正的糖。塞爾認為,意識是一種類似於糖和牛奶的生物製品,而且屬於副產品。

在這一點上很少有哲學家贊同塞爾,但是他的思想實驗引起了廣泛的討論,其他思想實驗則極少如此引人注目。我們來看一下大家對塞爾的回應。

回應

一種觀點是,這個實驗是完全不可能實現的。《如果有人從門縫塞進來一張寫有中文的紙怎麼辦?》這本書不可能存在。我們解釋語言和進行思考的方式不可能表達為按部就班的操作步驟,永遠無法充分瞭解並寫進一本書中。(也許可以借用貝裡悖論和普特南的孿生地球來說明。)因此,這個算法是行不通的。從屋裡送出的「答案」應當是無意義的胡話或者不知所云的喋喋不休。它們騙不了任何人。

在我們確實找到這樣一種算法以前(假如這種算法確實存在),以上論證都是穩固而不可反駁的。需要注意的是,只有塞爾本人樂於承認這種算法存在的可能性。嚴格說來,我們不一定非得做出這一假設:只有在我們發現大腦的全部工作機理之後,才可能進行這個實驗(或類似實驗)。我們可以按戴維斯設計的辦公大樓進行模擬試驗。人腦大約包含1 000億個神經元。據我們所知,單個神經元的功能相對比較簡單。設想我們完全確定了某個人大腦的狀態:所有神經元的狀態、神經元之間的聯繫以及每個神經元如何工作。然後,我們動員全世界的所有人參與實驗,模擬這個人的大腦運轉。全球50億人,其中每個人負責處理大約20個神經元的動作。對於神經元之間的每一個聯繫,相應地在代表這些神經元的人之間連上一條線。神經元之間每傳遞一次衝動,就拉一下這根繩子來表示。每個人都來操縱一些這樣的繩子,以模擬他們所扮演的那些神經元之間的聯繫。然而,無論這個模擬工作完成得多麼完美,對於他們所模擬的「思想」是什麼,所有人都一無所知。

還有一種觀點支持塞爾的結論:這種算法是有可能的,但是這並不意味著具備了與懂中文的人相同的意識。塞爾的支持者援引了句法性理解和語義性理解之間的區別來說明。[6]實際上,書中給出的規則提供了對中文的句法性理解,但是沒有提供語義性理解,屋子裡的人不知道某個詞的含義是「房子」而另一個詞的含義是「水」。顯然,對於意識來說,語義性理解是至關重要的,而計算機之類的東西永遠不會具備這種能力。

幾乎每個反對塞爾的人都主張,在中文屋周圍遊蕩著某種類似於意識的東西。也許這種東西是潛在的、原始的,也許它表現得遲鈍、幼稚,但是它確實存在。

笨法學中文

在所有支持「在中文屋中有關於中文的意識」的觀點中,最簡單的一種認為,屋子裡的人實際上學會了中文。在句法性理解和語義性理解之間並不存在絕對的分野。在此人遵循規則操作了很多次以後,也許會逐漸形成本能。也許此人根據操作這些符號的方式可以猜到符號的含義。

這種論點的關鍵在於,是否必須明確地告訴此人,這是「水」、那是「房子」,此後,此人才理解了文字符號的意義。換個說法,我們是否有可能通過觀察詞的用法掌握所有詞的意義?即使你從未見過斑馬,你依然可以獲得對「斑馬」這個詞的語義性理解。你當然沒見過獨角獸,但是你對這個詞有語義性理解。

如果你從來沒見過馬,你依然能獲得這種語義性理解嗎?再推進一步,如果你從來沒見過任何動物(甚至沒見過人),你能獲得這種語義性理解嗎?如果你在一定程度上與要認知的對象隔絕,那麼將連理解本身是否存在都成問題。

假定今天是上算術課的第一天,你因為生病缺課了。就在這次課上,老師講了什麼是數。你回學校以後,不好意思問什麼是數,因為別人好像都知道。你加倍努力地學習以後的課程,如加法表、分數等。你非常用功,最後成為算術最棒的學生。但是你心裡面覺得自己是個冒牌的好學生,因為你連「什麼是數」都不知道。你只知道數如何運用,數如何相互作用以及數如何與世界上的所有其他東西相互作用。

有人認為,我們對於「數」的全部理解不過如此(雖然在這方面,「斑馬」和「數」可能不盡相同)。一個類似的例子是歐幾里得幾何學。在幾何學研究之初,通常不對「點」、「線」等概念做出如此的定義,只有通過關於這些概念的公理和定理,我們才獲得了對它們的理解。[7]

對於以上觀點的一個反駁是,在屋裡的人記住規則、猜出字符的含義以前,就可以給出中文答案——他一開始就能做到。在屋裡的人學會以前的很長一段時間裡,出題者一直可以問一些需要使用「生詞」回答的問題,這些生詞是屋裡人以前從未用過的。(「人們放在漢堡包裡的、用醃菜水加工出來的東西是什麼?」面對此題,塞爾的實驗對像能否推斷出「泡菜」這個詞的意義呢?)

傑基爾博士和海德先生

有人主張,中文屋裡的模擬者懂中文,但是他不知道自己懂中文。戴維·科爾把塞爾的實驗對像比作一個病人,他懂兩種語言,但是因為患了一種奇怪的大腦疾病,他不會在兩種語言之間做翻譯。他可能有多重性格,患有人格分裂症或是失憶症。(具體屬於哪種情況,由你決定。)

傑基爾醫生[8]走進中文屋,他只會說英語。通過執行算法,創造出會說漢語的海德先生。傑基爾醫生不知道海德先生,反之亦然。因而,實驗對像不會在英語和漢語之間互譯。他不知道自己的漢語能力,甚至否認有這種能力。

我們的頭腦中有許多自己沒意識到的功能。此刻,你的小腦正在調節你的呼吸、眨眼以及其他自動實現的功能。通常,這些功能無須大腦幹預。你可以有意識地控制這些功能,如果你願意的話。另外一些功能(例如脈搏)則自動化程度更高,只能在一定程度上通過生物反饋技術加以控制。還有一些功能的自動化程度更加徹底,根本不可控制。所有這些功能都在你的大腦的監控之下。

既然如此,分別掌握一種語言的兩種人格為什麼會處於如此分裂的狀態?也許是因為,漢語能力是以一種怪異的方式被移植到實驗對像頭腦中的。

系統觀點回應

塞爾最初發表論文時,已預見到其思想實驗會得到一些反饋。其中一種被他稱作「系統觀點回應」。該回應認為,實際上此人不懂中文,他本人只是整個過程中的一個環節,從理論上說,這個過程可以懂中文。塞爾中文屋中的人不可類比於我們的心靈,他只能類比於我們大腦的一小部分(雖然這個部分很重要)。

這個系統觀點回應不是隨便說說。一般來說,解決中文屋悖論的這種思路在認知科學專家中最為流行。即使最極端的機械論者也不認為單個的神經元有意識。意識是一個過程,神經元是這個過程中的中介。鎖在屋子裡的人、提供指導的書、從門底下塞進來的紙、此人用來寫字的筆,這些也都是中介。

塞爾對這個回應提出了反回應。他的觀點大致是:我們承認意識存在於整個系統中,這個系統包括人、屋子、提供指導的書、一些紙片、鉛筆以及其他東西。但是我們可以拆掉屋子的牆,讓此人開放工作;讓他記住書中的指令,所有操作都在頭腦中進行;在需要寫字的時候,讓他用指甲把答案畫出來。這樣,整個系統還原成了一個人。他懂中文嗎?顯然不懂。

這些思想實驗的一個危險在於,在操作過程中太容易跑題了。你必須確保,你正在設想的(而非你正在進行的)實驗不會破壞你的設想。大多數支持系統觀點回應的哲學家和科學家認為,塞爾中文屋的核心問題就在這裡。

說明書中的一頁

分析一下這個問題的技術細節是有好處的。為便於討論,我們調整一下假設:假定屋裡的人是說漢語的,但是他對英語一無所知,甚至不認識羅馬字母。(這樣假定可以使討論更方便,因為我們的討論變成了如何理解英語。)向屋裡提供的故事是《伊索寓言》中狐狸和鸛的故事,次日向屋裡提出的一批問題是關於這兩隻動物的。屋裡有一本說明書,書名是《如果有人從門縫塞進來一張寫有英文的紙怎麼辦?》,書是用漢語寫的。我們考慮一下這本書的內容。

這本書必須有一部分內容教你如何識別「Fox」(狐狸)這個單詞。我們知道,英語中只有單詞(而非字母)才有意義。於是,為了模擬對角色和故事中的事件進行推理的心理過程,任何算法都必須把對應於角色和事件的單詞分離並識別出來。懂英語的人瞟一眼就能認出「Fox」這個詞,但是說漢語的人做不到,他必須遵循一個繁複的算法。這個算法可以是這樣:

1.搜索文本,尋找類似於以下符號的符號:

如果發現了類似符號,轉到步驟2。如果文本中沒有這樣的符號,轉到說明書的第30 761 070 711頁。

2.如果此符號的右側緊跟著一個空格,則回到上一個步驟。如果此符號的右側緊跟著另一個符號,把第二個符號與下列符號比較:

如果相符,則轉到步驟3。否則,回到步驟1。

3.如果步驟2中的第二個符號右側緊跟著一個空格,則轉到步驟1。否則,比較其右側符號與下列符號:

如果相符,轉到步驟4。否則,回到步驟1。

4.如果步驟3中的符號右側緊跟著一個空格或下列符號之一,則轉到說明書的第84 387 299 277頁。如果其右側是一個不同的符號,則回到步驟1。

這些指令距離最終目標還差很遠。當涉及如何對狐狸進行思考時,誰知道指令會複雜到什麼程度呢?

我們手裡沒有塞爾設想的理解中文的算法,但是我們有簡單一些的算法。假設有一個非常幼稚的人,他以前從來沒見過袖珍計算器,這個可憐的傢伙可能會形成一個錯誤的觀點:計算器有思想。你可以用塞爾實驗的方式令他醒悟。向他提供計算器使用的微處理器的說明書和接線圖,把計算器按鍵在輸入問題時產生的電信號傳遞給他。讓他模擬計算器在算題時進行的操作。這個由真人模擬的微處理器可以產生正確的結果,但是沒有意識到自己實際上算了一道數學題。他不知道自己計算的是2加2,還是14.881度角的雙曲餘弦。這個人不會有抽像的數學運算的意識,同樣,計算器也不會有。如果有人利用系統觀點回應提出反駁,你可以讓實驗對像記住所有東西並在頭腦中完成操作。是這樣嗎?

別這麼確信。計算器為了進行一個簡單的計算需要經過數以千計的步驟。這個實驗很可能需要許多個小時。除非實驗對像記憶力超群,否則他不可能在頭腦裡完成對微處理器的模擬。在執行過程中,他幾乎肯定會遺忘某些中間過程,從而毀掉全盤工作。

現在考慮塞爾的實驗對象的狀況。給他的說明書必須非常大,甚至要比地球上的任何房屋都要大。

由於還沒有人設計出可以操縱漢語字符正確地「回答」問題的算法,我們無法估計這種算法的龐大程度和複雜程度。但是,由於這種算法必須模擬人類的智能,所以有理由認為,它的複雜程度不會比人腦差太遠。

可以設想,1 000億個神經元中的每一個在實際的(或潛在的)心理過程中發揮某種作用。因此我們可以認為,那本模擬人類操作漢字符號的說明書至少需要包括1 000億條不同的指令。如果每一頁上寫一條指令,就意味著要寫1 000億頁。於是,這本名為「如果有人從門縫塞進來中文文本怎麼辦?」的書更像是一套叢書,這套叢書包括1億卷,每卷1 000頁。這大致相當於紐約市圖書館藏書量的100倍。這個數字後面也許可以去掉幾個0,但是很明顯,沒有人能夠記住這些指令。同樣,沒有人可以不用到紙片,或者更好的工具——一個龐大的檔案管理系統。

問題的關鍵不在於這個算法偶然地因過分龐大而不可執行。中文處理算法中嵌入了大量的人類思維過程,其中包括基本常識的儲備。(例如,人們在餐館裡如何行事的常識。)人腦是否有能力記住同人腦本身一樣複雜的東西?當然不能。這個問題類似於,你不能吃下比你本人大的東西。

你很可能見過這樣的統計結論:「平均而言,一個美國人每6個月吃掉一整頭牛。」對於這種說法可以做類似分析。一頭牛比人大,但是作為統計對象的人每次只消滅牛的一小部分。在任何一個時刻,你的體內都不會包括太多的牛肉。塞爾的實驗對象也是如此。

人腦是由物理材料構成的,記憶存儲是通過這些物理材料的化學狀態和電狀態實現的,因此,記憶力的容量是有限的。人腦有多大部分是用來記憶東西的尚不清楚,但是顯然不會是全部。也許只有一小部分有記憶功能。人腦的其他部分必須用來執行其他功能,例如,對記憶進行操作,獲取新的感覺材料,等等。

顯然,如果假定實驗對象可以記住規則,所有這些思想實驗(包括塞爾的以及批評者的)則誤入歧途。一個人只能記住整個算法的一小部分,不可能再多。他不得不反覆求助於說明書和紙片(或者檔案系統)。他經常遇到這種情況:說明書要求他參照某張紙,他看著那張紙,邊搖頭邊說:「唉!我都忘了我曾寫過這些東西。」還有一種可能:他翻到說明書的某一頁,發現那裡夾著一個咖啡杯墊,這表明他曾看過這一頁,但他不記得了。

從本質上說,這個人只是整個過程中的一個很小的部分。他就像一個查號台接線員,每天數以千計的電話號碼經過他的眼,但是他在念完一個號碼以後,很快就忘了。關於電話號碼的信息其實全在電話號碼簿裡。在塞爾實驗中,算法主要存在於說明書和紙片中,實驗對像以及他在某一刻記住的極少一部分指令在整個算法中幾乎不佔什麼比例。

中文屋裡的人是有思想的,但是這與整個思想實驗無關,而且,這是一個誤導我們的因素。我們可以用一個機器人代替屋裡的人。(這個機器人不是老套的科幻小說中的人工智能機器人,而僅僅是一個裝置,也許只比自動算命機稍複雜一點。)屋裡的人在實驗過程中體會不到自己的意識以外的其他意識,這個事實平淡無奇,就好像說明書的第411 095卷也體會不到意識一樣。

這可以解釋為什麼屋裡的人不承認自己懂漢語。如果要問,這個過程中意識存在於何處以及意識如何存在,更不可能得到滿意的答案。我們會指著那些紙片、說明書等,說:「意識就在那兒,在文件櫃旁邊。」我們猜測,這就是所謂的只見樹木、不見森林,我們所能做的一切恐怕就是做出這樣一種猜測。我們的處境就像在科爾的例子中走進巨型水滴內部的人遇到的——此人見不到任何濕的東西。

中文屋在時間方面的膨脹更甚於其在空間方面的膨脹。設想我們有一部時間機器,可以把中文屋的運行速度加快1萬億倍。這樣,說明書被飛速翻動,變成一團影子;一堆一堆的紙片看起來像生物繁衍一樣生成;屋裡的人走動太快,已經看不見了,成為機器裡的一個幽靈。也許,我們對意識的某些構想要求其運行速度達到令人目不暇接的程度。

與愛因斯坦的大腦對話

道格拉斯·霍夫施塔特(Douglas Hofstadter)在1981年設計了一個思想實驗:把愛因斯坦的大腦在死亡時刻的狀態全部記錄在一本書中,配上模擬愛因斯坦大腦活動的指令。通過細緻地執行這些指令,你可以實現一次與愛因斯坦的對話,雖然對話過程非常遲緩,而且是在愛因斯坦死後。你從操作中得到的回應就是愛因斯坦會對你說的話。你必須把這本書當作「愛因斯坦」,而且不僅把它視為一本書,因為這本書「認為」自己就是愛因斯坦!

霍夫施塔特的思想實驗完全把所謂的意識分成了信息(在書中)和操作(由人執行書中的指令)兩部分。任何使得這本書成為愛因斯坦的東西都在這本書裡。但若是把這本書放在書架上,它顯然和其他書沒什麼兩樣,它沒有意識。這樣我們就面對一個精妙的困惑,它相當於塞爾實驗的死人版。

假定某個人每天按照一定的節奏一絲不苟地執行書中的指令。於是,愛因斯坦的意識就被再現了(或者說,看起來被再現了)。過了一段時間,這個人又把書放回書架,休了兩周假。書中的「愛因斯坦」是死了還是沒死呢?

當然,在操作停止時,這本書不會像我們一樣注意到終止。如果把這本書比作「愛因斯坦」,那麼這個人相當於保證我們的大腦運轉的物理定律。

如果這個人執行指令的速度下降到每年執行一條,將會如何?這個速度是否足以令這本書「活著」?如果每個世紀執行一條指令呢?如果兩條指令之間的時間間隔逐次倍增呢?

[1] 這個思想實驗的初始假定是,「我們已經瞭解了關於疼痛的全部細節」。然而,瞭解關於疼痛的全部細節並不等於瞭解疼痛本身,我想,這個問題的要旨就在於此。戴維斯和萊布尼茨共同的錯誤在於,把「知道」和「看到」混為一談。——譯者注

[2] 本書出版時(1987年),計算機程序已經可以抗衡人類的國際象棋大師。現在,人類最優秀的棋手已難以匹敵個人計算機。——譯者注

[3] 塞爾之所以用「中文」說事兒,是因為在英語中「中文」有神秘莫測、艱深晦澀之意。——譯者注

[4] 麥當勞快餐店的一種大號漢堡的名稱。——譯者注

[5] 在瑪麗·雪萊的著名小說《弗蘭肯斯坦》(1818年)中,科學怪人弗蘭肯斯坦利用死屍器官造出了有生命的怪物。現在,英語中「Frankenstein」這個詞專門指人造的類人怪物。——譯者注

[6] 簡單地說,句法性理解和語義性理解之間的區別在於:前者把語言視為單純的符號遊戲,對符號進行組合,對符號串進行變形,如此而已;而後者包括把符號匹配於語言之外的某些東西(即所謂的「意義」或「指稱」)。——譯者注

[7] 此處所說的幾何學是指嚴格公理化的幾何學。非專業人士學習的初等幾何學大量借助於生活常識,學習過程確實是從定義基本概念開始的:我們先學習什麼是「點」和「線」,然後才有公理和定理。——譯者注

[8] 傑基爾醫生,英國小說《化身博士》的主人公,人格分裂,海德先生是他的化身。——譯者注

《推理的迷宮:悖論、謎題及知識的脆弱性》