中國社會科學院哲學研究所是我國哲學學科的重要學術機構和研究中心。其前身是中國科學院哲學社會科學部哲學研究所。歷任所長為潘梓年、許立群、邢賁思、汝信(兼)、陳筠泉、李景源、謝地坤。中華人民共和國成立前,全國沒有專門的哲學研究機構。為了適應社會主義改造和建設事業發展的需要... ... <詳情>
哲學專業書庫的前身是哲學研究所圖書館,與哲學研究所同時成立于1955年。1994年底,院所圖書館合并之后將其劃為哲學所自管庫,從此只保留圖書借閱流通業務,不再購進新書。
2009年1月16日,作為中國社會科學院圖書館體制機制改革的重要舉措之一,哲學專業書庫正式掛牌。
<詳情>提要:思考ChatGPT的“人化”程度首先觸及的是人類的“遺忘”特質,即數字生命的純粹記憶特質,它使得其信息只能被刪除且難以被自動遺忘,這構成了它們的首要局限性。此外,在情感“之外”及情感“之前”的感受能力構成了數字生命難以徹底人化的第二個基礎要素。然而,在思考ChatGPT的基本局限性的同時,以數字生命作為真正的他者,我們同時可以反觀自身的當下局限性。在全球景觀資本的長期以及全域性的作用下,人不僅喪失了“遺忘”的能力,同時只剩下了僵硬的認知與情感連線,這不僅造成了人的機器化,同時令人喪失了基本的道德直覺的產生條件。
在關于人與ChatGPT為代表的未來數字生命的關系問題上,一種自動的對立模式占據著主導地位。人們在著手發展數字生命的同時,也在隨時恐懼著數字生命的未來侵襲。在其中,很少有人拿ChatGPT作為真正的人類他者,或者將人類當作ChatGPT的他者進行相互對待。事實上,人不僅可以檢驗數字生命的具體價值,作為人類他者的數字生命反過來同樣也可以檢驗人類主體是否符合人性的基本規定。ChatGPT所缺少的品質,往往也正是經過景觀資本異化后的當下之人所缺少的品質。在思考數字智能機器諸種不足方面的同時,我們還需要同時思考另外一個問題:我們人類自己是否正在成為數字機器。當下的ChatGPT與理想的ChatGPT之間隔著一段漫長的距離,它們也與人類隔著一段距離。與此同時,“我們”與位格意義上的“我們”更是隔著一段距離,且這種距離越拉越遠。
在關乎道德哲學方面,當下的研究側重于思考機器對人的倫理威脅。比如,一些實驗研究注意到:ChatGPT所采取的認知訓練模型不僅容易受到可用性、選擇和確認偏差的影響,而且還在無意中放大了這些影響。它持續輸出偏見并延續了性別歧視等刻板印象[1]1-3。此外,目前的研究還將由數字智能引發的倫理主體追責問題作為這一話題討論的核心,例如:當AI醫生犯了一個不可避免的錯誤時,誰應該受到指責還有待確定[1]1-3。然而,這些都沒有觸及倫理的根本維度。真正的倫理首先應考慮到的是主體與他者的建構問題,主要考察假設的倫理主體是否具備可能的倫理基礎,他是否向世界敞開了自身。一個封閉的存在物是不可能具有倫理性的。只有我們首先思考倫理主體及其自由空間問題的時候,才有希望觸及真正的倫理問題域。這便首先牽涉對于倫理主體的記憶與情態性的定位考察。
一、“遺忘—記憶”與“記憶—記憶”:關于“遺忘”的倫理奠基性
柏格森(Henri Bergson)認為:“一個生物的記憶,似乎就是衡量這個生物對事物做出行動能力的大小的尺度?!?/span>[2]263事實上,記憶不單純是一種簡單生物能力,它本身還是一種倫理能力。在其中,作為其否定性的遺忘為記憶的倫理潛能提供了可能且必要的基礎。通過隨時性的騰退,遺忘為記憶打開了必要的縫隙,這些縫隙不僅為記憶的持續進行提供了條件,還在記憶的深處打開了一片“空地”,正是在記憶深處的這個“空的空間”中,一個好客的主體性才可以隨時靜候他者的臨顯,從而令人的存在具有了基礎的倫理性。
人與以ChatGPT為代表的數字生命的一個最大區別就是人可以“緩慢而無規律地遺忘事物”,而數字生命的遺忘則只能是“突然的”“掉落的”“刪除的”。人能“緩慢”遺忘,且在記憶的同時摻拌遺忘,這與其說是反映了人的局限性,不如說這恰是人之為人的尊嚴與特質所在。上帝和動物要么不能遺忘,要么只能快速遺忘。在該方面,大多數人工智能也只能永遠記住或者快速遺忘,卻不能在記住的同時遺忘,或者在遺忘的同時記住什么。即使到了未來的超智能階段,人工智能的記憶能力絕對超過人類,然而其“遺忘能力”還是令人懷疑,因為數字或人工智能的本質是“記憶性”的。我們只能想象一種“刪除”和“脫落”,而無法在數字生命身上想象一種“遺忘”。
如果說數字生命刻入信息的方式是“事態—記憶”,人類則是始終在進行“遺忘—記憶”。人的大腦在記憶前、記憶中和記住之后一直伴隨著遺忘,遺忘是人的記憶的永恒“它者”。從一個事物在我們的頭腦中刻下印象的最初瞬間,我們就已經與它拉開距離,直到記得越深,我們與對象的距離實際上已經遙遠無比。因此,《追憶似水年華》的作者只能通過另一種“不可能的方式”來“回憶”那些“過去的芬芳”,普魯斯特(Marcel Proust)遵循的模式是“回憶—遺忘—記憶:遺忘”,這種特殊的“不可能的”記憶結構并非構成了回憶的特例,它更是一種記憶的日常范例。
不論是有意識的記憶還是無意識的記憶,人的所有記憶都是遺忘。所有的人類記憶都指向“過去”。正如柏格森所言:我們知覺的只有過去,而純粹的當下則是一種看不見的發展,是過去向未來的侵襲[2]164。而嚴格的數字記憶則是“現在的”,它既不指向過去,也不指向未來。數字智能的記憶是僵硬的、刻錄的、“非失憶”的,確切說來這是一種“記憶—記憶”。那些“不夠”或者“已經失去”的部分除非經過“補錄”,否則智能系統便會面臨完善性的殘缺。且不談“補錄”的操作主體是人類還是智能生命自身,“補錄”本身就不具有倫理上的延伸性?!把a錄”之前只顯示著殘缺,它不僅構不成一種空間,反而處處顯示出一種擁擠的固體特性。數字生命的擁擠性使得其內部不再具有流轉生命能量的可能空間,從而令其在成為主體之前已經將自己扼死,由此更不可能為他者的隨時進入提供足夠開闊的可能之地。
在智能生命中,其完善性,尤其是記憶的充盈性與完善性永遠是其高級化的首要條件。完善性必然要求持續的內容“補入”。即使是刻意追求“遺忘—記憶”,其必然也是以再次的記憶補入為條件的。如此,數字生命必然是一個鮑德里亞(Jean Baudrillard)筆下的“肥胖者”的形象,它比“大”更“大”。而人的記憶則并非是有意識補入的(除了部分知識技能的有意識增加)。除了特殊的生理發病,否則大多數的人都能克服掉“突然遺忘”,其遺忘是緩慢的,但遺忘始終發生在生命的深處。遺忘“與”遺忘“之間”,記憶“與”遺忘“之間”的地帶,才是人性的根本價值與尊嚴所在。
不僅如此,人在記憶“之前”就“已經”開始記憶,在遺忘“之前”也“已經”開始了遺忘。我們在忘了的時候已經記住了什么,因為我們在記住之前已經記得了什么。海德格爾(Martin Heidegger)曾如此解析人的意識:意識已經是某種東西,同時又還不是某種東西。意識意義上的存在意味著:居留于“已經”的“尚未”中,而且這種“已經”就在“尚未”中在場。在場自身就是一種入于“已經”的自我指引[3]。反之,人的遺忘也處于“已經”和“尚未”之中,遺忘的這種特質將人徹底固定在了“世界”之中。在這種“遺忘—記憶”的基礎作用之下,人成了一個隨時的發射裝置,他隨時連接他(它)者與世界,世界也隨時對人發射著連接的能量。人由此才可以構成一個絕對意義上的“此在”。經由這種連接的深刻與連續性,人成為了一個特殊的存在。
遺忘不僅構成了一種關于人的客觀事態,也并非是一種限制性功能,它自身還具有倫理價值。數字生命即使其智能程度極高,且持續不斷地進行數據與能量的錄入與輸出,然而這種與周圍世界的象征連接卻始終是“片段的”,其表面的完整也是以內在的殘破為基礎的,究其實質不過是“一片一片的連續”。而“遺忘”卻始終構筑著人與世界的持續性關聯。對于人的具有“遺忘性的連續”的最好的詮釋就是睡眠,人即使在進行無夢的睡眠時,也一直在通過遺忘與世界隨時進行“空的連接”。一種從不間斷的“意識的呼吸”為人的主體性存在方式提供了一個堅實的基礎。
“遺忘”在人身上實現的“不間斷性”生成了一個面向“他者”的主體性結構,這個結構隨時等待填充。而不間斷的他者鏈接性便是道德的前提要件。遺忘不僅揭示了人的有限性,它還注定了人的自由現實。不同于機器的“肥胖”與“沉重”性,人能通過遺忘隨時為自己減重。這種有進有出的記憶特性在人的內部打開了一個“他者的空間”——一片幽深而光亮的空地。借由這個空間,人呼喚他者,回應自身,由此具備了倫理性存在的基礎。
在這個“虧欠”的結構中,人不僅通過記憶與萬物進行連接,還通過遺忘與萬物“解除”(進行)鏈接,正是這個“解除而持續的鏈接結構”,讓人可以既不孤立又不過分受束。他可以是世界,也隨時可以是自己。一個既受到束縛同時又始終自由的人才可能具備通向世界的倫理性。而數字生命則是一個堅固的實心體,只能逐步加重其“肥胖性”,過度的實心化和肥胖化讓它們最終喪失了面向他者的通透性,從而也喪失了倫理存在的可能性。對于這些數字生命來說,它們可能知道他者的一切,但是它們自身并不能構成他者,也不會將其他的事物或者人類認作是他者。它們記住了一切,又完全忘掉了一切。而人在記住事物的同時也在遺忘,然而這種遺忘同樣構成了另外一種特殊的“記住”,同時經由記憶和遺忘,人走到了一個絕對的倫理位置。
二、情態、“混亂”與道德直覺
目前,數字生命對于人的第二個挑戰是:數字生命不僅可以具備情感功能,甚至不排除其情感性較之人類更加豐富的假設。這導致了一種極度弱勢的人類局面:我們不僅在智能計算上趕不上數字生命,甚至在情感反應上也遠遠不及,它們具有更加精微的情感反應結構。既如此,數字生命便全方位地超越了人類。
如果再延伸到道德方面,我們又可以推出如下結論:數字生命因為智能與情感的雙重豐富,將可能獲得比人更加細膩的道德直覺,在實踐理性方面,它們將可能會比人表現得更加合乎道德。數字生命因為其高智能鑄造了高情感,因為高情感又具有了高道德等特質。鑒于此,人似乎不再具有任何超越數字生命的自身可能性。
然而在悲觀的同時,我們卻還同時注意到了另一種來自我們自身的作為人的顯著優勢。這種優勢在于:在人的認識與情感“之間”有一片特殊的區域。這片區域永遠需要空置,然而在其內部時刻又在互相關聯。這一段屬人的獨特的“認識—情感”區域,其順序既不是“認識→情感”,也不是“情感→認識”??档?Immanuel Kant)的“判斷力的批判”所強調的這最后一種含混的能力也無法到達這片地區,這是一個阿甘本(Giorgio Agamben)所強調的“聲音”的“位置”。在這個“聲音”的空位,人的認識與情感自由配色。這里不再涉及更少的或更多的情感,也不關乎更多或更少的認識,也不是情感與智性相互派生之地,而是一個絕對偶然的“瞬間位置”。在這個特殊的混亂區域,我們不僅在認識之前就已經認識,且在發生具體情緒之前就已經有了某些“前感情”。人在認識之前就已經有了情感,在感受之前也已經有了某種認識,這種“不可能的混合構造”則是ChatGPT等未來的超智能數字生命所難以具備的。
“大腦”和“心”并非直線對應,這也是為柏格森所肯定的人類特性,他說:“即使我們假定大腦質內每個原子的位置、方向、速度在每一瞬間都是被決定的,我們也不能從而推出:我們的內心生活也受著同樣的必然支配?!?/span>[4]這些世界、大腦、情感與行動的非對稱關系反映著人的獨特價值。在這里,一種有序的混亂性發生了特殊的作用,它便是“先于”認識與情感的獨屬于人的“情態”。
混亂反對設計,甚至反對無意識的設計,后者也是設計的一種。為人的情態所涵容一切混亂的“情緒—認識”,為人的尊嚴與倫理獨特性構筑了堅實的基礎?;靵y無法“自控”,甚至也抵抗“他控”。其自身既粘密,同時又充滿孔洞。一種混亂的情態,它在增加的同時減少,豐富的同時虧缺。這關乎人的特異性價值。情態既不能歸為認識,更不能簡單歸為情感。它是兩者的永恒前件,同時我們又不能簡單地說情態在時間上位于情感與認識“之前”。情態概念反對前后的明確順序。
數字生命的認識與情感則具有明顯的“前后”關系,它誕生在“……之后”,或者自動生成在“……之前”。即使在未來數字生命的智能與情感發展到“混響”的狀態,類似于人類情態,仍然擺脫不了明顯的“先后”順序??v使部分超智能的數字生命有意識打亂順序且自動進入一種迷蒙的情緒狀態,由此生成的“亂”仍然是一種“順序”,它并不能構成一種真正的人類學意義上的“混亂”。
我們在制造并發展數字生命的時候,開始主要考量的是其智力要素,但后期必定要涉及道德指令的輸入,因為一個高智能的生命其行為結構必然涉及道德要素。這里便涉及兩種語言:智能語言和道德語言。如果我們要想實現數字生命的道德化,要么就首先為其輸入智能語言,然后令這些智能語言轉化為道德語言,要么就直接輸入道德語言。而道德語言的輸入又分為兩個方面:一是直接的道德命令,二是通過道德語言轉化為道德指令。即使后期這些數字生命進入了超智能的意識自覺階段,它們也必然要面臨著智能語言、道德語言與道德情感三者的轉化問題。
此外,道德植入還要涉及道德場景,沒有道德場景的道德語言是難以想象的。然而,在人工對機器的道德場景的植入過程中不可避免地會丟掉那些含混的部分,或者說人類根本就無法清晰地輸入含混的場景。含混的僅僅屬于人的情態諸要素無法以明確的語言指令的方式從人類的大腦抵達機器內部。
這些含糊的情態屬于一種特殊的語言,在試圖說出或使用這些語言之前,我們必須首先且只能傾聽這種語言的許諾。正如海德格爾在談及語言時曾說:“語言必須以自己的方式向我們允諾其本身,亦即允諾其本質。語言作為這種允諾而成其本質。我們始終已經傾聽著這種允諾,但我們沒有思這種允諾。倘若我們不是處處傾聽著語言的允諾,那么,我們或許就不能使用任何語言?!?/span>[5]梅洛-龐蒂(Maurice Merleau-Ponty)也向我們解釋過語言意義面對具體操作的優先性。他說:“兒童在任何邏輯構造之前就已經理解了身體和使用物品的人類意義,或者語言的含義價值,因為它自身就已經開始了把它們的意義賦予詞語和身姿的活動?!?/span>[6]
總之,我們“傾聽”語言總是在使用語言之前,單純的語言的完全使用對于人來說是不可能的。然而,在面對ChatGPT等數字生命時,我們僅僅可以機械地輸入那些為自己所意識到的信息與感受,卻徹底遠離了難以表述的語言的情境性。語言是情境和語境的——一個詞或一個對話可能有截然不同的含義,這取決于語境和時間。在一種情況下“可接受的”交談規范和形式可能在另一種情況下被認為是“不可接受的”或“不正常的”[7]。在我們將自身的感受和想象輸入到數字生命內部的時候,“語言—情境”便從一個此情此景的存在式樣錯位成一個句子或者一種教條,尤其是在涉及道德情境的輸入時更是如此。
當然,可能還有人反對說,未來的高級數字生命也可以親自經歷場景,并且通過自身的學習與體悟能力自動地優化自身的道德反應結構,這里根本不必涉及人對機器的機械植入。然而,在其中間的過程中,必然涉及機器與世界,尤其是人與機器的互動性。如果機器直接跳過與人的互動環節而建構自身,其最終的豐富與靈動性至少是值得懷疑的。
超智能生命要想足夠智能與靈動,必定要參與到人的實踐生活之中。而在人與機器的互動過程中,起初卻一般不會投入過多的情感。研究數據[8]245顯示,人們在與聊天機器人交流時發送的消息相對于與人類交流時更少,每條消息書寫的字數更少,詞匯量也更有限。人們與聊天機器人交流的經驗少于與人類交流的經驗,因此對聊天機器人的交流能力缺乏信心和舒適感[8]245。既然起初人只能以極低的情感敏銳度投入到與機器的互動之中,機器也只能把握極其稀薄的人類情感。要想實現最終的超越,它們只能解讀人與人之間的互動情境,或者整體思考人類的語言庫。然而,令人遺憾的是,它們雖“可以無休止地穿過該模型的各個層并圍繞每一層的關鍵字集群移動,但它不能在這些詞之下到達它們所代表的事實”[9]。智能生命最多只能通過信息綜合讀取來想象人的感情,其情感是想象的,而非實踐的、情境的、親身的1。不止如此,其道德直覺也并非是一種“直接的直覺”,而是一種綜合而成的,由想象和認識導致的“間接的感覺”。與其說這是一種感覺和情緒,不如說是一種認識。數字生命的感覺(包括直覺)只能是認識之后的存在物,從而缺乏了直覺的獨立性。
當然,人類的情感直覺與道德直覺在一定程度上也是信息綜合的“結果”,然而綜合卻僅僅是人類直覺的一個中間環節。在這個中間環節“之前”,人類主體就“已經”開始了與世界的交織。在梅洛-龐蒂的身體現象學中,他提到了“交織”的概念,認為“交織不僅僅是我他之間的交換(他收到的信息也傳給我,我收到的信息也傳給他),交織也是我與世界之間的交換,是現象身體和客觀身體之間的交換,是知覺者與被知覺者之間的交換”[10]。而數字生命是達不到人類生存的“交織”深度的。也就是說,對于人,真正的道德情感已經發生在“道德的情感”之前。它發生在“它之中的之前”。而數字生命的道德情感只能發生在道德綜合意識之后,它是一種加法計算的結果,它難以綜合“情感之外的情感”和自身之外的世界,從而難以擺脫其機械性的存在特質。
三、人或機器——誰是當下真正的“數字生命”?
以上的分析絕不是在有意貶低ChatGPT等數字或智能生命,而只是一種對其極限性的初步推測。不僅如此,在預測數字生命越來越“非機器化”的同時,我們人類自身還需要反向審視自己是否正在經歷“機器化”。面對ChatGPT這個可能的將來的“他者”,我們遭遇到了一個更高的標準,同時也是一個判斷人性的最低標準,這個標準可以檢驗我們是否通過了“人”的及格線。
我們難以否認的是,在經歷了全球景觀資本主義的綜合景觀階段之后,我們自身也正在被塑造成為另一種類型的數字生命。在談論數字生命時,我們很可能正在談論自身。由此,我們必須思考如下問題:我們是否已經足夠“人類”?歷史進程發展到今天是否已讓“人”離“人”越來越遠?在裝置無處不在的異化影響作用之下,我們人類主體是否已經將自身徹底“機器化”?
作為可能的將來的“他者”(它不一定發展為真正的“他者”),ChatGPT提醒我們要先觀察自身,仔細體驗人性中深深陷落的機器部分,只有將自己提高到足夠人性的位置,我們才有望成為將來的ChatGPT的可能的“他者”。這一切尤其反應在倫理與道德方面。
首先,我們要檢驗自身與“遺忘”(不同于忘記歷史)的距離,重新定位記憶與遺忘在我們身上的關系。當我們這樣做的時候,我們經常會發現自身之中僵硬的“記憶骨骼”。在景觀資本的擾動下,如今的我們同機器一樣只是保持著“記憶—記憶”。當記憶將遺忘完全脫落之時,一切的記憶不僅是扭曲的,而且是僵化的、有害的。這時的記憶既不是知識,亦不是經驗,甚至都構不成經歷,它對我們提供不了任何養分。
如本文第一部分所陳述的,只有那種“遺忘—記憶”才能重新賦予人以靈活性,遺忘讓我們不斷打開自身,從另一個“不可能的”奇特的“位置”觀察自身。只有“我”忘了“我”自己,“我”才能重新是“我自己”。只有這種遺忘,才能重新在自我之中清理出一個“他者”的位置,以便讓真正的倫理性重新灌注到人的存在深處。未來道德的第一個可能位置只能發生在“遺忘”的領地中。不走過“遺忘”的泥濘(機遇),不僅ChatGPT的發展難以到達可能的高度,我們人類自身也觸及不到真正的“屬人性”。如果我們只能“記住”,且只能記住資本與裝置權力讓我們記住的一切,那么我們自身便會因為遺失了“遺忘的技能”而將徹底工具化與機器化。因為權力的言說方式是——“你記住”,或者是“你記住這些”,只有我們重新拾回遺忘的人類功能,我們才有望重新回到自由的原初領域。
其次,通過思考ChatGPT的情態與認知的反應關系,來檢驗我們人類主體當下的情緒運行模式。在生命政治與資本景觀的雙重塑造下,我們僅剩下了幾種有限而僵硬的情感反應樣式,并與有限的幾種認知方式進行簡易的信息連線,這便是世界后生命政治治理下的人的精神現狀。當下的生命情感離開了“混亂”的區域,功績社會令主體在各個層面壓抑和收束情感認知區域,并且令認知、情感與行動三者之間高度順序化,規定了反應的模式與范圍,從而使得本該無限豐富的情態主體最終轉化為僵硬的機器客體。
我們當代人的情感、道德情感與道德義務之間的反應模式同樣出現了機械化的不良狀況。這是一個長鏈條的異化結果。三者配比不協調的情況在我們當下人群中同樣普遍存在。我們已然缺乏了情境化地親身體驗世界的意愿與能力,而僅能去反應規定好的反應部分,永遠不再能夠體驗我之外的我和世界之外的世界。正在經歷機器化和數字化的我們已然成為了肉體機器,完全喪失了個體直覺。我們原本應該具有的道德直覺被資本的道德律令所替代,人只能機械背誦對與錯、善與惡。在資本景觀的作用下,我們的生活世界變得異常堅硬,且只單純劃定了部分區域,而我們只在這有限的部分區域中以模仿的方式機械生活,其最好的狀態不過是形同機器。在我們的身體外圍有一層堅硬的皮膚,它割斷了與外在世界的體驗性交織,將所有溢出的部分徹底截除。
當情感和認知變得絕對僵硬之時,人就退化為了機器,機器的特質就是僵硬。僵硬代表有限、代表退化、代表自身對自身的擁塞。當我們想象將來的機器極度靈活并且正在“人化”時,我們還需要意識到,只有我們自身重新恢復情態的虛靈和“混亂”時,我們才有望擺脫最終的機械化。
虛靈的記憶(遺忘)與“情態的X”才能開啟真正的道德局面。一種語言的“聲音”——記憶的若隱若現,才能讓我們距離自身的機器化宿命越來越遙遠。我們需要強調的是,這里虛靈化的道德并不排斥一些道德原則,一些貌似“僵硬”的道德原則在注入實踐的生命之后會變得無比靈活且實用。在知曉順序秩序正在束縛我們思維的同時,我們要為混亂和順序一同留下空間,如此才能擺脫順序倫理的僵硬控制,并為主體生命展開一片“混亂”的秩序世界。
總之,記憶與遺忘、情態與情感、順序與混亂,只有它們彼此形成對立存在的“他者”空間,一種新的柔和型與真正的自由領域才能對人重新開放。思考不可能的事物,記住已經遺忘的一切,同時能夠體悟體驗不到的感覺,主體一旦擁有這些特質,我們才可以不再將其命名為“機器”。
四、余論
綜上所述,在我們主動思考數字生命的未來前途之時,這些“機器”逼迫我們必須重新思考人類主體自身的現實狀況。我們不是要在發出感嘆的同時反復憂慮數字生命的高度智能化帶給我們的威脅,而是需要重新思考我們自身在經歷了漫長的數字化之后將要帶給自身的威脅。嚴格說來,真正地對“位格”威脅的永遠不來自另外的物種,而只能來自于自身的孱弱或衰退。為了避免機器化,在審慎思考機器使用的風險與收益時2,我們需要首先審慎地思考自身使用的風險與收益。
我們只需要預留一個“空的空間”,在其中,一種哲學的精神至關重要,它反對“語言的自信”,召喚“自卑的聲音”,不斷提示自己的不足。我們在自身實踐的過程中,行走的每一步都需要“再思考”一遍:我們是否正在走向更加靈活的生命道路之上。在令機器更加人性的同時,要努力使真正的人更加人性化,并且同時避免另一種“太人性”的可能傾向。這不僅是面對機器的設計道德,同時也是面對人類自身的發展道德。一個遺忘的記憶者以及一個情緒的溢出者,才可能是未來真正意義的道德主體。
【參考文獻】
[1] HOMOLAK J.Opportunities and Risks of ChatGPT in Medicine,Science,and Academic Publishing:a Modern Promethean Dilemma[J].Croat Med J,2023,64.
[2] 柏格森.物質與記憶[M].姚晶晶,譯.北京:北京時代華文書局,2018.
[3] 海德格爾.林中路[M].孫周興,譯.北京:商務印書館,2018:209.
[4] 柏格森.時間與自由意志[M].吳士棟,譯.北京:商務印書館,2014:109.
[5] 海德格爾.在通向語言的途中[M].孫周興,譯.北京:商務印書館,2016:171.
[6] 莫里斯·梅洛-龐蒂.行為的結構[M].楊大春,張堯均,譯.北京:商務印書館,2014:254.
[7] RUANE E,BIRHANE A,VENTRESQUE A.Conversational AI:social and Ethical Considerations[R/OL].(2019-12-05)[2023-04-23].
https://ceur-ws.org/Vol-2563/aics_12.pdf.
[8] Hill J,FORD W R,FARRERAS I.G.Real Conversations with Artificial Intelligence:a Comparison between Human—Human Online Conversations and Human—Chatbot Conversations[J].Computers in Human Behavior,2015,49(8).
[9] GROBE C.Why I’m not Scared of ChatGPT:the Limits of the Technology are Where Real Writing Begins[J].The Chronicle of Higher Education,2013(1).
[10] 莫里斯·梅洛-龐蒂.可見的與不可見的[M].羅國詳,譯.北京:商務印書館,2016:272.
【注釋】
1一些關于聊天機器人的現有研究側重于發展或提高它們對人類語言進行有意義的解釋和回應的能力,尚未進入到與人類主體真正深層的互動階段[8]。
2相關專家在討論智能生命時曾反復指出:為了讓AI充分發揮其在醫學和科學領域的潛力,我們不應該倉促實施它,而應該提倡謹慎地引入它并就風險和收益進行公開辯論[1]1-3。
原載:《貴州大學學報》 2023年第4期
地址:北京市東城區建國門內大街5號郵編:100732
電話:(010)85195506
傳真:(010)65137826
E-mail:philosophy@cass.org.cn
提要:思考ChatGPT的“人化”程度首先觸及的是人類的“遺忘”特質,即數字生命的純粹記憶特質,它使得其信息只能被刪除且難以被自動遺忘,這構成了它們的首要局限性。此外,在情感“之外”及情感“之前”的感受能力構成了數字生命難以徹底人化的第二個基礎要素。然而,在思考ChatGPT的基本局限性的同時,以數字生命作為真正的他者,我們同時可以反觀自身的當下局限性。在全球景觀資本的長期以及全域性的作用下,人不僅喪失了“遺忘”的能力,同時只剩下了僵硬的認知與情感連線,這不僅造成了人的機器化,同時令人喪失了基本的道德直覺的產生條件。
在關于人與ChatGPT為代表的未來數字生命的關系問題上,一種自動的對立模式占據著主導地位。人們在著手發展數字生命的同時,也在隨時恐懼著數字生命的未來侵襲。在其中,很少有人拿ChatGPT作為真正的人類他者,或者將人類當作ChatGPT的他者進行相互對待。事實上,人不僅可以檢驗數字生命的具體價值,作為人類他者的數字生命反過來同樣也可以檢驗人類主體是否符合人性的基本規定。ChatGPT所缺少的品質,往往也正是經過景觀資本異化后的當下之人所缺少的品質。在思考數字智能機器諸種不足方面的同時,我們還需要同時思考另外一個問題:我們人類自己是否正在成為數字機器。當下的ChatGPT與理想的ChatGPT之間隔著一段漫長的距離,它們也與人類隔著一段距離。與此同時,“我們”與位格意義上的“我們”更是隔著一段距離,且這種距離越拉越遠。
在關乎道德哲學方面,當下的研究側重于思考機器對人的倫理威脅。比如,一些實驗研究注意到:ChatGPT所采取的認知訓練模型不僅容易受到可用性、選擇和確認偏差的影響,而且還在無意中放大了這些影響。它持續輸出偏見并延續了性別歧視等刻板印象[1]1-3。此外,目前的研究還將由數字智能引發的倫理主體追責問題作為這一話題討論的核心,例如:當AI醫生犯了一個不可避免的錯誤時,誰應該受到指責還有待確定[1]1-3。然而,這些都沒有觸及倫理的根本維度。真正的倫理首先應考慮到的是主體與他者的建構問題,主要考察假設的倫理主體是否具備可能的倫理基礎,他是否向世界敞開了自身。一個封閉的存在物是不可能具有倫理性的。只有我們首先思考倫理主體及其自由空間問題的時候,才有希望觸及真正的倫理問題域。這便首先牽涉對于倫理主體的記憶與情態性的定位考察。
一、“遺忘—記憶”與“記憶—記憶”:關于“遺忘”的倫理奠基性
柏格森(Henri Bergson)認為:“一個生物的記憶,似乎就是衡量這個生物對事物做出行動能力的大小的尺度?!?/span>[2]263事實上,記憶不單純是一種簡單生物能力,它本身還是一種倫理能力。在其中,作為其否定性的遺忘為記憶的倫理潛能提供了可能且必要的基礎。通過隨時性的騰退,遺忘為記憶打開了必要的縫隙,這些縫隙不僅為記憶的持續進行提供了條件,還在記憶的深處打開了一片“空地”,正是在記憶深處的這個“空的空間”中,一個好客的主體性才可以隨時靜候他者的臨顯,從而令人的存在具有了基礎的倫理性。
人與以ChatGPT為代表的數字生命的一個最大區別就是人可以“緩慢而無規律地遺忘事物”,而數字生命的遺忘則只能是“突然的”“掉落的”“刪除的”。人能“緩慢”遺忘,且在記憶的同時摻拌遺忘,這與其說是反映了人的局限性,不如說這恰是人之為人的尊嚴與特質所在。上帝和動物要么不能遺忘,要么只能快速遺忘。在該方面,大多數人工智能也只能永遠記住或者快速遺忘,卻不能在記住的同時遺忘,或者在遺忘的同時記住什么。即使到了未來的超智能階段,人工智能的記憶能力絕對超過人類,然而其“遺忘能力”還是令人懷疑,因為數字或人工智能的本質是“記憶性”的。我們只能想象一種“刪除”和“脫落”,而無法在數字生命身上想象一種“遺忘”。
如果說數字生命刻入信息的方式是“事態—記憶”,人類則是始終在進行“遺忘—記憶”。人的大腦在記憶前、記憶中和記住之后一直伴隨著遺忘,遺忘是人的記憶的永恒“它者”。從一個事物在我們的頭腦中刻下印象的最初瞬間,我們就已經與它拉開距離,直到記得越深,我們與對象的距離實際上已經遙遠無比。因此,《追憶似水年華》的作者只能通過另一種“不可能的方式”來“回憶”那些“過去的芬芳”,普魯斯特(Marcel Proust)遵循的模式是“回憶—遺忘—記憶:遺忘”,這種特殊的“不可能的”記憶結構并非構成了回憶的特例,它更是一種記憶的日常范例。
不論是有意識的記憶還是無意識的記憶,人的所有記憶都是遺忘。所有的人類記憶都指向“過去”。正如柏格森所言:我們知覺的只有過去,而純粹的當下則是一種看不見的發展,是過去向未來的侵襲[2]164。而嚴格的數字記憶則是“現在的”,它既不指向過去,也不指向未來。數字智能的記憶是僵硬的、刻錄的、“非失憶”的,確切說來這是一種“記憶—記憶”。那些“不夠”或者“已經失去”的部分除非經過“補錄”,否則智能系統便會面臨完善性的殘缺。且不談“補錄”的操作主體是人類還是智能生命自身,“補錄”本身就不具有倫理上的延伸性?!把a錄”之前只顯示著殘缺,它不僅構不成一種空間,反而處處顯示出一種擁擠的固體特性。數字生命的擁擠性使得其內部不再具有流轉生命能量的可能空間,從而令其在成為主體之前已經將自己扼死,由此更不可能為他者的隨時進入提供足夠開闊的可能之地。
在智能生命中,其完善性,尤其是記憶的充盈性與完善性永遠是其高級化的首要條件。完善性必然要求持續的內容“補入”。即使是刻意追求“遺忘—記憶”,其必然也是以再次的記憶補入為條件的。如此,數字生命必然是一個鮑德里亞(Jean Baudrillard)筆下的“肥胖者”的形象,它比“大”更“大”。而人的記憶則并非是有意識補入的(除了部分知識技能的有意識增加)。除了特殊的生理發病,否則大多數的人都能克服掉“突然遺忘”,其遺忘是緩慢的,但遺忘始終發生在生命的深處。遺忘“與”遺忘“之間”,記憶“與”遺忘“之間”的地帶,才是人性的根本價值與尊嚴所在。
不僅如此,人在記憶“之前”就“已經”開始記憶,在遺忘“之前”也“已經”開始了遺忘。我們在忘了的時候已經記住了什么,因為我們在記住之前已經記得了什么。海德格爾(Martin Heidegger)曾如此解析人的意識:意識已經是某種東西,同時又還不是某種東西。意識意義上的存在意味著:居留于“已經”的“尚未”中,而且這種“已經”就在“尚未”中在場。在場自身就是一種入于“已經”的自我指引[3]。反之,人的遺忘也處于“已經”和“尚未”之中,遺忘的這種特質將人徹底固定在了“世界”之中。在這種“遺忘—記憶”的基礎作用之下,人成了一個隨時的發射裝置,他隨時連接他(它)者與世界,世界也隨時對人發射著連接的能量。人由此才可以構成一個絕對意義上的“此在”。經由這種連接的深刻與連續性,人成為了一個特殊的存在。
遺忘不僅構成了一種關于人的客觀事態,也并非是一種限制性功能,它自身還具有倫理價值。數字生命即使其智能程度極高,且持續不斷地進行數據與能量的錄入與輸出,然而這種與周圍世界的象征連接卻始終是“片段的”,其表面的完整也是以內在的殘破為基礎的,究其實質不過是“一片一片的連續”。而“遺忘”卻始終構筑著人與世界的持續性關聯。對于人的具有“遺忘性的連續”的最好的詮釋就是睡眠,人即使在進行無夢的睡眠時,也一直在通過遺忘與世界隨時進行“空的連接”。一種從不間斷的“意識的呼吸”為人的主體性存在方式提供了一個堅實的基礎。
“遺忘”在人身上實現的“不間斷性”生成了一個面向“他者”的主體性結構,這個結構隨時等待填充。而不間斷的他者鏈接性便是道德的前提要件。遺忘不僅揭示了人的有限性,它還注定了人的自由現實。不同于機器的“肥胖”與“沉重”性,人能通過遺忘隨時為自己減重。這種有進有出的記憶特性在人的內部打開了一個“他者的空間”——一片幽深而光亮的空地。借由這個空間,人呼喚他者,回應自身,由此具備了倫理性存在的基礎。
在這個“虧欠”的結構中,人不僅通過記憶與萬物進行連接,還通過遺忘與萬物“解除”(進行)鏈接,正是這個“解除而持續的鏈接結構”,讓人可以既不孤立又不過分受束。他可以是世界,也隨時可以是自己。一個既受到束縛同時又始終自由的人才可能具備通向世界的倫理性。而數字生命則是一個堅固的實心體,只能逐步加重其“肥胖性”,過度的實心化和肥胖化讓它們最終喪失了面向他者的通透性,從而也喪失了倫理存在的可能性。對于這些數字生命來說,它們可能知道他者的一切,但是它們自身并不能構成他者,也不會將其他的事物或者人類認作是他者。它們記住了一切,又完全忘掉了一切。而人在記住事物的同時也在遺忘,然而這種遺忘同樣構成了另外一種特殊的“記住”,同時經由記憶和遺忘,人走到了一個絕對的倫理位置。
二、情態、“混亂”與道德直覺
目前,數字生命對于人的第二個挑戰是:數字生命不僅可以具備情感功能,甚至不排除其情感性較之人類更加豐富的假設。這導致了一種極度弱勢的人類局面:我們不僅在智能計算上趕不上數字生命,甚至在情感反應上也遠遠不及,它們具有更加精微的情感反應結構。既如此,數字生命便全方位地超越了人類。
如果再延伸到道德方面,我們又可以推出如下結論:數字生命因為智能與情感的雙重豐富,將可能獲得比人更加細膩的道德直覺,在實踐理性方面,它們將可能會比人表現得更加合乎道德。數字生命因為其高智能鑄造了高情感,因為高情感又具有了高道德等特質。鑒于此,人似乎不再具有任何超越數字生命的自身可能性。
然而在悲觀的同時,我們卻還同時注意到了另一種來自我們自身的作為人的顯著優勢。這種優勢在于:在人的認識與情感“之間”有一片特殊的區域。這片區域永遠需要空置,然而在其內部時刻又在互相關聯。這一段屬人的獨特的“認識—情感”區域,其順序既不是“認識→情感”,也不是“情感→認識”??档?Immanuel Kant)的“判斷力的批判”所強調的這最后一種含混的能力也無法到達這片地區,這是一個阿甘本(Giorgio Agamben)所強調的“聲音”的“位置”。在這個“聲音”的空位,人的認識與情感自由配色。這里不再涉及更少的或更多的情感,也不關乎更多或更少的認識,也不是情感與智性相互派生之地,而是一個絕對偶然的“瞬間位置”。在這個特殊的混亂區域,我們不僅在認識之前就已經認識,且在發生具體情緒之前就已經有了某些“前感情”。人在認識之前就已經有了情感,在感受之前也已經有了某種認識,這種“不可能的混合構造”則是ChatGPT等未來的超智能數字生命所難以具備的。
“大腦”和“心”并非直線對應,這也是為柏格森所肯定的人類特性,他說:“即使我們假定大腦質內每個原子的位置、方向、速度在每一瞬間都是被決定的,我們也不能從而推出:我們的內心生活也受著同樣的必然支配?!?/span>[4]這些世界、大腦、情感與行動的非對稱關系反映著人的獨特價值。在這里,一種有序的混亂性發生了特殊的作用,它便是“先于”認識與情感的獨屬于人的“情態”。
混亂反對設計,甚至反對無意識的設計,后者也是設計的一種。為人的情態所涵容一切混亂的“情緒—認識”,為人的尊嚴與倫理獨特性構筑了堅實的基礎?;靵y無法“自控”,甚至也抵抗“他控”。其自身既粘密,同時又充滿孔洞。一種混亂的情態,它在增加的同時減少,豐富的同時虧缺。這關乎人的特異性價值。情態既不能歸為認識,更不能簡單歸為情感。它是兩者的永恒前件,同時我們又不能簡單地說情態在時間上位于情感與認識“之前”。情態概念反對前后的明確順序。
數字生命的認識與情感則具有明顯的“前后”關系,它誕生在“……之后”,或者自動生成在“……之前”。即使在未來數字生命的智能與情感發展到“混響”的狀態,類似于人類情態,仍然擺脫不了明顯的“先后”順序??v使部分超智能的數字生命有意識打亂順序且自動進入一種迷蒙的情緒狀態,由此生成的“亂”仍然是一種“順序”,它并不能構成一種真正的人類學意義上的“混亂”。
我們在制造并發展數字生命的時候,開始主要考量的是其智力要素,但后期必定要涉及道德指令的輸入,因為一個高智能的生命其行為結構必然涉及道德要素。這里便涉及兩種語言:智能語言和道德語言。如果我們要想實現數字生命的道德化,要么就首先為其輸入智能語言,然后令這些智能語言轉化為道德語言,要么就直接輸入道德語言。而道德語言的輸入又分為兩個方面:一是直接的道德命令,二是通過道德語言轉化為道德指令。即使后期這些數字生命進入了超智能的意識自覺階段,它們也必然要面臨著智能語言、道德語言與道德情感三者的轉化問題。
此外,道德植入還要涉及道德場景,沒有道德場景的道德語言是難以想象的。然而,在人工對機器的道德場景的植入過程中不可避免地會丟掉那些含混的部分,或者說人類根本就無法清晰地輸入含混的場景。含混的僅僅屬于人的情態諸要素無法以明確的語言指令的方式從人類的大腦抵達機器內部。
這些含糊的情態屬于一種特殊的語言,在試圖說出或使用這些語言之前,我們必須首先且只能傾聽這種語言的許諾。正如海德格爾在談及語言時曾說:“語言必須以自己的方式向我們允諾其本身,亦即允諾其本質。語言作為這種允諾而成其本質。我們始終已經傾聽著這種允諾,但我們沒有思這種允諾。倘若我們不是處處傾聽著語言的允諾,那么,我們或許就不能使用任何語言?!?/span>[5]梅洛-龐蒂(Maurice Merleau-Ponty)也向我們解釋過語言意義面對具體操作的優先性。他說:“兒童在任何邏輯構造之前就已經理解了身體和使用物品的人類意義,或者語言的含義價值,因為它自身就已經開始了把它們的意義賦予詞語和身姿的活動?!?/span>[6]
總之,我們“傾聽”語言總是在使用語言之前,單純的語言的完全使用對于人來說是不可能的。然而,在面對ChatGPT等數字生命時,我們僅僅可以機械地輸入那些為自己所意識到的信息與感受,卻徹底遠離了難以表述的語言的情境性。語言是情境和語境的——一個詞或一個對話可能有截然不同的含義,這取決于語境和時間。在一種情況下“可接受的”交談規范和形式可能在另一種情況下被認為是“不可接受的”或“不正常的”[7]。在我們將自身的感受和想象輸入到數字生命內部的時候,“語言—情境”便從一個此情此景的存在式樣錯位成一個句子或者一種教條,尤其是在涉及道德情境的輸入時更是如此。
當然,可能還有人反對說,未來的高級數字生命也可以親自經歷場景,并且通過自身的學習與體悟能力自動地優化自身的道德反應結構,這里根本不必涉及人對機器的機械植入。然而,在其中間的過程中,必然涉及機器與世界,尤其是人與機器的互動性。如果機器直接跳過與人的互動環節而建構自身,其最終的豐富與靈動性至少是值得懷疑的。
超智能生命要想足夠智能與靈動,必定要參與到人的實踐生活之中。而在人與機器的互動過程中,起初卻一般不會投入過多的情感。研究數據[8]245顯示,人們在與聊天機器人交流時發送的消息相對于與人類交流時更少,每條消息書寫的字數更少,詞匯量也更有限。人們與聊天機器人交流的經驗少于與人類交流的經驗,因此對聊天機器人的交流能力缺乏信心和舒適感[8]245。既然起初人只能以極低的情感敏銳度投入到與機器的互動之中,機器也只能把握極其稀薄的人類情感。要想實現最終的超越,它們只能解讀人與人之間的互動情境,或者整體思考人類的語言庫。然而,令人遺憾的是,它們雖“可以無休止地穿過該模型的各個層并圍繞每一層的關鍵字集群移動,但它不能在這些詞之下到達它們所代表的事實”[9]。智能生命最多只能通過信息綜合讀取來想象人的感情,其情感是想象的,而非實踐的、情境的、親身的1。不止如此,其道德直覺也并非是一種“直接的直覺”,而是一種綜合而成的,由想象和認識導致的“間接的感覺”。與其說這是一種感覺和情緒,不如說是一種認識。數字生命的感覺(包括直覺)只能是認識之后的存在物,從而缺乏了直覺的獨立性。
當然,人類的情感直覺與道德直覺在一定程度上也是信息綜合的“結果”,然而綜合卻僅僅是人類直覺的一個中間環節。在這個中間環節“之前”,人類主體就“已經”開始了與世界的交織。在梅洛-龐蒂的身體現象學中,他提到了“交織”的概念,認為“交織不僅僅是我他之間的交換(他收到的信息也傳給我,我收到的信息也傳給他),交織也是我與世界之間的交換,是現象身體和客觀身體之間的交換,是知覺者與被知覺者之間的交換”[10]。而數字生命是達不到人類生存的“交織”深度的。也就是說,對于人,真正的道德情感已經發生在“道德的情感”之前。它發生在“它之中的之前”。而數字生命的道德情感只能發生在道德綜合意識之后,它是一種加法計算的結果,它難以綜合“情感之外的情感”和自身之外的世界,從而難以擺脫其機械性的存在特質。
三、人或機器——誰是當下真正的“數字生命”?
以上的分析絕不是在有意貶低ChatGPT等數字或智能生命,而只是一種對其極限性的初步推測。不僅如此,在預測數字生命越來越“非機器化”的同時,我們人類自身還需要反向審視自己是否正在經歷“機器化”。面對ChatGPT這個可能的將來的“他者”,我們遭遇到了一個更高的標準,同時也是一個判斷人性的最低標準,這個標準可以檢驗我們是否通過了“人”的及格線。
我們難以否認的是,在經歷了全球景觀資本主義的綜合景觀階段之后,我們自身也正在被塑造成為另一種類型的數字生命。在談論數字生命時,我們很可能正在談論自身。由此,我們必須思考如下問題:我們是否已經足夠“人類”?歷史進程發展到今天是否已讓“人”離“人”越來越遠?在裝置無處不在的異化影響作用之下,我們人類主體是否已經將自身徹底“機器化”?
作為可能的將來的“他者”(它不一定發展為真正的“他者”),ChatGPT提醒我們要先觀察自身,仔細體驗人性中深深陷落的機器部分,只有將自己提高到足夠人性的位置,我們才有望成為將來的ChatGPT的可能的“他者”。這一切尤其反應在倫理與道德方面。
首先,我們要檢驗自身與“遺忘”(不同于忘記歷史)的距離,重新定位記憶與遺忘在我們身上的關系。當我們這樣做的時候,我們經常會發現自身之中僵硬的“記憶骨骼”。在景觀資本的擾動下,如今的我們同機器一樣只是保持著“記憶—記憶”。當記憶將遺忘完全脫落之時,一切的記憶不僅是扭曲的,而且是僵化的、有害的。這時的記憶既不是知識,亦不是經驗,甚至都構不成經歷,它對我們提供不了任何養分。
如本文第一部分所陳述的,只有那種“遺忘—記憶”才能重新賦予人以靈活性,遺忘讓我們不斷打開自身,從另一個“不可能的”奇特的“位置”觀察自身。只有“我”忘了“我”自己,“我”才能重新是“我自己”。只有這種遺忘,才能重新在自我之中清理出一個“他者”的位置,以便讓真正的倫理性重新灌注到人的存在深處。未來道德的第一個可能位置只能發生在“遺忘”的領地中。不走過“遺忘”的泥濘(機遇),不僅ChatGPT的發展難以到達可能的高度,我們人類自身也觸及不到真正的“屬人性”。如果我們只能“記住”,且只能記住資本與裝置權力讓我們記住的一切,那么我們自身便會因為遺失了“遺忘的技能”而將徹底工具化與機器化。因為權力的言說方式是——“你記住”,或者是“你記住這些”,只有我們重新拾回遺忘的人類功能,我們才有望重新回到自由的原初領域。
其次,通過思考ChatGPT的情態與認知的反應關系,來檢驗我們人類主體當下的情緒運行模式。在生命政治與資本景觀的雙重塑造下,我們僅剩下了幾種有限而僵硬的情感反應樣式,并與有限的幾種認知方式進行簡易的信息連線,這便是世界后生命政治治理下的人的精神現狀。當下的生命情感離開了“混亂”的區域,功績社會令主體在各個層面壓抑和收束情感認知區域,并且令認知、情感與行動三者之間高度順序化,規定了反應的模式與范圍,從而使得本該無限豐富的情態主體最終轉化為僵硬的機器客體。
我們當代人的情感、道德情感與道德義務之間的反應模式同樣出現了機械化的不良狀況。這是一個長鏈條的異化結果。三者配比不協調的情況在我們當下人群中同樣普遍存在。我們已然缺乏了情境化地親身體驗世界的意愿與能力,而僅能去反應規定好的反應部分,永遠不再能夠體驗我之外的我和世界之外的世界。正在經歷機器化和數字化的我們已然成為了肉體機器,完全喪失了個體直覺。我們原本應該具有的道德直覺被資本的道德律令所替代,人只能機械背誦對與錯、善與惡。在資本景觀的作用下,我們的生活世界變得異常堅硬,且只單純劃定了部分區域,而我們只在這有限的部分區域中以模仿的方式機械生活,其最好的狀態不過是形同機器。在我們的身體外圍有一層堅硬的皮膚,它割斷了與外在世界的體驗性交織,將所有溢出的部分徹底截除。
當情感和認知變得絕對僵硬之時,人就退化為了機器,機器的特質就是僵硬。僵硬代表有限、代表退化、代表自身對自身的擁塞。當我們想象將來的機器極度靈活并且正在“人化”時,我們還需要意識到,只有我們自身重新恢復情態的虛靈和“混亂”時,我們才有望擺脫最終的機械化。
虛靈的記憶(遺忘)與“情態的X”才能開啟真正的道德局面。一種語言的“聲音”——記憶的若隱若現,才能讓我們距離自身的機器化宿命越來越遙遠。我們需要強調的是,這里虛靈化的道德并不排斥一些道德原則,一些貌似“僵硬”的道德原則在注入實踐的生命之后會變得無比靈活且實用。在知曉順序秩序正在束縛我們思維的同時,我們要為混亂和順序一同留下空間,如此才能擺脫順序倫理的僵硬控制,并為主體生命展開一片“混亂”的秩序世界。
總之,記憶與遺忘、情態與情感、順序與混亂,只有它們彼此形成對立存在的“他者”空間,一種新的柔和型與真正的自由領域才能對人重新開放。思考不可能的事物,記住已經遺忘的一切,同時能夠體悟體驗不到的感覺,主體一旦擁有這些特質,我們才可以不再將其命名為“機器”。
四、余論
綜上所述,在我們主動思考數字生命的未來前途之時,這些“機器”逼迫我們必須重新思考人類主體自身的現實狀況。我們不是要在發出感嘆的同時反復憂慮數字生命的高度智能化帶給我們的威脅,而是需要重新思考我們自身在經歷了漫長的數字化之后將要帶給自身的威脅。嚴格說來,真正地對“位格”威脅的永遠不來自另外的物種,而只能來自于自身的孱弱或衰退。為了避免機器化,在審慎思考機器使用的風險與收益時2,我們需要首先審慎地思考自身使用的風險與收益。
我們只需要預留一個“空的空間”,在其中,一種哲學的精神至關重要,它反對“語言的自信”,召喚“自卑的聲音”,不斷提示自己的不足。我們在自身實踐的過程中,行走的每一步都需要“再思考”一遍:我們是否正在走向更加靈活的生命道路之上。在令機器更加人性的同時,要努力使真正的人更加人性化,并且同時避免另一種“太人性”的可能傾向。這不僅是面對機器的設計道德,同時也是面對人類自身的發展道德。一個遺忘的記憶者以及一個情緒的溢出者,才可能是未來真正意義的道德主體。
【參考文獻】
[1] HOMOLAK J.Opportunities and Risks of ChatGPT in Medicine,Science,and Academic Publishing:a Modern Promethean Dilemma[J].Croat Med J,2023,64.
[2] 柏格森.物質與記憶[M].姚晶晶,譯.北京:北京時代華文書局,2018.
[3] 海德格爾.林中路[M].孫周興,譯.北京:商務印書館,2018:209.
[4] 柏格森.時間與自由意志[M].吳士棟,譯.北京:商務印書館,2014:109.
[5] 海德格爾.在通向語言的途中[M].孫周興,譯.北京:商務印書館,2016:171.
[6] 莫里斯·梅洛-龐蒂.行為的結構[M].楊大春,張堯均,譯.北京:商務印書館,2014:254.
[7] RUANE E,BIRHANE A,VENTRESQUE A.Conversational AI:social and Ethical Considerations[R/OL].(2019-12-05)[2023-04-23].
https://ceur-ws.org/Vol-2563/aics_12.pdf.
[8] Hill J,FORD W R,FARRERAS I.G.Real Conversations with Artificial Intelligence:a Comparison between Human—Human Online Conversations and Human—Chatbot Conversations[J].Computers in Human Behavior,2015,49(8).
[9] GROBE C.Why I’m not Scared of ChatGPT:the Limits of the Technology are Where Real Writing Begins[J].The Chronicle of Higher Education,2013(1).
[10] 莫里斯·梅洛-龐蒂.可見的與不可見的[M].羅國詳,譯.北京:商務印書館,2016:272.
【注釋】
1一些關于聊天機器人的現有研究側重于發展或提高它們對人類語言進行有意義的解釋和回應的能力,尚未進入到與人類主體真正深層的互動階段[8]。
2相關專家在討論智能生命時曾反復指出:為了讓AI充分發揮其在醫學和科學領域的潛力,我們不應該倉促實施它,而應該提倡謹慎地引入它并就風險和收益進行公開辯論[1]1-3。
原載:《貴州大學學報》 2023年第4期
中國社會科學院哲學研究所-版權所有