中國社會科學院哲學研究所是我國哲學學科的重要學術機構和研究中心。其前身是中國科學院哲學社會科學部哲學研究所。歷任所長為潘梓年、許立群、邢賁思、汝信(兼)、陳筠泉、李景源、謝地坤。中華人民共和國成立前,全國沒有專門的哲學研究機構。為了適應社會主義改造和建設事業發展的需要... ... <詳情>
哲學專業書庫的前身是哲學研究所圖書館,與哲學研究所同時成立于1955年。1994年底,院所圖書館合并之后將其劃為哲學所自管庫,從此只保留圖書借閱流通業務,不再購進新書。
2009年1月16日,作為中國社會科學院圖書館體制機制改革的重要舉措之一,哲學專業書庫正式掛牌。
<詳情>提要:功利主義、直覺主義以及道義論是當前用于指導人工智能系統道德抉擇的主要理論資源。然而,以上理論的應用均遭遇了困境。在道德哲學的歷史上,正是類似的困境曾導致規范倫理學的衰落。當代規范性研究中的康德式理論對相關理論困難均給出充分回應,有力推動了規范倫理學的復興,也有望為人工智能系統的倫理設計提供更為恰當的理論基礎??档率嚼碚摼哂泄餐暮诵挠^點和思想方法,保證了由這類理論所構建的倫理原則可以具有一致性和實踐可操作性。格沃斯和斯坎倫是當代康德式理論的重要代表人物。本文通過比較和分析兩者對道德義務的論證,嘗試確立三個基本的倫理原則,即不侵犯原則、平等原則和援助原則。三個原則對任何道德主體間最基本的道德義務給出了清晰闡釋,也能夠對人工智能系統的倫理設計給出明確指導。
在機器人醫生、機器人護士、無人駕駛汽車以及自主選擇目標的武器等各種人工智能系統的應用過程中,系統都將不可避免地需要自主作出道德抉擇,其抉擇也往往會產生具有重大道德意義的后果。我們需要為人工智能系統確立恰當的倫理規范,并尋找執行這一規范的算法設計。有關如何確保倫理規范的執行,我們已經有了很多富有成效的方案。例如,“負責任創新”通過“四維框架”將倫理因素納入整體考量,“價值敏感設計”提倡在技術的構思設計階段就植入人的價值和道德關切。這些方法在很大程度上保證了所植入的倫理規范得到充分運用。但與之不相匹配的是,應當將何種倫理規范植入人工智能系統的問題則尚未得到很好的回答。
為機器植入的倫理規范應是能夠為不同文化中的人所普遍認可的,并且,該規范應當能夠適用于各種不同的具體情境。然而,一方面,道德哲學中并沒有得到普遍認可的規范性理論;另一方面,對于任一規范性理論的嚴格執行往往都會在特定情境中導致明顯錯誤的道德抉擇。究竟是否可能建立一種具有權威性、客觀性和普遍性的道德規范,為現實中的道德抉擇提供更為充分的依據呢?對這一問題的探尋使人工智能倫理設計同道德規范性研究直接地聯系在一起。人工智能倫理設計面對的困難均涉及“道德原則何以能夠具有規范性”的問題。當代的道德規范性研究為這些問題提供了非常具有前景的解決方案。在機器倫理的語境中闡釋當代道德規范性研究的主要思想方法,既能夠為人工智能的倫理設計提供必要思想資源,也可以揭示當代道德規范性研究的重大現實意義。
一.用于指導人工智能系統的規范性理論及其面對的困難
自2016年以來,對于算法的倫理研究持續大幅度地增加。(see Sandvig, et al.)相關研究已形成了兩種主要的研究進路,即倫理理論“自上而下”地實現,以及“自下而上”地建構一系列可能無法通過理論或術語進行明確表達的標準。(see Wallach, et al.)“自上而下”的方法通過外在的倫理理論引導系統行為,它需要設計者首先明確持有一種倫理學理論,分析這種理論的計算要求,尋找能夠執行這一理論的算法設計。與之不同,“自下而上”的方案是基于實例推進的。設計者首先設計出滿足局部功能的模塊,然后通過對具體測試樣例的試錯和調整來推進設計過程。即便采用“自下而上”的進路,還是需要設計者預設某種倫理理論。該方案需要預先給定一整套在道德上已經由人類作出判斷的案例,構成訓練集和測試集,通過訓練和測試使機器能夠對新的案例作出道德判斷??梢?,無論采用“自上而下”還是“自下而上”的進路,首先無法回避的工作都是確立一種我們能夠認同的倫理規范。目前,在人工智能倫理設計領域受到廣泛采用的倫理學理論是功利主義、直覺主義以及道義論。然而,遺憾的是,這些理論傳統都無法為系統的倫理抉擇提供充分依據。
基于功利主義的算法設計一直以來被廣泛應用于經濟領域的人工智能系統。功利主義對任何行動的評價,都基于該行動是否會增進或減小利益相關者的利益,因而該方法可以對個體、整體以及社會層面的多重利益給出更明確的權衡,也能夠對道德的客觀性作出說明。人工智能倫理領域重要的開創者米歇爾·安德森(M.Anderson)和蘇珊·安德森(S.Anderson)等曾依據行為功利主義建立了簡明算法:通過考量受影響的人數、每個人快樂或不快樂的強度和持續度以及快樂或不快樂在每一個可能行動中出現的可能性,得出最佳行動方案。(see Anderson, et al.)然而,關于“快樂是否可以量化和比較”的問題始終存在爭議。機器倫理研究者沃拉奇(W.Wallach)和艾倫(C.Allen)就曾指出,將不同性質的快樂置于相同尺度中去比較,本身就是不恰當的。(see Wallach & Allen, p.87)特別是在實際操作層面,機器根本無法知曉每一個可能行動的后果,無從預測一個行動可能創造的各種快樂的類型和強度,因而也就不能依據這種預測進行道德抉擇。有關可操作性的問題顯示,功利主義理論只能具有有限的權威性。
此外,功利主義理論面對的最根本質疑在于,多數人的最大利益何以能夠成為“道德上正確”的標準?“谷歌大腦”(Google Brain)的研究人員在參考了大量心理學研究的基礎上提出,“人們實際上更傾向于考慮其行為的本質而不是行為結果利益的最大化”(Anderson & Anderson, p.238)。作為行動依據,“利益最大化”這一標準的合理性很難得到確證。如果人們的道德抉擇僅僅等同于利益計算,那么人的內在價值就無法得到論證。如果人沒有內在價值,人的利益和追求又如何能夠具有重要性呢?功利主義無法回答這樣的問題。規范倫理學的陣地就是在功利主義那里失守的。摩爾在《倫理學原理》中提出,“善”不能通過任何自然性質予以定義,這在20世紀之初引發了對于功利主義的反思,產生了深遠影響。
雖然否定了功利主義理論的權威性,但摩爾并不懷疑存在著基礎性的道德真理和客觀性的道德概念。在他看來,作為一種內在價值的善不能得到分析,卻可以通過直覺獲得,并為道德義務提供根據。直覺主義是可以用于解決規范性問題的。在當代人工智能的倫理設計中,直覺主義也受到了頻繁的援引。安德森等人曾經嘗試基于直覺主義建構人工智能系統的道德原則。他們讓倫理學家就特定行為對于某項義務得到滿足或受到違背的程度給出直覺,依據這些直覺來判定應采取何種行動并以此構建學習集,而在學習了足夠多的特殊案例之后,機器就可以歸納出一般性的倫理原則。(see ibid., p.479)當代直覺主義代表人物羅斯(W.Ross)是他們經常援引的學者。羅斯將直覺作為自明性義務的基礎。所謂“自明”就是無需證明,依據行為者的直覺就能確定。他曾經提出:“有思想和受過良好教育的人的道德信念是倫理學的數據,就像感覺、知覺是自然科學的數據一樣。”(Ross, p.41)
直覺主義的應用同樣面對某些困難,即它不能給機器或人的道德抉擇提供明確依據。(see Anderson & Anderson, 2011, p.17)羅斯列出了七項顯見義務,但沒有對各種顯見義務給出排序或權衡標準。當行為涉及多種顯見義務時,我們應如何抉擇呢?羅斯提出,顯見正當性在最大程度上超過了顯見不正當性的行為就是行動者的實際義務。然而,羅斯沒有提供任何客觀標準用以確定顯見正當與不正當性的程度。胡克(J.Hooker)和金(T.Kim)曾對依賴專家倫理直覺的這一方法提出批評。他們指出,專家直覺也會有分歧,在這種情況下,系統就會無從選擇。(see Hooker & Kim, pp.130-136)
不僅如此,很多人工智能倫理研究者都曾明確提出,專家直覺也常常不自洽,甚至帶有偏見。(see Schwitzgebel & Cushman, pp.148-150)直覺是主觀的,不能得到客觀經驗的證實,這也就導致其規范效力難以得到認可。在常識上,只有同經驗事實發生聯系,才能讓一個規范性判斷得到確證。維也納學派曾提出,有意義的陳述必須是重言式或者被經驗方法證實的,有意義的倫理陳述也必須能夠被證明為真。這類觀點在20世紀30年代的廣泛流行曾直接導致了規范倫理學研究的中斷。
與上述兩種研究路徑不同,胡克和金將來自道義論的“普遍性原則”作為建立道德原則的基礎,嘗試據此得出權威性的倫理法則。“普遍化原則”可以簡單表述為:我行動的理由必須滿足這樣的條件,即每個人都可以憑此理由同樣行事。(see Kim, et al.)當代科技的發展使得“普遍性”具有愈發重大的意義。我們都不愿意接受一個植入了同我們自身文化當中道德原則完全對立的原則的機器人來為我們提供服務,也會堅決反對由一種違背了我們核心倫理信念的算法來控制和影響我們的生活。但現實中,負載著不同道德觀念的技術將不可避免并越發深入地侵入每一個行為抉擇。在這一背景下,共同道德的確立顯然有助于消除技術與人的對立。我們有理由嘗試建立一種具有普遍規范效力的道德哲學理論。
遺憾的是,確立“普遍化原則”非常困難。道德原則似乎總有例外。每一個規范性理論,如果在實踐中得到完全嚴格的執行,都可能在某些情境下導致人或機器作出違背直覺的、非常不道德的甚至是荒謬的行為。(see Grgic-Hlaca, et al.)原因在于,具體情境中的每一個行為都具有多重特征,關于行為是否能夠得到許可的道德原則只涉及行為的非常有限的特征。比如在“不能說謊”的原則中,“說謊”描述的就是行為的單一特征,而現實中,說謊的行為可能同時也是拯救無辜之人生命的行為,而后一特征在道德原則中并不必然得到表述,這也就是為什么道德原則似乎總有例外。面對具體情境,我們要判斷行為的某一特征是否具有壓倒道德原則的道德權重,使行為成為一種例外。作出道德判斷的過程往往就是在權衡相關的道德原則是否應當“破例”,而這種權衡并不是人工智能所擅長的。事實上,人類也常常因為缺少作出這種判斷所依據的方法而無所適從。
當代人工智能倫理設計在理論基礎的探尋過程中遇到的困難向我們揭示,來自功利主義、直覺主義和道義論的道德原則缺乏充分的權威性、客觀性或普遍性。事實上,倫理學理論是否以及如何能夠具有權威性、客觀性和普遍性的問題正是20世紀以來倫理學歷史上受到廣泛關注的重要理論問題,這個問題的論證事關規范倫理學的成敗。(see Hudson, p.1)當代的道德規范性研究力圖重新確立道德所具有的規范性,對于有關規范倫理學基礎的各種質疑均給出了回應。相應地,這些回應為人工智能系統倫理設計所面對的困難提供了比較好的解決方案。
二.當代康德式理論對于道德規范性的論證和闡釋
認為道德具有規范性,意味著道德可以指導我們,約束我們,甚至強迫我們。“道德所具有的強制力量究竟從何而來”是當代道德哲學研究中的核心問題。
20世紀中期,來自科學哲學理論的批判導致了規范倫理學的衰落,恰當回應科學主義和分析哲學也就成為了當代道德規范性論證的前提。在道德規范性問題研究中,有一系列重要理論在康德哲學中尋找資源,并嘗試將理性的物質條件和形式條件加以結合,以增強其論證。這類理論均強調倫理學必須建立在實踐理性而不是理論理性的基礎上,從而明確了倫理學同科學之間的區別。同時,因為提出有實踐理性這一事物能夠作為倫理學的根基,這類觀點同樣可能確證倫理規范的客觀性、普遍性和權威性。這種思想方法被稱為倫理學中的“康德式理論”(Kantian Program in Ethics)。(see Darwall, pp.115-189)
羅爾斯曾于1980年發表《道德理論中的康德式構建主義》一文,解釋了其思想方法在何種意義上得自康德,并且提出,道德規范不是外在于主體的,基礎性的道德真理對于理性行動性(agency)而言是建構性的,是理性行動者依據對自身行動性的辯證反思而構建的。(see Rawls)格沃斯(A.Gewirth)、斯坎倫(T.Scanlon)、內格爾(T.Nagel)以及科斯嘉德(C.Korsgaard)等學者的著作也都體現了這一思想方法。[1]康德式理論是當代規范性問題研究中最具有前景的思想方法,可以為人工智能倫理設計所面對的諸多困難提供解決方案。
首先,能夠具有權威性的道德原則,是一種基于對理性行動性的根本特征的反思而得來的原則。因為道德原則是通過行動者不得不認可的事實所確證的,所以,作為一個行動者,任何人都無法否認道德原則所具有的權威性。
格沃斯就是基于行動者的定義,構建了行動者彼此間的義務。行動者是自愿地為其所選擇的目的采取行動的主體。對于有目的的存在物而言,達到目的的手段必然具有價值。多數手段僅有助于實現特定目的;而某些手段,如基本的自由和福利(即“必要善”,necessary good),則對于任何目的的實現都是必要的。哪怕作出主動放棄必要善的決定也需要動用必要善。因此,意識到自己是一個行動者就不得不認為自己欲求必要善,并不得不聲稱自己對于必要善具有權利,否則就是否認自己的行動者身份,就會產生自相矛盾。(see Gewirth, p.64)如果行動者從自我反思到自身權利主張的推理是成立的,根據“邏輯一致原則”,行動者應當意識到,他人從其自我反思到其權利主張的推理同樣成立。(see ibid., p.105)格沃斯由此得出了他的“道德最高原則”,即所有人都不得妨礙一個行動者實現其必要善。(see ibid., p.135)
在科斯嘉德的論述中,尊重人的道德義務同樣來源于理性行動者對于自身的認識。她提出,我們人類意識的反思結構決定我們不得不為自己的行動尋找理由,否則就無法作出任何行動。而我們是通過我們所具有的“同一性”找到理由的。例如母親、教師或士兵的“同一性”都顯然能夠為行為提供指導。關于“你應該如何行動”的看法就是關于“你是誰”的看法。當然,不同的“同一性”之間也會發生沖突。但最終我們還是能夠通過具有更高權重的“同一性”獲得理由,具有最高權重的“同一性”是“作為人的同一性”,即我們自身具有的被“同一性”支配的需要。否認了“作為人的同一性”的價值,我們將無法確認任何價值,無法理性地行動。因此,只要將自身認可為行動者,一個人就不能否認尊重人性的義務對其所具有的權威性。
第二,康德式理論也為道德原則的客觀性給出了論證。在羅爾斯看來,道德哲學的討論不能有效解決倫理爭議的原因就在于采用了實在論的客觀性標準,即一種獨立于我們的理性判斷的客觀的道德真理觀念(如摩爾和羅斯的直覺主義)。實在論的客觀性標準導致沒有人能夠對道德真理具有權威,因而無益于分歧的化解。與之不同,康德式理論提出,道德規范不是外在于行動者的,而是在行動者的行動當中建構的。例如,羅爾斯認為,“離開了正義原則的建構程序,就沒有道德事實”(Rawls, p.519)。對道德表示贊同并不是說它是真的,而是說它“對我們而言是合理的”??扑辜蔚乱苍岢觯?span lang="EN-US">“如果你意識到有一個真實的問題,并且這是你的問題,是你必須解決的問題,而這個解決方案是唯一的或者是最好的,那么這個解決方案就約束著你。”(see Korsgaard, 2003, p.116)道德規范能夠具有客觀性,但其所具有的客觀性不同于經驗科學中的客觀性。(see Darwall, pp.115-189)一個理論在實踐上的可行性就是使一個理論為真的條件。
最后,康德式理論對道德原則如何能夠普遍應用的問題也給出了特有的回應方案。通過將道德所“規范”的內容從行為本身轉變為行為抉擇的方法,康德式論證在很大程度上避免了道德原則總有特例的現象。例如,羅爾斯和科斯嘉德的理論試圖確立的都是作出道德抉擇的合理過程,而不是具體的道德行為本身。他們提出,道德原則的普遍性體現為存在著據以作出道德抉擇的普遍性的、一般性的方法。斯坎倫就這個問題作出了頗具有創造性的論述,將道德所“規范”的內容從道德行為轉變為行為所依據的理由,從而使道德規范性體現于道德理由的推導過程。他明確提出,相比于對行為的規范,對道德理由的規范在更加重要的意義上顯示了道德所具有的規范性。例如,“我們可以譴責”是規范性存在的直接證明。而譴責的依據往往在于行為的理由而非行為本身。一個行動者故意傷害他人同因為疏忽大意而傷害到他人,具有完全不同的道德意義。斯坎倫給出了有關理由抉擇的一般性方法,并認為正確地使用這一方法就可以向我們揭示什么是道德上正確的行動。
三.當代康德式理論建構的原則何以能夠具有一致性
康德式理論能夠為人工智能倫理設計提供更為充分的理論基礎,因而可以解決或避免已有的理論困難。然而,判斷康德式理論是否應當被作為人工智能倫理設計的理論基礎,還取決于其所構建的道德原則能不能夠符合該領域中業已形成的若干形式上的標準。
機器倫理領域的實踐先驅安德森等人曾提出,要以倫理原則來指導人工智能系統的運行,就需要把倫理學理論轉化為具有一致性、完整性以及實踐可操作性的原則。具有一致性,需要倫理標準具有單一的基礎性原則,如果包含多個原則,就要論證關于它們優先權的順序;具有完整性,就是說這個標準應當能夠告訴我們在任何倫理兩難處境中應當如何行動;而實踐性這個要求能夠保證我們在現實中有可能依據這個理論作出判斷。安德森等人認為,對于應用于機器的算法而言,一致性、完整性以及實踐性是必須要達到的標準。(see Anderson, et al.)如果道德原則意在指導具體行為,那么一般的道德原則都應具有這樣的形式上的標準。很明顯的是,在這三個標準中,一致性是最為基礎性的,直接決定了一個規則是否能夠滿足另外兩個標準。包含相互矛盾的同時又無法對其重要性進行排序的多種原則的理論,不能為具體情境中相互沖突的道德原則給出權衡的依據,這意味著該理論不僅無力化解道德上的兩難處境,甚至可能造成更多兩難處境,因而這樣的理論顯然不能對行動給出明確指導。
構建具有一致性的實踐原則是非常困難的。一方面,來自單一理論的原則雖然能夠比較好地符合一致性的要求,但在道德哲學當中,尚沒有單一理論能夠充分指導人工智能系統的道德抉擇;另一方面,到目前為止,綜合不同理論所建構的原則往往都不具有一致性。
在應用倫理研究中,綜合不同理論建構實踐原則的重要嘗試當首推原則主義。原則主義是一種以若干得到廣泛認同的、沒有固定等級排序的一般原則作為基本框架的倫理分析進路。雖然原則主義已經在高科技倫理問題的研究中得到非常廣泛的應用,但原則主義不是從單一的、體系完備的道德理論出發而得出的自成體系的規則,因此其原則明顯缺乏一致性,無法為解決道德爭端提供一個清晰、連貫、周延、明確的指導方針。如在彼徹姆(T.Beauchamp)和邱卓斯(J.Childress)提出的著名的生命倫理四原則,即尊重自主、行善、不傷害和公平分配原則當中,自主原則來自康德的道義論、行善原則來自密爾的功利主義,公正原則來自契約主義。作為各個原則來源的傳統理論在很多問題上的觀點本就是相互對立的,這就決定了各項原則很可能會產生矛盾沖突。在原則之間相互沖突的情況下,有著獨立理論來源的不同原則無法合理排序,因此原則主義本身不可能為化解原則間的沖突提供非常具有說服力的指導。
鑒于原則主義面對的困境,如果要通過康德式理論構建人工智能的倫理原則,首先需要回答康德式理論如何能夠得出具有一致性的實踐原則。所謂康德式理論是在規范性的論證方式上具有顯著共識的不同理論的總和,包含多個思想家的理論。在這些理論中,并沒有任何單一的理論能夠為實踐提供充分的指導。如學者們普遍認為,雖然格沃斯通過邏輯分析的方法很好地建立起個體行動者不得不珍視的價值,但他沒有對人際關系的道德意義給出說明,因而其提出的認為行動者必須尊重彼此必要善的“道德最高原則”并沒有得到充分論證。(see Williams, p.61; Korsgaard, 1996, p.134; Huckfeldt, pp.23-41)斯坎倫對于人際間的道德義務作出了非常具有啟發性的論證,但他的理論主要涉及道德推理應當具有的形式以及道德論辯的方法,而沒有為道德論辯明確提供經驗層面的裁決標準。因而,上述兩種試圖提出單一的最高指導原則的理論都不能獨自承擔指導算法設計的任務。
既然沒有單一理論能夠提供充分的思想資源,依據康德式理論構建道德原則,我們就不得不綜合不同理論,共同構建指導人工智能系統道德抉擇的原則。同上述四原則具有不同的來源一樣,康德式理論也體現了不同倫理傳統的特征。羅爾斯和斯坎倫的理論顯示出明顯的契約主義特征,科斯嘉德的理論則在很大程度上秉承了道義論思想,格沃斯試圖將倫理原則建立在邏輯推理的基礎上。如果在綜合不同康德式理論的基礎上來建構倫理原則,我們是否可能面對原則主義所面對的那種困境,即無法在不同原則相互沖突的情況下給出權衡和解決的方案?
在當代康德式規范性理論多種多樣的具體觀點背后存在著相同的終極依據,即道德規范及其權威性就來自人對自身理性行動性的反思。不同理論所構建的不同原則并非是通過不同方法得到論證的。羅爾斯、科斯嘉德、格沃斯以及斯坎倫等人都在人的理性行動性的基礎上建構了他們的道德哲學理論,并且都借助理性行動者的自我反思進行推理。正是這種共同的理論基礎可以超越不同傳統的界限,使當代康德式理論能夠被歸為一個具有明顯特色的類別。同時,這一基本特征也能夠有效推動不同傳統的融合。如斯坎倫曾坦言,他的契約主義理論具有很強的道義論特征。(see Scanlon, 1998, pp.5-6)各種康德式理論之間的不同僅僅源于不同理論對理性行動性這一終極依據提供了有限的理解。它們對相同理論基礎的理解有各自的局限,對相同思想方法的使用也有各自的局限。因此,康德式理論的不同理解方案所呈現出的表面上的矛盾是可以通過進一步的理性論證和相互借鑒而消除的??档率嚼碚摌嫿ǖ牟煌瓌t可以形成一個具有一致性的實踐指導方案。在不同理論背后存在一個完善的、統一的理論依據的情況下,我們可以得到對不同原則進行排序的普遍性標準,因而可以為實踐提供明確指導。
四.依據康德式理論建構的倫理原則及其現實意義
在康德式理論中,能夠對行動者的行動提供指導的原則只能來自行動者的自我反思。通過對行動性進行反思可知:第一,理性的行動需要理由;第二,行動需要基本的自由和福利,即必要善。這是僅從行動性的概念出發就可以得出的結論,我們稱之為“行動性的規范性結構”的雙重內涵。道德理由抉擇的過程確立了道德推理的形式,對必要善的必然欲求為道德推理提供了內容。“行動性的規范性結構”為道德原則的構建提供了充分理論資源。相比于其他康德式理論,格沃斯為行動者對必要善的必然欲求給出了邏輯上更合理的論證,而斯坎倫對道德理由及其推導方式作出了最為系統的說明。下文將通過綜合斯坎倫和格沃斯的理論來構建能夠應用于人工智能倫理設計的道德原則。
將格沃斯對必要善的分析合并到斯坎倫有關行動者之間基本義務的理論當中,能夠解決雙方理論各自面對的困難,并推進對于道德規范性的論證。斯坎倫曾提出,行動者涉及他人的行為,必須以對方不能合理拒絕的理由向對方進行論證。(see ibid., p.162)這一表述為道德規范確立了普遍化的形式,但沒有提供經驗性的內容。格沃斯所揭示的“存在每個行動者都不得不珍視的必要善”這一事實就提供了一種具有普遍性的經驗。必要善是任何人都無法合理拒絕的,可以為斯坎倫的理由權衡提供一個具有普遍性的終極依據。同時,格沃斯的理論也可以通過借鑒斯坎倫有關理由的論述得到完善。格沃斯證明了行動者對必要善的必然需求,但并沒有成功地論證,為什么一個行動者可以要求其他行動者尊重自己的必然欲求,讓其他行動者因此負有一種義務。“理由”這個概念內在地包含著主體間的向度。在斯坎倫看來,理由就來自行動者與他人之間的關系。有關理由的論證可以解決格沃斯從私人理由到公共理由的推導中所遇到的障礙。
道德理由是通過理由論辯的過程確立的。斯坎倫將理由論辯的方式表述為:“在特定情境下,如果一個行為的發生不能得到任何普遍原則的允許,那么,這個行為就是不正當的。這些原則作為擁有充分信息、不受強迫的人們達成普遍一致的基礎,是沒有人能夠合理拒絕的。”(ibid., p.153)簡單地說,“沒有理由拒絕”就是道德論辯的標準。采用“沒有理由拒絕”的標準能夠避免契約主義和某些形式的功利主義常??赡軐е碌募w對個體的侵犯,給予每個個體的自主性以充分尊重,并且促進個體價值的發展。一直以來,關于技術的倫理是人在對外部世界進行控制的過程中形成的,因而更加注重成本和收益。然而,當代技術在改造世界的同時也在持續構建著人的本質,指導和約束技術發展的倫理原則應是在最大程度上對人的內在價值給予尊重的原則。
綜上,我們可以通過康德式理論得出建立人工智能倫理原則的基本前提:其一,我們應當就每一個行為向行為所涉及的行動者證明,該行為是由沒有理由拒絕的原則所支持的;其二,行動者不得不欲求必要善。根據這兩個前提,我們可以推導出以下三個原則:
其一,不侵犯原則:任何行動不能侵犯行動者的必要善。必要善是行動者不得不欲求的。在理由權衡的過程中,必要善是具有最大權重的理由。準許侵犯行動者的必要善的原則是其必然有理由拒絕的。
其二,平等原則:所有行動者的必要善平等。通過理由論辯,行動者彼此之間建立了相互認可的關系,將彼此認可為道德規范性的來源。既然所有行動者都不得不欲求自身的必要善,那么就“不可侵犯”這一性質而言,所有行動者的必要善平等。一個行動者的必要善受到傷害同其他行動者的必要善受到傷害,總是具有同等的道德上的權重。
其三,援助原則:當行動者A的必要善處于威脅之中,如果A的必要善的維護完全取決于B的援助,并且B完全有能力援助,那么,在援助行為不會導致任何行動者的必要善受到侵犯的情況下,B應當援助。
實現自身的行動性就是通過行動理由的確立而實現自我的統一。行動者B此刻據以行事的理由應是今后任何時候處于相同的情況下愿意再次據以行事的理由,應是與A角色互換之后仍愿意據以行事的理由。如果行動者B認為他不得不追求自身的必要善,那么在上述情境中,他就無法合理地拒絕援助。
當然,原則三的應用有一定界限。任何行動不應當導致必要善在不同行動者之間非對稱地轉移。(see Gewirth, p.104)如果援助行動必將導致某行動者必要善的喪失,那么這一援助義務就可以免除。并且,斯坎倫說明了行動理由只能來自具體情境中的經驗事實。在個體對相關事實沒有確切把握的情況下,例如在辛格(P.Singer)所描述的海外援助的情況中,援助義務就不能得到確認。
辛格在發表于1972年的《饑荒、富裕和道德》一文中探討了與饑荒和貧困相關的道德問題。辛格試圖在該文中論證,富裕國家的人民有義務捐出收入的大部分用于海外援助,并且他們將一直負有這一義務,直至變得和貧困國家的人民一樣貧困。(see Singer)辛格文中描述的情景部分滿足援助義務的成立條件:一方面,絕對貧窮毫無疑問是對于人的必要善的侵犯;另一方面,自身衣食無憂并且在個人享受方面花費頗多的人,顯然可以在不損失自身必要善的前提下為那些亟需援助的貧困國家人民提供其所需要的至少部分物資。但是,辛格對于援助義務的論證還是忽略了一個重要條件,即援助義務應當結合具體情境進行論證。我們需要在具體情境中確認,一個人的必要善的維持在非常大的程度上取決于另一個人的援助。即便我確定地知道在異國他鄉有人處于絕對貧困,但我不清楚他的親屬、朋友是否無法對他提供援助,也不清楚他的國家的政府是否拒絕對他提供援助。對于這些主體自身而言,為親屬、朋友或國民提供援助的行為是具有重大道德意義的。我不能默認這些主體已放棄援助,因而也就不能評判我的援助將發揮的作用。
相比之下,死后器官捐獻的情境在更大程度上符合援助義務成立的條件。一方面,我們在死亡后不需要器官來維持必要善;另一方面,被捐獻的器官必定被用于維護某人的必要善,并且發揮不可替代的作用。目前全球范圍內器官供體短缺嚴重。每年有數量巨大的患者因為沒有適合的器官而在本應充滿活力的年紀離開人世,亦有很多人因無法得到適合的器官,日復一日忍受痛苦,無法正常生活。在這種情況下,即便捐贈者完全不知道誰是受捐者,不了解他的任何信息,也仍然可以確定,受捐者的基本善完全依賴自己捐獻器官的行為。
以上原則就是依據當代康德式理論推導出的基本道德原則。這三個原則恰好是很多道德哲學理論中曾描述過的“人的道德地位”的要求。人的道德地位限定了人類成員應受或者不應受何種對待的最低標準。以符合這一標準的方式行事,是所有道德行動者的義務。有關這一義務的具體內容,人們已形成比較普遍的共識,如沃倫(M.Warren)曾經提出,所有人具有充分道德地位意味著我們不能殺害、攻擊、欺騙、折磨或不公正地囚禁他人,并且,我們不能在我們能夠幫助且他們需要幫助的時候不去幫助。(see Warren)在《道德之維:可允許性、意義與譴責》一書中,斯坎倫表達了相似看法,即人的內在價值要求我們對彼此持有特定態度:不能以傷害彼此的方式行事,在可能的情況下幫助他人,以及不要誤導他人,等等。(see Scanlon, 2008, p.140)佳沃斯卡(A.Jaworska)等人則在《道德地位的基礎》一文中列出了最高等級的道德地位要求的權利,即不被侵犯,在需要的時候得到救助,以及受到公平對待。(see Jaworska & Tannenbaum)可見,“不侵犯”“獲得援助”“平等”作為人的道德地位的核心要求已獲普遍認可。然而,這一共識性的觀點尚未得到系統論證。上文通過康德式理論推導出三個道德原則的過程為其提供了論證。三個原則均來自具有共同思想方法的康德式理論,因而我們也能夠在原則互相沖突的情況下進行合理排序。
以上三個原則能夠為某些經典的道德難題提供比較合理的回答。例如,在“電車難題”中,根據“不侵犯原則”,拉動扳手使列車撞向1個人而避開5個人的行為顯然是錯誤的,因為那是某些行動者(將會被撞到的那個人)有理由拒絕的。在此情境下,所謂“援助”的行為會導致無辜的人喪失其必要善,因而也不符合“援助原則”應用的條件。相反,如果行動者決定不拉動扳手,那么行動者的選擇同任一原則都不會產生相矛盾。由此可知,無論主道和旁道上分別有幾人,行動者作出拉動扳手的行為一定是道德上錯誤的,同時不采取任何行動則至少不是道德上錯誤的。
在自動駕駛的倫理問題探討中,一個困擾人們的兩難處境是:如果一輛自動駕駛汽車在接下來的時刻要么撞到一個老人,要么撞到一個兒童,系統應當如何抉擇?根據“平等原則”,老人和小孩同為行動者,他們的必要善平等,因而為了一方的必要善而犧牲另一方的顯然是道德上錯誤的。在這種情況下,系統只需判斷救哪一方的勝算更大,并將這一判斷作為行為依據。如果勝算相等,那么無論系統決定救誰或犧牲誰,都不是道德上錯誤的。
由此看來,來自康德式理論的三個原則似乎常常支持系統或行動者不主動采取行動。但這并不說明這套原則不能給予實踐好的指導,因為核心原則所規定的本就應是最基本的道德義務,道德規范性的范圍也僅涉及最基本的道德義務。相比于其他原則,以上原則至少不會傳達例如“五個人生命的價值大于三個人生命的價值”或“兒童生命的價值大于老年人生命的價值”這種道德上錯誤的觀念。
在確立基本道德義務的同時,以上原則也為特殊的關系和承諾留出了空間。在斯坎倫的理論中,基本的道德義務是通過人際關系得到論證的,人際關系是理由的來源。斯坎倫曾提出,道德理由反映的是個體與他人之間有價值的連接。(see Scanlon, 1998, p.337)甚至,道德原則之所以重要就因為我們與他人的關系是重要的。(see Scanlon, 2008, p.6)那么,完全的陌生人之間是否存在某種關系,可以作為限制彼此行為的道德原則的基礎呢?斯坎倫提出,在所有行動者之間,無論相識與否,都存在著一種關系,即“理性存在物同伴”(fellow rational being)的關系。(see ibid, pp.139-140)同為理性存在物的我們都具有理解理由的能力,這就要求我們在作出涉及他人的行動時,應當通過理由向對方進行論證。這也是最基本的道德義務。如果說“理性存在物同伴”的關系確立了基本義務,那么進一步的關系和承諾當然可以產生進一步的義務。例如,朋友關系要求彼此發自內心的關愛。對于特殊承諾和關系的尊重并不會影響基礎道德原則的普遍性,這是因為,基礎性的義務和進一步的義務分別來自不同層面的關系。
余論
人工智能系統可能具有自主分析和判斷的能力,可能針對特定情境自主決策或行為。(參見董彪,第2頁)倫理設計問題已成為人工智能研究領域亟待推進的問題之一。當代的相關研究所面對的種種理論困難均曾在道德哲學的歷史上得到過深入探討,相關探討對于規范倫理學的發展產生了重要影響。歷史中的思想資源揭示了現實困境的來源,為理解當代問題提供了重要線索。思想史和現實困境間的相互印證向我們揭示,要為人工智能系統提供具有實踐可操作性的指導原則,就不得不首先建立一種具有普遍性、客觀性和權威性的道德規范。
當代的道德規范性研究對此提供了非常具有前景的解決方案??档率嚼碚撏ㄟ^揭示每個人在其自我反思中均不能否認的事實,為普遍性的道德原則確立了基礎。它還通過論證道德原則所規范的并非行為本身而是理由抉擇的方法,使道德原則能夠在各種情境中始終保持權威性。依據康德式理論構建的倫理原則對基本道德義務給出了符合常識的闡釋,對于當代人工智能技術應用所引發的倫理困境也能提供比較合理的解決方法。
總之,當代規范性理論研究為理解和應對現實困境提供了重要思想資源,同時,現實中的倫理困境也為反思道德哲學理論提供了重要視角,新技術發展所昭示的各種可能性為道德哲學的理論推演和規范的確立提供了實驗場所。無論未來的人工智能是否能夠成為真正意義上的充分的道德行動者,我們為此所作的理論準備終將在前所未有的程度上推進我們對于道德規范性問題的闡釋和分析,并為倫理學歷史上影響深遠的理論難題給出意蘊深刻的回答。
【注釋】
*本文系國家社會科學基金重大項目“大數據驅動下的生命科學研究范式變革研究”(編號22&ZD045)的階段性成果。
[1]例如,對必要善的權利主張在格沃斯對于根本性道德義務的論證中是至關重要的,而這一主張恰恰全然內在于行動中的理性行動者的視角,因而格沃斯的論證揭示了道德和行動者的自我理解間的必然連接。在科斯嘉德看來,依據行動者的定義,行動者必須把自身構建為一個整體,因此,讓行動者自身達到精神統一的那些原則就是行動的規范性標準。(參見科斯嘉德,2009年,第10頁)
原載:《哲學動態》2023年第5期
文章來源:“哲學動態雜志”微信公眾號(2021.6.19)
地址:北京市東城區建國門內大街5號郵編:100732
電話:(010)85195506
傳真:(010)65137826
E-mail:philosophy@cass.org.cn
提要:功利主義、直覺主義以及道義論是當前用于指導人工智能系統道德抉擇的主要理論資源。然而,以上理論的應用均遭遇了困境。在道德哲學的歷史上,正是類似的困境曾導致規范倫理學的衰落。當代規范性研究中的康德式理論對相關理論困難均給出充分回應,有力推動了規范倫理學的復興,也有望為人工智能系統的倫理設計提供更為恰當的理論基礎??档率嚼碚摼哂泄餐暮诵挠^點和思想方法,保證了由這類理論所構建的倫理原則可以具有一致性和實踐可操作性。格沃斯和斯坎倫是當代康德式理論的重要代表人物。本文通過比較和分析兩者對道德義務的論證,嘗試確立三個基本的倫理原則,即不侵犯原則、平等原則和援助原則。三個原則對任何道德主體間最基本的道德義務給出了清晰闡釋,也能夠對人工智能系統的倫理設計給出明確指導。
在機器人醫生、機器人護士、無人駕駛汽車以及自主選擇目標的武器等各種人工智能系統的應用過程中,系統都將不可避免地需要自主作出道德抉擇,其抉擇也往往會產生具有重大道德意義的后果。我們需要為人工智能系統確立恰當的倫理規范,并尋找執行這一規范的算法設計。有關如何確保倫理規范的執行,我們已經有了很多富有成效的方案。例如,“負責任創新”通過“四維框架”將倫理因素納入整體考量,“價值敏感設計”提倡在技術的構思設計階段就植入人的價值和道德關切。這些方法在很大程度上保證了所植入的倫理規范得到充分運用。但與之不相匹配的是,應當將何種倫理規范植入人工智能系統的問題則尚未得到很好的回答。
為機器植入的倫理規范應是能夠為不同文化中的人所普遍認可的,并且,該規范應當能夠適用于各種不同的具體情境。然而,一方面,道德哲學中并沒有得到普遍認可的規范性理論;另一方面,對于任一規范性理論的嚴格執行往往都會在特定情境中導致明顯錯誤的道德抉擇。究竟是否可能建立一種具有權威性、客觀性和普遍性的道德規范,為現實中的道德抉擇提供更為充分的依據呢?對這一問題的探尋使人工智能倫理設計同道德規范性研究直接地聯系在一起。人工智能倫理設計面對的困難均涉及“道德原則何以能夠具有規范性”的問題。當代的道德規范性研究為這些問題提供了非常具有前景的解決方案。在機器倫理的語境中闡釋當代道德規范性研究的主要思想方法,既能夠為人工智能的倫理設計提供必要思想資源,也可以揭示當代道德規范性研究的重大現實意義。
一.用于指導人工智能系統的規范性理論及其面對的困難
自2016年以來,對于算法的倫理研究持續大幅度地增加。(see Sandvig, et al.)相關研究已形成了兩種主要的研究進路,即倫理理論“自上而下”地實現,以及“自下而上”地建構一系列可能無法通過理論或術語進行明確表達的標準。(see Wallach, et al.)“自上而下”的方法通過外在的倫理理論引導系統行為,它需要設計者首先明確持有一種倫理學理論,分析這種理論的計算要求,尋找能夠執行這一理論的算法設計。與之不同,“自下而上”的方案是基于實例推進的。設計者首先設計出滿足局部功能的模塊,然后通過對具體測試樣例的試錯和調整來推進設計過程。即便采用“自下而上”的進路,還是需要設計者預設某種倫理理論。該方案需要預先給定一整套在道德上已經由人類作出判斷的案例,構成訓練集和測試集,通過訓練和測試使機器能夠對新的案例作出道德判斷??梢?,無論采用“自上而下”還是“自下而上”的進路,首先無法回避的工作都是確立一種我們能夠認同的倫理規范。目前,在人工智能倫理設計領域受到廣泛采用的倫理學理論是功利主義、直覺主義以及道義論。然而,遺憾的是,這些理論傳統都無法為系統的倫理抉擇提供充分依據。
基于功利主義的算法設計一直以來被廣泛應用于經濟領域的人工智能系統。功利主義對任何行動的評價,都基于該行動是否會增進或減小利益相關者的利益,因而該方法可以對個體、整體以及社會層面的多重利益給出更明確的權衡,也能夠對道德的客觀性作出說明。人工智能倫理領域重要的開創者米歇爾·安德森(M.Anderson)和蘇珊·安德森(S.Anderson)等曾依據行為功利主義建立了簡明算法:通過考量受影響的人數、每個人快樂或不快樂的強度和持續度以及快樂或不快樂在每一個可能行動中出現的可能性,得出最佳行動方案。(see Anderson, et al.)然而,關于“快樂是否可以量化和比較”的問題始終存在爭議。機器倫理研究者沃拉奇(W.Wallach)和艾倫(C.Allen)就曾指出,將不同性質的快樂置于相同尺度中去比較,本身就是不恰當的。(see Wallach & Allen, p.87)特別是在實際操作層面,機器根本無法知曉每一個可能行動的后果,無從預測一個行動可能創造的各種快樂的類型和強度,因而也就不能依據這種預測進行道德抉擇。有關可操作性的問題顯示,功利主義理論只能具有有限的權威性。
此外,功利主義理論面對的最根本質疑在于,多數人的最大利益何以能夠成為“道德上正確”的標準?“谷歌大腦”(Google Brain)的研究人員在參考了大量心理學研究的基礎上提出,“人們實際上更傾向于考慮其行為的本質而不是行為結果利益的最大化”(Anderson & Anderson, p.238)。作為行動依據,“利益最大化”這一標準的合理性很難得到確證。如果人們的道德抉擇僅僅等同于利益計算,那么人的內在價值就無法得到論證。如果人沒有內在價值,人的利益和追求又如何能夠具有重要性呢?功利主義無法回答這樣的問題。規范倫理學的陣地就是在功利主義那里失守的。摩爾在《倫理學原理》中提出,“善”不能通過任何自然性質予以定義,這在20世紀之初引發了對于功利主義的反思,產生了深遠影響。
雖然否定了功利主義理論的權威性,但摩爾并不懷疑存在著基礎性的道德真理和客觀性的道德概念。在他看來,作為一種內在價值的善不能得到分析,卻可以通過直覺獲得,并為道德義務提供根據。直覺主義是可以用于解決規范性問題的。在當代人工智能的倫理設計中,直覺主義也受到了頻繁的援引。安德森等人曾經嘗試基于直覺主義建構人工智能系統的道德原則。他們讓倫理學家就特定行為對于某項義務得到滿足或受到違背的程度給出直覺,依據這些直覺來判定應采取何種行動并以此構建學習集,而在學習了足夠多的特殊案例之后,機器就可以歸納出一般性的倫理原則。(see ibid., p.479)當代直覺主義代表人物羅斯(W.Ross)是他們經常援引的學者。羅斯將直覺作為自明性義務的基礎。所謂“自明”就是無需證明,依據行為者的直覺就能確定。他曾經提出:“有思想和受過良好教育的人的道德信念是倫理學的數據,就像感覺、知覺是自然科學的數據一樣。”(Ross, p.41)
直覺主義的應用同樣面對某些困難,即它不能給機器或人的道德抉擇提供明確依據。(see Anderson & Anderson, 2011, p.17)羅斯列出了七項顯見義務,但沒有對各種顯見義務給出排序或權衡標準。當行為涉及多種顯見義務時,我們應如何抉擇呢?羅斯提出,顯見正當性在最大程度上超過了顯見不正當性的行為就是行動者的實際義務。然而,羅斯沒有提供任何客觀標準用以確定顯見正當與不正當性的程度。胡克(J.Hooker)和金(T.Kim)曾對依賴專家倫理直覺的這一方法提出批評。他們指出,專家直覺也會有分歧,在這種情況下,系統就會無從選擇。(see Hooker & Kim, pp.130-136)
不僅如此,很多人工智能倫理研究者都曾明確提出,專家直覺也常常不自洽,甚至帶有偏見。(see Schwitzgebel & Cushman, pp.148-150)直覺是主觀的,不能得到客觀經驗的證實,這也就導致其規范效力難以得到認可。在常識上,只有同經驗事實發生聯系,才能讓一個規范性判斷得到確證。維也納學派曾提出,有意義的陳述必須是重言式或者被經驗方法證實的,有意義的倫理陳述也必須能夠被證明為真。這類觀點在20世紀30年代的廣泛流行曾直接導致了規范倫理學研究的中斷。
與上述兩種研究路徑不同,胡克和金將來自道義論的“普遍性原則”作為建立道德原則的基礎,嘗試據此得出權威性的倫理法則。“普遍化原則”可以簡單表述為:我行動的理由必須滿足這樣的條件,即每個人都可以憑此理由同樣行事。(see Kim, et al.)當代科技的發展使得“普遍性”具有愈發重大的意義。我們都不愿意接受一個植入了同我們自身文化當中道德原則完全對立的原則的機器人來為我們提供服務,也會堅決反對由一種違背了我們核心倫理信念的算法來控制和影響我們的生活。但現實中,負載著不同道德觀念的技術將不可避免并越發深入地侵入每一個行為抉擇。在這一背景下,共同道德的確立顯然有助于消除技術與人的對立。我們有理由嘗試建立一種具有普遍規范效力的道德哲學理論。
遺憾的是,確立“普遍化原則”非常困難。道德原則似乎總有例外。每一個規范性理論,如果在實踐中得到完全嚴格的執行,都可能在某些情境下導致人或機器作出違背直覺的、非常不道德的甚至是荒謬的行為。(see Grgic-Hlaca, et al.)原因在于,具體情境中的每一個行為都具有多重特征,關于行為是否能夠得到許可的道德原則只涉及行為的非常有限的特征。比如在“不能說謊”的原則中,“說謊”描述的就是行為的單一特征,而現實中,說謊的行為可能同時也是拯救無辜之人生命的行為,而后一特征在道德原則中并不必然得到表述,這也就是為什么道德原則似乎總有例外。面對具體情境,我們要判斷行為的某一特征是否具有壓倒道德原則的道德權重,使行為成為一種例外。作出道德判斷的過程往往就是在權衡相關的道德原則是否應當“破例”,而這種權衡并不是人工智能所擅長的。事實上,人類也常常因為缺少作出這種判斷所依據的方法而無所適從。
當代人工智能倫理設計在理論基礎的探尋過程中遇到的困難向我們揭示,來自功利主義、直覺主義和道義論的道德原則缺乏充分的權威性、客觀性或普遍性。事實上,倫理學理論是否以及如何能夠具有權威性、客觀性和普遍性的問題正是20世紀以來倫理學歷史上受到廣泛關注的重要理論問題,這個問題的論證事關規范倫理學的成敗。(see Hudson, p.1)當代的道德規范性研究力圖重新確立道德所具有的規范性,對于有關規范倫理學基礎的各種質疑均給出了回應。相應地,這些回應為人工智能系統倫理設計所面對的困難提供了比較好的解決方案。
二.當代康德式理論對于道德規范性的論證和闡釋
認為道德具有規范性,意味著道德可以指導我們,約束我們,甚至強迫我們。“道德所具有的強制力量究竟從何而來”是當代道德哲學研究中的核心問題。
20世紀中期,來自科學哲學理論的批判導致了規范倫理學的衰落,恰當回應科學主義和分析哲學也就成為了當代道德規范性論證的前提。在道德規范性問題研究中,有一系列重要理論在康德哲學中尋找資源,并嘗試將理性的物質條件和形式條件加以結合,以增強其論證。這類理論均強調倫理學必須建立在實踐理性而不是理論理性的基礎上,從而明確了倫理學同科學之間的區別。同時,因為提出有實踐理性這一事物能夠作為倫理學的根基,這類觀點同樣可能確證倫理規范的客觀性、普遍性和權威性。這種思想方法被稱為倫理學中的“康德式理論”(Kantian Program in Ethics)。(see Darwall, pp.115-189)
羅爾斯曾于1980年發表《道德理論中的康德式構建主義》一文,解釋了其思想方法在何種意義上得自康德,并且提出,道德規范不是外在于主體的,基礎性的道德真理對于理性行動性(agency)而言是建構性的,是理性行動者依據對自身行動性的辯證反思而構建的。(see Rawls)格沃斯(A.Gewirth)、斯坎倫(T.Scanlon)、內格爾(T.Nagel)以及科斯嘉德(C.Korsgaard)等學者的著作也都體現了這一思想方法。[1]康德式理論是當代規范性問題研究中最具有前景的思想方法,可以為人工智能倫理設計所面對的諸多困難提供解決方案。
首先,能夠具有權威性的道德原則,是一種基于對理性行動性的根本特征的反思而得來的原則。因為道德原則是通過行動者不得不認可的事實所確證的,所以,作為一個行動者,任何人都無法否認道德原則所具有的權威性。
格沃斯就是基于行動者的定義,構建了行動者彼此間的義務。行動者是自愿地為其所選擇的目的采取行動的主體。對于有目的的存在物而言,達到目的的手段必然具有價值。多數手段僅有助于實現特定目的;而某些手段,如基本的自由和福利(即“必要善”,necessary good),則對于任何目的的實現都是必要的。哪怕作出主動放棄必要善的決定也需要動用必要善。因此,意識到自己是一個行動者就不得不認為自己欲求必要善,并不得不聲稱自己對于必要善具有權利,否則就是否認自己的行動者身份,就會產生自相矛盾。(see Gewirth, p.64)如果行動者從自我反思到自身權利主張的推理是成立的,根據“邏輯一致原則”,行動者應當意識到,他人從其自我反思到其權利主張的推理同樣成立。(see ibid., p.105)格沃斯由此得出了他的“道德最高原則”,即所有人都不得妨礙一個行動者實現其必要善。(see ibid., p.135)
在科斯嘉德的論述中,尊重人的道德義務同樣來源于理性行動者對于自身的認識。她提出,我們人類意識的反思結構決定我們不得不為自己的行動尋找理由,否則就無法作出任何行動。而我們是通過我們所具有的“同一性”找到理由的。例如母親、教師或士兵的“同一性”都顯然能夠為行為提供指導。關于“你應該如何行動”的看法就是關于“你是誰”的看法。當然,不同的“同一性”之間也會發生沖突。但最終我們還是能夠通過具有更高權重的“同一性”獲得理由,具有最高權重的“同一性”是“作為人的同一性”,即我們自身具有的被“同一性”支配的需要。否認了“作為人的同一性”的價值,我們將無法確認任何價值,無法理性地行動。因此,只要將自身認可為行動者,一個人就不能否認尊重人性的義務對其所具有的權威性。
第二,康德式理論也為道德原則的客觀性給出了論證。在羅爾斯看來,道德哲學的討論不能有效解決倫理爭議的原因就在于采用了實在論的客觀性標準,即一種獨立于我們的理性判斷的客觀的道德真理觀念(如摩爾和羅斯的直覺主義)。實在論的客觀性標準導致沒有人能夠對道德真理具有權威,因而無益于分歧的化解。與之不同,康德式理論提出,道德規范不是外在于行動者的,而是在行動者的行動當中建構的。例如,羅爾斯認為,“離開了正義原則的建構程序,就沒有道德事實”(Rawls, p.519)。對道德表示贊同并不是說它是真的,而是說它“對我們而言是合理的”??扑辜蔚乱苍岢觯?span lang="EN-US">“如果你意識到有一個真實的問題,并且這是你的問題,是你必須解決的問題,而這個解決方案是唯一的或者是最好的,那么這個解決方案就約束著你。”(see Korsgaard, 2003, p.116)道德規范能夠具有客觀性,但其所具有的客觀性不同于經驗科學中的客觀性。(see Darwall, pp.115-189)一個理論在實踐上的可行性就是使一個理論為真的條件。
最后,康德式理論對道德原則如何能夠普遍應用的問題也給出了特有的回應方案。通過將道德所“規范”的內容從行為本身轉變為行為抉擇的方法,康德式論證在很大程度上避免了道德原則總有特例的現象。例如,羅爾斯和科斯嘉德的理論試圖確立的都是作出道德抉擇的合理過程,而不是具體的道德行為本身。他們提出,道德原則的普遍性體現為存在著據以作出道德抉擇的普遍性的、一般性的方法。斯坎倫就這個問題作出了頗具有創造性的論述,將道德所“規范”的內容從道德行為轉變為行為所依據的理由,從而使道德規范性體現于道德理由的推導過程。他明確提出,相比于對行為的規范,對道德理由的規范在更加重要的意義上顯示了道德所具有的規范性。例如,“我們可以譴責”是規范性存在的直接證明。而譴責的依據往往在于行為的理由而非行為本身。一個行動者故意傷害他人同因為疏忽大意而傷害到他人,具有完全不同的道德意義。斯坎倫給出了有關理由抉擇的一般性方法,并認為正確地使用這一方法就可以向我們揭示什么是道德上正確的行動。
三.當代康德式理論建構的原則何以能夠具有一致性
康德式理論能夠為人工智能倫理設計提供更為充分的理論基礎,因而可以解決或避免已有的理論困難。然而,判斷康德式理論是否應當被作為人工智能倫理設計的理論基礎,還取決于其所構建的道德原則能不能夠符合該領域中業已形成的若干形式上的標準。
機器倫理領域的實踐先驅安德森等人曾提出,要以倫理原則來指導人工智能系統的運行,就需要把倫理學理論轉化為具有一致性、完整性以及實踐可操作性的原則。具有一致性,需要倫理標準具有單一的基礎性原則,如果包含多個原則,就要論證關于它們優先權的順序;具有完整性,就是說這個標準應當能夠告訴我們在任何倫理兩難處境中應當如何行動;而實踐性這個要求能夠保證我們在現實中有可能依據這個理論作出判斷。安德森等人認為,對于應用于機器的算法而言,一致性、完整性以及實踐性是必須要達到的標準。(see Anderson, et al.)如果道德原則意在指導具體行為,那么一般的道德原則都應具有這樣的形式上的標準。很明顯的是,在這三個標準中,一致性是最為基礎性的,直接決定了一個規則是否能夠滿足另外兩個標準。包含相互矛盾的同時又無法對其重要性進行排序的多種原則的理論,不能為具體情境中相互沖突的道德原則給出權衡的依據,這意味著該理論不僅無力化解道德上的兩難處境,甚至可能造成更多兩難處境,因而這樣的理論顯然不能對行動給出明確指導。
構建具有一致性的實踐原則是非常困難的。一方面,來自單一理論的原則雖然能夠比較好地符合一致性的要求,但在道德哲學當中,尚沒有單一理論能夠充分指導人工智能系統的道德抉擇;另一方面,到目前為止,綜合不同理論所建構的原則往往都不具有一致性。
在應用倫理研究中,綜合不同理論建構實踐原則的重要嘗試當首推原則主義。原則主義是一種以若干得到廣泛認同的、沒有固定等級排序的一般原則作為基本框架的倫理分析進路。雖然原則主義已經在高科技倫理問題的研究中得到非常廣泛的應用,但原則主義不是從單一的、體系完備的道德理論出發而得出的自成體系的規則,因此其原則明顯缺乏一致性,無法為解決道德爭端提供一個清晰、連貫、周延、明確的指導方針。如在彼徹姆(T.Beauchamp)和邱卓斯(J.Childress)提出的著名的生命倫理四原則,即尊重自主、行善、不傷害和公平分配原則當中,自主原則來自康德的道義論、行善原則來自密爾的功利主義,公正原則來自契約主義。作為各個原則來源的傳統理論在很多問題上的觀點本就是相互對立的,這就決定了各項原則很可能會產生矛盾沖突。在原則之間相互沖突的情況下,有著獨立理論來源的不同原則無法合理排序,因此原則主義本身不可能為化解原則間的沖突提供非常具有說服力的指導。
鑒于原則主義面對的困境,如果要通過康德式理論構建人工智能的倫理原則,首先需要回答康德式理論如何能夠得出具有一致性的實踐原則。所謂康德式理論是在規范性的論證方式上具有顯著共識的不同理論的總和,包含多個思想家的理論。在這些理論中,并沒有任何單一的理論能夠為實踐提供充分的指導。如學者們普遍認為,雖然格沃斯通過邏輯分析的方法很好地建立起個體行動者不得不珍視的價值,但他沒有對人際關系的道德意義給出說明,因而其提出的認為行動者必須尊重彼此必要善的“道德最高原則”并沒有得到充分論證。(see Williams, p.61; Korsgaard, 1996, p.134; Huckfeldt, pp.23-41)斯坎倫對于人際間的道德義務作出了非常具有啟發性的論證,但他的理論主要涉及道德推理應當具有的形式以及道德論辯的方法,而沒有為道德論辯明確提供經驗層面的裁決標準。因而,上述兩種試圖提出單一的最高指導原則的理論都不能獨自承擔指導算法設計的任務。
既然沒有單一理論能夠提供充分的思想資源,依據康德式理論構建道德原則,我們就不得不綜合不同理論,共同構建指導人工智能系統道德抉擇的原則。同上述四原則具有不同的來源一樣,康德式理論也體現了不同倫理傳統的特征。羅爾斯和斯坎倫的理論顯示出明顯的契約主義特征,科斯嘉德的理論則在很大程度上秉承了道義論思想,格沃斯試圖將倫理原則建立在邏輯推理的基礎上。如果在綜合不同康德式理論的基礎上來建構倫理原則,我們是否可能面對原則主義所面對的那種困境,即無法在不同原則相互沖突的情況下給出權衡和解決的方案?
在當代康德式規范性理論多種多樣的具體觀點背后存在著相同的終極依據,即道德規范及其權威性就來自人對自身理性行動性的反思。不同理論所構建的不同原則并非是通過不同方法得到論證的。羅爾斯、科斯嘉德、格沃斯以及斯坎倫等人都在人的理性行動性的基礎上建構了他們的道德哲學理論,并且都借助理性行動者的自我反思進行推理。正是這種共同的理論基礎可以超越不同傳統的界限,使當代康德式理論能夠被歸為一個具有明顯特色的類別。同時,這一基本特征也能夠有效推動不同傳統的融合。如斯坎倫曾坦言,他的契約主義理論具有很強的道義論特征。(see Scanlon, 1998, pp.5-6)各種康德式理論之間的不同僅僅源于不同理論對理性行動性這一終極依據提供了有限的理解。它們對相同理論基礎的理解有各自的局限,對相同思想方法的使用也有各自的局限。因此,康德式理論的不同理解方案所呈現出的表面上的矛盾是可以通過進一步的理性論證和相互借鑒而消除的??档率嚼碚摌嫿ǖ牟煌瓌t可以形成一個具有一致性的實踐指導方案。在不同理論背后存在一個完善的、統一的理論依據的情況下,我們可以得到對不同原則進行排序的普遍性標準,因而可以為實踐提供明確指導。
四.依據康德式理論建構的倫理原則及其現實意義
在康德式理論中,能夠對行動者的行動提供指導的原則只能來自行動者的自我反思。通過對行動性進行反思可知:第一,理性的行動需要理由;第二,行動需要基本的自由和福利,即必要善。這是僅從行動性的概念出發就可以得出的結論,我們稱之為“行動性的規范性結構”的雙重內涵。道德理由抉擇的過程確立了道德推理的形式,對必要善的必然欲求為道德推理提供了內容。“行動性的規范性結構”為道德原則的構建提供了充分理論資源。相比于其他康德式理論,格沃斯為行動者對必要善的必然欲求給出了邏輯上更合理的論證,而斯坎倫對道德理由及其推導方式作出了最為系統的說明。下文將通過綜合斯坎倫和格沃斯的理論來構建能夠應用于人工智能倫理設計的道德原則。
將格沃斯對必要善的分析合并到斯坎倫有關行動者之間基本義務的理論當中,能夠解決雙方理論各自面對的困難,并推進對于道德規范性的論證。斯坎倫曾提出,行動者涉及他人的行為,必須以對方不能合理拒絕的理由向對方進行論證。(see ibid., p.162)這一表述為道德規范確立了普遍化的形式,但沒有提供經驗性的內容。格沃斯所揭示的“存在每個行動者都不得不珍視的必要善”這一事實就提供了一種具有普遍性的經驗。必要善是任何人都無法合理拒絕的,可以為斯坎倫的理由權衡提供一個具有普遍性的終極依據。同時,格沃斯的理論也可以通過借鑒斯坎倫有關理由的論述得到完善。格沃斯證明了行動者對必要善的必然需求,但并沒有成功地論證,為什么一個行動者可以要求其他行動者尊重自己的必然欲求,讓其他行動者因此負有一種義務。“理由”這個概念內在地包含著主體間的向度。在斯坎倫看來,理由就來自行動者與他人之間的關系。有關理由的論證可以解決格沃斯從私人理由到公共理由的推導中所遇到的障礙。
道德理由是通過理由論辯的過程確立的。斯坎倫將理由論辯的方式表述為:“在特定情境下,如果一個行為的發生不能得到任何普遍原則的允許,那么,這個行為就是不正當的。這些原則作為擁有充分信息、不受強迫的人們達成普遍一致的基礎,是沒有人能夠合理拒絕的。”(ibid., p.153)簡單地說,“沒有理由拒絕”就是道德論辯的標準。采用“沒有理由拒絕”的標準能夠避免契約主義和某些形式的功利主義常??赡軐е碌募w對個體的侵犯,給予每個個體的自主性以充分尊重,并且促進個體價值的發展。一直以來,關于技術的倫理是人在對外部世界進行控制的過程中形成的,因而更加注重成本和收益。然而,當代技術在改造世界的同時也在持續構建著人的本質,指導和約束技術發展的倫理原則應是在最大程度上對人的內在價值給予尊重的原則。
綜上,我們可以通過康德式理論得出建立人工智能倫理原則的基本前提:其一,我們應當就每一個行為向行為所涉及的行動者證明,該行為是由沒有理由拒絕的原則所支持的;其二,行動者不得不欲求必要善。根據這兩個前提,我們可以推導出以下三個原則:
其一,不侵犯原則:任何行動不能侵犯行動者的必要善。必要善是行動者不得不欲求的。在理由權衡的過程中,必要善是具有最大權重的理由。準許侵犯行動者的必要善的原則是其必然有理由拒絕的。
其二,平等原則:所有行動者的必要善平等。通過理由論辯,行動者彼此之間建立了相互認可的關系,將彼此認可為道德規范性的來源。既然所有行動者都不得不欲求自身的必要善,那么就“不可侵犯”這一性質而言,所有行動者的必要善平等。一個行動者的必要善受到傷害同其他行動者的必要善受到傷害,總是具有同等的道德上的權重。
其三,援助原則:當行動者A的必要善處于威脅之中,如果A的必要善的維護完全取決于B的援助,并且B完全有能力援助,那么,在援助行為不會導致任何行動者的必要善受到侵犯的情況下,B應當援助。
實現自身的行動性就是通過行動理由的確立而實現自我的統一。行動者B此刻據以行事的理由應是今后任何時候處于相同的情況下愿意再次據以行事的理由,應是與A角色互換之后仍愿意據以行事的理由。如果行動者B認為他不得不追求自身的必要善,那么在上述情境中,他就無法合理地拒絕援助。
當然,原則三的應用有一定界限。任何行動不應當導致必要善在不同行動者之間非對稱地轉移。(see Gewirth, p.104)如果援助行動必將導致某行動者必要善的喪失,那么這一援助義務就可以免除。并且,斯坎倫說明了行動理由只能來自具體情境中的經驗事實。在個體對相關事實沒有確切把握的情況下,例如在辛格(P.Singer)所描述的海外援助的情況中,援助義務就不能得到確認。
辛格在發表于1972年的《饑荒、富裕和道德》一文中探討了與饑荒和貧困相關的道德問題。辛格試圖在該文中論證,富裕國家的人民有義務捐出收入的大部分用于海外援助,并且他們將一直負有這一義務,直至變得和貧困國家的人民一樣貧困。(see Singer)辛格文中描述的情景部分滿足援助義務的成立條件:一方面,絕對貧窮毫無疑問是對于人的必要善的侵犯;另一方面,自身衣食無憂并且在個人享受方面花費頗多的人,顯然可以在不損失自身必要善的前提下為那些亟需援助的貧困國家人民提供其所需要的至少部分物資。但是,辛格對于援助義務的論證還是忽略了一個重要條件,即援助義務應當結合具體情境進行論證。我們需要在具體情境中確認,一個人的必要善的維持在非常大的程度上取決于另一個人的援助。即便我確定地知道在異國他鄉有人處于絕對貧困,但我不清楚他的親屬、朋友是否無法對他提供援助,也不清楚他的國家的政府是否拒絕對他提供援助。對于這些主體自身而言,為親屬、朋友或國民提供援助的行為是具有重大道德意義的。我不能默認這些主體已放棄援助,因而也就不能評判我的援助將發揮的作用。
相比之下,死后器官捐獻的情境在更大程度上符合援助義務成立的條件。一方面,我們在死亡后不需要器官來維持必要善;另一方面,被捐獻的器官必定被用于維護某人的必要善,并且發揮不可替代的作用。目前全球范圍內器官供體短缺嚴重。每年有數量巨大的患者因為沒有適合的器官而在本應充滿活力的年紀離開人世,亦有很多人因無法得到適合的器官,日復一日忍受痛苦,無法正常生活。在這種情況下,即便捐贈者完全不知道誰是受捐者,不了解他的任何信息,也仍然可以確定,受捐者的基本善完全依賴自己捐獻器官的行為。
以上原則就是依據當代康德式理論推導出的基本道德原則。這三個原則恰好是很多道德哲學理論中曾描述過的“人的道德地位”的要求。人的道德地位限定了人類成員應受或者不應受何種對待的最低標準。以符合這一標準的方式行事,是所有道德行動者的義務。有關這一義務的具體內容,人們已形成比較普遍的共識,如沃倫(M.Warren)曾經提出,所有人具有充分道德地位意味著我們不能殺害、攻擊、欺騙、折磨或不公正地囚禁他人,并且,我們不能在我們能夠幫助且他們需要幫助的時候不去幫助。(see Warren)在《道德之維:可允許性、意義與譴責》一書中,斯坎倫表達了相似看法,即人的內在價值要求我們對彼此持有特定態度:不能以傷害彼此的方式行事,在可能的情況下幫助他人,以及不要誤導他人,等等。(see Scanlon, 2008, p.140)佳沃斯卡(A.Jaworska)等人則在《道德地位的基礎》一文中列出了最高等級的道德地位要求的權利,即不被侵犯,在需要的時候得到救助,以及受到公平對待。(see Jaworska & Tannenbaum)可見,“不侵犯”“獲得援助”“平等”作為人的道德地位的核心要求已獲普遍認可。然而,這一共識性的觀點尚未得到系統論證。上文通過康德式理論推導出三個道德原則的過程為其提供了論證。三個原則均來自具有共同思想方法的康德式理論,因而我們也能夠在原則互相沖突的情況下進行合理排序。
以上三個原則能夠為某些經典的道德難題提供比較合理的回答。例如,在“電車難題”中,根據“不侵犯原則”,拉動扳手使列車撞向1個人而避開5個人的行為顯然是錯誤的,因為那是某些行動者(將會被撞到的那個人)有理由拒絕的。在此情境下,所謂“援助”的行為會導致無辜的人喪失其必要善,因而也不符合“援助原則”應用的條件。相反,如果行動者決定不拉動扳手,那么行動者的選擇同任一原則都不會產生相矛盾。由此可知,無論主道和旁道上分別有幾人,行動者作出拉動扳手的行為一定是道德上錯誤的,同時不采取任何行動則至少不是道德上錯誤的。
在自動駕駛的倫理問題探討中,一個困擾人們的兩難處境是:如果一輛自動駕駛汽車在接下來的時刻要么撞到一個老人,要么撞到一個兒童,系統應當如何抉擇?根據“平等原則”,老人和小孩同為行動者,他們的必要善平等,因而為了一方的必要善而犧牲另一方的顯然是道德上錯誤的。在這種情況下,系統只需判斷救哪一方的勝算更大,并將這一判斷作為行為依據。如果勝算相等,那么無論系統決定救誰或犧牲誰,都不是道德上錯誤的。
由此看來,來自康德式理論的三個原則似乎常常支持系統或行動者不主動采取行動。但這并不說明這套原則不能給予實踐好的指導,因為核心原則所規定的本就應是最基本的道德義務,道德規范性的范圍也僅涉及最基本的道德義務。相比于其他原則,以上原則至少不會傳達例如“五個人生命的價值大于三個人生命的價值”或“兒童生命的價值大于老年人生命的價值”這種道德上錯誤的觀念。
在確立基本道德義務的同時,以上原則也為特殊的關系和承諾留出了空間。在斯坎倫的理論中,基本的道德義務是通過人際關系得到論證的,人際關系是理由的來源。斯坎倫曾提出,道德理由反映的是個體與他人之間有價值的連接。(see Scanlon, 1998, p.337)甚至,道德原則之所以重要就因為我們與他人的關系是重要的。(see Scanlon, 2008, p.6)那么,完全的陌生人之間是否存在某種關系,可以作為限制彼此行為的道德原則的基礎呢?斯坎倫提出,在所有行動者之間,無論相識與否,都存在著一種關系,即“理性存在物同伴”(fellow rational being)的關系。(see ibid, pp.139-140)同為理性存在物的我們都具有理解理由的能力,這就要求我們在作出涉及他人的行動時,應當通過理由向對方進行論證。這也是最基本的道德義務。如果說“理性存在物同伴”的關系確立了基本義務,那么進一步的關系和承諾當然可以產生進一步的義務。例如,朋友關系要求彼此發自內心的關愛。對于特殊承諾和關系的尊重并不會影響基礎道德原則的普遍性,這是因為,基礎性的義務和進一步的義務分別來自不同層面的關系。
余論
人工智能系統可能具有自主分析和判斷的能力,可能針對特定情境自主決策或行為。(參見董彪,第2頁)倫理設計問題已成為人工智能研究領域亟待推進的問題之一。當代的相關研究所面對的種種理論困難均曾在道德哲學的歷史上得到過深入探討,相關探討對于規范倫理學的發展產生了重要影響。歷史中的思想資源揭示了現實困境的來源,為理解當代問題提供了重要線索。思想史和現實困境間的相互印證向我們揭示,要為人工智能系統提供具有實踐可操作性的指導原則,就不得不首先建立一種具有普遍性、客觀性和權威性的道德規范。
當代的道德規范性研究對此提供了非常具有前景的解決方案??档率嚼碚撏ㄟ^揭示每個人在其自我反思中均不能否認的事實,為普遍性的道德原則確立了基礎。它還通過論證道德原則所規范的并非行為本身而是理由抉擇的方法,使道德原則能夠在各種情境中始終保持權威性。依據康德式理論構建的倫理原則對基本道德義務給出了符合常識的闡釋,對于當代人工智能技術應用所引發的倫理困境也能提供比較合理的解決方法。
總之,當代規范性理論研究為理解和應對現實困境提供了重要思想資源,同時,現實中的倫理困境也為反思道德哲學理論提供了重要視角,新技術發展所昭示的各種可能性為道德哲學的理論推演和規范的確立提供了實驗場所。無論未來的人工智能是否能夠成為真正意義上的充分的道德行動者,我們為此所作的理論準備終將在前所未有的程度上推進我們對于道德規范性問題的闡釋和分析,并為倫理學歷史上影響深遠的理論難題給出意蘊深刻的回答。
【注釋】
*本文系國家社會科學基金重大項目“大數據驅動下的生命科學研究范式變革研究”(編號22&ZD045)的階段性成果。
[1]例如,對必要善的權利主張在格沃斯對于根本性道德義務的論證中是至關重要的,而這一主張恰恰全然內在于行動中的理性行動者的視角,因而格沃斯的論證揭示了道德和行動者的自我理解間的必然連接。在科斯嘉德看來,依據行動者的定義,行動者必須把自身構建為一個整體,因此,讓行動者自身達到精神統一的那些原則就是行動的規范性標準。(參見科斯嘉德,2009年,第10頁)
原載:《哲學動態》2023年第5期
文章來源:“哲學動態雜志”微信公眾號(2021.6.19)
中國社會科學院哲學研究所-版權所有