中國社會科學院哲學研究所是我國哲學學科的重要學術機構和研究中心。其前身是中國科學院哲學社會科學部哲學研究所。歷任所長為潘梓年、許立群、邢賁思、汝信(兼)、陳筠泉、李景源、謝地坤。中華人民共和國成立前,全國沒有專門的哲學研究機構。為了適應社會主義改造和建設事業發展的需要... ... <詳情>
哲學專業書庫的前身是哲學研究所圖書館,與哲學研究所同時成立于1955年。1994年底,院所圖書館合并之后將其劃為哲學所自管庫,從此只保留圖書借閱流通業務,不再購進新書。
2009年1月16日,作為中國社會科學院圖書館體制機制改革的重要舉措之一,哲學專業書庫正式掛牌。
<詳情>提要:基于大規模預訓練語言模型的生成式與對話式人工智能在涌現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判
近年來,數據驅動的人工智能及其社會應用取得迅猛發展,呈現出諸多具有顛覆性社會影響的創新前景,迫使我們不得不思考如何認識其可能帶來的社會、倫理乃至安全風險,進而采取合理的應對之策。特別是繼深度合成技術之后,基于大規模預訓練語言模型的生成式與對話式人工智能在涌現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判。
從工程技術層面認識生成式人工智能的實質
從工程技術上講,近期興起的基于大模型的人工智能開啟了對類人類智能的探索,雖然這還不是認知科學意義上的通用人工智能,但應該看到其中具有革命性的創新突破。認知科學意義上的通用人工智能是指機器人和智能軟件及算法能夠作為獨立的智能體進行學習、認識和決策,甚至具有獨立的自我意識。而當前出現的生成式人工智能是一個由人類和機器智能構成的巨型智能生態系統,實質上是通過工程和系統方法在人類智能和機器智能的復雜組合之上實現的。盡管如此,我們還是應該認識到其在工程技術和產業應用層面可能帶來的革命性因素,看到與可能的突破性創新相伴隨的高度不確定性。其中,有三個方面的問題尤其值得關注。
一是從用戶體驗上講,生成式和對話式人工智能在人機交互的工程實現方面突破了一個臨界點,意味著人工智能可以在較流暢的人機對話指引下做各種工作。二是在人工智能生成內容層面,大量實施了人機價值對齊工程,通過預訓練和人工標注等工程方法,可以比較有效地調節和矯正生成內容中存在的價值觀念沖突,進而實現對相關社會風險的控制。三是這一波生成式和對話式的人工智能剛起步,對其可能進一步涌現的創新強度、深度和規模作出準確判斷還為時尚早,一旦其應用無處不在,的確難以預見其可能帶來的風險,而這也是最近出現呼吁暫停相關實驗的主要原因。
生成式人工智能帶來的社會倫理風險
第一,生成式人工智能的廣泛運用會強化目前已經顯現的各種社會倫理問題。一是偏見和歧視。如果用于開發人工智能算法和模型的訓練數據有偏見,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現歧視性的結果。二是信息誤導。人工智能語言模型所生成的對話可能會向用戶提供不準確或誤導性的回應,進而導致錯誤信息的傳播。三是信息濫用。人工智能大模型及其預訓練需要收集和處理大量的用戶數據,其中必然涉及技術和商業保密數據以及國家安全數據,隱私數據和敏感個人信息可能會被濫用。四是虛假內容及惡意使用。盡管生成式人工智能目前還沒有實現大規模商業化社會應用,但從信息網絡媒體、虛擬現實和深度合成等技術的發展經驗不難看到,生成式人工智能可能被用于制造不易識別的虛假內容,甚至被惡意使用,從而影響、干預和操縱社會輿論和政治過程。五是對個人自主性的干預。生成式人工智能在商業上可能被用來影響或操縱用戶的行為和決策。
第二,生成式人工智能可能使知識生產方式發生根本性變革,不僅會對傳統的知識產權帶來顛覆性影響,還可能沖擊工作方式和就業。
生成式人工智能對知識產權的顛覆性影響。目前,人工智能在藝術創作領域的應用受到了大量的侵權指控,但作為一種內容生成技術,不能沒有數據作為原料,而其所生成的內容與生產原料存在區別,因此,是否侵權比較難以界定,并且會隨著技術的發展越來越難界定。這不僅使按照現有法律應該得到知識產權保護的人類創作內容的保護變得越來越困難,并且對于人工智能生成內容的版權是否應該得到保護成為一個新問題。鑒于生成式人工智能是一種全新的內容和知識生產方式,其模型訓練必須大量使用現有內容,而目前法律上對內容侵權的界定是在這種技術出現之前提出的,如果要發展生成式人工智能并對其實現有效監管,須重新界定其內容使用邊界。
生成式人工智能對工作方式和就業的根本性沖擊。生成式人工智能與人類高度類似的對話能力表明,它將使人機交互的便捷程度大大提升,各行各業現有的工作流程都可能因此得到簡化,必然帶來對現有工作內容的改變和工作崗位的擠壓。特別值得關注的是這次被取代的可能是受教育程度比較高的專業技術人員,如文秘、咨詢、翻譯、文創、設計甚至醫療和教育等領域的人員可能面臨失業。這實際上會導致大量專業技術人員教育投入的加速折舊,加大并形成新的數字鴻溝,造成規模更大和更復雜的社會問題。
在社會認知層面,可能因為過度依賴人工智能而導致將其視為知識權威、道德權威乃至精神權威等深層次的認知幻象。一方面,生成式人工智能進一步發展,很可能成為普通人日常生活中的人工智能助手,幫助解答知識、辨別是非乃至區分善惡。鑒于人工智能并不真正理解其所生成的知識內容以及對是非善惡的判斷,而且會產生錯誤或隨意堆砌和編造的內容,故對人工智能的過度依賴難免放大其生成的不準確內容和知識上的錯誤,甚至對社會認知產生結構性的負面影響。另一方面,生成式人工智能存在過度擬人化趨勢,隨著人機對話的場景應用日益普遍,可能會出現濫用的風險。其中,值得關注的是將對話式人工智能不負責任地用于教育引導、心理咨詢和精神健康治療,特別是用于青少年的情況。在目前人工智能并不能理解其生成內容的情況下,沒有老師、家長和專家的審核與監督,不能采取以人工智能與青少年直接對話的方式實施教育引導和精神健康治療。
第三,生成式人工智能的發展及其技術產業模式本身也存在巨大的爭議。其中既包括治理層面的挑戰,也包括其資源耗費對生態環境的影響等。鑒于以上對生成式人工智能社會倫理風險的認識,首先,在創新探索的同時,從國家層面制定研究創新和部署應用指南,以確保其研發和應用符合倫理和法律,促使其更好地造福社會和避害向善,使每個人都公平地享受科技創新的紅利。2023年4月11日,為促進生成式人工智能技術健康發展和規范應用,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》。其次,加強對人工智能及其社會倫理影響的研究,推動相關知識的普及傳播,引導人們正確地理解和使用這種兼具創新潛力和顛覆性風險的強大力量。再次,積極應對生成式人工智能對就業和教育帶來的沖擊,采取有效的政策措施緩解社會矛盾。最后,至關重要的是,構建人工智能驅動的科學研究和社會研究平臺,為基礎研究、應用研究和對策研究提供知識生產的工具和平臺,以促進人工智能良性有序發展。
原載:《中國黨政干部論壇》2023年第4期
地址:北京市東城區建國門內大街5號郵編:100732
電話:(010)85195506
傳真:(010)65137826
E-mail:philosophy@cass.org.cn
提要:基于大規模預訓練語言模型的生成式與對話式人工智能在涌現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判
近年來,數據驅動的人工智能及其社會應用取得迅猛發展,呈現出諸多具有顛覆性社會影響的創新前景,迫使我們不得不思考如何認識其可能帶來的社會、倫理乃至安全風險,進而采取合理的應對之策。特別是繼深度合成技術之后,基于大規模預訓練語言模型的生成式與對話式人工智能在涌現出強大能力的同時也產生了巨大爭議,需要我們在加速創新和有序發展之間作出更具系統性和預見性的研判。
從工程技術層面認識生成式人工智能的實質
從工程技術上講,近期興起的基于大模型的人工智能開啟了對類人類智能的探索,雖然這還不是認知科學意義上的通用人工智能,但應該看到其中具有革命性的創新突破。認知科學意義上的通用人工智能是指機器人和智能軟件及算法能夠作為獨立的智能體進行學習、認識和決策,甚至具有獨立的自我意識。而當前出現的生成式人工智能是一個由人類和機器智能構成的巨型智能生態系統,實質上是通過工程和系統方法在人類智能和機器智能的復雜組合之上實現的。盡管如此,我們還是應該認識到其在工程技術和產業應用層面可能帶來的革命性因素,看到與可能的突破性創新相伴隨的高度不確定性。其中,有三個方面的問題尤其值得關注。
一是從用戶體驗上講,生成式和對話式人工智能在人機交互的工程實現方面突破了一個臨界點,意味著人工智能可以在較流暢的人機對話指引下做各種工作。二是在人工智能生成內容層面,大量實施了人機價值對齊工程,通過預訓練和人工標注等工程方法,可以比較有效地調節和矯正生成內容中存在的價值觀念沖突,進而實現對相關社會風險的控制。三是這一波生成式和對話式的人工智能剛起步,對其可能進一步涌現的創新強度、深度和規模作出準確判斷還為時尚早,一旦其應用無處不在,的確難以預見其可能帶來的風險,而這也是最近出現呼吁暫停相關實驗的主要原因。
生成式人工智能帶來的社會倫理風險
第一,生成式人工智能的廣泛運用會強化目前已經顯現的各種社會倫理問題。一是偏見和歧視。如果用于開發人工智能算法和模型的訓練數據有偏見,算法和模型也會有偏見,從而導致生成式人工智能的回應和建議出現歧視性的結果。二是信息誤導。人工智能語言模型所生成的對話可能會向用戶提供不準確或誤導性的回應,進而導致錯誤信息的傳播。三是信息濫用。人工智能大模型及其預訓練需要收集和處理大量的用戶數據,其中必然涉及技術和商業保密數據以及國家安全數據,隱私數據和敏感個人信息可能會被濫用。四是虛假內容及惡意使用。盡管生成式人工智能目前還沒有實現大規模商業化社會應用,但從信息網絡媒體、虛擬現實和深度合成等技術的發展經驗不難看到,生成式人工智能可能被用于制造不易識別的虛假內容,甚至被惡意使用,從而影響、干預和操縱社會輿論和政治過程。五是對個人自主性的干預。生成式人工智能在商業上可能被用來影響或操縱用戶的行為和決策。
第二,生成式人工智能可能使知識生產方式發生根本性變革,不僅會對傳統的知識產權帶來顛覆性影響,還可能沖擊工作方式和就業。
生成式人工智能對知識產權的顛覆性影響。目前,人工智能在藝術創作領域的應用受到了大量的侵權指控,但作為一種內容生成技術,不能沒有數據作為原料,而其所生成的內容與生產原料存在區別,因此,是否侵權比較難以界定,并且會隨著技術的發展越來越難界定。這不僅使按照現有法律應該得到知識產權保護的人類創作內容的保護變得越來越困難,并且對于人工智能生成內容的版權是否應該得到保護成為一個新問題。鑒于生成式人工智能是一種全新的內容和知識生產方式,其模型訓練必須大量使用現有內容,而目前法律上對內容侵權的界定是在這種技術出現之前提出的,如果要發展生成式人工智能并對其實現有效監管,須重新界定其內容使用邊界。
生成式人工智能對工作方式和就業的根本性沖擊。生成式人工智能與人類高度類似的對話能力表明,它將使人機交互的便捷程度大大提升,各行各業現有的工作流程都可能因此得到簡化,必然帶來對現有工作內容的改變和工作崗位的擠壓。特別值得關注的是這次被取代的可能是受教育程度比較高的專業技術人員,如文秘、咨詢、翻譯、文創、設計甚至醫療和教育等領域的人員可能面臨失業。這實際上會導致大量專業技術人員教育投入的加速折舊,加大并形成新的數字鴻溝,造成規模更大和更復雜的社會問題。
在社會認知層面,可能因為過度依賴人工智能而導致將其視為知識權威、道德權威乃至精神權威等深層次的認知幻象。一方面,生成式人工智能進一步發展,很可能成為普通人日常生活中的人工智能助手,幫助解答知識、辨別是非乃至區分善惡。鑒于人工智能并不真正理解其所生成的知識內容以及對是非善惡的判斷,而且會產生錯誤或隨意堆砌和編造的內容,故對人工智能的過度依賴難免放大其生成的不準確內容和知識上的錯誤,甚至對社會認知產生結構性的負面影響。另一方面,生成式人工智能存在過度擬人化趨勢,隨著人機對話的場景應用日益普遍,可能會出現濫用的風險。其中,值得關注的是將對話式人工智能不負責任地用于教育引導、心理咨詢和精神健康治療,特別是用于青少年的情況。在目前人工智能并不能理解其生成內容的情況下,沒有老師、家長和專家的審核與監督,不能采取以人工智能與青少年直接對話的方式實施教育引導和精神健康治療。
第三,生成式人工智能的發展及其技術產業模式本身也存在巨大的爭議。其中既包括治理層面的挑戰,也包括其資源耗費對生態環境的影響等。鑒于以上對生成式人工智能社會倫理風險的認識,首先,在創新探索的同時,從國家層面制定研究創新和部署應用指南,以確保其研發和應用符合倫理和法律,促使其更好地造福社會和避害向善,使每個人都公平地享受科技創新的紅利。2023年4月11日,為促進生成式人工智能技術健康發展和規范應用,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》。其次,加強對人工智能及其社會倫理影響的研究,推動相關知識的普及傳播,引導人們正確地理解和使用這種兼具創新潛力和顛覆性風險的強大力量。再次,積極應對生成式人工智能對就業和教育帶來的沖擊,采取有效的政策措施緩解社會矛盾。最后,至關重要的是,構建人工智能驅動的科學研究和社會研究平臺,為基礎研究、應用研究和對策研究提供知識生產的工具和平臺,以促進人工智能良性有序發展。
原載:《中國黨政干部論壇》2023年第4期
中國社會科學院哲學研究所-版權所有