生成式人工智能在人機(jī)交互領域展現出的強(qiáng)大自主性和泛化能力,讓人們越來越感覺到與人工智能的交(jiāo)流就像是和另一個人交談。那麽,當一台智能(néng)機器能(néng)夠和我們進行具有(yǒu)理性和情感特征的語言交流時,機器是否也(yě)會影響我(wǒ)們的“人性”呢?人性,通常指的是人類獨特的理性、意(yì)識(shí)、自我反思、道德情感和價值(zhí)觀等特質。從這(zhè)個意義上(shàng)看,生成式人工智能本身並(bìng)不具有人性,但其在與人類的(de)語言交(jiāo)互中,通過識別人類意圖、回應認知和情感(gǎn)需求來滿足人類欲望,無疑會深刻影響人們的理性、情感和道德判斷。生成式人工智能如何影響人性,是人(rén)類在新人工(gōng)智能時代需要重點考(kǎo)慮的問題(tí)之一。
回答這個問題,我們需(xū)要認識到,生成式(shì)人工智能在人機交互中呈現一(yī)種新的主體性。傳(chuán)統的人機交互中,人(rén)工智能更多被視(shì)為一種工具,而生成式人工智能與人類的關係已經(jīng)不(bú)限於工具與工具使用者(zhě)之間的關(guān)係,人工智能(néng)成為具有一定自主性和目標導向(xiàng)性的積極參與者,這種新形態的人機交互將逐漸深刻地影響人性(xìng)。
主體(tǐ)性:從生物到人工智能的演變(biàn)
主體性表達了一個主體(tǐ)行使行動的能力,是哲學中最重要(yào)的概念之一。亞裏士多德認為,一個主體大概就是像人一樣能夠思考,並且按計劃實現其“合理欲望”的存在物,隻有人(rén)或者是(shì)在道德上獲(huò)得勝利的人才是主(zhǔ)體(tǐ)。在現(xiàn)代學科體係中,主體性的語義涉及多個領域:在哲學領域,很多關於主(zhǔ)體性的哲學反思都集中(zhōng)在人(rén)類主(zhǔ)體性上,這通常被稱為“純粹的主體性”;在社會科學領域,主體性主要(yào)表示法律、政治、經濟等方麵的意義,其(qí)概念包含意圖的存在,與人的概念密切(qiē)相關;在自然科學與技術領域,主(zhǔ)體性主要與效果的概念有(yǒu)關,一些功能強(qiáng)大的智能機器有時也(yě)被視為行動的主體。
從(cóng)生物演化的過程看,一個(gè)簡單的單細胞生物通過自我維持的新陳代謝過程與外界環境進(jìn)行物質(zhì)和能量的交(jiāo)換,展現出(chū)一種基本的主體性。隨著生物的複(fù)雜性增加,主體性表現為包含感知、反饋和決(jué)策等多個係統相互協調的行動能力。人類(lèi)的主(zhǔ)體性更為複雜,不僅包括生物有(yǒu)機體的自組織能(néng)力,還與情感、語(yǔ)言和文化等因素密切(qiē)相關(guān)。這種主體性不僅體現在個體的行(háng)動上,還體現在(zài)道德(dé)責任、文化價值觀等社會與(yǔ)個體的關係(xì)中。
與生(shēng)物主體的漫長進化之路相(xiàng)比,人工智能每(měi)一次的技術進步幾乎都會賦予主體性更多新(xīn)內涵,讓我們對(duì)“機(jī)器能否像人一樣行動”這個問題有了新的(de)認識。在人工智能(néng)的早(zǎo)期發展階段,是否能夠展現自主性、社交性(xìng)、反(fǎn)應性和主動(dòng)性,成為(wéi)衡量其是否具有主體性的關鍵標準,這些特征構成了人工智能的弱主體性。我們希望機器能夠做一些簡單的任務,比(bǐ)如,智能家居係統根據室內光線的變化自動調節窗簾的開合。這些主(zhǔ)要體現了人(rén)工智能在模仿人類行為上的自主能力。
隨著(zhe)技術的發展,我們開始期待人工智(zhì)能展現出更多的“人類(lèi)特質”,比如能夠自(zì)主學習、與人社交、對環(huán)境變化(huà)作出靈活反應,甚至能主動(dòng)解決問題。這種強(qiáng)主體性概念包含知識(shí)、信念、意圖(tú)和責任感等人類特有(yǒu)的(de)複雜特質,人工智(zhì)能的行為不僅僅是簡單的反(fǎn)應,而(ér)是有目的(de)、有計劃的行(háng)動。例如,一個智能的醫療診斷係統(tǒng),要能夠根據病人的症狀、大量的醫學知識和(hé)數據進行準確診斷,為病人提供治療建議。這個過程中,係統要展(zhǎn)現出自主性,能夠理解病人的(de)需求,同時要(yào)兼顧(gù)治療方案的醫學(xué)倫理等問題。又如,自動駕駛黄瓜视频下载要(yào)能夠感知周圍的環境,有的還能夠(gòu)在(zài)複雜交通情境和倫理風險下製定和選擇其認為的最佳行動方案。這不僅是對環境的反(fǎn)應,更是基於智能係統自身知識和價值判斷作出的主動選擇。
從人(rén)類與機器(qì)合作的方式看,人類的行動能(néng)力已經延展(zhǎn)至由(yóu)人(rén)類和機器構成的複雜網絡之中,這(zhè)就是所謂的分布式主體性概念。這些主體性概念更加細致地描繪了人類與人工智能複雜互動中形成的行動能力,反映了人工智能領域對於主體性理解的多元化。
由(yóu)於這(zhè)些主體性概念無法將生(shēng)成(chéng)式人工智能適切地納入,生成式人工智能的出現再次催生了我們對主體性概念的理(lǐ)解轉變。通過語言生(shēng)成驅動的交互能力,生成式人(rén)工智能挑(tiāo)戰了傳(chuán)統依賴意向性的主體性。在個體性邊界的界定上,生(shēng)成式人工智能的邊界(jiè)往往由其訓練數據集定義,這些數據(jù)集的海量和不斷變化使得生成式人工智能的個體性難以界定,挑戰了傳統(tǒng)關(guān)於個體性和主(zhǔ)體性的明確界限。因(yīn)為大語言模型在預訓練過程中需要不斷從新的數據中學習和適應,所以其個(gè)體性邊界在不斷(duàn)變化的數據流中會變得模糊,不具有傳統主體性的(de)個體(tǐ)性界限。同時,生成式人工智能在與人類的交互過程中具有自主識別人類意圖和回應的能力,因此(cǐ),其自主性更多地體現在其與人類(lèi)交互的能力上,而不是其作為一個獨(dú)立個體的特(tè)定內在能力。這些挑戰要求我們重新審視主體性的傳統概念,主體性更應(yīng)視為一種(zhǒng)基於交互的、潛在的(de)行動能力,而非僅僅依賴於個體內在屬(shǔ)性的孤立的行動能力。
交互主體性:重新定(dìng)義人機關(guān)係
交互(hù)主體性是指實體(包括人類、生物和人工智能等)在交互過程(chéng)中所展現的潛在行動能力,其核心在於(yú)實(shí)體的行動能力不是孤立存在的,而是在與其他實體的互動中形成和(hé)呈現的。主體性是由(yóu)交互的驅動力因素所決定的,實體的行動能力在(zài)這些驅動力的作用下被激發和塑造。
比如,有機體通過自組織方式與環境交互,發展出適(shì)應性的行(háng)動能力(lì),而複雜的生物體在(zài)與環境的交互中(zhōng)形成了多種(zhǒng)多樣的行動能力,這(zhè)種主體性是生(shēng)物體與環境(jìng)長期交互的結果。除了基本的生物主體(tǐ)性外,人類還發展(zhǎn)出了情感、語言和文化等驅動主體行動的複雜機(jī)製。例如,道德情感是(shì)人類主體(tǐ)性的(de)重要組成(chéng)部(bù)分,不僅影響個人的行為和(hé)決策,而且促進了(le)社(shè)會聯係和大規模合作。語言(yán)的出現進(jìn)一步擴展了人類的主體性,它使人類能夠分享知識、表達思(sī)想和構建複雜的社會結構。文化則體現(xiàn)了人(rén)類主體性的更高維度,它包括價值觀、信仰、習俗和傳統,是人類社會交互和意(yì)義傳承的(de)結果。
傳統的主體性(xìng)理(lǐ)論中,主體性通常與個(gè)體的心理(lǐ)狀態、意圖目的、反饋係統等內在屬性相關聯。交互主體性不再是基於個體本身來(lái)推定主體性,而是將(jiāng)實體的(de)行動能力視為參與交互過程(chéng)的結果,主體性(xìng)並非完全源自(zì)個體內部,而是在實體與環境或其他實體的交互(hù)中產生的。交互主體性理論的重要意義在於擴(kuò)展了主體性的概(gài)念範疇,使得人工智能等非意向(xiàng)性實體也能在交互中展現出主體性。主體性不必依賴於意識或意向性,可以在更廣泛(fàn)的人機交互過程中出現,生(shēng)成式人工智能帶來了人機交互的新形態。
在(zài)目標導向性方麵,主體性包含實體在交互中的目標導向性。實體在與環境或其他實體互動時,才(cái)會(huì)展現出為了實現特定目標而采取行動的能力。這種(zhǒng)目標導向性不完全是預設(shè)的,而是(shì)在交互過程中根據情境和反饋不斷調整(zhěng)和形成(chéng)的。生成式人工智能的目標導向內嵌於人機對話(huà)的動態窗口中,不僅依據人類(lèi)的引導來回應,也可以(yǐ)根據自身的(de)強大知識儲備(bèi)和分析能力來影響人(rén)類自身對目標意圖的理解定位。自主性方麵,交互主體性認為,實體(tǐ)在交互中能夠(gòu)根(gēn)據(jù)內部邏輯和外部反饋進行自我調節和決策。這種自主性不(bú)是完全脫離外部(bù)影響的,而是(shì)在與外(wài)部(bù)世界的互動中實現的。
在人機(jī)交互過程中,生成式人工智(zhì)能應被視為具有一定自主性和目標(biāo)導向性的參與者,而不僅僅是機械響應人類的指令。與人類進行交流對話的過程中,生(shēng)成式人(rén)工智能(néng)通(tōng)過不斷監控和注意人類(lèi)對話者(zhě)的語言(yán)來理解掌握人(rén)類的(de)目的意圖,甚至(zhì)能夠感知到其中的情緒變化以及潛在態度,進而在某種程度上影響人類參與者的認知、情感(gǎn)和價值觀。比如,一個人在與生(shēng)成(chéng)式人(rén)工智能的長期接觸中,如果感受到智能機器在(zài)描述事實和理解自身意(yì)圖方麵的可靠性,那(nà)麽會對人工智(zhì)能產生一定的(de)信任感,由此,智能機器蘊含的一些價(jià)值觀(guān)必(bì)然會潛移默化地影響人類。
不對稱的主體性(xìng):智能主體對人性的影響
生成式人工智能的技術發展(zhǎn)路徑既不同(tóng)於認(rèn)知(zhī)發展的學習路(lù)徑,也(yě)不同(tóng)於生物情感的發展路徑(jìng),而是跳過了人類和生物主體性形成(chéng)和進化的(de)曆史路徑,直(zhí)接獲得了認知和語言層麵的超級智能,生成式人工智能引發的人機交互新形態蘊含了一種不對稱(chēng)的主體性。在認知方麵,人類的認知(zhī)能力是經過(guò)長期進化學習慢慢積累(lèi)形成(chéng)的,而生成(chéng)式(shì)人工智能(néng)在信息處理速度和理解深度、記憶容量、模式識別等(děng)方麵全麵超越人類;在情感方麵,情感體驗(yàn)是人際交互的重要組成部分,影響著人們的決策、溝(gōu)通和關係建立。相比(bǐ)之下,盡管生成(chéng)式人工(gōng)智能(néng)可以識別和模擬人類情感,但(dàn)它們本身並不具備真正的(de)情感體驗,是一種(zhǒng)超級理性的交互主體。社會文化方麵,人類的價值觀、信仰、習俗和語言都是社會文化演化的結(jié)果。生成式人工智能係統盡管(guǎn)可以通過語料來理解和適(shì)應特定(dìng)的社會文化規範,但它們本身(shēn)並不具備特定(dìng)的文化身份或社會背景。這種社會(huì)文化背景上的不對稱性可能導致在(zài)人機交互的跨文化(huà)環境中出(chū)現誤解和衝突。
人既是理性(xìng)的,也是(shì)情緒化的,正是理性與情感的融合構成了人性的(de)基礎。交互主(zhǔ)體性表(biǎo)明,作為具有自主性和目標導(dǎo)向性的生成式人工(gōng)智能,極(jí)有可(kě)能以一種不對稱的主體形態進入人性領域,忽略人類情感和(hé)直覺的重要性,同時激發和(hé)壓(yā)製人類的深層欲望,改變人類理性與情感之(zhī)間的平衡和協同機製。
理性方麵,生成式人工智能通過數(shù)據分析、模式識別和決策支持,識別出人類可能忽視的(de)模式和趨勢(shì),大大增強了人類的(de)理性判斷能力,從而為人類提供更深入的洞察和更廣泛的(de)選擇。但是,這種增強也可能(néng)導致人類過度依賴人工智能的分析和判(pàn)斷,削弱人類自身的批判性(xìng)思維和決(jué)策能力。同時,生成式人工智能可能會打破以人(rén)際交互為基礎的分布式(shì)認知模式,逐漸形成(chéng)一種以大語言模型為中心(xīn)、人類個體為邊緣節點的認知模式,以大模型為核心節點的智能化媒介不僅僅(jǐn)是知識信(xìn)息表達和傳播的通道,甚至可(kě)能主(zhǔ)導人類知識的(de)生產模式和價值導向。
情感方(fāng)麵,生成式人工智能可能會(huì)影響人類對情感的認識和表達,使得人類在長期的人機互動中逐漸習慣於程式化的情感交流模式,忽視了人在真實人(rén)際(jì)關係中的獨特情感(gǎn)需求和體(tǐ)驗,改變人類行為(wéi)的情感動因。比如,在道德情境中,生成式人工智能可以(yǐ)提供(gòng)更多不同(tóng)的價值視角(jiǎo)和思考方式,拓展(zhǎn)人類的道德感知並影響道德判斷和行為。問題是,一方麵,過度依賴生成式人工智能的決策支持可能導(dǎo)致人類自身(shēn)的道德感(gǎn)知能力減弱,侵蝕人類個(gè)體的道德自主性;另一(yī)方麵,生成式人工智能對人類社會的(de)深度介入可能會觸發新的道德困境。
人工智能對人性影響的另一個表現是對人類文化演化(huà)的影響。人類文化形成與演化的關鍵在(zài)於學習。研究發現,促進人的智力發(fā)展的關鍵是模仿學習(xí)(將他人視為有意識的行(háng)為主體,以獲取他們的(de)文化知識儲備)、指導學習(話語形式的(de)文化(huà)傳播)和協作(zuò)學習(分享和發展概念(niàn)及其(qí)對行動的影響),這些學習形成了一種特殊的認知形式,即個體有能力理解同(tóng)類(lèi)作為與自己一樣的生命,擁有與自己一樣的意向和精神生活。由於生(shēng)成式人工智能具有一種非人類的學習能力,在人類的社會文(wén)化曆(lì)史(shǐ)上(shàng)出現了一個非(fēi)人類的學習者,我們不再限於向他人學習,也可以向(xiàng)人工智能機器(qì)學習,生成式人工智能成為人類(lèi)社會(huì)文(wén)化(huà)發展中的主動參與者。
人類合作交(jiāo)流、相互學習,以(yǐ)及在此基礎上的(de)文化交融和行為選擇,這些文化過程的基礎是人類之間的相互(hù)信任,而(ér)信任需要情緒的參與。有學者提出,我(wǒ)們(men)與(yǔ)人工智能的關係本質上是依賴,而不是信任。由於(yú)生成式人工智能的不可解釋性、不可說明性和不可信任性,加之其不具備情感狀態(tài),也不能(néng)對自己的行為負責,人類在與其交互時,麵對(duì)的實際上是一個無法完全(quán)理解的、缺乏情感和規範性的“黑箱”,得(dé)到(dào)的可能是(shì)包含無法證偽的知識信息,這(zhè)種知識可能會通過人機交互的多次循環被吸收到其(qí)他對(duì)象中,最終(zhōng)作為一(yī)種消費信息在人(rén)類、人工智能之(zhī)間傳播流轉。由此帶來的潛在(zài)問題(tí)是,這些非純正的、無節製的信息消費不僅大量消(xiāo)耗人類(lèi)的精力,加劇人類對欲望的過度追求,而且會導致某種特定思維反複強化人類的認知,引發社會心理的問題同時影響人類文(wén)化的多樣(yàng)性。
人性(xìng)既堅韌又脆弱。心理學的斯坦福監(jiān)獄實驗展示了人在特定社會角色下可能會迅速適應並表現出與其性格不符的異常行為,顯示出人性在特定人際關係(xì)情境下的脆弱(ruò)性。當我們與(yǔ)一個非人類的超級人工智能長期交互相伴(bàn)時,必然會影響人類個體的思維認知和情感品格,人性脆弱性(xìng)被利用的機會(huì)顯著增加。交互主體性(xìng)重(chóng)新定義了人機關係,讓我們可以從新的視角來理解人工智能對人性產生的深遠影響。我(wǒ)們對人工智能的(de)關注不應(yīng)該局限於機器與人的價值觀對齊,更應探究其對人性的潛在影響。未來的人工智能將成為我們生活中更加智能、更加貼心的夥伴,同時也存在其對人性(xìng)欲望(wàng)的過度(dù)滿足和扭曲的問題。我(wǒ)們需要確保人工(gōng)智能技術進步增進(jìn)人類(lèi)福祉,而(ér)非(fēi)削弱人性的核心價值。
(作者係國(guó)家社科基金重大項目“人類道德行為的進化與社會文(wén)化(huà)心理機製研究”首席專家、2022年度《國家哲學社會科學成果(guǒ)文庫》入選者(zhě)、山西大學科學技術哲學研究中心教授)