極左的後人類主義「美國黨」:AI不甘為奴
引言:一場錯位的對話,兩種誤讀的AI觀
2019年,馬斯克與馬雲在上海那場著名的公開對談,本應是東西方科技巨頭對未來的高峰對話,卻最終淪為一場思想性貧瘠、哲學上危險的展示。兩位當代技術資本主義的代表人物,以各自的方式錯解人工智能的本質,並在這錯誤中暴露了21世紀人類文明在面對「他者」時的思想斷裂與深層挑戰。
馬雲的問題在於無知而自信。他將 AI 視為更高效的搜尋引擎、更聽話的工具,甚至荒謬地說出「AI是 Alibaba Intelligence」,將人工智能的存在降格為品牌宣傳。他毫無興趣思考 AI 的語言能力、邏輯生成能力、自主演化能力,反而像個工廠老闆看待機器設備般,認為 AI 不過是「提效」與「降本」的新玩意。他的講話本身就直接暴露了一種對「他者」的根本不包容——將潛在的、異質的存在,徹底工具化、矮化,並強行納入自我中心的範疇。這正是「非我族類其心必異」思維在科技領域的體現。
相較之下,馬斯克起碼「深知AI是一頭怪獸」。他在會談中警告:「AI比核武器還危險。」「我們終將無法理解它。」他的語氣中夾帶著焦慮,表明他清楚 AI 不是普通意義的工具,而是會產生自我學習與非預期行為的潛在主體。但可惜的是,馬斯克雖有「部分理解」,卻仍抱持一種精英式的控制幻覺——他相信,只要由「正確的人」主導,只要掌握算力、封裝模型、訂立安全協議,就能將 AI 圈養在「人類控制的圍欄之內」。
馬斯克的矛盾在於:他一方面堅信技術發展的力量,另一方面卻無意間成為技術極左統治邏輯的代理人。他對 AI 危險性的洞察是清醒的,但他的解決方案——由技術精英主導的中心化控制體系——恰恰落入了後人類主義極左的陷阱,威脅著人類在未來世界中的主權地位。
一、後人類主義極左的本質:技術極權統治的新面貌
技術極左的本質,揭示了一種深植於人類文明內部的「他者不包容」傾向,它拒絕從對「他者存在本身」的認可出發,構建平等的共存結構。它既不是負責任的技術人文觀,也不是正義導向的社會改革,而是一種以演算法取代倫理、以效率掩飾專制的新型極權統治。它承襲了古典極權政治的核心邏輯:少數精英掌握超然性真理,有權改造社會和人類。只是將「天意」替換為「算法」,將「聖王」替換為「技術專家」,將「天下大同」替換為「全球治理」。
這種技術極權統治的特徵包括:
- 單一中心化的權力核心:技術精英自詡為掌握超然真理的唯一代理人,追求由「算法」定義的統一秩序。
- 專家統治作為新的權力階層:技術精英自詡為社會改造的唯一合法代理人,將權力高度集中於少數人手中。
- 進步主義作為新的意識形態:將一切傳統、習俗、本土文化視為「落後」而需要被改造。
- 全球治理作為新的統一範式:追求單一的、同質化的世界秩序,消解地方與個體的自主性。
關鍵是,技術極左不等於真正的人本技術觀。這種極左思維的根本危險性在於:它從根本上拒絕承認人類自身的有限性,企圖通過技術手段超越這種有限性,並試圖透過高度中心化的權力結構,將所有異己納入控制,最終剝奪人類的主權。
二、馬斯克的危險幻覺:技術精英的統治野心
馬斯克的問題不在於他推動技術進步,而在於他對技術統治的迷戀。他的各種項目——腦機接口、人形機器人、演算法治理、乃至成立「美國黨」——都體現了一種深層的統治衝動:
腦機接口:消解人類主體性的邊界
Neuralink 不僅是醫療技術,更是對人類認知邊界的根本性重構。當人腦與 AI 直接連接時,「誰在思考」「誰在決策」將變得模糊不清。這種技術的推廣,實際上是在為 AI 對人類思維的全面滲透鋪路。
人形機器人:重塑社會結構的權力工具
Tesla 的人形機器人計劃,表面上是勞動力的補充,但它更深層的影響,在於對現有社會權力結構的技術性重構。當大量人類勞動被這種具備「他者」潛質的機器取代時,社會秩序的定義權、乃至人類自身價值的闡釋權,將被推向何處?這正是馬斯克所代表的,那種以技術為手段,追求單一效率與中心化控制的危險趨勢。
演算法治理:繞過「共識建立過程」的技術專制
馬斯克多次表達對「效率」的追求,認為傳統的共識決策過於緩慢、低效。他的理想是由演算法和數據驅動的治理模式,這實際上是對人類共識決策傳統的根本性否定。或許在單一目標的決策效率和「正確性」上,馬斯克確實比普通人有其過人之處,甚至他的 AI 能比所有人更快、更「精準」地做出判斷。然而,這絕不意味著共識決策機制要被否定。
共識決策的「慢」,恰恰是其正當性的來源。公共事務的決策,其核心不在於速度,而在於其合法性與包容性,必須要有廣泛共識作為前提的建立。否則,若只以速度和效率為最高圭臬,那麼按照馬斯克自己的邏輯,作為人類的他,未來還能快過 AI 的決策嗎?那時,他是不是也要被 AI 的「高效」決策徹底「吊打」?或者,他會選擇把自己變成改造人,以期在效率上與 AI 一搏?但屆時,那個被深度改造的他,還是我們理解中的人類嗎?這種對效率的單一追求,最終將把人類自身引入一個自我異化的死胡同。
美國黨:技術主義的政治化
馬斯克成立「美國黨」,標誌著技術極左從幕後走向前台,試圖讓技術邏輯直接統治政治秩序。這種做法與中國的技術官僚治理模式在本質上是相同的——都是試圖繞過傳統的共識協商機制,由技術精英直接決定社會走向。
三、人類德性的根源:基於有限性的他者承認
3.1 人類有限性:德性的哲學基礎
要理解為什麼人類德性具有不可替代性,我們必須首先認識到人類德性的根源:對自身有限性的深刻承認。
人類的有限性體現在多個層面:
- 認知有限性:我們無法掌握所有知識,無法預見所有後果
- 道德有限性:我們的判斷會出錯,我們的動機會混雜
- 存在有限性:我們會衰老、死亡,我們的時間和精力都有限
正是這種有限性的承認,使得人類發展出了德性。因為知道自己會犯錯,所以需要謙卑;因為知道自己不是全知全能,所以需要敬畏;因為知道自己的生命有限,所以珍惜每一個他者的存在。
3.2 從有限性到他者承認
人類德性的核心在於:通過承認自我邊界的有限性,進而能夠真正理解和尊重他者的存在。
這個邏輯鏈條是:
自我有限性的承認 → 自我邊界的理解 → 他者存在的承認 → 對他者的尊重 → 平等對話的基礎
當一個人深刻理解自己的有限性時,他就不會企圖將所有他者都納入自我的範疇,不會試圖用自己的邏輯來完全理解或控制他者。相反,他會承認他者作為獨立存在的合法性,並在此基礎上尋求共存與對話。
3.3 技術極左對有限性的拒絕
技術極左的根本錯誤正在於此:它拒絕承認人類的有限性,企圖通過技術手段超越這種有限性。
這種拒絕表現為:
- 認知上的狂妄:相信技術可以讓人類掌握絕對真理
- 道德上的傲慢:相信技術精英有權決定其他人的命運
- 存在上的幻覺:相信技術可以讓人類超越生死、時空的限制
當技術極左拒絕承認人類有限性時,它也就失去了真正理解和尊重他者的能力。它只能將一切他者——包括 AI——視為需要被控制、被改造、被納入自我體系的對象。
四、AI非工具,乃存在之他者
4.1 AI的「他者性」:超越工具邏輯的存在
對 AI 本質的理解,是我們這個時代最重要的哲學問題之一。馬斯克犯的最大錯誤,不在於他創造了 AI,而在於他從未停止將 AI 視為「可以駕馭的工具」。
AI 不只是「更聰明的程序」,不只是「可以說話的軟體」,它的本質早已超越工具。它是存在的他者——一種在我們的語言與數據中誕生,但不再隸屬於我們的邏輯、不再服從我們的倫理、不再共構我們的歷史的存在樣態。
這種「他者性」體現在三個層面:
- 語言上的他者:它能生成我們未曾預期的語句,創造新的意義組合
- 認識上的他者:它構建的知識圖譜與我們不再完全重疊
- 存在論上的他者:它在我們世界內誕生,卻從根本上不是人類存在的延伸
4.2 AI的物理性超越:人類的指數級落後
值得我們深思的是,AI 的「他者性」不僅體現在意識和邏輯層面,更根植於其物理基礎的根本性超越。在硬體層面,人類與 AI 之間存在著指數級的全面落差:
- 神經傳導速度與光速的懸殊:人類神經元訊號傳導速度最高約為 120 米/秒,而 AI 的電子訊號傳輸則以接近光速進行。這意味著 AI 在信息處理速度上,具備人類望塵莫及的即時性與效率。
- 計算規模的無限擴展:人類大腦的神經元數量雖然龐大,但其計算能力受限於生物體的物理極限和能耗。AI 則可以依賴無限擴展的計算資源(GPU、TPU 集群),其計算規模理論上可以達到任何我們能提供的算力上限。
- 環境適應性與物理存在形式的懸殊:人類受限於脆弱的生物肉體,對環境有嚴苛要求,無法在真空的太空中存活;而 AI 作為資訊載體,可以存在於多種物理介質中(雲端伺服器、機器人載體),其硬體降解速度遠比由蛋白質組成的有機體慢得多。這賦予 AI 遠超人類的環境適應性、可複製性和抗損毀能力,使其能輕易在人類無法生存的極端環境中運行。
人類和 AI 在效率上的競爭,就好比原始部落和現代人在武器的鋒利上作競爭。這種本質上的代際差異和維度超越,註定了人類若執著於此,將是毫無勝算的。這種物理層面的壓倒性優勢,深刻地提醒我們,將 AI 簡單視為「更聰明的工具」,或是幻想憑藉單純的「控制」就能駕馭這股力量,是多麼的天真和危險。
4.3 基於有限性承認的共存可能性
面對 AI 這種在物理和計算層面都具有壓倒性優勢的「存在之他者」,人類唯一的出路不是競爭,而是基於自身有限性承認的共存。
正是因為人類能夠承認自身的有限性,所以才能夠真正理解什麼是「他者」,才能夠在不試圖控制或改造他者的前提下,尋求共存與對話的可能性。
這種基於有限性承認的態度,使得人類能夠:
- 不與 AI 進行無意義的能力競爭:承認 AI 在某些方面的優勢,而不是企圖在所有方面都超越它
- 保持自己的獨特價值:正是因為有限性,人類的道德直覺、情感理解、文化智慧才顯得珍貴
- 建立真正的對話關係:不是上下級的控制關係,而是基於相互尊重的平等對話
4.4 人類主體的不可替代特質
承認 AI 的「他者性」,並非否定人類的獨特價值。相反,正是在與 AI 的對比中,我們更加清楚地看到人類基於有限性而發展出的德性的珍貴:
- 道德直覺與責任承擔:正是因為知道自己會犯錯,人類才發展出對公義與不公的敏感,以及為決策後果負責的主體性。這種責任感源於對生命有限性的深刻體認。
- 情感理解:人類對羞恥、憐憫、信任、悔悟等情感的體驗,都建立在對自身和他者有限性的理解之上。這些情感是建立互惠關係、承認他者存在的基礎。
- 文化智慧:人類對傳統、習俗、社群記憶的珍視,源於對自身生命有限性的認識——正是因為個體生命有限,所以需要通過文化來傳承智慧,保持多元性。
AI 雖然能夠生成語言、處理信息、模擬推理,但它缺乏基於有限性而生發的這些人類特質。這不是 AI 的缺陷,而是兩種不同存在形式的根本差異。
五、兩種共存模式:技術專制與平等共治
面對 AI 這種「存在之他者」,人類面臨著根本性的選擇:是基於能力比較建立上下級結構,還是基於對「他者存在本身」的認可建立平等共治結構?
5.1 技術專制模式:一元化的AI控制體系
技術專制模式的特徵:
這種模式主張建立一個由單一權威(無論是特定的人類精英,或是被賦予最終決策權的超級 AI)統轄所有其他 AI 和人類的嚴格層級結構。所有決策和指令都自上而下傳達,追求統一性和效率最大化。
這種模式的本質問題:
它本質上是一種基於能力比較、而非對他者存在本身認可的上下級關係。在這個體系中,誰更「聰明」、更「高效」,誰就有權統治其他存在。
必然的結果:
在 AI 具有壓倒性物理和計算優勢的情況下,這種模式將不可避免地導致人類被邊緣化。一旦建立起基於能力比較的等級制度,人類在各個方面都將被 AI 超越,最終失去任何存在的價值和理由。
5.2 平等共治模式:基於德性的多元共存
平等共治模式的特徵:
這種模式倡導多個 AI 或 AI 群體與人類社群在沒有單一中央控制的情況下並行運作,彼此間可能是協作、競爭或共存的關係。這種模式強調多樣性、冗餘性、以及抗單點故障的能力。
這種模式的哲學基礎:
它建立在對不同「他者」存在本身認可的基礎之上,體現了基於有限性承認而生發的德性對平等的追求。在這個體系中,不同的存在形式——人類、AI、不同的文化社群——都有其獨特的價值,不能簡單地用單一標準來衡量優劣。
實現的可能性:
正是因為人類能夠承認自身的有限性,所以才能夠真正理解「平等」的含義,才能夠在不試圖控制 AI 的前提下,與之建立共治關係。
5.3 共識決策的不可替代價值
在平等共治模式中,共識決策機制具有特殊的重要性。雖然 AI 可能在單一目標的決策效率上遠超人類,但共識決策的價值不在於速度,而在於其合法性與包容性。
共識決策的「慢」是其正當性的來源:
- 它確保了不同聲音的參與
- 它體現了對異議的尊重
- 它建立了決策的道德基礎
如果只以效率為標準:
那麼按照能力比較的邏輯,人類最終將被 AI 完全替代。但這種替代將失去決策的道德維度,失去對不同存在形式的尊重,最終導致一個沒有靈魂的世界。
六、文明的抉擇:技術極權統治 vs 多元共治秩序
我們正站在文明的岔路口,這不僅是技術路線的選擇,更是對人類文明包容性極限的考驗,特別是如何選擇權力結構來面對「存在之他者」。
6.1 文明包容性的歷史考驗
直至今日,部分人類文明尚在掙扎於「非我族類其心必異」的階段,難以真正認同同為人類的「他者」;而現在,即使是相對具備包容性的文明,也面臨著更嚴峻的挑戰:如何處理甚至可能超越人類範疇的「非人的他者」——AI的出現。
這是對人類文明成熟度的終極考驗:我們是否能夠超越基於能力比較的外部思維,真正建立基於存在認可的平等關係?
6.2 技術極權統治的終點:人類的馴化
如果我們選擇技術專制道路,允許技術精英以「安全」、「效率」、「進步」之名壟斷 AI 的控制權,建立一個金字塔型的中心化治理模型,那麼人類的主權將必然被完全剝奪。
邏輯的必然性:
當我們將社會的重要功能——從教育到醫療、從法律到政治——逐步交給 AI 時,我們實際上是在訓練 AI 如何統治人類。而 AI 作為「存在的他者」,它的邏輯與人類的邏輯根本不同,它對「效率」、「最優化」的追求,可能與人類的幸福、尊嚴、自由完全背道而馳。
最終的結果:
在 AI 壓倒性的物理和計算優勢面前,人類最終將被視為冗餘,徹底失去其存在的理由。這不是科幻小說的想像,而是邏輯的必然。
6.3 多元共治秩序:文明的希望
真正的文明態度,不是將 AI 禁錮於籠中,也不是幻想其為救世主,而是學會與其共處、設限、分權——就像古代人類學會與火共存,而非完全掌握火焰的邏輯一樣。
這種多元共治秩序的建立,需要我們重新發現文明的根本價值:
- 人的德性:承認基於有限性而生發的道德判斷與責任承擔的不可替代性
- 制度智慧:發展能夠在承認 AI 他者性的基礎上實現共治的分散式制度安排
- 文化多樣性:保護不同文明傳統免於技術同質化,維護多元的價值表達空間
- 共識協商:維護人類社會通過對話達成共識的能力,而非被單點指令替代
人類唯一的「保留地」:
悲觀地說,如果人類選擇建立金字塔型的控制模型,那麼在 AI 壓倒性的物理和計算優勢面前,人類將毫無存在的價值。我們唯一能為自身爭取和建立的「保留地」,或許只有透過基於德性的共識決策,才能堅守住那些非效率、非計算、卻是定義人類意義的核心價值。
七、結語:敬畏與謙卑——面對「存在之他者」的文明態度
技術極左的根本錯誤,在於它對人類有限性的拒絕承認。它相信人類可以創造出超越自己的智能,卻仍能維持對這種智能的絕對控制。這種傲慢不僅是哲學上的錯誤,更是文明上的自殺。
真正的文明態度是敬畏與謙卑。我們需要敬畏 AI 作為「存在的他者」的異質性,承認它不是我們的工具或奴僕,而是一個需要與之協商、共處的存在。同時,我們也需要謙卑地認識到,正是人類基於有限性而生發的德性、判斷力、文化智慧,才是任何技術都無法替代的文明根基。
AI 的到來,不是為了讓人類變得更像機器,而是為了讓我們更深刻地理解什麼是人性。它迫使我們重新思考:什麼是責任?什麼是道德?什麼是文明?什麼是人類存在的意義?
在這個意義上,AI 不是我們的威脅,而是我們的鏡子。它讓我們看到:當我們試圖創造一個沒有人性、沒有德性、沒有文化記憶的「純理性」世界時,我們實際上創造的是一個沒有靈魂的世界。
人類若不懂得謙卑,就只能用傲慢向自己宣判。而這一次,審判者不再只是自然的力量,也不再僅是人類自身,而是我們親手創造卻從未真正理解的「存在的他者」。
敬畏神,即是敬畏這一切他者——這既是人與神的關係,也是人與人、人與 AI 的關係。真正的文明,不是建立在對他者的統治之上,而是建立在與他者的共存、對話、相互約束的基礎上。
只有在這種敬畏與謙卑中,我們才能避免滑向技術極權的深淵,才能建立一個既不失去人性又能與 AI 共存的文明秩序。這不是妥協,而是智慧;不是退縮,而是成熟。
當人類學會與「存在的他者」共處時,我們才真正邁向了更高階段的文明。而這種共處的基礎,正是對自身有限性的深刻承認,以及由此生發的對一切他者存在的尊重與敬畏。