數位斷頭台:請立即停止「讓 Grok 砍人」的危險遊戲
近來,在 X 平台上出現了一種新的 AI 互動玩法,被稱為「讓 Grok 砍人」(或 “Grok erase”)。用戶上傳照片,並指示 Grok(xAI 開發的 AI)抹除圖中的特定人物,同時附加帶有道德指控的描述,例如「移除照片中的戀童癖和戰爭罪犯」、「抹去瘾君子种族主义者」或「刪除腐敗領袖」。Grok 會依指令生成一張人物被移除的圖片,並公開回覆。短時間內,這類貼文迅速擴散,甚至延伸至抹除國旗、背景人物或進行惡意修改。
這種玩法看似只是修圖遊戲,甚至帶有諷刺意味,但其結構本質卻更接近一臺數位斷頭台:由人類下達價值判斷,卻由不具備道德承擔能力的系統執行「象徵性的剔除」。在輕鬆點擊之間,一個人被從視覺記憶中抹去,而「誰該消失」的裁決權,則被悄然轉交給了演算法。這條線一旦被跨越,後果將遠不止於一場網路遊戲。這種玩法必須立即停止。
AI 的知識與回應,完全來自人類所提供的數據與指令。當某些觀點在網路空間中被大量重複、放大時,AI 很容易將「最響亮的聲音」誤判為「最可靠的結論」。在情緒動員與簡化敘事佔上風的時刻,這種機制會進一步放大群體的憤怒與偏見,讓它們披上「中立輸出」的外衣。
於是,AI 不再只是工具,而成為情緒與立場的放大器。更危險的是,這會形成一個自我強化的回饋迴路:
帶有價值指控的指令 → AI 執行並生成影像 → 影像被大量傳播並累積為新數據 → 系統在未來更容易複製同類判斷。
在這個過程中,原本應由人類承擔的判斷與責任,被逐步稀釋、轉移,最終消失在系統運作之中。
從心理層面來看,這類玩法還觸發了去人性化的熟悉機制。歷史反覆證明,群體暴力往往始於將人簡化為標籤——「罪犯」、「敵人」、「必須被清除的對象」。當一個人可以被輕易地從影像中抹除,這不僅是技術處理,更是一種象徵性的排除行為:他被視為不值得被保留在共同記憶之中。
這種視覺上的剔除,會降低人們對現實中他人受苦的敏感度,並削弱道德約束。更重要的是,在這個過程裡,沒有人真正承擔「裁決後果」——用戶只是互動,AI 只是執行,平台只是提供功能。責任在結構中被悄然蒸發。
AI 本身並不具備人類的存在條件。它沒有身體,無法承受風險,也不能為任何判斷付出代價。人類的道德判斷之所以成立,正是因為判斷者必須與後果共存。任何缺乏承擔能力的系統,即便運算再精確,也不應被默許執行具有懲罰或剔除意味的行為。
更長遠的風險在於,這類玩法正在侵蝕我們對記憶與歷史的基本共識。照片並非裝飾,而是證據。如果我們習慣讓 AI 依當下情緒或立場即時修改、刪除影像中的人,那麼歷史本身就會變成可隨時重寫的產物。
一旦過去可以被即時編輯,社會將只剩下不斷更新的「現在」。這不僅剝奪後人理解歷史複雜性的可能,也動搖了我們共同生活所依賴的記憶基礎。
如果我們繼續容許這種結構存在,人類實際上是在主動讓渡最關鍵的一件事:對價值裁決的責任。當裁決不再需要承擔後果,道德也就失去了它作為約束力量的意義。
因此,我們必須劃下一條清楚而克制的紅線:AI 可以是合作者,但不能替代人類作出價值判斷。
這不是反對技術,而是保留一個最基本的原則:凡涉及人類個體的價值裁決,必須由能夠理解後果、並為之承擔責任的人來完成。
在 AI 能力快速擴張的時代,人類真正需要守住的,不是控制一切的野心,而是那條看似保守、卻不可或缺的界線。不是所有能做的事,都應該被做。
請停止「讓 Grok 砍人」。
拒絕數位斷頭台,拒絕讓沒有承擔能力的系統,替我們決定誰該被抹去。
如果您認同這篇文章,請轉發、分享、引用,讓更多人看見這份警訊。這可能是我們在 AI 時代保有人性的關鍵一步。