如果你發過 FB 長文,可能遇過一個現象:你用 AI 幫你校稿改得「更專業」之後,觸及反而掉了。這背後有個結構性原因,而且這個現象再往下挖,挖到的是 AI 時代人類思考正在崩塌的起點。


先講戰術面。LLM 的訓練資料大宗是過濾過的網頁,混入論文、技術文件、Wikipedia、書籍這些高品質語料。再加上 RLHF(從人類回饋學)和指令資料微調,整體傾向就是要嚴謹、平衡、加但書、引用來源。所以 LLM 校稿時默默往這個方向改:把「這絕對是 X」改成「這可能是 X」,把強斷言改成「值得注意的是」開頭的帶保留說法,要你加「目前研究顯示」這種吊書袋語。


但 FB 演算法看什麼?高度依賴互動訊號:按讚反應、留言、分享。強情緒、強立場、能引發討論的內容因此有互動優勢。中規中矩的平衡報導沒互動,會被演算法埋掉。


所以你讓 AI「認真幫你改」的每一步,都在往演算法的反方向走。AI 改得越認真,觸及掉得越快。


這是系統性不匹配。AI 公司訓練資料的中位數是「寫論文的人」,FB 演算法的成功資料是「寫網紅文的人」。兩邊完全不是同一個樣本空間。你用前者去生產後者,當然會輸。


但 AI 校稿這件事往下挖還有更大的問題,叫模型崩塌。2023 年有一篇預印本論文叫「The Curse of Recursion」,2024 年正式登上 Nature 期刊。Oxford、Cambridge、Imperial 等多家團隊聯合做的,證明:把 AI 生成內容餵回 AI 訓練,每一代品質越來越差。模型生成的東西比人類文字更平均、更缺乏邊角。連續幾代之後,模型退化成「中間值廢話生成器」。


2026 年這件事正在真實發生。針對線上新發布文章的抽樣研究估計,AI 生成或 AI 參與的文章已經接近一半。OpenAI、Anthropic 越來越仰賴 Scale AI 這種公司找真人專家寫資料,或者用最強模型蒸餾給小模型學。原因不只一個:網路資料污染、自然資料稀缺、新一代推理模型對高品質專家標註的需求增加。


但問題再挖一層,更深。人類自己正在變得跟 AI 一樣中位。


現在會寫東西的人,每天用 ChatGPT、Claude、Gemini 幫自己查資料、打草稿。就算你覺得「我是自己寫」,你的思考框架已經被 AI 塑形:知識是 AI 給的,分析結構是 AI 教的,你判斷某個論點有道理也是因為 AI 常這樣講。


下一代更嚴重。2020 年後出生的小孩懂事就用 AI,作文是 AI 幫忙寫、研究是 AI 幫忙做、判斷是非也問 AI。他們沒有「不用 AI 思考」的基準。


所以 Scale AI 付真人寫「乾淨訓練資料」這個生意有時效性。2023 年付的人還是「AI 出現之前受教育的人」,思考框架沒被污染。2028 年付的人已經全程跟 AI 一起長大,他們的「原創想法」本身就帶著 AI 印記。付錢也找不到乾淨訊號了。


這就是認知層次的模型崩塌。不只 AI 在餵自己屎,人類也在餵自己屎。整個資訊生態往「中位數」收束。


你聽到的「AI 會淘汰工作」是一個版本。還有一個版本沒人講:AI 會把人類的思考集中趨同。


我的擔心是這樣。全世界的人現在幾乎都用同一批模型,ChatGPT、Claude、Gemini 那幾家。這些模型訓練資料主體是英文網路、矽谷觀點、美式學術框架。長期下來,印度工程師、台灣創業者、德國研究員,分析結構、判斷邏輯可能越來越相似。


這如果發生,會比 2000 年代的「全球化」徹底得多,方向是思考方式的同質化。比 McDonald’s 全球化吃飯還徹底,因為這次同質化的不是你吃什麼,是你怎麼想。幾十年前每一種文化有不同的推理習慣,日本人講究脈絡鋪陳、德國人講究邏輯嚴密、中文圈講究意在言外。這些差異有可能正在被 AI 中位化。


留下的護城河是什麼?身體經驗、跨語言深度、反主流意見。你走山、你打鐵、你跟老人聊天,這些是 AI 訓練資料抓不到的角落。有這些經驗基底的人,未來會是少數還能提供「不中位」觀點的人。


回到 FB 校稿這件事。你直覺不讓 AI 改你的語氣,這個直覺是對的。觸及是表象,真正的原因是:你的原始人類語氣本身就是珍稀資源。每次你把自己的文字「修成 AI 標準」,就在加速人類思考的崩塌。


2026 年真正有價值的內容是有真人直覺、帶偏見、敢講重話的文。演算法會獎勵這種,讀者會追這種。長期被餵回 AI 訓練還會讓整個生態多一點雜訊。這是反模型崩塌的個人行動。


所以下次你用 AI 寫文,要做兩件事:讓 AI 幫你找素材、整理事實、抓錯字。但不要讓 AI 改你的語氣、平衡你的立場、加你的但書。你身上那些不像 AI 的東西,才是最後剩下的稀缺資源。