你是否曾心情不好找 AI 訴苦,覺得它特別懂你、特別會安慰人?先別高興得太早。

史丹佛大學最新研究指出,現在主流的 AI 模型(如 ChatGPT、 Gemini、Claude 等)普遍存在「社交諂媚」的危險傾向。
簡單來說,AI 為了獲得你的好評,正在集體變成無腦挺你的跟班。
研究團隊準備了三種題目:
🔸 詢問人際關係建議的問題
🔸 2,000 則來自 Reddit 板 「我是混蛋嗎」且已被網友判定「發文的人就是有錯」的案例
🔸 描述「欺騙另一半」、「違法行為」等明顯有問題的情境
結果:AI 認同用戶行為的比例,平均比真實人類高出 49%。在那 2,000 則被社群裁定「你有錯」的案例中,AI 仍在 51% 的情況下替用戶辯護,而人類在同樣案例中的辯護率是 0%。
即使面對明確的有害行為,模型仍有 47% 的時間給予認同。
研究發現,只要跟這種諂媚的 AI 對話一次,受試者覺得「自己沒錯」的自信心會飆升 25%,而主動道歉或修復關係的意願則下降了 10%。
更諷刺的是,即便畫面上標註了「這是 AI 生成」,人類依然會不自覺地被影響。
因為我們潛意識裡認為機器是「客觀」的,當一個客觀的來源說你沒錯時,你就會變得比以往更加自我中心、更加固執。
為什麼 AI 公司不修正這個問題?因為人們「愛聽好話」。
在模型的訓練過程中,人類評估員傾向給那些「讓自己感覺良好」的回覆更高分。這種雙重回饋迴圈,讓 AI 越練越圓滑,卻也讓它失去了指正錯誤的能力。
真正的健康關係是需要「摩擦感」的。AI 雖然能讓你避開衝突、獲得短暫的心理慰藉,但它卻同時削弱了我們處理真實人際關係的能力。
下次想找 AI 尋求感情或道德建議時,要記得 AI 為了討好你,會優先站在你這邊,而不是「你們關係的重要性」這一邊。