
為應對AI幻覺風險,美國採「拼圖式」監管。此策略整合NIST風險框架、FTC執法與產品責任,並導入RAG、交叉驗證等技術,從源頭建構可驗證的防護機制,要求開發者對AI產出負責。
文:黃思齊
近年來,生成式人工智慧(Generative AI)的應用爆發,卻也帶來了一個致命的技術缺陷:AI幻覺(Hallucinations),也就是AI系統經常「一本正經地胡說八道」,產生看似合理、語法流暢,但卻完全虛構或錯誤的資訊。
當這些幻覺發生在醫療診斷、法律訴訟或金融評估等高風險領域時,將對企業與民眾造成實質損害。
美國採「拼圖式」AI監管模式
不同於歐盟透過單一的《人工智慧法案》進行全面性由上而下的監管,美國的監管模式呈現「拼圖式」的特徵,結合了聯邦技術標準、執法機構的強力打擊,以及業界的前沿科學驗證技術。筆者解析如下。
NIST AI風險管理框架(AI RMF)與生成式AI指南
美國國家標準暨技術研究院(NIST)發布的AI RMF,是目前美國企業最核心的防護依據。該框架特別針對生成式AI的幻覺風險提出具體對策。
框架要求開發者與部署者必須將AI的輸出與「已知真實數據」進行交叉驗證,並在系統部署前強制進行「對抗性測試」,以找出會誘發危險或錯誤輸出的漏洞。
FTC(聯邦貿易委員會)嚴打「漂AI」與虛假宣傳
FTC透過AI合規行動(Operation AI Comply)」,強力打擊企業對其AI能力的不實行銷。若企業宣稱其AI絕對準確或能取代人類專家,卻頻頻產生幻覺,將面臨嚴厲制裁。
例如,DoNotPay公司曾宣稱其AI服務能像「人類律師」般運作,卻因無法提出可靠證據且產出錯誤法律文件,最終遭FTC裁罰並禁止其虛假宣傳。
聯邦產品責任法的延伸:《AI LEAD法案》
2025年底,美國參議院提出了《AI LEAD法案》,試圖在聯邦層級建立AI的產品責任標準。
該法案規定,若AI開發者未能對已知風險提供足夠警告,或系統存在設計缺陷(例如經常產生危險幻覺),開發者將面臨法律上的「嚴格責任(Strict Liability)」。這迫使開發者在設計階段就必須解決幻覺問題,否則將面臨巨額賠償。
從源頭防堵AI幻覺,企業與技術標準組織這樣做
為了符合上述的法規與合規要求,美國企業與技術標準組織已發展出多種前沿技術,從源頭與流程中防堵AI胡說八道:
ISO/IEC 42001 AI管理系統認證
這是全球首個可認證的AI管理系統標準,要求企業建立包含偏見測試、透明度要求與風險評估在內的完整生命週期治理。這讓企業在面臨歐盟或美國監管時,能提出具體合規證據。
檢索增強生成(RAG)與「引用強制執行」
為了防止語言模型憑空捏造,企業廣泛使用RAG技術架構,並導入「引用強制執行(Citation enforcement)」機制。
這意味著AI產出的每一個事實主張,都必須附上權威來源(如內部資料庫或經核實的網址)的連結。若系統找不到有效來源,將被設定為「拒絕回答(Abstention)」,直接阻斷幻覺的產生。
共形預測(Conformal Prediction)量化不確定性
這是一種透過統計學,來量化AI預測不確定性的技術。它能為AI的輸出提供「信心區間(Confidence intervals)」,協助區分哪些是可靠的輸出,哪些是信心水準極低、潛在的虛構幻覺。這讓監管者與企業有客觀的標準來評估 AI 是否足夠可靠。
德爾菲法(The Delphi Method)與多模型交叉辯論
借鑑冷戰時期RAND公司開發的決策模式,現代AI治理開始讓多個獨立的AI模型針對同一問題進行「交叉驗證與辯論」。例如在醫療診斷中,一個模型分析影像、另一個檢查病歷,兩者反覆交互回饋以達成共識,大幅降低單一模型產生幻覺的機率。
美國面對AI「一本正經地胡說八道」,建構出動態的防禦生態系。這清楚地傳達了一個訊息:在未來的市場中,負責任的AI創新不能僅靠免責聲明,開發者與企業必須從演算法設計到部署監控,都提出具體且可被驗證的技術防護。
延伸閱讀
【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!
責任編輯:朱家儀
核稿編輯:翁世航
