這是一個應該讓每一位使用 AI 的小企業老闆夜不能眠的事實。2024 年,加拿大航空的聊天機械人虛構了一套根本不存在的喪親折扣退款政策。當顧客憑此申請退款時,加拿大航空辯稱聊天機械人是「獨立法律實體」,須自行承擔其發言責任。法庭並不認同。加拿大航空被判須為其 AI 對顧客所說的話承擔法律責任。這宗案件確立了先例:如果你的 AI 信心十足地胡謅,你便要為此買單。這種信心滿滿的虛構行為,有一個專門名稱,叫做 AI 幻覺。然而,大多數香港中小企對於這種現象在他們日常使用的工具中發生的頻率,幾乎一無所知。
什麼是 AI 幻覺?
AI 幻覺是指大型語言模型生成的內容聽起來合理且充滿信心,但事實上是錯誤、捏造或完全憑空編造的。模型並非以人類的方式「說謊」,而是根據文字模式預測下一個最可能出現的詞彙序列,本身並無機制可驗證內容是否屬實。
Suprmind 在 2026 年針對主流 AI 模型的測試研究發現,對於事實性問題,幻覺率介乎最佳模型的 3% 至消費級聊天工具的超過 27%,視乎題目類型而定。同一研究亦顯示,AI 模型在生成錯誤資訊時,使用「肯定」、「絕對」等詞彙的機率,比陳述已驗證事實時高出 34%。
AI 模型為何會產生幻覺?
AI 模型會產生幻覺,是因為它們是文字模式補完機器,而非事實檢索系統。當問題超出模型訓練範圍,或訓練資料本身包含錯誤時,模型依然會嘗試輸出流暢的答案。流暢的措辭掩蓋了知識空白。
三大主因:
1. 訓練資料缺漏:模型從未見過答案,便從相關模式中內推。一個主要以全球內容訓練的模型,可能會憑空捏造香港本地細節。
2. 資訊過時:大多數模型有知識截止日期。截止日後變動的內容,如價格、政策、人事,仍以舊有形式「記憶」在模型中。
3. 過度自信的生成傾向:模型被調校為樂於提供協助。回答「我不知道」在訓練階段被視為獎勵訊號的失敗,因此模型偏向生成任何答案,而非不回答。
幻覺對小企業可以造成多大的傷害?
幻覺造成的傷害可由無害的小錯誤,延伸至訴訟和品牌損害。加拿大航空案於 2024 年確立法律先例。2025 至 2026 年間,類似案件在美國、英國和歐盟陸續出現。PwC 在 2026 年的商業領袖調查顯示,9% 的 AI 項目最終錄得負回報,幻覺引致的錯誤是主要原因之一。
實際打擊中小企的情境:
1. 客戶服務機械人承諾了你店舖實際並無提供的退款政策。根據香港消費者法例,已發佈的條款具約束力,你可能須履行機械人的承諾。
2. 銷售聊天機械人提供了未獲批准的折扣優惠。顧客截圖對話內容,要求按此價格成交。
3. AI 寫作工具撰寫的市場文案,引用了競爭對手的產品功能,你的團隊照單全收。對方律師發出禁止令。
4. 網站上由 AI 生成的常見問題提及你實際並未持有的監管牌照。監管機構在例行檢查中發現問題。
5. AI 代理在你的店舖休息時段預約了顧客上門。三位顧客撲了個空,留下負面評價。
香港中小企如何判斷 AI 是否在產生幻覺?
判斷 AI 幻覺最可靠的訊號,是輸出內容非常具體但無法核實。留意虛構的人名、假的引述來源、缺乏出處的具體數字,以及落在模型已知訓練範圍以外的日期。
發佈或執行 AI 輸出前應檢查的五個警號:
1. 沒有來源的具體統計數字:「73% 的香港中小企使用 AI」如果沒有附上研究名稱或年份,就值得懷疑。真正的統計數字必有作者和日期。
2. 查不到的書名或文章標題:把完整標題加引號搜尋。若搜尋不到,就是模型虛構的。
3. 署名人物的引言:搜尋完整引述句子。真實的引言會出現於訪問、新聞稿或新聞中,虛構的則不會。
4. 與你認知不符的香港本地資訊:若模型聲稱某條本地規則、法規或公司細節「感覺不對」,請先核實再傳遞。
5. 對冷門問題答得過於肯定:題目越冷門,對信心滿滿的答案越要抱持懷疑態度。
中小企如何在日常運作中預防 AI 幻覺?
最有效的預防方法,是讓 AI 以你已驗證的業務資料為基礎,而非任其從整體訓練記憶中提取內容。這種做法稱為「檢索增強生成」(RAG)。配合面向客戶的輸出加入人手審核,例行任務的幻覺風險可以降至接近零。
四項實用防護措施:
1. 將 AI 連接到你的真實資料。不要問模型「我們的退貨政策是什麼」,而是讓它連接到實際的政策文件。RAG 讓模型引用來源,而不是猜測。
2. 為 AI 設定可說與不可說的界線。定義許可話題清單、禁止陳述以及必須加註的免責聲明。大多數企業級 AI 平台都內建這項功能。
3. 高風險輸出必須人手把關。市場文案、涉及法律的陳述、退款決定、個人化報價,須在顧客看到之前先經過審核。
4. 記錄每一次 AI 回應。若發生問題,你需要對話紀錄來調查、重新訓練及辯護。
常見問題
更新版本的 AI 模型會停止產生幻覺嗎?每一代模型的幻覺率都在下降,但並未歸零。OpenAI、Anthropic 和 Google 都承認,按現時大型語言模型的運作原理,某程度的幻覺是與生俱來的。
使用 Claude 或 ChatGPT 寫文章會有風險嗎?純創意內容風險低。當 AI 引用數據、提及人物、聲稱法規內容,或代表你的品牌與顧客對話時,風險會大幅上升。
付費企業版能否降低幻覺?付費版通常包括資料連接、自訂指令和文件檢索等功能,能顯著降低幻覺。免費消費版的防護機制較少。
若 AI 產生幻覺,責任誰負?根據加拿大航空先例及 2026 年類似裁決,部署 AI 的企業通常承擔責任,而非 AI 供應商。簽署服務條款前須細閱。
結語:信任,但須驗證
AI 是香港中小企於 2026 年最有用的工具之一,但同時也是最自信地犯錯的工具之一。當輸出直接傳達給顧客而未經過審核時,這個組合就會變得危險。解決方法並非放棄 AI。解決方法是用聰明經理對待下屬初稿的態度,看待 AI 輸出:實用、快捷,但在有判斷力的人過目之前,並非定稿。
未來三年能憑藉 AI 突圍的企業,將是那些及早設立防護、以真實資料為基礎、並在關鍵環節保留人手把關的企業。沒有這樣做的,將會是下一次「加拿大航空時刻」後忙於撰寫道歉電郵的那一群。
UD 同行 28 年。懂 AI,更懂你。UD 相伴,AI 不冷。
準備好讓你的 AI 變得值得信賴嗎?
了解了 AI 幻覺如何發生以及最容易出現問題的環節,下一步是審視你現時的 AI 應用,並在日常運作中建立防護機制。UD 團隊手把手教你識別風險高的 AI 工作流程、以已驗證的資料為 AI 提供根基、並在關鍵環節設立人手審核,全程陪你走每一步。