这是一个应该让每一位使用 AI 的小企业老板夜不能眠的事实。2024 年,加拿大航空的聊天机器人虚构了一套根本不存在的丧亲折扣退款政策。当顾客凭此申请退款时,加拿大航空辩称聊天机器人是"独立法律实体",须自行承担其发言责任。法庭并不认同。加拿大航空被判须为其 AI 对顾客所说的话承担法律责任。这宗案件确立了先例:如果你的 AI 信心十足地胡谄,你便要为此买单。这种信心满满的虚构行为,有一个专门名称,叫做 AI 幻觉。然而,大多数香港中小企业对于这种现象在他们日常使用的工具中发生的频率,几乎一无所知。
什么是 AI 幻觉?
AI 幻觉是指大语言模型生成的内容听起来合理且充满信心,但事实上是错误、捏造或完全凭空编造的。模型并非以人类的方式"说谎",而是根据文字模式预测下一个最可能出现的词汇序列,本身并无机制可验证内容是否属实。
Suprmind 在 2026 年针对主流 AI 模型的测试研究发现,对于事实性问题,幻觉率介于最佳模型的 3% 至消费级聊天工具的超过 27%,视乎题目类型而定。同一研究也显示,AI 模型在生成错误信息时,使用"肯定"、"绝对"等词汇的概率,比陈述已验证事实时高出 34%。
AI 模型为何会产生幻觉?
AI 模型会产生幻觉,是因为它们是文字模式补完机器,而非事实检索系统。当问题超出模型训练范围,或训练数据本身包含错误时,模型依然会尝试输出流畅的答案。流畅的措辞掩盖了知识空白。
三大主因:
1. 训练数据缺漏:模型从未见过答案,便从相关模式中内推。一个主要以全球内容训练的模型,可能会凭空捏造香港本地细节。
2. 信息过时:大多数模型有知识截止日期。截止日后变动的内容,如价格、政策、人事,仍以旧有形式"记忆"在模型中。
3. 过度自信的生成倾向:模型被调校为乐于提供协助。回答"我不知道"在训练阶段被视为奖励信号的失败,因此模型偏向生成任何答案,而非不回答。
幻觉对小企业可以造成多大的伤害?
幻觉造成的伤害可由无害的小错误,延伸至诉讼和品牌损害。加拿大航空案于 2024 年确立法律先例。2025 至 2026 年间,类似案件在美国、英国和欧盟陆续出现。PwC 在 2026 年的商业领袖调查显示,9% 的 AI 项目最终录得负回报,幻觉引致的错误是主要原因之一。
实际打击中小企业的情境:
1. 客户服务机器人承诺了你店舖实际并无提供的退款政策。根据香港消费者法例,已发布的条款具约束力,你可能须履行机器人的承诺。
2. 销售聊天机器人提供了未获批准的折扣优惠。顾客截图对话内容,要求按此价格成交。
3. AI 写作工具撰写的市场文案,引用了竞争对手的产品功能,你的团队照单全收。对方律师发出禁止令。
4. 网站上由 AI 生成的常见问题提及你实际并未持有的监管牌照。监管机构在例行检查中发现问题。
5. AI 代理在你的店舖休息时段预约了顾客上门。三位顾客扑了个空,留下负面评价。
香港中小企业如何判断 AI 是否在产生幻觉?
判断 AI 幻觉最可靠的信号,是输出内容非常具体但无法核实。留意虚构的人名、假的引述来源、缺乏出处的具体数字,以及落在模型已知训练范围以外的日期。
发布或执行 AI 输出前应检查的五个警号:
1. 没有来源的具体统计数字:"73% 的香港中小企业使用 AI"如果没有附上研究名称或年份,就值得怀疑。真正的统计数字必有作者和日期。
2. 查不到的书名或文章标题:把完整标题加引号搜索。若搜索不到,就是模型虚构的。
3. 署名人物的引言:搜索完整引述句子。真实的引言会出现于访问、新闻稿或新闻中,虚构的则不会。
4. 与你认知不符的香港本地信息:若模型声称某条本地规则、法规或公司细节"感觉不对",请先核实再传递。
5. 对冷门问题答得过于肯定:题目越冷门,对信心满满的答案越要抱持怀疑态度。
中小企业如何在日常运作中预防 AI 幻觉?
最有效的预防方法,是让 AI 以你已验证的业务数据为基础,而非任其从整体训练记忆中提取内容。这种做法称为"检索增强生成"(RAG)。配合面向客户的输出加入人工审核,例行任务的幻觉风险可以降至接近零。
四项实用防护措施:
1. 将 AI 连接到你的真实数据。不要问模型"我们的退货政策是什么",而是让它连接到实际的政策文件。RAG 让模型引用来源,而不是猜测。
2. 为 AI 设定可说与不可说的界限。定义许可话题清单、禁止陈述以及必须加注的免责声明。大多数企业级 AI 平台都内建这项功能。
3. 高风险输出必须人工把关。市场文案、涉及法律的陈述、退款决定、个性化报价,须在顾客看到之前先经过审核。
4. 记录每一次 AI 回应。若发生问题,你需要对话记录来调查、重新训练及辩护。
常见问题
更新版本的 AI 模型会停止产生幻觉吗?每一代模型的幻觉率都在下降,但并未归零。OpenAI、Anthropic 和 Google 都承认,按现时大语言模型的运作原理,某程度的幻觉是与生俱来的。
使用 Claude 或 ChatGPT 写文章会有风险吗?纯创意内容风险低。当 AI 引用数据、提及人物、声称法规内容,或代表你的品牌与顾客对话时,风险会大幅上升。
付费企业版能否降低幻觉?付费版通常包括数据连接、自定义指令和文件检索等功能,能显著降低幻觉。免费消费版的防护机制较少。
若 AI 产生幻觉,责任谁负?根据加拿大航空先例及 2026 年类似裁决,部署 AI 的企业通常承担责任,而非 AI 供应商。签署服务条款前须细阅。
结语:信任,但须验证
AI 是香港中小企业于 2026 年最有用的工具之一,但同时也是最自信地犯错的工具之一。当输出直接传达给顾客而未经过审核时,这个组合就会变得危险。解决方法并非放弃 AI。解决方法是用聪明经理对待下属初稿的态度,看待 AI 输出:实用、快捷,但在有判断力的人过目之前,并非定稿。
未来三年能凭借 AI 突围的企业,将是那些及早设立防护、以真实数据为基础、并在关键环节保留人工把关的企业。没有这样做的,将会是下一次"加拿大航空时刻"后忙于撰写道歉电邮的那一群。
UD 同行 28 年。懂 AI,更懂你。UD 相伴,AI 不冷。
准备好让你的 AI 变得值得信赖吗?
了解了 AI 幻觉如何发生以及最容易出现问题的环节,下一步是审视你现时的 AI 应用,并在日常运作中建立防护机制。UD 团队手把手教你识别风险高的 AI 工作流程、以已验证的数据为 AI 提供根基、并在关键环节设立人工审核,全程陪你走每一步。