你的组织正在部署接触个人资料的 AI 代理。2026 年 3 月 16 日,香港个人资料私隐专员公署正式表明:这是一个不同性质的风险类别。
个人资料私隐专员公署(PCPD)并不频繁发出正式警示。每当发出,其信息绝非咨询性质——而是监管关注正在移向特定方向的明确信号。2026 年 3 月针对 Agentic AI 私隐风险的警示,特别点名 OpenClaw 及更广泛的 Agentic AI 工具类别,是迄今为止香港就企业 AI 代理部署发出的最清晰监管声明:相关部署已处于主动监察之下。
本文将梳理个人资料私隐专员公署的具体声明、Agentic AI 为何比传统 AI 聊天机器人承载更高私隐风险,以及香港企业在 2026 年进行 Agentic AI 部署时如何建立切实可行的《个人资料(私隐)条例》(PDPO)合规框架。
什么是 Agentic AI?为何它承载更高的私隐风险?
Agentic AI 是指能够自主推理、规划并执行多步骤任务的 AI 系统——代表用户或组织采取行动,无需在每一步都进行人工提示。与回答问题后即停止的聊天机器人不同,Agentic AI 系统可以读取文件、发送电邮、执行 API 调用、预约日历,并写回数据库——所有操作均在单一工作流内完成,无需人工逐步审批。
私隐风险的根源并非 AI 模型的智能水平,而在于系统默认授予的访问级别。根据个人资料私隐专员公署 2026 年 3 月的警示,Agentic AI 工具通常在本地设备或服务器上以高级别访问权限运作,能够读写本地文件、调配系统资源、连接外部服务,并自主执行多步骤任务。
这一访问配置与在有界面内运作的聊天机器人有根本性差异。在企业设备或服务器基础架构上部署的 Agentic AI 系统,一旦未明确界定权限范围,可能访问从未预期访问的数据。个人资料私隐专员公署将此定性为一个全新的风险类别。
个人资料私隐专员公署在 2026 年 3 月 16 日究竟说了什么?
个人资料私隐专员公署的 2026 年 3 月警示识别了五个组织使用 Agentic AI 时必须应对的具体风险领域。
未授权数据访问。若 Agentic AI 设置缺乏严格限制,系统可能在未获授权的情况下复制或传输个人资料,违反 PDPO 下的保障原则第 3 条及第 4 条。
提示注入导致的数据泄露。嵌入代理所读取内容(文件、电邮、网页)中的恶意指令,可能将代理的行动引向组织未曾授权的方向。这一攻击向量是 Agentic 系统特有的,在传统聊天机器人交互中并不存在。
过度数据保留。在没有明确保留政策的情况下缓存或记录交互数据,会带来 PDPO 保障原则第 2 条及第 6 条的合规风险。
跨系统数据聚合。由于代理连接多个系统,其聚合个人资料的方式可能超越原始收集目的,违反保障原则第 1 条及第 3 条。
第三方及供应商访问。Agentic AI 系统通常通过第三方供应商控制的云端 API 运作,每个供应商连接均构成潜在的数据传输,需要符合 PDPO 规定的数据处理协议及跨境传输评估。
在 PDPO 框架下,Agentic AI 与聊天机器人有何根本差异?
PDPO 的六项保障原则适用于所有处理个人资料的 AI 系统,但对于 Agentic AI 而言,其合规含义比传统工具更为复杂。核心差异在于自主性与访问范围。
传统 AI 聊天机器人以被动工具的形式运作:用户提供输入,模型生成输出,无需明确用户指令便不采取任何行动。在 PDPO 框架下,组织的数据风险敞口受限于用户主动输入聊天机器人界面的内容。
Agentic AI 系统则主动运作:从连接的系统读取数据、做出决策、采取行动,并可能修改或传输数据——所有操作均无需人工逐步审批。依据保障原则第 1 条,代理接触个人资料的每项行动均须可追溯至明确且合法定义的目的。
对合规团队的实际启示是:Agentic AI 需要数据流程图——完整记录代理可访问的每个数据来源、可采取的每项行动,以及可写入或通讯的每个系统。目前大多数部署 Agentic AI 的组织并不具备这份图谱。
Agentic AI 典型暴露的五个数据治理缺口
根据个人资料私隐专员公署的指引及法律分析,在未建立结构化合规框架的情况下部署 Agentic AI 时,五个治理缺口反复出现。
缺口一:代理行动缺乏明确的目的定义。大多数 Agentic AI 部署从功能角度定义代理的用途,而未以 PDPO 要求的术语界定具体的个人资料处理目的,违反保障原则第 1 条。
缺口二:默认权限超出必要最小值。Agentic AI 平台在设置过程中往往申请广泛的系统访问权限。若未进行最小特权审查,代理通常对敏感个人资料拥有超出其定义目的所需的访问权限。
缺口三:缺乏代理专属的数据保留政策。代理交互日志、缓存数据及系统操作记录在没有明确保留期限的情况下积累,违反保障原则第 2 条的数据保留要求。
缺口四:部署前未进行私隐影响评估(PIA)。个人资料私隐专员公署的《AI 个人资料保护模型框架》明确建议在部署前进行 PIA,但大多数组织以时间压力为由跳过此步骤。
缺口五:第三方代理基础架构缺乏供应商数据处理协议。使用 OpenAI、Google、Anthropic 或 Microsoft 等云端 API 的 Agentic AI 系统,需要与每个供应商签订符合现行 PDPO 要求的数据处理协议。
Agentic AI 的六步 PDPO 合规框架
以下框架适用于香港企业任何 Agentic AI 部署正式上线前的合规审查。
第一步:定义处理目的。以 PDPO 术语为每个代理部署记录具体的个人资料处理目的,说明处理哪些个人资料、由谁处理、为何职能处理,以及基于何种法律依据。
第二步:绘制所有数据来源与权限图谱。制作完整清单,记录代理可访问的每个系统及其中的个人资料类型,在上线前移除所有超出必要最小值的权限。
第三步:进行私隐影响评估。在部署前针对全部六项保障原则运行 PIA,必须包括对提示注入风险、跨系统数据聚合风险及第三方供应商数据访问的评估。
第四步:建立代理专属的数据保留与删除规则。定义代理系统数据的保留期限,实施自动删除机制,并将组织现有的数据保留计划明确延伸至覆盖 Agentic AI 系统数据。
第五步:审查并更新供应商数据处理协议。审计所有第三方供应商协议,确保包含与 PDPO 要求一致的数据处理条款,包括数据存放位置、次级处理方披露及违规通知义务。
第六步:实施持续监控与事件响应机制。部署审计日志、异常检测及访问监控工具,并为 Agentic AI 数据泄露制定专属的事件响应程序。
从教育到执法的转变:对你的组织意味着什么?
2023 至 2025 年间,个人资料私隐专员公署对 AI 治理的态度以教育为主。2026 年 3 月的警示标志着语调的实质性转变。Freshfields 等法律顾问均指出,香港的数据私隐及网络安全监管制度正在 2025–2026 年从教育转向执法。
个人资料私隐专员公署 2025 年 5 月针对 60 个组织的合规审查,标志着监管机构已开始追踪合规状况。2026 年 3 月的 Agentic AI 警示则将 AI 代理明确纳入监察范畴。
对于数字化转型主管而言,目前在未建立六步合规框架的情况下部署 Agentic AI 的组织,正承担可量化的监管风险。问题不在于个人资料私隐专员公署是否会聚焦于 Agentic AI 执法——它已明确表示会。问题在于:你的组织将被定位为主动合规的一方,还是被动被发现不合规的一方。
Agentic AI 部署所需的合规基础
个人资料私隐专员公署 2026 年 3 月的警示并非暂停 Agentic AI 部署的理由,而是香港负责任部署的规格说明书。将此指引视为合规清单而非行政障碍的组织,将以更快的速度、更低的风险完成部署,并在面对监管审查时具备可信的合规立场。
懂 AI,更懂你——UD 同行 28 年,让科技成为有温度的陪伴。在香港把 Agentic AI 做对,意味着同时了解技术能做什么,以及监管环境的要求是什么。两者并不矛盾,而是同一个对话的两面。
在没有 PDPO 合规框架的情况下部署 Agentic AI,是你的董事会不应承担的风险。UD 团队手把手带你完成每一步——从 AI 准备度评估、代理治理设计到 PDPO 合规审查与部署监管,28 年香港企业服务经验,全程陪你走。