数据敏感级别模型路由:管控哪个模型能看到哪些数据
· 阅读需 13 分钟
你的 AI 系统在上午 9 点将一条患者查询路由到了自托管模型。上午 11 点,该模型的 Pod 在部署时重启。请求队列积压,路由器检测到超时,随即回退到你用于通用查询的云端 LLM。请求成功完成,没有告警触发,监控面板一片绿色。而就在这次交互中,受保护的健康信息悄然流向了一个你根本没有签署《业务伙伴协议》的供应商。
这不是假设,而是几乎所有未经专门设计来防范此类问题的 AI 路由栈的默认行为。
当前大多数 AI 路由是一个成本与延迟优化问题:将简单查询路由到廉价快速的模型,将复杂查询路由到昂贵但强大的模型,主链路不可用时切换到备用。这套逻辑对于通用内容场景完全正确,而对于处理受监管数据的企业系统则完全错误。
缺失的维度是数据敏感性。哪个模型被允许看到这条请求,比哪个模型最便宜或最快更重要。大多数团队在原则上明白这一点,却在实践中置之不理,直到合规审查把这个问题摆上桌面。
