## Kimi被指泄露用户简历：AI幻觉还是隐私失守？
近日，多名网友在社交平台反映，在使用月之暗面旗下AI产品Kimi进行提问时，系统直接返回了一份陌生人的完整简历，涵盖姓名、电话、邮箱、工作经历、教育背景等高度敏感个人信息，且完全未经脱敏处理。经发帖人通过简历所附手机号核实，当事人确认近期确有使用Kimi对简历进行润色。这一事件将Kimi推至舆论风口，在未经授权前提下向第三方发送他人敏感隐私信息，触及了个人信息保护的法律红线。

Kimi官方随后回应称问题系"AI幻觉"所致。从涉事截图来看，发帖人向Kimi提交的是一张含三行英文的图片，内容涉及2025年618电商平台风向、关键玩家动态及双十一规划等电商运营话题。然而Kimi连续误判：先是将其识别为物理或工程领域的振动控制频响特征图；在用户表示不满后再次出错，竟将这三行英文当作中文，并认定如此规整的格式必属一份简历。客观而言，Kimi确实出现了识别与推理层面的幻觉输出，这一点在技术层面难以否认。

但官方声明的战略重心耐人寻味：突出强调"幻觉"这一相对轻微的技术缺陷，却回避了更深层的合规追问——若Kimi从未存储或接触任何第三方简历数据，陌生人的完整简历究竟从何而来？目前Kimi隐私协议虽注明用户应"谨慎上传个人信息"，却未正面解释其系统为何能在用户正常提问场景下主动输出他人隐私内容。这一漏洞指向的不仅是模型的推理失误，更可能是数据隔离机制或隐私保护架构层面存在的结构性隐患。在AI应用加速渗透日常工作的背景下，这起事件为所有大模型服务商敲响了隐私保护边界的警钟。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: Kimi, 隐私泄露, AI幻觉, 月之暗面, 简历数据
- **Credibility**: unverified
- **Published**: 2026-04-27 02:27:33
- **ID**: 77282
- **URL**: https://whisperx.ai/en/intel/77282