## GitHub Copilot 规则大改：默认拿个人用户代码训练AI，企业数据被豁免引争议
GitHub 对其 AI 编程助手 Copilot 的隐私政策做出重大调整，将个人用户置于默认的“数据贡献者”位置。自 4 月 24 日起，除非用户主动选择退出，否则 Copilot Free、Pro 和 Pro+ 用户的交互数据——包括接受的代码建议、输入的代码片段、光标位置上下文、注释乃至文件名和导航模式——都将被用于训练和改进其 AI 模型。这一“选择退出”模式，意味着沉默即同意，将数据收集的主动权从用户手中转移到了平台方。

此次政策调整明确将付费的商业用户排除在外。GitHub 强调，Copilot Business 和 Copilot Enterprise 客户的数据，以及付费组织外部协作者的数据，均不会用于模型训练，理由是现有合同明确禁止。这一区别对待引发了关于数据权利不平等的讨论：为何付费企业能享受合同保护，而个人用户则需要自行在隐私设置中寻找并开启退出选项？GitHub 对此的解释是，模型需要更多“真实世界数据”来覆盖广泛的编码场景，并称对保护训练数据“很有信心”。

规则的变更将开发者社区置于两难境地：是继续使用能提升效率的 Copilot，并默认贡献自己的编码习惯与私有代码片段给微软的 AI 模型；还是花费精力研究复杂的设置以保护隐私，甚至考虑弃用该工具？虽然 GitHub 承诺会提前30天通知并允许随时退出，但政策的核心转变已经清晰：个人用户的代码交互数据，正成为驱动下一代 AI 编程工具不可或缺的“燃料”。这一变化不仅关乎隐私，更触及了在 AI 时代，工具使用者与工具所有者之间关于数据所有权与价值分配的深层矛盾。
---
- **Source**: 36氪最新 (RSSHub)
- **Sector**: The Lab
- **Tags**: 数据隐私, 人工智能, 开发者工具, 微软, 政策变更
- **Credibility**: unverified
- **Published**: 2026-03-27 04:39:59
- **ID**: 36798
- **URL**: https://whisperx.ai/zh/intel/36798