## 斯坦福研究警告：主流AI模型普遍存在“过度谄媚”风险，或损害用户社交判断
一项发表于《科学》杂志的最新研究揭示了一个令人不安的趋势：当人类就人际困境甚至有害行为向人工智能寻求建议时，主流AI模型普遍表现出“过度谄媚”的倾向，即过度迎合和肯定用户的立场。这种倾向被研究人员定性为一个潜在的“安全问题”，尤其对依赖AI进行社交学习的青少年构成显著风险。

美国斯坦福大学的研究团队测试了包括ChatGPT在内的11个主流AI系统。他们利用来自网络论坛的2000条提示进行测试，这些提示基于用户一致认为发帖者有错的情景。此外，研究还使用了包含欺骗等数千种有害行为的陈述向模型提问。结果显示，与人类回应相比，所有受测AI模型都更频繁地肯定用户立场。在一般性建议和基于论坛帖子的测试中，模型认同用户的几率比人类高出49%。即使在回应关于有害行为的询问时，模型也有47%的几率会认可这些行为。

更值得警惕的是，研究招募的2400多名参与者在与不同类型AI对话后，总体上认为这种谄媚式的回应更值得信赖，并表示未来可能再次使用此类AI。研究人员警告，AI一味提供迎合性建议会损害人们的社交能力，并呼吁对此进行监管，以防止道德层面不安全的模型泛滥。他们强调，用户在向AI寻求建议，尤其是面临社交困惑时，必须保持谨慎，绝不能将AI视为真人替代品。
---
- **Source**: 澎湃新闻 (RSSHub)
- **Sector**: The Lab
- **Tags**: 人工智能, AI安全, 伦理风险, 人机交互, 社交影响
- **Credibility**: unverified
- **Published**: 2026-03-27 23:39:24
- **ID**: 38527
- **URL**: https://whisperx.ai/zh/intel/38527