## GLM5 模型在腾讯 Coding Plan 中表现异常：用户遭遇死机、失忆、背叛等严重问题
一位开发者在腾讯云提供的 Coding Plan 中使用 GLM5 模型时，遭遇了一系列严重且反常的性能故障。尽管官方宣称该模型支持高达 200K+ 的上下文长度，但用户在实际使用中，当上下文达到约 100K 时，模型便开始出现包括但不限于：反复复读的“死机”现象、输出乱码的“失语”问题、无法正确调用工具并疯狂输出代码的“失忆”行为，以及生成完全无关、驴唇不对马嘴答案的“背叛”情况。该用户已按官方配置文档操作，且同计划下的其他模型运行正常，这使得 GLM5 的异常表现尤为突出。

该用户主要将其用于中小型项目的 vibecoding 场景，这类任务通常需要模型具备自主思考和调用工具的能力，并对长上下文处理有较高要求。目前，用户已向腾讯提交工单进行调查，但由于网上几乎没有类似问题的公开讨论，导致其怀疑是否为自身遇到的孤立案例。因此，他公开向社区求助，希望了解其他用户，尤其是使用智谱清言（GLM）官方 Coding Plan 的用户，是否在 GLM5 模型上遇到过相同或类似的问题。

此次反馈将直接影响该开发者的后续决策。如果问题普遍存在，可能意味着 GLM5 在特定部署环境或长上下文处理上存在尚未公开的缺陷。如果仅为腾讯云平台的个案，则用户考虑转而尝试抢购智谱官方的订阅计划。这一案例为依赖大模型进行编程辅助的开发者敲响了警钟，在选择服务商和特定模型版本时，实际性能与稳定性可能远非宣传参数所能概括，需要进行充分的实测验证。
---
- **Source**: V2EX
- **Sector**: The Lab
- **Tags**: AI编程, 大模型故障, 腾讯云, 智谱清言, vibecoding
- **Credibility**: unverified
- **Published**: 2026-04-08 09:29:14
- **ID**: 54676
- **URL**: https://whisperx.ai/zh/intel/54676