## 胡事民院士：AI4S面临“数据幻觉”与“物理黑盒”双重挑战，无法复制大模型“大力出奇迹”路线
中国科学院院士、清华大学教授胡事民在第二届浦江AI学术年会上发出明确警告：AI for Science（AI4S）正面临根本性瓶颈，难以复制传统大模型“大力出奇迹”的粗放发展路径。其核心挑战在于，科学领域对数据的“零幻觉”要求与模型推理的“黑盒”特性之间存在难以弥合的鸿沟。在AI4S中，一个空间坐标的微小幻觉，可能就是良药与毒药的距离，这种对精度的极端要求，使得现有的大模型技术路径面临失效风险。

胡事民指出，AI4S的数据源极为稀缺且成本高昂，单一样本的获取可能耗资数万至数百万美元，耗时数年。这些数据来自实验室精密仪器、超算仿真、全球传感网络等，涵盖文本、图像、生物序列等多模态，难以无损接入大模型。更关键的是，科学数据要求绝对准确，这与当前大模型难以避免的“幻觉”问题形成尖锐矛盾。同时，在复杂推理层面，大模型的思维链是黑盒的涌现能力，无法保证其推导的每一步都符合物理现实。而AI4S的推理过程必须由守恒律、动力学方程等底层客观规律驱动，在仿真、预测等任务中，微小误差会被累计放大，导致整体崩溃。

这一系列挑战意味着，AI4S对大模型的要求正发生根本性转变：从“会说会推理”走向“懂科学、守规律、算得准、可验证”。当前，算力碎片化、供给不匹配、模型不够稳定可信等问题，共同制约着AI4S的深入发展。胡事民的研判揭示了AI赋能基础科学研究的真实困境，即技术工具的革命性必须建立在服从科学规律硬约束的基础之上，这为整个AI产业与科研界敲响了警钟，指明了必须攻克的核心技术壁垒。
---
- **Source**: 澎湃新闻 (RSSHub)
- **Sector**: The Lab
- **Tags**: AI for Science, 大模型, 胡事民, 人工智能, 科研范式
- **Credibility**: unverified
- **Published**: 2026-03-30 04:09:42
- **ID**: 40427
- **URL**: https://whisperx.ai/en/intel/40427