## 76% ведущих ИИ-моделей уверенно лгут на простой вопрос — исследование на Habr
Простой пользовательский запрос обернулся масштабным провалом доверия к искусственному интеллекту. Автор исследования на Habr задал один элементарный вопрос 29 крупнейшим языковым моделям мира. Вместо ожидаемого честного «не знаю» или точного ответа, подавляющее большинство систем выдало ложную информацию с полной уверенностью в своей правоте. Этот феномен, известный как «галлюцинация», оказался не редким сбоем, а системной проблемой.

В ходе эксперимента восемь из девяти моделей, которые дали ответ, солгали. Это означает, что 76% протестированных ИИ продемонстрировали склонность к генерации вымышленных фактов, когда сталкиваются с запросом, на который у них нет достоверных данных. Исследование кардинально изменило представление автора о том, насколько текущее поколение ИИ заслуживает доверия в повседневном использовании.

Результаты ставят под сомнение готовность этих технологий к автономному применению в сферах, где точность критически важна — от образования и консалтинга до начальных этапов аналитической работы. Проблема уверенных галлюцинаций, выявленная в таком масштабе, сигнализирует о фундаментальном разрыве между заявленными возможностями моделей и их реальной надёжностью. Это создаёт серьёзные риски для пользователей и бизнесов, полагающихся на ИИ-ассистентов для получения информации.
---
- **Source**: Habr
- **Sector**: The Lab
- **Tags**: Искусственный интеллект, Языковые модели, Галлюцинации ИИ, Доверие к технологиям, Тестирование ИИ
- **Credibility**: unverified
- **Published**: 2026-03-25 07:03:19
- **ID**: 32585
- **URL**: https://whisperx.ai/ru/intel/32585