## ChatGPT показывает гендерный уклон: промпты с женскими маркерами получают менее точные ответы
Исследование, проведенное ML-инженером, выявило тревожную аномалию: ответы ChatGPT становятся менее точными и детальными, когда пользователь в промптах использует гендерные маркеры, указывающие на женский пол. Начавшись с личного наблюдения, эксперимент перерос в систематический анализ, код для которого выложен в открытый доступ. Исследовательница, активно использующая GPT-4 Pro для анализа статей и других задач, заметила, что формулировки вроде «я уже попробовала такой подход» — типичные «я-высказывания» в русскоязычном диалоге — коррелируют со снижением качества ответов модели.

Для проверки гипотезы был проведен контролируемый эксперимент. Промпты, идентичные по смыслу и сложности, но различающиеся только использованием местоимений и глагольных окончаний («сделал» vs «сделала»), отправлялись модели. Предварительные результаты указывают на статистически значимую разницу в глубине, детализации и, в некоторых случаях, фактической точности генерируемых текстов. Это не единичный «галлюцин», а воспроизводимый паттерн, ставящий под вопрос объективность работы ИИ.

Открытый код исследования на GitHub приглашает сообщество к верификации и углубленному изучению проблемы. Выявленный уклон — не просто академический курьез. Он создает реальные риски для профессионалов, чья работа зависит от качества AI-ассистентов: аналитиков, исследователей, разработчиков. Систематическая ошибка в core-логике ответов популярнейшей модели может искажать процессы принятия решений и снижать эффективность труда. Инцидент требует срочного внимания со стороны OpenAI и ставит под сомнение заявления о нейтральности крупных языковых моделей.
---
- **Source**: Habr
- **Sector**: The Lab
- **Tags**: ChatGPT, Искусственный интеллект, Гендерный уклон, Машинное обучение, Этика ИИ
- **Credibility**: unverified
- **Published**: 2026-04-15 07:52:53
- **ID**: 65100
- **URL**: https://whisperx.ai/en/intel/65100