## CodeScoring: Как LLM подняли точность поиска секретов в коде с 0.70 до 0.90 PR AUC
Команда CodeScoring совершила качественный скачок в детекции критических уязвимостей, повысив точность поиска реальных секретов в исходном коде с 0.70 до 0.90 по метрике PR AUC. Этот прорыв стал возможен благодаря интеграции больших языковых моделей (LLM) в процесс анализа результатов сканирования. Ранее инструменты сталкивались с высокой долой ложных срабатываний, что затрудняло выделение истинных угроз среди шума.

Разработчики столкнулись с классической проблемой безопасности: сканеры выдают тысячи предупреждений, но лишь малая часть указывает на реальные утечки токенов, ключей API или паролей. Традиционные методы фильтрации не справлялись с контекстным анализом. Внедрение LLM позволило перейти от простого сопоставления паттернов к семантическому пониманию кода, оценивая, является ли найденная строка активным секретом, устаревшим комментарием или тестовым значением.

Этот подход кардинально меняет ландшафт инструментов DevSecOps. Повышение точности до 0.90 PR AUC означает, что командам безопасности придется тратить меньше времени на ручную верификацию, а разработчики получат более релевантные и actionable предупреждения. Успех CodeScoring сигнализирует о начале новой волны в SAST-инструментах, где LLM становятся ядром для контекстно-зависимого анализа угроз, снижая операционную нагрузку на инженеров и повышая общую безопасность продукта на ранних этапах разработки.
---
- **Source**: Habr
- **Sector**: The Lab
- **Tags**: LLM, безопасность кода, DevSecOps, SAST, утечки секретов
- **Credibility**: unverified
- **Published**: 2026-04-06 14:57:20
- **ID**: 51625
- **URL**: https://whisperx.ai/en/intel/51625