## llama.cpp получает голос: в проект добавлена поддержка аудио и моделей Gemma4
В проект llama.cpp, ключевой инструмент для запуска больших языковых моделей на обычном железе, сегодня, 12 апреля, был добавлен принципиально новый функционал — работа с аудио. Это не просто обновление, а значительное расширение возможностей фреймворка, который изначально был ориентирован исключительно на текстовые модели. Теперь llama.cpp может взаимодействовать с моделями, способными распознавать и обрабатывать речь, открывая путь для локального запуска голосовых ассистентов и аудиоаналитики без облачной инфраструктуры.

Новый функционал реализован через поддержку моделей Gemma4 от Google, в частности версии gemma-4-E4B-it, размещённой на Hugging Face. Эти компактные, но мощные модели теперь можно интегрировать в экосистему llama.cpp, что позволяет разработчикам и энтузиастам экспериментировать с распознаванием речи на своих устройствах — от мощных ПК до одноплатных компьютеров. Это снижает порог входа в область голосового ИИ и создаёт давление на коммерческие облачные сервисы, предлагающие аналогичные возможности.

Добавление аудиомодуля меняет ландшафт для opensource-сообщества, занимающегося локальным ИИ. llama.cpp укрепляет свои позиции как универсальный портативный рантайм, а не просто инструмент для текста. Это может ускорить разработку приватных голосовых интерфейсов, инструментов для анализа записей и нишевых решений, где конфиденциальность данных критична. Основное давление теперь ложится на команду поддержки проекта и сообщество, которым предстоит адаптировать инфраструктуру, документацию и примеры использования под новые, более ресурсоёмкие задачи.
---
- **Source**: Habr
- **Sector**: The Lab
- **Tags**: llama.cpp, Gemma4, распознавание речи, локальный ИИ, open source
- **Credibility**: unverified
- **Published**: 2026-04-13 02:22:28
- **ID**: 61090
- **URL**: https://whisperx.ai/en/intel/61090