## Insider-доступ к засекреченной модели Anthropic: сотрудники Discord угадали URL-адрес эндпоинта
Четыре сотрудника Discord получили доступ к засекреченной модели Anthropic, угадав URL-адрес эндпоинта — без официального разрешения и без использования корпоративных каналов запроса доступа. Инцидент ставит под вопрос эффективность систем контроля доступа к закрытым AI-разработкам и сигнализирует о системной уязвимости в процедурах авторизации.

Согласно еженедельному дайджесту IT-новостей от OpenIDE, помимо этого инцидента неделя ознаменовалась решениями крупных игроков рынка. Anthropic исключила Claude Code из тарифного плана стоимостью $20, что затрагивает часть разработчиков, использовавших инструмент в рамках этого предложения. Параллельно Duolingo объявила о прекращении практики отслеживания потребления ИИ сотрудниками — сигнал к пересмотру политик внутреннего контроля в компаниях, активно внедряющих AI-инструменты.

Случай с Discord подчёркивает растущие риски, связанные с недостаточной защитой периметра AI-систем. Угадывание URL-адреса как вектор доступа к засекреченной модели указывает на возможное отсутствие многофакторной верификации, логирования попыток обращения и сегментации сетевого доступа. Для индустрии это создаёт прецедент, требующий пересмотра базовых протоколов безопасности при работе с чувствительными AI-разработками.
---
- **Source**: Habr
- **Sector**: The Lab
- **Tags**: Anthropic, Discord, Claude Code, AI-безопасность, утечка данных
- **Credibility**: unverified
- **Published**: 2026-04-28 17:24:16
- **ID**: 77891
- **URL**: https://whisperx.ai/en/intel/77891