## OpenAI e Anthropic contratam startup para combater extremismo em chatbots, após pressão regulatória
Uma startup contratada pela OpenAI e pela Anthropic está desenvolvendo uma ferramenta para interceptar usuários extremistas em seus modelos de IA. O sistema, em desenvolvimento na Nova Zelândia, identificará sinais de radicalização violenta em interações com o ChatGPT e encaminhará os indivíduos para programas de desradicalização, que combinam intervenção humana com suporte de chatbots. A iniciativa surge como uma resposta direta à crescente pressão regulatória e judicial sobre as empresas de inteligência artificial, acusadas de não conterem, e até de fomentarem, a violência através de suas plataformas.

A ThroughLine, a startup por trás do projeto, foi contratada nos últimos anos pelas gigantes do setor. O movimento ocorre em um momento de escrutínio intenso. Em fevereiro, a OpenAI enfrentou a ameaça de intervenção do governo canadense após revelações de que um perpetrador de um massacre escolar havia sido banido da plataforma sem que as autoridades fossem notificadas. Este caso exemplifica as falhas nos protocolos de segurança e os riscos de responsabilidade que as empresas agora buscam mitigar.

A ferramenta representa uma tentativa proativa de as empresas de IA anteciparem e gerenciarem riscos reputacionais e legais antes que se transformem em crises ou em ações regulatórias mais duras. O foco em desradicalização, em vez de apenas banimento, sugere uma abordagem mais complexa ao problema. No entanto, a eficácia do sistema e sua capacidade de operar na escala global dessas plataformas permanecem como questões em aberto, enquanto o setor navega por um ambiente de crescente litígio e demanda por segurança.
---
- **Source**: InfoMoney
- **Sector**: The Lab
- **Tags**: IA, Segurança, Regulação, OpenAI, Anthropic
- **Credibility**: unverified
- **Published**: 2026-04-02 16:27:04
- **ID**: 47708
- **URL**: https://whisperx.ai/pt/intel/47708