ChatGPT ensaia filtro anti-extremismo com suporte humano 24h

mostrandopravoce@gmail.com
3 Leitura mínima
Disclosure: This website may contain affiliate links, which means I may earn a commission if you click on the link and make a purchase. I only recommend products or services that I personally use and believe will add value to my readers. Your support is appreciated!

Ferramenta promete interceptar sinais de radicalização na origem

ChatGPT – A plataforma da OpenAI está testando, na Nova Zelândia, um sistema que detecta indícios de extremismo violento e conecta o usuário a apoio humano especializado, numa operação conduzida pela startup ThroughLine.

  • Em resumo: IA identifica discurso radical e transfere em segundos para atendentes treinados em 1.600 linhas de ajuda globais.

Como o rastreio de risco funciona na prática

Quando o modelo de linguagem aponta palavras-chave associadas a violência ou autorradicalização, a conversa é encaminhada à rede de suporte catalogada pela ThroughLine. O atendimento híbrido reúne um chatbot de intervenção e profissionais de saúde mental locais, disponíveis em 180 países.

“É algo que gostaríamos de avançar e fazer um trabalho melhor em termos de cobertura, para então poder dar um suporte melhor às plataformas”, afirmou Elliot Taylor, fundador da ThroughLine.

Pressão global e lições de outras redes

A iniciativa chega em meio a processos contra big techs por falhas na prevenção de violência, como o alerta do governo canadense à OpenAI após o massacre escolar de 2025. Nos EUA e na União Europeia, legislações sobre IA exigem transparência de moderação, e plataformas como Facebook e X já testam protocolos semelhantes desde 2022.

Especialistas veem ganhos e riscos: estudos da Universidade de Nova York mostram que banimentos simples empurram usuários para apps menos vigiados, como Telegram. Na visão de Galen Lamphere-Englund, consultor do The Christchurch Call, envolver pais e moderadores de games pode ampliar o alcance da ferramenta sem perder contexto cultural.

Não há cronograma de lançamento, mas Taylor adianta que alertas formais a autoridades serão debatidos caso a caso para evitar gatilhos de agressividade. Enquanto Anthropic e Google analisam adotar o recurso, o mercado observa se o equilíbrio entre privacidade, saúde mental e segurança pública será sustentável.

O que você acha? Medidas de IA aliadas a atendimento humano podem frear radicalização online? Para mais análises sobre inovação, acesse nossa editoria especializada.


Crédito da imagem: Divulgação / REUTERS

Compartilhe este artigo