O aliciamento de adolescentes por grupos extremistas online já não é um fenômeno isolado. Redes como o Telegram e fóruns alternativos têm servido como ponto de partida para a entrada de jovens em comunidades que promovem discursos de ódio, ideologias autoritárias e uma visão distorcida sobre masculinidade.
Casos recentes envolvendo crianças e adolescentes reforçam a preocupação com o ambiente digital desregulado. Embora ainda sob investigação, os episódios indicam um padrão que se repete: adolescentes expostos a conteúdos nocivos, sem filtros ou mediação, são capturados por mensagens que prometem pertencimento, força e controle — ainda que à custa da empatia e da convivência democrática.
O pesquisador Ergon Cugler, do Grupo de Estudos em Tecnologias e Inovações na Gestão Pública da USP, escreveu um artigo publicado no Jornal da USP, onde afirma que os casos “apontam para a atuação desregulada de plataformas digitais que expõem crianças e adolescentes a conteúdos violentos, desinformativos e desumanizantes”.
Cugler coordena mapeamentos sobre redes redpill, especialmente no Telegram, que revelam como adolescentes são capturados por grupos com discursos misóginos, racistas e autoritários, oferecendo a eles identidade, pertencimento e um falso sentimento de controle diante do caos.
O termo redpill — ou “pílula vermelha” — tem origem no filme Matrix (1999), em que o protagonista escolhe entre uma pílula azul, que o manteria na ilusão, e uma vermelha, que revelaria a verdade oculta. Nas redes, o conceito foi apropriado por comunidades misóginas e extremistas para descrever uma suposta “despertar” para a “verdade” sobre as relações sociais, muitas vezes marcada por discursos de ódio, negação de direitos e ataques à diversidade.
Ecossistema digital estruturado para radicalização
Entre março de 2019 e março de 2025, foram registrados 3,5 milhões de conteúdos em comunidades anti-woke e antigênero na América Latina e no Caribe. Só o Brasil respondeu por mais da metade das publicações, com 1,8 milhão de postagens e 166 mil usuários ativos.
Além disso, comunidades redpill brasileiras somaram mais de 5,4 milhões de conteúdos no mesmo período, com quase 88 mil participantes. Esses ambientes operam de forma coordenada e expansiva, utilizando recursos como links de convite para atrair novos membros de outras redes conspiratórias.

“Antes de chegarem a conteúdos antigênero, muitos usuários já foram expostos a espaços que atacam a ciência, questionam a democracia e difundem desconfiança em relação ao ‘sistema’”, explica Cugler. Segundo ele, há uma estrutura integrada de migração e fidelização por meio de links compartilhados entre canais — por exemplo, grupos sobre “Nova Ordem Mundial” que convidam usuários para canais anti-woke, ou comunidades antivacinas que encaminham para redes da chamada “machosfera”.
Da autoajuda à radicalização simbólica
A entrada dos adolescentes nessas redes costuma se dar de maneira sutil, por meio de vídeos curtos, memes e conteúdos com humor corrosivo. Inicialmente, são expostos a críticas à “cultura da lacração” ou ao “politicamente correto”. Em seguida, surgem influenciadores com discursos de masculinidade tóxica, culto à autoridade e negação da ciência. “O adolescente começa a enxergar o mundo sob a lente da guerra cultural”, afirma o pesquisador. Nesse processo, toda forma de diversidade passa a ser vista como ameaça, e a empatia, como fraqueza.
As comunidades oferecem mais do que ideias: oferecem uma pedagogia afetiva, onde frustrações pessoais são reinterpretadas como provas de que o jovem está sendo enganado por um sistema corrupto. Há uma narrativa clara sobre o que significa ser “forte” ou “homem de verdade”, o que, segundo Cugler, configura uma “pedagogia do ressentimento, fantasiada de libertação”. O resultado é a conversão simbólica de jovens, que passam a se identificar como parte de uma elite desperta, os chamados “alpha redpillados”.
Plataformas amplificam a radicalização
Parte do problema está na forma como plataformas como o Telegram operam. Canais com discursos anti-woke, antivacinas ou negacionistas são automaticamente recomendados por algoritmos a usuários com base em interesses similares. Isso significa que, ao entrar em um canal de memes, o usuário pode rapidamente ser exposto a conteúdos sobre supremacia racial, armamento, terraplanismo ou “cura gay”. “Mais do que ausência de regulação, o que temos hoje é uma arquitetura pensada para a radicalização”, alerta Cugler.
O pesquisador também destaca que a interface do Telegram interliga canais com ideologias extremas, sem transparência nos critérios de recomendação. “A própria plataforma se torna parte do problema ao amplificar circuitos de ódio e lucrar com o engajamento gerado por esses fluxos”, afirma.
Leia mais:
Iniciativas legislativas começam a avançar
Em resposta ao cenário, algumas iniciativas legislativas estão em curso. Em São Paulo, a deputada Marina Helou protocolou uma Comissão Parlamentar de Inquérito (CPI) para investigar o papel das big techs na exposição de crianças e adolescentes a conteúdos tóxicos. Outros Estados já estudam propostas semelhantes.
Para Cugler, o avanço de projetos como o PL 2630/2020, que trata da responsabilidade de plataformas, e o PL 2628/2022, focado na proteção de menores, é essencial. Mas ele defende que medidas mais estruturantes sejam adotadas: “O que precisamos é construir uma infraestrutura digital nacional, com soberania de dados e inteligência artificial comprometida com os direitos humanos”.