A internet explodiu nas últimas semanas com a denúncia feita pelo youtuber Felca a respeito da exploração de menores de idade nas redes sociais. Em um vídeo impactante, ele expôs como crianças e adolescentes têm suas imagens utilizadas de forma inapropriada e sexualizada, levantando um debate urgente sobre os limites do conteúdo na web.
O assunto ganhou ainda mais força ao envolver o influenciador Hytalo Santos, cujo alcance e estilo controverso se tornaram alvo de investigações, resultando em sua prisão preventiva. Esse caso coloca em evidência questões complexas como algoritmos, moderação e responsabilidade.
Felca é conhecido por vídeos de humor e sátiras, mas rompeu com tudo que fazia ao publicar seu vídeo sobre “adultização”. Nele, ele demonstra como algoritmos podem sugerir conteúdos com crianças em contextos impróprios, favorecendo redes de pedófilos e com linguagem cifrada para evitar a moderação.
O impacto foi imediato: o vídeo viralizou, ganhou repercussão na mídia e acelerou a queda de perfis de Hytalo nas redes, trazendo à tona debates sobre leis, ética digital e a vulnerabilidade das crianças.
Leia mais:
- Olhar do Amanhã: as denúncias de Felca e a regulamentação das redes
- Adultização na internet: vídeo de Felca coloca tema na pauta da Câmara
- Efeito Felca? Lula vai enviar ao Congresso projeto para regulamentar redes sociais
Em meio a esse turbilhão, muitas pessoas ficaram sem entender com clareza o que está em jogo. Por isso, vamos destrinchar seis pontos fundamentais para você compreender a gravidade da denúncia de Felca. Acompanhe e entenda tudo em detalhes na matéria abaixo!

Felca, algoritmos e adultização de menores: 6 pontos para você entender a gravidade da denúncia feita pelo influenciador
Felipe Bressanim Pereira, mais conhecido como Felca, é um dos maiores youtubers do Brasil. Ficou famoso por seus vídeos de humor, críticas bem-humoradas e comentários sobre cultura pop, conquistando milhões de seguidores.
No começo de agosto, surpreendeu o público ao publicar um vídeo intitulado “Adultização”, expondo a forma como influenciadores, entre eles Hytalo Santos, estavam produzindo e disseminando conteúdos que sexualizam menores, levantando uma discussão nacional sobre o papel das redes sociais e da lei nesse contexto.
A adultização de menores consiste em expor crianças e adolescentes a situações, comportamentos e imagens que simulam a vida adulta, muitas vezes com carga sensual ou sexual. É quando uma menina de 12 anos, por exemplo, é estimulada a dançar coreografias provocativas ou usar roupas que remetem ao universo adulto.
Esse tipo de exposição distorce a visão de infância, podendo gerar consequências psicológicas graves e abrir espaço para a exploração por parte de adultos mal-intencionados.
Felca trouxe o tema à tona ao mostrar que esse fenômeno não ocorre de forma isolada, mas é amplificado pelas plataformas digitais. Quando vídeos de “adultização” viralizam, eles não apenas prejudicam diretamente os menores envolvidos, mas também atraem comunidades criminosas que utilizam códigos, símbolos e até algoritmos para explorar esses conteúdos.
O que o influenciador Felca denunciou?
No vídeo, é exposto como menores de idade estavam sendo usados em conteúdos que simulam comportamentos adultos, muitas vezes em contextos de conotação sexual. Ele mostrou que esses vídeos, produzidos e consumidos por milhões de pessoas, ultrapassam os limites do entretenimento e passam a alimentar redes de exploração infantil.
Esse cenário é um exemplo claro de exploração infantil, que acontece quando crianças são colocadas em situações que não correspondem à sua idade ou são utilizadas para gerar ganhos financeiros.
No Brasil e no mundo, esse problema é alarmante: segundo a UNICEF, milhões de crianças são vítimas de diferentes formas de exploração todos os anos. Nas redes, a questão é ainda mais grave, já que a velocidade de disseminação dos conteúdos torna quase impossível impedir sua reprodução após a publicação inicial.
Outro ponto abordado por Felca foi a sexualização precoce, que se manifesta em vídeos de danças sensuais, roupas provocativas ou falas de cunho erótico ditas por crianças e adolescentes. Ainda que parte desse material não seja classificado como pornografia infantil explícita, ele abre as portas para práticas criminosas e normaliza a objetificação da infância.
A denúncia foi além de Hytalo Santos, apontando para um sistema muito maior, em que jovens são transformados em produto para visualizações e lucro, sem qualquer proteção adequada. Portanto, não se resume a um caso específico: ela escancara um problema estrutural da internet, em que crianças estão desprotegidas frente a sistemas projetados para maximizar engajamento, não segurança.

Como os algoritmos das redes sociais funcionam?
Para entender a denúncia, é preciso compreender o papel dos algoritmos. Eles são conjuntos de regras matemáticas que orientam como as plataformas digitais exibem conteúdos aos usuários. A lógica é simples: quanto mais você interage com um tipo de postagem, mais conteúdos semelhantes serão sugeridos.
Isso cria um ciclo de reforço em que vídeos, imagens e perfis similares passam a aparecer constantemente no feed. Assim, o usuário é mantido conectado por mais tempo, aumentando o lucro das plataformas por meio da publicidade.
Na prática, no entanto, podem reforçar padrões prejudiciais, como a recomendação de vídeos de menores em contextos de exploração ou sexualização. Isso acontece porque o algoritmo “aprende” com interações e visualizações, sem distinguir entre engajamento saudável e conteúdo nocivo.
Quando um conteúdo envolvendo crianças em contextos de adultização recebe muitas visualizações ou curtidas, os algoritmos entendem que há demanda por esse material e o distribuem ainda mais. Isso significa que vídeos com caráter exploratório podem se multiplicar rapidamente, alcançando públicos maiores, incluindo adultos que buscam esse tipo de material por interesses criminosos.
Além disso, os algoritmos não possuem critérios éticos próprios. Eles não distinguem se um vídeo é nocivo ou inofensivo: o único parâmetro é o engajamento. Por isso, quando Felca denuncia a forma como esses sistemas funcionam, ele evidencia uma falha estrutural.
Sem filtros adequados e sem uma supervisão eficiente, as plataformas acabam priorizando visualizações em vez da segurança, deixando menores cada vez mais expostos a situações de risco.

O que é o Algoritmo P?
O Algoritmo P é um termo criado por Felca para se referir ao conjunto de mecanismos digitais que favorecem a circulação de conteúdos voltados para pedófilos. Ele mostrou que não se trata apenas de um erro de programação, mas de um padrão de funcionamento: sempre que conteúdos de adultização de menores recebem engajamento, eles são automaticamente impulsionados.
O “P” faz referência à pedofilia, uma forma de denunciar o modo como sistemas que deveriam proteger acabam se tornando ferramentas de exploração. O influenciador também fez um alerta sobre os códigos e linguagens usados por comunidades criminosas para escapar da moderação das plataformas.
Em vez de termos explícitos, pedófilos recorrem a siglas, símbolos, links encurtados, GIFs e até emojis específicos para se comunicar. Essa linguagem cifrada dificulta o rastreamento e permite que conteúdos problemáticos permaneçam ativos por muito mais tempo. Com isso, o “Algoritmo P” não se limita ao sistema, mas também às práticas humanas que o alimentam.
Essa combinação de falhas técnicas e estratégias criminosas cria uma espécie de “rede invisível”, onde conteúdos não explícitos, mas ainda assim abusivos, circulam livremente. O termo “Algoritmo P” acabou se tornando um símbolo do debate, mobilizando a sociedade e chamando atenção para o problema.

Por que o Governo Federal não consegue impedir a reprodução desses conteúdos?
Ainda que existam leis no Brasil que criminalizam a produção, armazenamento e divulgação de pornografia infantil, a moderação de conteúdo online ainda é um grande desafio.
Hoje, a atuação governamental e das próprias plataformas se concentra principalmente em combater fake news, discursos de ódio e desinformação política, áreas que ganharam destaque nos últimos anos.
Conteúdos ligados à exploração infantil acabam ficando em segundo plano, já que exigem ferramentas muito mais complexas de monitoramento e identificação. Além disso, muitas redes sociais são empresas privadas sediadas fora do Brasil, o que dificulta a aplicação direta das leis nacionais.
A fiscalização fica dependente de denúncias manuais e de sistemas de inteligência artificial ainda pouco eficazes. Na prática, isso significa que, mesmo com legislações rígidas, a internet segue operando quase como uma “terra de ninguém” em relação à proteção de crianças.
O que esta denúncia revela sobre o mundo digital?
O caso mostra que o ambiente digital pode ser extremamente perigoso para crianças e adolescentes. Mesmo sem conteúdos pornográficos explícitos, existem milhares de vídeos e imagens que apresentam menores em situações sexualmente sugestivas, acessíveis a qualquer usuário.
As consequências desse fenômeno vão muito além do ambiente digital. Crianças que são expostas a esse tipo de conteúdo podem desenvolver traumas psicológicos, problemas de autoestima e até distorções sobre identidade e sexualidade.
Além disso, a perpetuação desse material online dificulta qualquer tentativa de reparação futura. Ao denunciar esses fatos, Felca mostrou que a internet não é apenas um espaço de entretenimento, mas também um terreno fértil para crimes que colocam em risco os direitos fundamentais da infância.
Outro importante é a ausência de moderação eficaz por parte das plataformas. Enquanto vídeos de humor ou de política podem ser removidos rapidamente por suposta violação de diretrizes, materiais que exploram menores continuam circulando por semanas ou meses.
Vale lembrar que Felca não foi o primeiro a levantar esse alerta. Outros influenciadores e especialistas já haviam denunciado práticas semelhantes no passado, mas sem grande repercussão. A diferença é que, desta vez, a denúncia ganhou alcance massivo e conseguiu pressionar tanto a sociedade quanto as autoridades.

A regulação das redes sociais no Brasil faria alguma diferença?
A regulação das redes sociais no Brasil é um tema em debate há anos, e casos como o denunciado por Felca reforçam sua necessidade. Se houvesse uma legislação específica que obrigasse as plataformas a criar mecanismos mais eficientes de detecção e remoção de conteúdos relacionados à exploração infantil, o alcance desse tipo de material poderia ser reduzido.
Países como a União Europeia já aplicam normas mais rígidas, exigindo transparência nos algoritmos e punições financeiras pesadas em caso de falhas. No Brasil, projetos como o PL das Fake News (em tramitação) poderiam servir de inspiração para incluir também medidas de proteção infantil.
A ideia seria ampliar a responsabilidade das plataformas, tornando obrigatória a prestação de contas não apenas em casos de desinformação, mas também quando conteúdos que violam os direitos da infância circulam livremente. Assim, haveria uma pressão legal para que as empresas investissem em inteligência artificial e equipes especializadas nesse tipo de moderação.
Por outro lado, especialistas alertam que a regulação não resolveria tudo sozinha. A exploração infantil online é um problema global, que exige cooperação entre países, avanços tecnológicos e conscientização da sociedade. Contudo, ao estabelecer regras claras e penalidades no âmbito nacional, o Brasil poderia dar um passo importante para proteger seus menores.
O post 6 pontos sobre a denúncia de Felca que você ainda não entendeu apareceu primeiro em Olhar Digital.