Debates
A Lei Felca expõe a pergunta que o Brasil adiou por anos: quem é responsável pela infância na internet?
Da Redação | 21 de março de 2026 - 00:09
Por Márcio Filho
Entrou em vigor no Brasil a Lei 15.211/2025, conhecida como
ECA Digital ou Lei Felca, batizada por conta do influenciador Felipe Bressanim,
que expôs, em agosto do ano passado, casos de produção de conteúdo sexual
envolvendo menores de idade em ambientes digitais. Para muita gente, pode
parecer apenas mais uma lei sobre internet. Eu vejo de outra forma: trata-se do
reconhecimento de algo que já está diante de nós há anos. A infância brasileira
também passou a viver no ambiente digital.
Essa mudança não aconteceu de repente. Ela foi acontecendo
aos poucos, até se tornar impossível de ignorar. Hoje crianças e adolescentes
conversam, jogam, aprendem, se informam e constroem relações dentro de
plataformas digitais que organizam boa parte da vida social contemporânea. Nos
últimos dias, duas notícias aparentemente diferentes mostram a ampliação e
urgência desse debate.
A primeira envolve o WhatsApp. A empresa Meta anunciou que
pretende lançar contas gerenciadas por pais para menores de 13 anos, permitindo
que responsáveis decidam quem pode entrar em contato com os filhos e de quais
grupos eles podem participar na plataforma. O recurso surge justamente às
vésperas da entrada em vigor da nova legislação brasileira. Já a segunda
envolve o TikTok. O Ministério da Justiça do Brasil pediu explicações à
plataforma após a circulação de vídeos que simulavam agressões contra mulheres
e viralizaram nas redes sociais.
Os dados espantam. Segundo a pesquisa TIC Kids Online 2025,
19% das crianças entre 9 a 10 anos acessam a rede social várias vezes ao dia.
Essa porcentagem só cresce se comparado a idade: 33% para as crianças de 11 a
12 anos; e 55% para adolescentes entre 13 a 14 anos. E o Whatsapp não fica
longe: 25% das crianças entre 9 e 10 anos acessam várias vezes ao dia; 47% das
crianças entre 10 a 12 anos; 51% dos adolescentes entre 13 a 14 anos.
Sobre os dois episódios, vejo algo em comum. As plataformas
digitais não são apenas meios de comunicação. Elas são sistemas complexos que
organizam interações sociais, distribuem conteúdo por meio de algoritmos e
capturam a atenção de milhões de pessoas todos os dias. Quando esse sistema
passa a fazer parte da vida cotidiana de crianças e adolescentes, o debate
deixa de ser privado. Ele passa a ser público.
É justamente nesse ponto que o ECA Digital ganha
importância. A lei afirma algo que deveria ser óbvio, mas que demorou para ser
reconhecido: se plataformas digitais estruturam a experiência social de milhões
de jovens, elas também precisam assumir responsabilidades proporcionais. Isso
significa exigir mecanismos de proteção mais robustos, sistemas de verificação
etária mais confiáveis e maior responsabilidade diante de conteúdos que possam
expor crianças a riscos. Mas também significa ir além da ideia de que a
proteção digital depende apenas da vigilância familiar.
O anúncio do WhatsApp ilustra bem esse dilema. Ferramentas
de controle parental podem ajudar, e muitos pais realmente pedem esse tipo de
recurso. Mas confiar apenas nisso é transferir para as famílias um problema
estrutural. Quando um ambiente digital é frequentado por milhões de crianças,
ele precisa ser desenhado levando isso em conta desde o início.
O caso recente envolvendo o TikTok reforça ainda mais essa
necessidade. Não estamos falando apenas de um conteúdo inadequado que escapou
da moderação. Estamos falando de dinâmicas de viralização que podem amplificar
discursos violentos antes mesmo que qualquer sistema de controle consiga
reagir. Esse é o tipo de situação que revela a dimensão real do desafio.
Durante anos ouvimos que regular plataformas digitais
poderiam prejudicar a inovação. Mas o mundo está começando a perceber que essa
oposição é falsa. Sociedades que conseguem organizar seus ecossistemas digitais
não fazem isso abandonando a inovação. Elas fazem criando regras claras sobre
responsabilidade, transparência e proteção de usuários.
Do outro lado do mundo, no oceano Pacífico, a Austrália
também entrou na conversa e estabeleceu limites claros para todo mundo em
novembro de 2025. Menores de 16 anos estão proibidos de ter acesso a redes
sociais e plataformas digitais, entre elas: Facebook, Instagram, Snapchat,
Threads, TikTok, X, YouTube, Reddit e as plataformas de streaming Kick e
Twitch. Além da terra dos cangurus, a Indonésia também anunciou, em março de
2026, que irá proibir redes sociais para menores de 16 anos. A partir do dia 28
de março, crianças e adolescentes indonésios irão ser proibidos de usar
plataformas classificadas de alto risco, como o YouTube, TikTok, Facebook,
Instagram, Threads, X, Bigo Live e Roblox, por conta de riscos relacionados à
pornografia, cyberbullying, fraudes e dependência da internet, de acordo com o
governo do país.
Aqui no Brasil, a entrada em vigor do ECA Digital é um passo
importante nessa direção. Ela não resolve todos os problemas da infância
conectada. Nenhuma lei resolveria. O ambiente digital muda rápido demais para
soluções simples. Mas ela estabelece um princípio fundamental: a proteção da
infância não termina quando a criança pega um celular.
Nos últimos anos, o próprio setor de jogos passou a discutir
de forma mais profunda os impactos de seus modelos de negócio e formas de
proteção mais assertivas sobre crianças e adolescentes. Como parte desse
esforço, contribuímos para a produção de um estudo enviado ao senador Flávio
Arns com propostas para restringir sistemas de recompensas aleatórias, as
chamadas “loot boxes”, em jogos acessados por menores. No Marco Legal dos
Jogos, que ajudamos a construir coletivamente, também foram incluídos dispositivos
de proteção à infância em ambientes de jogos. E nos editais públicos que
apoiamos para financiamento de novos títulos, defendemos critérios que evitem o
desenvolvimento de experiências digitais que coloquem crianças em situação de
risco.
E para que tudo isso funcione, todos têm que cumprir seus
papéis. Famílias continuarão tendo um papel central. As escolas precisam
trabalhar educação digital de forma mais consistente. O poder público precisa
acompanhar de perto a implementação dessas novas regras. E as plataformas
também precisam assumir que fazem parte desse sistema de responsabilidade.
A infância brasileira já está na internet. Isso não está
mais em debate. O que está em debate agora é quem vai definir as regras desse
ambiente. E eu acredito que essa resposta não pode ficar apenas nas mãos das
plataformas. Ela precisa ser construída pela sociedade.
Porque proteger crianças nunca foi apenas uma escolha
tecnológica.
Sempre foi uma decisão coletiva.
*Márcio Filho é presidente da Associação de Criadores de
Jogos do Rio de Janeiro (ACJOGOS-RJ) e diretor executivo da GF CORP, empresa
voltada para soluções gamificadas. Com uma trajetória sólida que abrange mais
de duas décadas, destaca-se pelo seu engajamento social em defesa de políticas
públicas voltadas para o setor de jogos, como na participação ativa na
aprovação do Marco Legal dos Games. É especialista em Games e Sociedade, e atua
diretamente no desenvolvimento de tecnologias enquanto potencializadoras da
educação.