Uma nova lei obriga o TikTok, Instagram, YouTube e todas as redes sociais com usuários menores de 18 anos no Brasil a implementar proteções contra o uso compulsivo por crianças e adolescentes. É a Lei nº 15.211/2025, chamada de ECA Digital — e ela já está em vigor. Pais, escolas e plataformas precisam entender o que mudou.

O Brasil tem mais de 25 milhões de usuários menores de 18 anos nas redes sociais. Estudos do próprio Ministério da Saúde apontam relação entre o uso excessivo de redes e o aumento de ansiedade, depressão e distúrbios de sono em adolescentes. O ECA Digital é a resposta legislativa a esse cenário.

O que a lei diz — em linguagem simples

A Lei 15.211/2025 atualiza o Estatuto da Criança e do Adolescente (ECA) para incluir o ambiente digital. Ela parte de um princípio claro: empresas de tecnologia compartilham responsabilidade pelos impactos do uso de suas plataformas em menores — e não podem se esconder atrás do argumento de "os pais deveriam controlar".

ObrigaçãoO que as plataformas devem fazer
Controle parentalDisponibilizar ferramenta gratuita e acessível para pais e responsáveis
Restrição de horáriosBloquear ou limitar notificações em horários de estudo (ex.: 8h–17h) e descanso (após 22h)
Detecção de uso compulsivoCriar sistemas que identifiquem padrões de uso excessivo e alertem o usuário ou responsável
Relatório de tempo de telaEnviar relatório semanal para o responsável vinculado à conta do menor
Algoritmo responsávelNão direcionar conteúdo que estimule comparação física, automutilação ou comportamentos de risco

Fonte: Lei nº 15.211/2025 — Planalto.gov.br.

O que muda para pais e responsáveis

Antes do ECA Digital, o controle parental nas redes sociais era voluntário — cada plataforma oferecia (ou não) ferramentas próprias, muitas vezes escondidas em menus difíceis de encontrar. Com a lei, isso muda:

Publicidade

  • Controle parental obrigatório: As plataformas devem oferecer uma interface clara, em português, para vinculação da conta do filho à conta do responsável
  • Acesso ao histórico de uso: Pais podem ver quanto tempo o filho passou em cada plataforma
  • Possibilidade de limite de tempo: Definir um teto diário de uso diretamente pelo aplicativo
  • Alerta de comportamento de risco: A plataforma deve notificar o responsável se detectar padrões associados a automutilação ou conteúdo de risco

O que muda para adolescentes

Para os próprios jovens, as mudanças mais visíveis serão:

  • Menos notificações em horários específicos (escola, sono) — por padrão, não só quando o usuário ativa
  • Alertas de uso prolongado — a plataforma deve interromper a sessão com um aviso após determinado tempo contínuo
  • Menos conteúdo algorítmico de risco — o feed não pode priorizar sistematicamente conteúdos que comprovadamente prejudicam a saúde mental de adolescentes

O que acontece se a plataforma não cumprir

O ECA Digital tem dentes. As penalidades incluem:

  • Multas administrativas aplicadas pelo Ministério da Justiça e pela ANPD
  • Suspensão do serviço no Brasil em casos de descumprimento grave ou reincidência
  • Responsabilidade civil por danos comprovados ao desenvolvimento psicossocial de menores vinculados à plataforma

Como denunciar uma plataforma que não cumpre

  1. Acesse o site do Ministério da Justiça e localize o canal de denúncias digitais
  2. Registre a denúncia também na ANPD se envolver dados pessoais de menores
  3. O Ministério Público pode ser acionado em casos que envolvam dano grave a crianças

Por que esse debate importa agora

O Brasil não está sozinho nessa discussão. Em 2023, a União Europeia aprovou o Digital Services Act com obrigações semelhantes. Em 2024, a Austrália proibiu completamente o acesso de menores de 16 anos a redes sociais. O ECA Digital posiciona o Brasil no grupo de países que tratam a saúde digital de crianças como política pública — e não como responsabilidade exclusiva da família.