conecte-se conosco
 
 

Brasil

Lei 15.211/2025 (ECA Digital): pais viram “supervisores legais” e plataformas têm novas obrigações — o que você precisa saber

Publicado em

Imagem publica da internet

O presidente sancionou a Lei nº 15.211/2025, conhecida como Estatuto Digital da Criança e do Adolescente ou “ECA Digital”. O objetivo é modernizar a proteção de crianças e adolescentes no ambiente online: da verificação de idade ao controle parental, da proibição de práticas de “adultização” até sanções pesadas para plataformas que descumprirem as regras.

Abaixo, explicamos em linguagem direta o que muda, quem passa a responder por quê, quais são as obrigações das empresas de tecnologia e — principalmente — o que pais e responsáveis devem fazer já para proteger seus filhos.


1) O ponto central: pais e responsáveis como supervisores legais

A lei reafirma que crianças e adolescentes têm o direito de ser educados, orientados e acompanhados por seus pais ou responsáveis legais quanto ao uso da internet e à experiência digital. O texto expressa o dever de cuidado ativo e contínuo dos responsáveis — a chamada obrigação de supervisão parental (parágrafo único do art. 3º). Em termos práticos, isso legitima e incentiva o uso de ferramentas de controle parental, bloqueios e supervisão de contas.

Importante: o conceito não significa deixar pais com “poder absoluto” — mas sim que o Estado, a escola e as empresas digitais atuarão em conjunto com a família para reduzir riscos ao menor.


2) Responsabilidade por omissão: o que os pais precisam entender

O texto do ECA Digital reforça que o dever de cuidado não é apenas moral: ele pode ter consequências jurídicas. Observadores e doutrina que comentaram a lei apontam que a omissão grave na supervisão pode gerar responsabilização civil (por danos causados a terceiros) e justificará medidas administrativas ou ações civis quando a falta de cuidado resultar em prejuízo (ex.: exposição, exploração ou indução a comportamentos de risco). Isso não é um “automático criminalizador”, mas aumenta a importância de medidas práticas de acompanhamento.


3) Plataformas e fornecedores: o que a lei exige (art. 16 e outros)

A lei estabelece um rol extenso de obrigações para aplicativos, redes sociais, jogos, serviços digitais e fornecedores de tecnologia quando há direcionamento ou acesso provável por crianças e adolescentes. Entre as medidas impostas estão:

  • Verificação de idade confiável (vedada a simples autodeclaração);

  • Ferramentas de supervisão familiar integradas;

  • Remoção e notificação rápida de conteúdos relacionados a abuso/exploração, aliciamento, incitação ao suicídio e outros riscos;

  • Limitações à publicidade dirigida (proibição de práticas predatórias e uso de perfilamento comportamental para fins comerciais contra menores);

  • Privacidade reforçada e tratamento de dados limitado para menores;

  • Mecanismos para identificar perfis adultos que se comunicam com crianças/adolescentes em contextos de interação, quando o serviço permita comunicação direta — para evitar grooming, aliciamento e riscos similares.

Em outras palavras: se um aplicativo permite chat entre usuários e é “de acesso provável” por menores, ele precisa adotar filtros, medidas de identificação e meios para detectar adultos com comportamento suspeito.


4) Fiscalização e sanções: a caneta é pesada

A fiscalização e aplicação das sanções ficarão a cargo de uma autoridade nacional autônoma (o texto e medidas provisórias vinculam novas competências à ANPD, que ampliará papel regulatório), e as penalidades podem ser significativas. Segundo a Câmara, as plataformas que não cumprirem poderão ser multadas de R$ 10 por usuário até R$ 50 milhões por infração, entre outras sanções administrativas. Há previsão também de bloqueios e medidas técnicas pelo Executivo conforme regulamentação.

Observação: a Lei sofreu vetos e a entrada em vigor foi adiantada por medida provisória — portanto, há regras transitórias e um calendário de implementação que devem ser observados (MPs e decreto regulamentador).


5) Como a lei trata da “identificação de adultos” que conversam com menores

O trecho que tem circulado nas redes (sobre “identificar adultos que conversam com adolescentes”) deriva do artigo 16 e seus parágrafos: fornecedores devem adotar medidas proporcionais para detectar perfis adultos que possam apresentar risco quando existirem canais de comunicação entre usuários menores e adultos. Isso não autoriza qualquer quebra ampla de privacidade sem limites: a ideia é criar mecanismos técnicos e processos — por exemplo, detecção de padrões de conversa, exigência de vínculos de conta (conta vinculada a responsável, verificação biométrica ou documental apenas quando estritamente necessário e com garantias legais) — para reduzir riscos de abuso.


6) O que os pais devem fazer hoje — checklist prático e imediato

A lei combina obrigações das plataformas com deveres dos pais. Para não ficar vulnerável, siga estes passos:

  1. Ative controles parentais nos aparelhos e nas contas (tempo de uso, filtros por conteúdo, bloqueios de downloads).

  2. Vincule contas de menores — quando o serviço permitir (a lei recomenda contas de crianças até determinada idade vinculadas ao responsável).

  3. Reveja configurações de privacidade: perfil fechado, localização desligada, restrição a contatos desconhecidos.

  4. Mantenha diálogo aberto: converse sobre riscos — violência, assédio, conteúdo sexual, compras in-app e “desafios” perigosos.

  5. Acompanhe histórico e amizades: periodicamente, olhe com seu filho os contatos e interações.

  6. Exija comprovantes de idade quando necessário e fuja do “autodeclara”: prefira plataformas com verificação robusta.

  7. Documente incidentes: se houver assédio, exploração, aliciamento, guarde prints, horários e nomes — isso ajudará em denúncia.

  8. Procure ajuda jurídica ou do Ministério Público se houver omissão institucional ou dano.

Essas atitudes reduzem o risco de responsabilização por omissão e protegem a criança no cotidiano.


7) O que as empresas precisam implementar — resumo prático

Para cumprir a lei (e evitar multas altas), os fornecedores devem:

  • Implementar verificação de idade confiável (tecnologias que comprovem limite etário sem uso indevido de dados);

  • Oferecer painéis parentais e modos “infantil” com bloqueio de interação social;

  • Ter fluxos rápidos para remover conteúdo e notificar autoridades sobre abuso;

  • Evitar perfilamento publicitário de menores e limitar coleta/uso de dados;

  • Desenvolver políticas de detecção de comportamentos de risco e rotinas de análise de “perfís adultos” que interajam de forma suspeita com menores;

  • Registrar e responder a denúncias em prazos regulamentares.

Plataformas pequenas terão desafios técnicos e custos de conformidade — por isso o texto prevê regras proporcionais, mas com responsabilidade clara.


8) Se você encontrar um adulto com comportamento suspeito: o que fazer

  • Documente (prints, datas, horários);

  • Bloqueie o usuário e preserve evidências;

  • Denuncie na própria plataforma (todas terão canal de notificação obrigatório);

  • Se houver risco imediato, contate a polícia; em casos de violência/exploração sexual contra criança, procure a Delegacia de Proteção à Criança e ao Adolescente ou o Disque 100;

  • Considere apoio jurídico e, se necessário, representação no Ministério Público ou medidas civis.


9) Perguntas frequentes (FAQ curto)

  • Meu filho tem 15 anos — a lei obriga que a conta esteja no meu nome?
    A lei traz parâmetros para vinculação e maior controle de contas de menores. Muitos serviços terão obrigação de exigir vínculo com responsável até idades específicas; verifique as regras da plataforma e implemente o vínculo quando exigido.

  • Posso ser responsabilizado por algo que meu filho fez online?
    A lei reforça a obrigação de supervisão. Em casos concretos de omissão comprovada que causem dano, pode haver responsabilização civil — sempre dependa de análise caso a caso. Procure orientação jurídica se você estiver em dúvida.

  • Como saber se um aplicativo cumpre a lei?
    Procure políticas de proteção a menores, “mecanismos de verificação” explícitos, canal de denúncias e modo família/infantil. Plataformas que não cumprirem estarão sujeitas a fiscalização e multa.


10) Onde denunciar descumprimento ou riscos

  • Plataforma: use o canal de denúncias integrado no serviço (obrigatório por lei).

  • Autoridade reguladora: ANPD (ampliada via MP e indicada para fiscalização) e a futura autoridade nacional autônoma prevista na lei.

  • Órgãos de proteção: Ministério Público, delegacias especializadas (DPCA), Disque 100.

  • Vigilância de proteção de dados: quando houver tratamento indevido de dados pessoais de menores, a ANPD será interlocutora.


Conclusão — um convite à responsabilidade compartilhada

A Lei 15.211/2025 representa um marco: responsabiliza plataformas, protege direitos das crianças e coloca pais e responsáveis no centro da supervisão digital. Isso traz segurança — mas também exige ação prática: diálogo com filhos, controles ativos e, quando necessário, denúncia.

A mensagem chave para pais e responsáveis é simples: supervisão não é vigilância sufocante — é cuidado informado. Use as ferramentas que já existem, exija das plataformas transparência e deixe claro: proteger uma criança na internet é dever de família, Estado e mercado, juntos.


Fontes e leitura adicional

  • Agência Câmara — resumo sobre a Lei nº 15.211/2025 (ECA Digital), com trechos sobre fiscalização, multas e transformação da ANPD.

  • Texto da lei e versão disponível em portais legislativos (Lei nº 15.211/2025 — Estatuto Digital da Criança e do Adolescente).

  • Análise e síntese jornalística/jurídica sobre os pontos centrais da lei (destaques sobre deveres parentais e medidas técnicas).

  • Comentário jurídico sobre a obrigação de supervisão parental e as implicações práticas do parágrafo único do art. 3º.

Deixe o seu Comentário

Mais Visto da Semana