A Dinamarca anunciou um plano para restringir o acesso de crianças e adolescentes a redes sociais — uma das medidas mais rígidas da Europa: a proposta prevê impedir menores de 15 anos de criar contas por conta própria, permitindo que jovens de 13 e 14 anos acessem plataformas apenas com autorização dos pais e verificação por meio do sistema de identidade digital do país. Embora o texto ainda precise virar lei, o projeto conta com apoio político expressivo e tem grande potencial de ser implementado em breve.
A seguir, um panorama amplo, com dados, comparações internacionais, efeitos sociais prováveis e os principais dilemas (incluindo a tensão com a liberdade de expressão).
1. O contexto: por que países estão adotando limites etários
Nos últimos anos, pesquisas apontaram sinais preocupantes sobre uso precoce e intenso de redes entre crianças e adolescentes. Relatórios da Organização Mundial da Saúde, estudos longitudinais e levantamentos nacionais mostram associação entre uso excessivo de redes e piora em indicadores de sono, bem-estar psicológico e exposição a conteúdos nocivos.
A OMS/Europa (2024) registrou que mais de 1 em 10 adolescentes (≈11%) apresentam sinais de uso problemático de redes; entre meninas os números são ainda maiores.
Estudos longitudinais nos EUA indicam que aumentos substanciais no tempo de tela pré-adolescente precedem elevações em sintomas depressivos em anos seguintes.
Em países como Dinamarca, pesquisas locais apontam uso médio diário elevado: crianças podem passar 2h–3h por dia em redes sociais, com picos em adolescentes.
Governos argumentam que os riscos — dependência comportamental, exposição precoce à sexualização, cyberbullying, perda de sono e viralização de desinformação — justificam políticas públicas que aumentem barreiras de acesso.
2. O que propõe a Dinamarca (resumo prático)
Idade mínima autodeterminada: proibir a autorregisto em plataformas para menores de 15 anos.
Exceção com consentimento: jovens de 13–14 anos podem usar redes com autorização parental, mediante verificação.
Verificação por identidade digital nacional: a checagem de idade seria feita via sistema estatal de identificação (reduzir contas falsas e registrar consentimentos).
Alvo: plataformas populares entre jovens — TikTok, Instagram, Snapchat, YouTube e similares.
Situação legal: projeto apoiado politicamente, ainda em tramitação/implementação.
(Observação: é uma síntese da proposta divulgada amplamente na imprensa; texto final e mecanismos de aplicação dependem do processo legislativo.)
3. Países que adotaram ou estudam medidas semelhantes
A Dinamarca não está sozinha — uma tendência global de repensar a idade mínima ou de reforçar verificação e responsabilidades das plataformas tem ganhado força:
França: aprovou legislação que exige consentimento parental para menores de 15 anos em redes sociais (lei de 2023 com aplicação progressiva), obrigando verificação e exigindo que plataformas facilitem controle parental.
Noruega: discutiu elevar a idade mínima para 15 anos (medida proposta no âmbito de maior regulação para proteção infantil).
Austrália e Nova Zelândia: adotaram ou propuseram medidas de proteção robustas (foco em remoção rápida de abuso e requisitos de segurança), e a Austrália considerou limites de idade na atualização de sua lei de segurança online.
União Europeia: o debate sobre uma idade mínima harmonizada (e ferramentas de verificação) ganhou força no contexto do Digital Services Act (DSA) e de iniciativas nacionais.
Países em análise: outros governos (Indonésia, Paquistão, Índia em diferentes frentes) propuseram ou estudam restrições/age checks, com distintos níveis de rigor e controvérsia.
Essas iniciativas variam no recorte: algumas focam em restrição total por faixa etária; outras em verificação de idade + consentimento parental; outras, ainda, impõem deveres de “safety by design” às plataformas (alterar recomendações e monetização voltadas a crianças).
4. Dados e evidências sobre efeitos sociais e educacionais
Saúde mental e sono
Estudos publicados em periódicos como JAMA Network Open e revisões sistemáticas mostram associação entre aumento do uso de redes em pré-adolescentes e aumento de sintomas depressivos, ansiedade e piora do sono. Uma grande coorte (tweens 9–13 anos) mostrou que crescimento no uso diário precedeu aumento nas taxas de depressão.
A relação não é puramente causal e depende de fatores (tipo de uso, contexto, predisposição). Organizações como a UNICEF e a OMS destacam que tempo de tela por si só não explica tudo, mas padrões de uso noturno, cyberbullying e conteúdo nocivo pesam muito.
Comportamento e exposição a riscos
Pesquisas sobre desinformação e checagem indicam que jovens são vulneráveis a compartilhar conteúdo falso; intervenções de literacia midiática (prompts de acurácia, cursos de checagem) reduziram o compartilhamento em estudos controlados.
Dados de organizações de monitoramento (SaferNet, ONGs) mostram crescimento de denúncias sobre crimes contra menores online (aliciamento, pornografia infantil, grooming) em diversos países.
Aprendizado e inclusão digital
Por outro lado, o acesso a redes e ferramentas digitais tem benefícios educacionais e econômicos quando combinado com educação digital: países que investiram cedo em alfabetização digital (Estônia, Reino Unido, Israel) viram ganhos em habilidades tecnológicas, empregabilidade e ecossistemas de inovação. Ou seja: proibir o acesso sem oferecer alternativas educacionais pode reduzir oportunidades.
5. Liberdade de expressão, acesso à informação e riscos de exclusão
Limitar o acesso de menores às plataformas toca em áreas sensíveis da democracia e dos direitos:
Liberdade de expressão: críticos alertam que restrições amplas podem impedir acesso a informação, debate e vozes juvenis (direito à participação). Adolescentes usam redes para mobilização, expressão cultural e acesso a recursos educativos; medidas mal calibradas podem silenciar esses usos legítimos.
Inclusão digital: jovens em contextos de vulnerabilidade podem depender de redes para acesso a oportunidades, cursos e redes de suporte — fechar canais sem alternativas amplia desigualdades.
Risco de censura e sobrerregulação: mecanismos de verificação de idade e proibições podem ser usados por regimes autoritários para controlar dissidência, se aplicados sem salvaguardas. Além disso, a tecnologia de verificação (biometria, identidade digital) levanta preocupações de privacidade e vigilância.
Eficácia limitada sem políticas complementares: proibir o registo não impede que menores acessem plataformas por contas de terceiros (pais, irmãos) ou por meios clandestinos; sem fiscalização eficaz e programas educativos, a medida pode deslocar o problema.
6. Questões técnicas e práticas: verificação de idade e enforcement
Para que uma regra assim funcione, são necessários mecanismos viáveis:
Verificação de idade confiável: opções incluem identificação por documentos, identidade digital estatal, validação por cartão bancário, ou métodos biométricos. Cada solução tem trade-offs: exatidão versus privacidade.
Custos e tecnologia: exigir verificação nacional (como propõe a Dinamarca) implica integração entre plataformas e infraestrutura pública — há custos de implementação e efeitos sobre pequenas plataformas.
Circunvenção: jovens já conseguem burlar restrições com facilidade (contas de terceiros, VPNs, perfis falsos). Efetividade depende de vigilância das plataformas e cooperação internacional.
Papel das plataformas: legislação que pune plataformas por permitir acesso indevido tende a forçar mudanças de design — por exemplo, limitar recomendações para perfis jovens, reduzir monetização em conteúdo infantil, ativar controles parentais por padrão.
7. Efeitos esperados — prós e contras
Potenciais benefícios
Redução de exposição precoce a conteúdo nocivo e riscos de dependência digital.
Menor pressão por comparação social precoce e possivelmente menos problemas de sono ligados ao uso noturno.
Sinal simbólico: aumento da responsabilidade pública sobre o design das plataformas.
Possíveis negativos
Dificuldade de aplicação e risco de evitação por menores; falso sentimento de segurança.
Impacto negativo em acesso à informação, participação social e oportunidades educativas, especialmente sem políticas compensatórias (alfabetização digital, acesso supervisionado).
Questões de privacidade e vigilância ligadas a sistemas de verificação de identidade.
Risco de judicialização e conflitos com normas de liberdade de expressão.
8. Medidas complementares recomendadas (para que a proibição funcione melhor e minimize danos)
Educação digital nas escolas — integrar pensamento computacional e comportamento digital (checagem de fatos, privacidade, ética) para equipar jovens a usar a internet com segurança.
Controles parentais e literacia familiar — programas para orientar responsáveis sobre mediação e limites de uso.
Design responsável nas plataformas — reduzir algoritmos direcionados a menores, limitar monetização e publicidade para perfis jovens.
Foco em verificação com privacidade — usar métodos de consentimento parental que preservem dados sensíveis (evitar biometria invasiva quando há alternativas).
Monitoramento e avaliação — implementar métricas (uso, incidentes, bem-estar) para ajustar políticas no curto e médio prazo.
Alternativas seguras e acessíveis — promover espaços digitais educativos e seguros para jovens (plataformas educativas, clubes digitais supervisionados).
9. Conclusão — um equilíbrio delicado
A iniciativa da Dinamarca é um marco na onda de políticas públicas que buscam proteger crianças do impacto potencialmente nocivo das redes sociais. Há evidência científica suficiente para justificar preocupação — sobretudo sobre sono, saúde mental e riscos de exploração — e vários países têm investido em formas de proteção.
Por outro lado, uma proibição rígida, sem estratégias educativas, salvaguardas de direitos fundamentais e soluções tecnológicas que preservem privacidade, pode gerar efeitos colaterais: exclusão digital, menor acesso à informação e desafios de enforcement. A experiência internacional sugere que o caminho mais seguro combina regulação responsável das plataformas, verificação de idade com proteção de dados, e forte investimento em educação digital para construir resiliência entre crianças e famílias.
No Brasil e em outros países, o debate deve ser informado por evidências, proteção dos direitos das crianças e avaliação contínua de impactos — a meta não é apenas proibir, mas preparar crianças e adolescentes para viver, aprender e participar de forma segura e crítica na sociedade conectada.
Referências (seleção)
Reuters — “Denmark set to ban social media platforms for children under 15”. Reuters
AP News — “Denmark’s government aims to ban access to social media for children under 15”. AP News
The Guardian — cobertura sobre propostas de idade mínima. Wikipedia
WHO / Europe — “Teens, screens and mental health” (2024). Organização Mundial da Saúde
UNICEF Innocenti — “Childhood in a Digital World” (2025). UNICEF
JAMA Network Open / estudos sobre uso de redes e depressão em tweens (reportagem e estudo 2025). The Washington Post+1
European Parliament briefing — “Protecting children online” (2025). Parlamento Europeu
Wikipedia / página consolidada sobre leis de verificação de idade por país (compilação de notícias e leis). Wikipedia
Vários textos de imprensa sobre iniciativas em França, Noruega, Austrália e Nova Zelândia (referências nas fontes acima). The Guardian+1

