ECA Digital na FIESP: Um olhar estratégico sobre o que as plataformas não contam (e o que a escola precisa saber).
ECA Digital na FIESP: Um olhar estratégico sobre o que as plataformas não contam (e o que a escola precisa saber).
Por Dayana Cristiny Silva | Líder GEG São Paulo | Educação, Tecnologia e Direito Digital
Aviso importante: o texto é longo. Mas eu precisava fazer esse resumão para vocês — porque o que aconteceu no dia 28 de abril na FIESP merece mais do que um post de três parágrafos. Pega um café e vem comigo.
No dia 28 de abril de 2026, a sede da FIESP, na Avenida Paulista, abrigou um evento que eu precisava estar: o Congresso ECA Digital — Proteção de Crianças e Adolescentes no Ambiente Online. Fui presencialmente, e a primeira coisa que me impressionou — antes mesmo de qualquer fala — foi o auditório lotado. Ver aquele espaço cheio de pessoas que escolheram estar ali, num dia de semana, para debater proteção de crianças e adolescentes na internet, foi um sinal animador. O tema está chegando onde precisa chegar. Foram quase quatro horas de debate, transmitidas também pelo YouTube, com representantes do governo federal, da Polícia Federal, de grandes plataformas tecnológicas, do terceiro setor e de especialistas em comportamento infantil. Um congresso que, no papel, parecia mais um evento protocolar. Na prática, revelou tensões muito reais sobre o que ainda temos pela frente.
Preciso ser honesta: fui com o olhar de quem já leu a lei mais de uma vez, estudou bastante, conduziu formações com professoras, professores e gestores sobre como abordar esse tema na escola, e acabou de facilitar oficinas sobre o ECA Digital com estudantes de Anos Iniciais e Anos Finais. Sim — os meus alunos e alunas tiveram acesso à Lei 15.211/2025, porque é de extrema importância que eles estejam por dentro do que está acontecendo. Nossos estudantes precisam ter clareza do que está sendo feito para protegê-los. O congresso confirmou algumas das minhas hipóteses, me surpreendeu em outras e me deixou com algumas perguntas que ainda não têm resposta fácil.
O Brasil que se posiciona — e o Brasil que ainda precisa mudar
A abertura do congresso teve peso simbólico. A ministra dos Direitos Humanos e da Cidadania, Janine Mello, marcou o tom da manhã ao afirmar que o ECA Digital representa um raro momento de convergência entre demanda social, atuação legislativa e implementação de políticas públicas. Para ela, a lei tende a se tornar referência internacional sobre o que precisamos fazer para proteger crianças e adolescentes no ambiente digital.
Ao encerrar sua fala, a ministra deixou uma sentença que ficou martelando na minha cabeça durante todo o evento: "O Brasil, ao se posicionar em relação ao ECA Digital, define claramente um limite: não aceitamos modelos de negócios baseados na vulnerabilidade da infância e adolescência."
É uma frase poderosa. E é exatamente o tipo de frase que precisa ser dita em voz alta — porque, por muito tempo, esses modelos operaram no silêncio do aceitável.
Na mesa de abertura também estavam Paulo Skaf (presidente da FIESP e do SESI-SP), Waldemar Gonçalves Ortunho Junior (diretor-presidente da ANPD), Otávio Margonari Russo (diretor de Combate a Crimes Cibernéticos da Polícia Federal), Demi Getschko (diretor-presidente do NIC.br e conselheiro do CGI.br) e Ellen Gracie (presidente do Conselho Superior de Assuntos Jurídicos da FIESP). Ellen Gracie foi direta: educação digital e acompanhamento familiar não são opcionais — são parte da equação.
A presença de Demi Getschko, que acompanha o desenvolvimento da internet no Brasil desde os seus primórdios, deu à abertura uma perspectiva de longo prazo que é rara nesses eventos. Quem conhece a trajetória do CGI.br sabe que Getschko representa uma visão de internet como bem público — o que contrasta com muito do que as plataformas comerciais têm construído.
"O país do estupro": a fala que parou o auditório
No Painel 1, o delegado Otávio Margonari Russo, diretor de Combate a Crimes Cibernéticos da Polícia Federal, foi a presença que mais me impactou — não pela formalidade do cargo, mas pela franqueza com que descreveu o que está acontecendo com as nossas crianças.
Russo começou revelando que, naquele exato dia, a PF estava executando uma operação com mais de 160 mandados de busca e apreensão contra abusadores de crianças em todos os estados da federação. Enquanto ele falava no auditório da FIESP, agentes federais batiam em portas pelo país inteiro. Isso não foi citado como dado histórico — era o presente daquela manhã.
Depois, veio a frase que ficou no ar: o delegado disse que o Brasil é considerado internacionalmente o "país do estupro". Não como acusação vinda de fora, mas como algo que a própria PF ouve nos circuitos de cooperação policial global — uma reputação construída pelo volume brutal de crimes sexuais contra crianças e adolescentes que o país registra. Dito por alguém que está dentro da estrutura investigativa, que trabalha com esses dados todos os dias, a frase não soa como alarmismo. Soa como diagnóstico.
Em contraste com isso, Russo afirmou com clareza que a Polícia Federal é uma referência mundial no combate ao abuso sexual infantojuvenil — está na "primeira prateleira" das polícias internacionais, nas suas palavras. O Brasil tem o problema e tem a capacidade investigativa. O que faltava era o instrumento legal à altura.
É aí que o ECA Digital entra de forma concreta. Russo explicou que, com base na Lei 15.211/2025, foi criada na PF uma estrutura nacional de triagem centralizada para receber denúncias e notificações de crimes cibernéticos — abuso sexual, aliciamento, sequestro — provenientes diretamente das plataformas de tecnologia. O modelo foi inspirado no NCMEC dos Estados Unidos, que já opera dessa forma há anos e é a principal fonte das 593 mil notificações que o Brasil recebeu em 2024 — número que nos coloca como o sétimo país do mundo em denúncias. Com o centro nacional, a PF passa a ter uma estrutura própria para receber esse volume de forma organizada, sem depender apenas da cooperação internacional.
O ponto final da fala de Russo foi sobre responsabilidade compartilhada: sem a colaboração das plataformas, o trabalho investigativo perde eficiência. O ambiente digital é complexo por design, e a lei cria as condições para que governo, empresas e sociedade precisem funcionar juntos — não como opção, mas como obrigação.
Saí daquele painel com uma sensação difícil de nomear. É simultaneamente encorajador saber que a PF tem capacidade e reconhecimento internacional, e perturbador entender que toda essa capacidade ainda não deu conta do tamanho do problema. O ECA Digital não resolve isso sozinho. Mas é o primeiro passo para que as peças comecem a se encaixar.
Terceirização, negação e preguiça existencial: a fala de Leo Fraiman
O painel que reuniu Leo Fraiman (psicoterapeuta, palestrante e escritor), Thiago Vizioli (gerente de advocacy da Childhood — Pela Proteção da Infância), Priscila Couto (líder de confiabilidade e segurança do Google para a América Latina), Dra. Alessandra Borelli (diretora da Divisão de Cibersegurança da FIESP/DESEG) e Marina Giancoli Cardoso Pita (diretora do Departamento de Promoção da Liberdade de Expressão da Secom) foi o que mais me provocou intelectualmente, maternalmente e "professoralmente" — e, de certo modo, o mais eletrizante.
Fraiman foi direto ao ponto que muitas pessoas no auditório provavelmente não esperavam ouvir num congresso sobre ECA Digital: o problema não está só nas plataformas, na legislação ou nas escolas. Está em como os adultos têm operado. Segundo ele, a postura predominante das famílias hoje é marcada pela "terceirização, a negação e a preguiça" — palavras dele, sem eufemismo. Muitos responsáveis evitam assumir o protagonismo na orientação dos filhos, delegando essa função para a escola, para os aplicativos, para o governo, para qualquer instância que não seja eles mesmos.
Para ilustrar essa lógica de forma que o auditório sentiu na pele, Fraiman trouxe um exemplo que parece absurdo mas é real: pais que acompanham os filhos adultos em entrevistas de emprego. A imagem é cômica na superfície e perturbadora no fundo — porque revela uma geração de responsáveis que não conseguiu, ao longo de toda a criação dos filhos, construir neles a autonomia necessária para enfrentar o mundo. Se não conseguiram criar autonomia para uma entrevista de emprego, o que dizer do ambiente digital, muito mais opaco, muito mais rápido e muito mais projetado para explorar vulnerabilidades?
O ponto de chegada de Fraiman foi a escola — mas não como salvadora. Ele reforçou que o papel das instituições educacionais é o de parceria com as famílias: um comprometimento conjunto, não uma prestação de serviço. A escola não pode ser contratada para resolver o que a família não quer enfrentar. E as famílias não podem tratar a escola como um fornecedor cujo único vínculo é o financeiro.
Ouvi isso com o chapéu de quem trabalha dentro de uma escola e facilita essa conversa com professoras e professores todos os dias. Fraiman disse em voz alta algo que a educação sabe há muito tempo, mas que raramente consegue nomear sem soar julgadora: a parceria com a família só funciona quando a família aceita que tem um papel que não pode ser terceirizado.
O que a TIC Kids Online 2025 nos diz — e o que isso significa para a escola
E aqui entra a pesquisa que sustenta empiricamente essa percepção.
A 12ª edição da TIC Kids Online Brasil, produzida pelo Cetic.br do NIC.br e lançada em outubro de 2025, é o levantamento mais robusto que temos sobre o comportamento digital de crianças e adolescentes brasileiros. São 2.370 entrevistados presencialmente, entre 9 e 17 anos, em todo o território nacional, com metodologia alinhada ao projeto Global Kids Online do UNICEF. Os dados são duros e precisam ser lidos com cuidado.
92% das crianças e adolescentes de 9 a 17 anos são usuários de internet. Isso equivale a 24,5 milhões de pessoas. Esse número se manteve estável em relação à edição anterior, o que indica que estamos próximos do ponto de saturação de acesso — a discussão agora é sobre como e com quais riscos esse acesso acontece.
28% desse grupo afirmaram ter iniciado o uso da internet antes dos 6 anos de idade. Em 2016, esse número era de 10%. Quase triplicou em menos de uma década. Estamos falando de crianças que chegam à alfabetização já com anos de exposição a conteúdos algorítmicos — sem mediação consistente, sem letramento digital, sem proteção real.
O celular é o principal dispositivo, utilizado por 96% das crianças e adolescentes. E 84% delas se conectam de casa várias vezes ao dia. O uso no ambiente escolar caiu de 51% para 37% entre 2024 e 2025 — reflexo direto da Lei 15.100/2025, que restringiu o celular nas escolas. Isso representa uma mudança real no comportamento, mas não resolve o que acontece fora do portão.
Sobre plataformas e frequência de uso: o WhatsApp lidera, com 53% usando várias vezes ao dia. Em seguida aparecem YouTube (48%), Instagram (48%) e TikTok (46%). O dado que mais me interessa como educadora vem da faixa de 9 a 10 anos: nessa faixa, o TikTok (34%) supera o Instagram (23%). Crianças que ainda estão nos Anos Iniciais já têm o TikTok como plataforma principal — e estamos falando de uma plataforma cujo algoritmo é reconhecidamente agressivo na captura de atenção.
65% das crianças e adolescentes já usam IA generativa. 59% a utilizam para pesquisas escolares. 12% dos adolescentes de 15 a 17 anos conversam com IA sobre problemas pessoais ou emoções. Esse último dado precisa ser lido devagar: uma em cada oito pessoas nessa faixa etária está processando questões emocionais com uma máquina. O que isso diz sobre a disponibilidade de adultos de referência no entorno dessas crianças?
E o dado que eu considero o mais revelador de todo o estudo: metade dos adultos responsáveis obtém informações sobre uso seguro da internet pelas próprias crianças — não de fontes especializadas, não da escola. Cinquenta por cento dos responsáveis estão aprendendo segurança digital com quem deveria estar sendo protegido por eles.
O desafio começa agora: a fala de Thiago Vizioli
Thiago Vizioli, gerente de advocacy da Childhood — Pela Proteção da Infância, foi quem melhor traduziu o que significa o ECA Digital ter entrado em vigor — e por que isso não é motivo de celebração prematura. Para ele, o grande desafio da lei começa exatamente agora: não foi a tramitação, não foi a sanção, não foi a regulamentação. É a implementação prática, no cotidiano das plataformas, das famílias e das instituições.
Vizioli reconheceu os avanços concretos que a lei representa. Ele citou a estruturação da ANPD (Agência Nacional de Proteção Digital) como reguladora do setor, a vedação à monetização de conteúdo erotizado envolvendo crianças e adolescentes, a proibição de lootboxes — mecanismos de apostas embutidos em jogos, altamente exploratórios para o público infantojuvenil — e a proibição do perfilamento de dados de menores para fins comerciais. São mudanças que tocam diretamente nos modelos de negócio das plataformas, e isso não é pouco.
Mas Vizioli também foi claro sobre os limites do que temos. O Brasil recebeu 593 mil notificações de crimes via NCMEC em 2024 — e esse número, por mais assustador que seja, representa apenas uma parte do problema. O NCMEC cobre plataformas com operação nos Estados Unidos. O que acontece fora desse radar não está contabilizado em lugar nenhum. E a resposta a esse volume não pode ser pontual — precisa ser sistêmica, com estrutura, protocolo e cooperação internacional consolidada.
O ponto que mais ficou comigo da fala de Vizioli foi o conceito de segurança por design aliado ao dever do cuidado. Ele defendeu que esses dois princípios, que estão na espinha dorsal do ECA Digital, precisam ser honrados pelas plataformas não como obrigação burocrática, mas como posicionamento ético. Uma internet que protege crianças e adolescentes é fundamentalmente melhor para toda a sociedade — não apenas para as crianças. Esse argumento importa porque desloca a discussão da lógica do sacrifício comercial para a lógica do bem comum. E essa é uma disputa de narrativa que ainda está em aberto.
O que as plataformas (Meta, Google e Roblox) disseram — e o que não disseram
Priscila Couto, líder de confiabilidade e segurança do Google para a América Latina, foi a representante de big tech que chegou com mais substância ao congresso. Ela não se limitou a apresentar o Family Link como cartão de visita institucional — detalhou ferramentas, políticas e limites concretos, e isso merece ser lido com atenção.
Sobre o Google Family Link, Priscila lembrou que a ferramenta completa dez anos em 2027 e descreveu sua função como uma "jornada para as famílias." O ponto crítico que ela enfatizou — e que eu considero o mais importante da sua fala — é que as camadas de proteção só funcionam automaticamente se os pais criarem as contas dos filhos com a idade real. Isso parece óbvio, mas não é: muitas famílias criam contas com datas de nascimento falsas para contornar restrições, e ao fazer isso, desativam justamente os mecanismos que protegeriam seus filhos. A ferramenta não consegue proteger quem a família decidiu disfarçar.
Em relação à privacidade de dados, Priscila foi enfática: a privacidade de menores é "inegociável" para o Google. A empresa não permite que anunciantes especifiquem menores de 18 anos como público-alvo, e não compartilha informações de usuários menores com terceiros para fins publicitários. São garantias que existem independentemente do ECA Digital — mas que a lei agora torna exigíveis de todas as plataformas, não apenas das que já adotavam essa postura.
O Google for Education foi apresentado como um ambiente com proteção adicional: dentro da suíte educacional, dados de alunos e professores não são compartilhados nem utilizados para o treinamento de modelos de inteligência artificial. Para quem trabalha em escola e usa ferramentas Google no dia a dia, isso é uma informação relevante — e que muitas instituições ainda desconhecem ao escolher seus ambientes digitais.
Sobre inteligência artificial, Priscila citou o modelo Learn LM e o conceito de "aprendizado guiado": a ferramenta não entrega a resposta direta para problemas matemáticos, por exemplo, mas conduz a criança a raciocinar para chegar à solução. É uma escolha pedagógica embutida no design — e um contraste interessante com a crítica que frequentemente se faz à IA de fomentar a dependência cognitiva. O SafeSearch também foi mencionado como recurso que atua por padrão nas contas de menores, filtrando conteúdos violentos ou impróprios.
Por fim, Priscila apresentou o programa "Seja Incrível na Internet" — uma iniciativa gratuita que existe há oito anos, voltada a pais, educadores e crianças, com foco em proteção de dados, segurança online e, mais recentemente, uso consciente da inteligência artificial. Oito anos é tempo suficiente para que muitas escolas já conheçam e usem esse material. Se a sua ainda não usa, vale pesquisar. Eu já usei e é ótimo!
Dito isso, mantenho minha leitura crítica: o Google apresentou um portfólio sólido de ferramentas. Mas portfólio não é o mesmo que cultura. As ferramentas existem, algumas há anos. O que ainda falta — e o ECA Digital tenta criar condições para isso — é que o uso dessas proteções deixe de ser opcional e passe a ser estrutural. Não depender da boa vontade da família em informar a idade correta, nem do professor que por acaso conhece o Family Link.
Margaret Kang, representante de políticas públicas da Meta, trouxe um tom diferente do que eu esperava. Em vez de uma defesa institucional genérica, ela abriu com algo que vale registrar: a Meta mantém diálogo frequente com o Ministério da Justiça, o Ministério dos Direitos Humanos e a ANPD, e considera essa interação fundamental para que a lei seja efetivamente funcional — não apenas formalmente válida. É uma distinção importante. Lei funcional e lei formalmente válida não são a mesma coisa.
Margaret elogiou a abordagem brasileira de não proibir o acesso de adolescentes à internet, mas buscar torná-lo mais seguro. Ela reconheceu que o Brasil tem liderado debates globais sobre essa temática — o que, vindo de uma representante da Meta, é um posicionamento relevante, porque a empresa opera em dezenas de países com regulações distintas e sabe comparar.
Sobre responsabilidade compartilhada, ela reforçou o que foi o fio condutor de todo o congresso: a mudança que o ECA Digital representa não é transferir o problema para um único ator, mas distribuir obrigações ao longo de toda a cadeia — plataformas, lojas de aplicativos, sistemas operacionais, famílias e Estado.
O ponto técnico mais interessante de sua fala foi sobre verificação de idade. Margaret sinalizou que o desafio não é criar novas infraestruturas de verificação do zero, mas usar com inteligência os canais que já existem — lojas de aplicativos, sistemas operacionais — e estabelecer sinais confiáveis entre esses atores. A fragmentação atual, em que cada plataforma tenta resolver o problema de forma isolada, não escala. O que precisa funcionar é o ecossistema como um todo, com comunicação entre as peças.
Ela encerrou reconhecendo que tanto a lei quanto o decreto estão em fase inicial de implementação, e que o maior desafio agora é justamente a regulamentação técnica dos processos. Não é a intenção que falta — é a engenharia de como isso vai funcionar na prática. Essa honestidade sobre o estágio atual foi, para mim, mais útil do que qualquer afirmação de comprometimento.
Mas preciso ser franca: saí da fala da Margaret com uma sensação de desconforto que não consigo ignorar. Ela falou em diálogo com o governo, em responsabilidade compartilhada, em verificação de canais já existentes. Tudo isso soa bem num auditório. O problema é que, no meu dia a dia como educadora, eu vejo crianças e adolescentes com contas ativas no Instagram e no WhatsApp muito abaixo da faixa etária que a Meta diz proteger. E nunca, em nenhum momento, vi qualquer checagem real impedir esse acesso. O discurso de Margaret foi fluido e bem construído. Mas entre o que foi dito no palco e o que acontece nas telas das crianças e adolescentes que eu tenho contato existe uma distância que nenhuma fala de congresso apaga.
Gabriel Reclade, diretor de políticas públicas do Roblox para a América Latina, foi o representante de plataforma que trouxe o detalhamento técnico mais concreto do congresso — e isso importa especialmente porque o Roblox é uma das plataformas mais presentes na rotina de crianças do Ensino Fundamental, muitas vezes subestimada pelos adultos por parecer "só um joguinho."
Reclade apresentou o Roblox como uma plataforma construída sobre dois princípios: segurança por design e autonomia progressiva. Na prática, isso significa que as ferramentas disponíveis para o usuário variam conforme a faixa etária — e que as camadas de proteção e supervisão parental aumentam proporcionalmente quanto menor for a criança. Não é uma configuração única para todos: é uma arquitetura que muda com a idade.
Em termos de medidas concretas, ele detalhou que a plataforma já restringia o chat para menores de 13 anos antes do ECA Digital (será???). Com a nova lei, foi além: passou a exigir um processo obrigatório de aferição de idade para que qualquer usuário possa acessar ferramentas de comunicação ou interagir com outros. A lei criou o gatilho, mas a estrutura técnica já existia — o que é diferente de começar do zero.
Um anúncio relevante foi a criação de duas novas categorias de conta: Roblox Kids e Roblox Select (não conheço ainda), voltadas para menores de 16 anos. Essas contas restringem o acesso a jogos específicos e exigem verificação de identidade dos desenvolvedores envolvidos — o que cria uma camada de responsabilização que vai além do usuário e alcança quem produz o conteúdo.
Sobre lootboxes — mecanismos de apostas embutidos em jogos, um dos pontos mais polêmicos do ECA Digital — Reclade foi objetivo: no Brasil, usuários com menos de 8 anos já são inelegíveis para acessá-las (será???). Para quem quiser acessar essa mecânica, é obrigatória a verificação de idade para comprovar maioridade.
O ponto que mais me chamou atenção foi a explicação sobre o sistema de estimativa facial para aferição de idade. Reclade fez questão de diferenciar: não é reconhecimento facial — é estimativa facial. A distinção não é apenas semântica. Reconhecimento facial identifica quem é a pessoa; estimativa facial analisa características para inferir uma faixa etária, sem armazenar ou cruzar dados de identidade. A empresa segue o princípio da minimização de dados, e o sistema oferece mecanismos de correção caso a estimativa seja incorreta. É um detalhe técnico que o debate público raramente menciona — e que faz toda a diferença na discussão sobre privacidade infantil.
Ainda assim, fico com uma pergunta que não consegui deixar de lado: se o Roblox tem toda essa arquitetura de segurança por design e autonomia progressiva funcionando, por que tantas crianças bem abaixo das faixas etárias descritas acessam a plataforma livremente, jogam, interagem e gastam — sem que nenhuma dessas camadas de proteção apareça na prática? Não estou generalizando à toa. Estou falando do que vejo dentro da escola, nas conversas com famílias, nas situações que chegam até mim. A sofisticação técnica do discurso do Gabriel foi impressionante. Mas sofisticação técnica e efetividade real são coisas diferentes — e o congresso, infelizmente, não aprofundou essa distinção.
A regulação que não se implementa sozinha
Waldemar Gonçalves, diretor-presidente da ANPD, explicou que o papel da agência no contexto do ECA Digital é prevenir riscos, desenhar serviços mais seguros, reduzir exposições indevidas e trazer mais transparência. A ANPD exigirá que novas aplicações tenham mecanismos de prevenção integrados desde o design — não como acessório, mas como requisito.
O que precisa acontecer para o ECA Digital virar política de Estado
Antes de encerrar, é importante registrar o que os próprios palestrantes apontaram como condições para que a lei não fique no papel. Porque aprovar é uma coisa. Consolidar é outra.
O primeiro ponto, repetido por praticamente todos os painéis, foi o da responsabilidade compartilhada. O ECA Digital foi descrito como um quebra-cabeça: se qualquer uma das peças falhar — famílias, escolas, plataformas ou Estado — o objetivo não se sustenta. Nenhum ator resolve sozinho. Isso não é retórica de consenso; é uma descrição técnica de como a lei foi arquitetada.
Marina Pita, da Secom, trouxe um argumento que me pareceu urgente e subestimado: o debate precisa sair de Brasília. A lei existe, mas a maioria das famílias brasileiras ainda não sabe o que ela diz, o que proíbe e o que garante. Marina sugeriu algo simples e potente — tornar o conteúdo da lei visível nos lugares frequentados por crianças, da mesma forma que o Código de Defesa do Consumidor está afixado em estabelecimentos comerciais. É uma ideia de territorialização que faz sentido: a lei precisa existir no cotidiano, não apenas no Diário Oficial.
Representantes da Meta e da ANPD foram convergentes em outro ponto: a fase atual exige regulamentação técnica clara. Sem normas detalhadas, o risco é a judicialização em massa — empresas sendo processadas por condutas que a lei ainda não especificou com precisão suficiente. Segurança jurídica não é um favor às plataformas; é uma condição para que a implementação aconteça de forma previsível e efetiva.
A abordagem baseada em risco também foi citada como modelo de fiscalização: as empresas devem ter a oportunidade de corrigir condutas antes de receberem multas puramente pecuniárias. O objetivo é a conformidade real, não a arrecadação. Isso muda o papel da ANPD de punidora para orientadora — pelo menos nessa fase inicial.
Por fim, foi destacada a necessidade de articulação interministerial entre Ministério da Justiça, Ministério dos Direitos Humanos, Secom e ANPD. Uma lei que toca no comportamento de plataformas, na formação de crianças e adolescentes, na publicidade digital e na segurança pública não pode ser gerida por um único órgão. A pergunta que fica é se essa articulação vai se concretizar na prática — ou se cada ministério vai continuar operando no seu próprio ritmo, com a lei ao fundo como paisagem.
O que isso muda (ou deveria mudar) na escola
Saio desse congresso com mais clareza sobre algumas coisas e mais perguntas sobre outras.
Tenho clareza de que o ECA Digital é um avanço real. A verificação de idade obrigatória, a proibição de rolagem infinita para menores, a responsabilização das plataformas, a criação de um centro nacional vinculado à Polícia Federal — tudo isso representa um patamar de proteção que o Brasil não tinha. E o fato de o Brasil ter chegado a esse ponto antes da União Europeia, em alguns aspectos, é motivo genuíno de atenção.
Mas tenho também clareza de que a lei sozinha não muda o cotidiano de uma criança de dez anos que usa TikTok várias vezes ao dia, cujos pais aprendem sobre segurança digital com ela, e cuja escola ainda está descobrindo como incorporar o letramento digital no currículo de forma intencional e não episódica.
A escola não é a salvadora de todos os problemas sociais. Mas é um dos poucos lugares onde existe uma relação de confiança estruturada entre adultos, crianças e adolescentes, com tempo regular de convivência e com profissionais que, quando bem formados, sabem criar condições para o pensamento crítico. O ECA Digital abre uma janela de legitimidade para que educadores abordem esses temas com as famílias, com os estudantes e entre si.
A pergunta que fica para mim — e que levo de volta para os meus estudos e aplicações como formadora, para as conversas com professoras, professores e gestores pedagógicos — é: quem está formando os docentes para isso? Não para ensinar a lei, mas para acompanhar o que a pesquisa mostra, para conversar sobre algoritmos sem transformar tudo em pânico moral, para ajudar famílias a entenderem que proteger uma criança no ambiente digital não é sobre vigiar, mas sobre criar condições para que ela desenvolva autonomia crítica?
Essa formação existe. Ela é construída por pessoas, dentro das escolas, muitas vezes sem horário específico, sem verba e sem reconhecimento. Mas ela acontece. E eventos como esse congresso ajudam a lembrar por que ela importa.
Para continuar acompanhando:
Gravação do Congresso ECA Digital (FIESP): youtube.com/live/2s_5BPA1x4M
TIC Kids Online Brasil 2025 (Cetic.br/NIC.br): cetic.br/pt/pesquisa/kids-online/indicadores
Lei nº 15.211/2025 — ECA Digital: planalto.gov.br
Childhood — Pela Proteção da Infância: childhood.org.br
SaferNet Brasil: safernet.org.br
Nota de transparência: este post foi escrito em parceria com o Gemini (Google), uma IA generativa que tenho usado como copiloto de pensamento e escrita. As reflexões, análises críticas, o lugar de fala e as escolhas editoriais são minhas. A IA me ajudou a organizar, estruturar, verificar dados e dar fluidez ao texto. Acredito que essa transparência importa — especialmente num post sobre letramento digital, ECA Digital e uso consciente de IA.
Dayana Silva é Pedagoga e especialista em Inovação Digital, atuando como Coordenadora de Tecnologia Educacional e Informação no Carandá Educação. Com uma trajetória marcada pela liderança estratégica, é Google Certified Trainer, AI+EDU Fellow e Google Innovator (#LATAM26). Como líder do GEG Brasil, dedica-se a traduzir a complexidade do Direito Digital e da IA para a realidade prática do chão de escola.

Comentários
Postar um comentário