Início Educação 15% dos alunos conhecem alguém que foi deepfaked. Aqui está o que...

15% dos alunos conhecem alguém que foi deepfaked. Aqui está o que os pais precisam saber. | cinetotal.com.br

3
0
15% dos alunos conhecem alguém que foi deepfaked. Aqui está o que os pais precisam saber.
| cinetotal.com.br

15% dos alunos conhecem alguém que foi deepfaked. Aqui está o que os pais precisam saber.

Pressione Enter ou clique para ver a imagem em tamanho real. Há anos ouço falar de deepfakes de IA direcionados a celebridades e políticos. Taylor Swift. Joe Biden. Casos de destaque que chegam às manchetes. Mas então me deparei com uma estatística que me deixou paralisado: 15% dos alunos conhecem pessoalmente alguém em sua escola que criou deepfakes sexualmente explícitos. Isso não é um problema futuro. Atualmente, são 2,3 milhões de estudantes do ensino médio, de acordo com uma pesquisa do Centro para Democracia e Tecnologia. E quando me aprofundei no que está acontecendo nas escolas de todo o país, percebi que esta crise está se desenrolando mais rápido do que qualquer pessoa – pais, professores, administradores – pode responder a ela. De acordo com investigações recentes, aproximadamente 90% do tráfego para esses aplicativos deepfake vem de plataformas Meta através de anúncios explícitos no Facebook e Instagram. O aluno tira uma captura de tela da foto totalmente vestida de um colega de classe nas redes sociais, carrega-a no aplicativo e, em segundos, recebe uma imagem de nudez perturbadoramente realista. Depois, partilham-no — através de mensagens de texto, redes sociais, redes escolares. O Centro Nacional para Crianças Desaparecidas e Exploradas CyberTipline recebeu 4.700 relatórios envolvendo IA generativa em 2023. Em 2024, esse número saltou para 67.000. Apenas nos primeiros seis meses de 2025, receberam 440.000 relatórios — um aumento de 1.325% num único ano. Deixe-me repetir: um aumento de 1.325%. Isto não está a acontecer numa escola ou num estado. Em outubro passado, um menino de 13 anos em Wisconsin usou uma foto de sua colega de classe comemorando seu bat mitzvah para criar um nude falso que ele compartilhou no Snapchat. Em Iowa, quatro colegas do sexo masculino criaram deepfakes nus de 44 meninas da Cascade High School usando fotos das redes sociais. Em Beverly Hills, Califórnia, vários estudantes do ensino médio foram expulsos por divulgar pornografia falsa de colegas de classe. No Reino Unido, uma pesquisa recente descobriu que 75% da pornografia deepfake gerada por IA nas escolas tem como alvo crianças de até 14 anos – algumas com até 11 anos. desse comportamento, mas sim a facilidade com que ele é disseminado.”O ecossistema não está prontoQuando comecei a pesquisar isso, fiquei perguntando: O que as escolas estão fazendo para se preparar? O que os pais estão fazendo? Que apoio existe para crianças vítimas de violência? As respostas são profundamente preocupantes. De acordo com a pesquisa nacionalmente representativa do Centro para Democracia e Tecnologia com professores, alunos e pais: As escolas estão focadas na punição, não na prevenção. 71% dos professores relatam que os alunos flagrados compartilhando conteúdo deepfake foram encaminhados às autoridades, expulsos ou suspensos por mais de três dias. Mas apenas 5% dos professores afirmam que as suas escolas disponibilizaram recursos às vítimas para que as imagens fossem removidas das redes sociais ou das plataformas online onde apareciam. Apenas 38% dos alunos afirmam que as suas escolas forneceram orientações sobre como identificar conteúdos gerados por IA, mas 71% afirmam que seria útil se o fizessem. A diferença é ainda maior para os estudantes LGBTQ+, que têm menos probabilidades de receber esta educação crítica. Os pais estão no escuro. Apenas 33% dos pais afirmam que eles ou os seus filhos receberam orientação das escolas sobre a identificação de conteúdos gerados por IA, mas 79% dizem que seria útil.As meninas são alvo desproporcionalmente. 51% dos estudantes que ouviram falar de conteúdo deepfake em suas escolas dizem que as mulheres são mais propensas a serem retratadas, contra 14% que dizem que os homens são mais prováveis. O superintendente do distrito escolar comunitário de Western Dubuque, Dan Butler, resumiu o que muitos educadores estão sentindo após o incidente de Iowa: “É uma situação incrivelmente desafiadora. As leis estão atrasadas. Estamos em um mundo muito conectado.”Por que isso é tão difícil de resolverParte do que torna esta crise tão complexa é que os perpetradores muitas vezes são eles próprios menores. Muitas leis estaduais não abordam claramente o que fazer quando um garoto de 13 anos cria conteúdo deepfake de outro garoto de 13 anos. Alguns estados modificaram as leis existentes sobre materiais de abuso sexual infantil para incluir conteúdo gerado por IA, mas estas acarretam penalidades severas – como a pena mínima obrigatória de cinco anos de prisão na Louisiana, independentemente da idade do perpetrador. A maioria provavelmente escolherá a última opção, deixando as vítimas sem recurso e os perpetradores sem consequências que possam impedir comportamentos futuros. Entretanto, a tecnologia está cada vez mais fácil de utilizar. O que há apenas alguns anos exigia conhecimento técnico, agora leva segundos e nenhuma habilidade especial. Os aplicativos são comercializados de forma agressiva. Os anúncios são direcionados a usuários jovens. E as plataformas que hospedam esses anúncios — apesar de algumas ações de fiscalização recentes — continuam a lucrar com o ecossistema. O que precisa acontecer (e o que todos nós podemos fazer) Não se trata de culpar exclusivamente escolas, pais ou empresas de tecnologia. Trata-se de todos nós aparecermos para enfrentar uma crise que já está aqui. As escolas precisam de recursos e formação. De acordo com o Resumo da Política de Inteligência Artificial Centrada no Ser Humano de Stanford, as escolas têm agora a oportunidade de preparar proactivamente as suas estratégias de prevenção e resposta antes que a prevalência cresça ainda mais. Isto significa formação para professores sobre como identificar e responder a estes incidentes, políticas claras que equilibrem as consequências com o apoio às vítimas e parcerias com organizações que podem ajudar a remover conteúdos rapidamente. O Centro para Democracia e Tecnologia desenvolveu uma Política Modelo NCII para escolas K-12 como ponto de partida – as escolas não têm de descobrir isto sozinhas. Isso é desconfortável. Ninguém quer dizer ao aluno do ensino médio que seus colegas podem criar deepfakes nus deles. Mas as crianças precisam saber que essa tecnologia existe, como ela está sendo mal utilizada e o que fazer se isso acontecer com elas ou com alguém que elas conhecem. O Centro Nacional para Crianças Desaparecidas e Exploradas criou recursos especificamente para essas conversas, incluindo o programa “Into the Cloud”, que ajuda as crianças a entender como a IA generativa pode ser mal utilizada. Muitos jovens que usam esses aplicativos não percebem que estão criando material de abuso sexual infantil – o que é um crime federal, independentemente da idade do perpetrador. Eles acham que é uma brincadeira ou uma piada. A compreensão dos danos reais para as vítimas e as potenciais consequências jurídicas deve fazer parte da educação para a cidadania digital, começando no ensino secundário. As empresas tecnológicas têm de ser responsabilizadas. Os processadores de pagamento que cortam serviços para plataformas que hospedam conteúdo não consensual têm se mostrado eficazes. Quando Visa, Mastercard e Discover interromperam os pagamentos ao Pornhub após uma investigação contundente do New York Times, o site excluiu quase 80% de seu conteúdo. Pressão semelhante precisa ser aplicada às plataformas que anunciam e hospedam aplicativos nudify. Todos nós precisamos defender leis melhores. Legislações federais como a Lei TAKE IT DOWN (assinada em 2025) ajudam, mas não é suficiente. Os estados precisam de leis claras que tratem os menores tanto como perpetradores quanto como vítimas, forneçam recursos para remoção de conteúdo e criem responsabilização sem criminalizar automaticamente as crianças que podem não entender o que estão fazendo. Isto não é uma questão de medo – é uma questão de conscientizaçãoNão estou escrevendo isto para assustar os pais ou demonizar as crianças. A grande maioria dos jovens nunca criaria este tipo de conteúdo. Mas precisamos de reconhecer que uma minoria significativa está a fazê-lo, muitas vezes sem compreender os danos duradouros que estão a causar. Quando olho para estas estatísticas – 15% dos alunos sabem sobre deepfakes na sua escola, 440.000 relatórios em seis meses, 75% visando crianças com 14 anos ou menos – não vejo números. Vejo crianças reais vivenciando traumas reais. Vejo escolas lutando para responder sem treinamento ou recursos adequados. Vejo pais que não têm ideia de que esta tecnologia é tão acessível ou que os seus filhos podem encontrá-la. Isto está a acontecer neste momento, em escolas de todo o país. A questão não é se precisamos resolver isso. A questão é se responderemos como um ecossistema inteiro – pais, escolas, empresas tecnológicas, legisladores e comunidades – ou se continuaremos a reagir caso a caso, crise a crise, sempre um passo atrás. Estou empenhado em aprender mais sobre isto, em ter conversas adequadas à idade e em apoiar as escolas à medida que desenvolvem políticas para enfrentar este desafio. Isso não é algo que possamos terceirizar para outra pessoa consertar. Se você também está tentando navegar nessa nova realidade, não está sozinho. Estamos todos aprendendo como proteger nossos filhos em um mundo onde a tecnologia avança mais rápido do que nossa capacidade de regulá-la ou mesmo de entendê-la. Você já conversou com seus filhos sobre deepfakes gerados por IA? Você sabe quais políticas sua escola possui? Ainda estou aprendendo – vamos falar sobre isso nos comentários. FontesCenter for Democracy & Technology. (2024). Pesquisa do CDT revela assédio sexual generalizado impulsionado pela tecnologia em escolas públicas de ensino fundamental e médio. Obtido em https://cdt.org/press/cdt-research-reveals-widespread-tech-powered-sexual-harassment-in-k-12-public-schools/Center for Democracy & Technology. (2025). Relatório – Em apuros profundos: surgindo o assédio sexual impulsionado pela tecnologia em escolas de ensino fundamental e médio. Obtido em https://cdt.org/insights/report-in-deep-trouble-surfacing-tech-powered-sexual-harassment-in-k-12-schools/Center for Democracy & Technology. (2024). Pesquisa recém-lançada: As demandas dos alunos por melhor orientação superam o apoio escolar para detectar deepfakes. Obtido em https://cdt.org/insights/just-released-research-student-demands-for-better-guidance-outpace-school-supports-to-spot-deepfakes/Center for Democracy & Technology. (2025). Política modelo e infográfico: imagens íntimas não consensuais (NCII) para escolas de ensino fundamental e médio. Obtido em https://cdt.org/insights/model-policy-and-infographic-non-consensual-intimate-imagery-ncii-for-k-12-schools/Fight the New Drug. (2025). Relatório de 2025 do NCMEC: Uma bandeira vermelha digital para a segurança infantil. Obtido em https://fightthenewdrug.org/a-digital-red-flag-ncmecs-2025-report/Homeland Security Today. (2025). Aumento de crimes online contra crianças impulsionados pela IA e pela evolução das táticas de exploração, relatórios do NCMEC. Obtido em https://www.hstoday.us/subject-matter-areas/cybersecurity/surge-in-online-crimes-against-children-driven-by-ai-and-evolving-exploitation-tactics-ncmec-reports/Centro Nacional para Crianças Desaparecidas e Exploradas. (2025). De volta às aulas na era da IA: novas ferramentas para crianças. Obtido em https://www.missingkids.org/blog/2025/back-to-school-in-the-age-of-ai-new-tools-for-kidsCentro Nacional para Crianças Desaparecidas e Exploradas. (2025). O dilema do deepfake: Novos desafios para proteger os alunos, confidencialidade. Obtido em https://www.missingkids.org/blog/2025/the-deepfake-dilemma-new-challenges-protecting-students-confidentialityStanford HAI. (2025). Abordando AI CSAM. Obtido em https://hai.stanford.edu/assets/files/hai-policy-brief-addressing-ai-csam.pdfTechPolicy.Press. (2025). Exploração digital: mapeando o escopo dos incidentes de deepfake infantil nos EUA. Obtido em https://www.techpolicy.press/digital-exploitation-mapping-the-scope-of-child-deepfake-incidents-in-the-us/The Guardian/Breitbart. (2025). Pesquisa: 75% da pornografia deepfake gerada por IA nas escolas tem como alvo crianças de até 14 anos. Obtido em https://www.breitbart.com/tech/2025/12/04/poll-75-of-ai-generated-deepfake-porn-in-schools-targets-children-14-and-under/The 19th News. (2025). O abuso de deepfake atingiu escolas em todo o país. A política não está acompanhando. Obtido em https://19thnews.org/2025/07/deepfake-ai-kids-schools-laws-policy/


Publicado: 2025-12-21 22:56:00

fonte: medium.com