As pessoas estão usando Sora 2 para fazer vídeos perturbadores com crianças geradas por IA
Em 7 de outubro, uma conta do TikTok chamada @fujitiva48 fez uma pergunta provocativa junto com seu vídeo mais recente. “O que você acha deste novo brinquedo para crianças?” eles perguntaram a mais de 2.000 telespectadores, que encontraram o que parecia ser uma paródia de um comercial de TV. A resposta foi clara. “Ei, isso não é engraçado”, escreveu uma pessoa. “Quem fez isso deveria ser investigado.” É fácil ver por que o vídeo provocou uma reação tão forte. O comercial falso começa com uma jovem fotorrealista segurando um brinquedo – rosa, brilhante, com uma abelha adornando a alça. É uma caneta, somos informados, enquanto a menina e outras duas rabiscam em um papel enquanto uma narração de um homem adulto narra. Mas é evidente que o design floral do objeto, a capacidade de zumbir e o nome – Vibro Rose – parecem e soam muito como um brinquedo sexual. Um botão “adicione o seu” – o recurso do TikTok que incentiva as pessoas a compartilhar o vídeo em seus feeds – com as palavras “Estou usando meu brinquedo rosa”, elimina até mesmo o menor resquício de dúvida. (WIRED entrou em contato com a conta @ fujitiva48 para comentar, mas não recebeu resposta.) O clipe desagradável foi criado usando Sora 2, o mais recente gerador de vídeo da OpenAI, que foi inicialmente lançado apenas por convite nos EUA em 30 de setembro. Em apenas uma semana, vídeos como o clipe Vibro Rose migraram de Sora e chegaram à página For You do TikTok. Alguns outros anúncios falsos foram ainda mais explícitos, com a WIRED a descobrir várias contas que publicavam vídeos semelhantes gerados pelo Sora 2, apresentando brinquedos aquáticos em forma de rosa ou cogumelo e decoradores de bolos que esguichavam “leite pegajoso”, “espuma branca” ou “gosma” em imagens realistas de crianças. Mas as leis sobre conteúdo fetichista gerado por IA envolvendo menores permanecem confusas. Novos dados de 2025 da Internet Watch Foundation no Reino Unido observam que os relatos de material de abuso sexual infantil gerado por IA, ou CSAM, duplicaram no período de um ano, de 199 entre janeiro-outubro de 2024 para 426 no mesmo período de 2025. Cinquenta e seis por cento deste conteúdo cai na Categoria A – a categoria mais séria do Reino Unido que envolve atividade sexual com penetração, atividade sexual com um animal ou sadismo. 94% das imagens ilegais de IA rastreadas pela IWF eram de meninas. (Sora não parece estar gerando nenhum conteúdo de categoria A.) “Muitas vezes, vemos imagens de crianças reais sendo mercantilizadas para criar imagens nuas ou sexuais e, esmagadoramente, vemos a IA sendo usada para criar imagens de meninas. É mais uma forma de as meninas serem alvo on-line”, disse Kerry Smith, diretor executivo da IWF, à WIRED. “testadores autorizados” para verificar se as ferramentas de inteligência artificial não são capazes de gerar CSAM. Como informou a BBC, esta alteração garantiria que os modelos tivessem salvaguardas em relação a imagens específicas, incluindo pornografia extrema e imagens íntimas não consensuais em particular. Nos EUA, 45 estados implementaram leis para criminalizar o CSAM gerado por IA, a maioria nos últimos dois anos, à medida que os geradores de IA continuam a evoluir.
Publicado: 2025-12-22 11:30:00
fonte: www.wired.com








