Início Tecnologia A mídia social está sendo atacada por vídeos enganosos de IA. Veja...

A mídia social está sendo atacada por vídeos enganosos de IA. Veja como identificá-los | cinetotal.com.br

7
0
A mídia social está sendo atacada por vídeos enganosos de IA. Veja como identificá-los
| cinetotal.com.br

You will often find references to AI in the video description. In this case, OpenAI is even explicitly mentioned.

A mídia social está sendo atacada por vídeos enganosos de IA. Veja como identificá-los

Sora2 é o mais recente modelo de IA de vídeo da OpenAI. O sistema gera vídeos curtos completamente artificiais a partir de texto, imagens ou breves entradas de voz. Desde outubro de 2025, também existe acesso à API que os desenvolvedores podem usar para criar e publicar automaticamente vídeos de IA. Como resultado, o número de clipes artificiais continua a crescer a cada dia. Muitos deles parecem surpreendentemente reais e são quase indistinguíveis das imagens reais para os usuários. Neste artigo, mostramos como identificar vídeos de IA de maneira confiável, apesar de sua aparência realista. Como reconhecer vídeos deepfake de IA em redes sociais Os vídeos de IA do Sora2 muitas vezes parecem enganosamente reais. No entanto, existem várias pistas que você pode usar para reconhecer com segurança clipes gerados artificialmente. Alguns deles são imediatamente óbvios, outros só podem ser reconhecidos após uma inspeção mais detalhada. Sobre deepfakes, também recomendamos: Uma pergunta simples pode impedir imediatamente um golpista deepfake Movimentos não naturais e pequenas falhas Os modelos de IA ainda têm problemas com sequências de movimentos complexas. Cuidado com: braços ou partes do corpo anormalmente flexíveis Movimentos que param abruptamente ou são espasmódicos Mãos ou rostos que piscam brevemente ou ficam deformados Pessoas que desaparecem brevemente na imagem ou interagem incorretamente com objetos Essas distorções são artefatos típicos que ainda ocorrem em vídeos de IA. Aqui está um exemplo de um cardume de golfinhos. Preste atenção aos movimentos de natação não naturais e ao aparecimento repentino (falha) das orcas. As mãos da mulher de jaqueta azul também são alucinadas: detalhes inconsistentes no fundo Fundos que não permanecem estáveis ​​são um indicador frequente. Os objetos mudam de forma ou posição, os textos nas paredes tornam-se uma confusão de letras ou não podem ser lidos. As fontes de luz também às vezes mudam de forma implausível. Durações de vídeo muito curtas Muitos clipes gerados no Sora2 têm atualmente apenas alguns segundos de duração. A maioria dos vídeos de IA que circulam nas redes sociais duram de 3 a 10 segundos. Cenas mais longas e continuamente estáveis ​​são possíveis, mas ainda raras. Física defeituosa Cuidado com movimentos que não são fisicamente plausíveis. Por exemplo, roupas que sopram na direção errada com o vento, água que se comporta de maneira não natural ou passos sem sombras e contato com o solo corretos. Sora2 produz animações muito fluidas, mas a física ainda trai algumas cenas. Texturas ou detalhes de pele irrealistas Em fotos em close-up, muitas vezes é perceptível que os poros da pele parecem muito lisos, muito simétricos ou muito plásticos. O cabelo também pode parecer sujo nas pontas ou mover-se de maneira anormalmente uniforme. Movimentos estranhos dos olhos e do olhar Mesmo que o Sora2 simule rostos de forma impressionantemente realista, os olhos muitas vezes cometem erros. Exemplos típicos são piscar de olhos pouco frequentes ou irregulares, pupilas que mudam de tamanho incorretamente ou olhares que não acompanham logicamente a ação. Se um rosto parecer “vazio” ou os olhos estiverem ligeiramente desalinhados, é necessário um cuidado especial. Trilhas sonoras muito estéreis Sora2 não gera apenas imagens, mas também áudio. Muitos clipes têm trilhas sonoras extremamente limpas, sem ruído de fundo, reverberação ambiente ou ruídos aleatórios, como passos, farfalhar ou vento. Às vezes, as vozes soam estranhamente claras ou parecem distantes da sala. Erros de som em que os movimentos da boca não correspondem à voz também são uma indicação clara. Verifique os metadados Abra a descrição do vídeo dos curtas do YouTube tocando nos três pontos no canto superior direito e em “Descrição”. O YouTube fornece informações adicionais sobre a origem do clipe. Especialmente no caso de vídeos criados artificialmente, você encontrará frequentemente entradas como:O conteúdo de áudio ou visual foi fortemente editado ou gerado digitalmente. Em alguns casos, a nota “Informações da OpenAI” também aparece. Esta é uma forte indicação de que o clipe foi criado com Sora2 ou um modelo OpenAI relacionado. Esta informação nem sempre está disponível, mas quando aparece, fornece informações valiosas sobre a origem da IA ​​de um vídeo. Freqüentemente, você encontrará referências à IA na descrição do vídeo. Nesse caso, OpenAI é até mencionado explicitamente.PC-Welt Você também pode usar ferramentas como https://verify.contentauthenticity.org/ para verificar se o vídeo contém metadados C2PA. No entanto, esta informação nem sempre é preservada. Assim que um clipe é salvo novamente, cortado, convertido, filtrado ou carregado por meio de outra plataforma, os dados de origem digital são frequentemente perdidos. Preste atenção nas marcas d’água Sora2 define uma marca d’água animada no vídeo (veja exemplo). No entanto, isso muitas vezes falta nas redes sociais. Os usuários o removem ou simplesmente o eliminam. A ausência de marca d’água, portanto, não significa que um vídeo seja genuíno. Não ignore seu instinto Se um clipe parecer “perfeito demais” ou se as pessoas fizerem coisas que pareçam incomuns ou improváveis, vale a pena dar uma segunda olhada. Muitos deepfakes só se tornam aparentes por causa dessa inconsistência sutil. Riscos para a política, as celebridades e a vida cotidiana Com o Sora2, o problema do deepfake está piorando visivelmente. O pesquisador de IA Hany Farid, da Universidade da Califórnia, Berkeley, vem alertando há anos sobre o poder político explosivo de vídeos de IA enganosamente reais. Segundo Farid, uma única imagem e alguns segundos de gravação de voz são suficientes para criar sequências de vídeo realistas de uma pessoa. Isto é particularmente crítico para o público político. Isto ocorre porque a crescente disseminação de clipes artificiais significa que mesmo gravações reais podem ser questionadas. Numa entrevista recente à Spiegel, Farid expõe a questão da seguinte forma: “Se um político diz realmente algo inapropriado ou ilegal, pode alegar que é falso. Então, de repente, podemos duvidar de coisas que são reais. Por que devemos acreditar nisso quando vimos todo este conteúdo falso? É aí que reside o verdadeiro perigo: se o seu feed de redes sociais, a sua principal fonte de informação, é uma combinação de conteúdo real e falso, o mundo inteiro fica desconfiado”. Celebridades e particulares também são cada vez mais visados. Confissões falsas, vídeos de cenas manipuladas ou clipes comprometedores podem ser usados ​​especificamente para chantagear ou prejudicar reputações. No contexto corporativo, surgem riscos adicionais de vozes falsas ou instruções de vídeo falsas de supostos gestores. Avaliação de Farid: A qualidade técnica dos vídeos de IA está melhorando mais rapidamente do que a capacidade de expô-los de forma confiável. Esta perda de confiança nas evidências visuais é um dos maiores desafios dos próximos anos. Este artigo apareceu originalmente em nossa publicação irmã PC-WELT e foi traduzido e localizado do alemão.


Publicado: 2025-12-22 11:30:00

fonte: www.pcworld.com