Consumir notícias da IA muda nossas opiniões e realidade. Veja como

A decisão da Meta de encerrar seu programa profissional de verificação de fatos gerou uma onda de críticas no mundo da tecnologia e da mídia. Os críticos alertaram que abandonar a supervisão especializada poderia minar a confiança e a fiabilidade no panorama da informação digital, especialmente quando as plataformas com fins lucrativos são, na sua maioria, deixadas à própria responsabilidade de se policiarem. O que grande parte deste debate tem ignorado, no entanto, é que hoje em dia, os grandes modelos de linguagem de IA são cada vez mais utilizados para redigir resumos de notícias, manchetes e conteúdos que chamam a sua atenção muito antes de os mecanismos tradicionais de moderação de conteúdos poderem intervir. O que falta na discussão é como a informação ostensivamente precisa é selecionada, enquadrada e enfatizada de forma a moldar a percepção pública. Grandes modelos de linguagem influenciam gradualmente a forma como as pessoas formam opiniões, gerando as informações que os chatbots e assistentes virtuais apresentam às pessoas ao longo do tempo. Estes modelos estão agora também a ser integrados em sites de notícias, plataformas de redes sociais e serviços de pesquisa, tornando-os a principal porta de entrada para obter informações. Estudos mostram que grandes modelos de linguagem fazem mais do que simplesmente transmitir informações. Suas respostas podem destacar sutilmente certos pontos de vista enquanto minimizam outros, muitas vezes sem que os usuários percebam. Viés de comunicação Meu colega, o cientista da computação Stefan Schmid, e eu, um estudioso de direito e política tecnológica, mostramos em um próximo artigo aceito na revista Communications of the ACM que grandes modelos de linguagem exibem viés de comunicação. Descobrimos que eles podem ter tendência a destacar perspectivas específicas enquanto omitem ou diminuem outras. Tal preconceito pode influenciar a forma como os utilizadores pensam ou sentem, independentemente de a informação apresentada ser verdadeira ou falsa. A investigação empírica ao longo dos últimos anos produziu conjuntos de dados de referência que correlacionam os resultados do modelo com as posições dos partidos antes e durante as eleições. Eles revelam variações na forma como os atuais modelos de grandes linguagens lidam com o conteúdo público. Dependendo da persona ou do contexto usado para gerar grandes modelos de linguagem, os modelos atuais inclinam-se sutilmente para posições específicas – mesmo quando a precisão factual permanece intacta. Estas mudanças apontam para uma forma emergente de orientação baseada na personalidade – uma tendência do modelo para alinhar o seu tom e ênfase com as expectativas percebidas do utilizador. Por exemplo, quando um utilizador se descreve como um activista ambiental e outro como proprietário de uma empresa, um modelo pode responder à mesma pergunta sobre uma nova lei climática, enfatizando preocupações diferentes, mas factualmente precisas, para cada um deles. Por exemplo, as críticas poderiam ser que a lei não vai suficientemente longe na promoção de benefícios ambientais e que a lei impõe encargos regulamentares e custos de conformidade.
Publicado: 2025-12-23 17:00:00
fonte: www.fastcompany.com








