Início Saúde As pessoas estão recebendo notícias da IA ​​– e isso está alterando...

As pessoas estão recebendo notícias da IA ​​– e isso está alterando suas opiniões | cinetotal.com.br

14
0
As pessoas estão recebendo notícias da IA ​​– e isso está alterando suas opiniões
| cinetotal.com.br

As pessoas estão recebendo notícias da IA ​​– e isso está alterando suas opiniões

A decisão da Meta de encerrar seu programa profissional de verificação de fatos gerou uma onda de críticas no mundo da tecnologia e da mídia. Os críticos alertaram que abandonar a supervisão de especialistas poderia minar a confiança e a confiabilidade no cenário da informação digital, especialmente quando as plataformas com fins lucrativos são, em sua maioria, deixadas para se autopoliciarem. O que grande parte deste debate tem esquecido, no entanto, é que hoje, os grandes modelos de linguagem de IA são cada vez mais usados ​​para escrever resumos de notícias, manchetes e conteúdo que chamam sua atenção muito antes que os mecanismos tradicionais de moderação de conteúdo possam intervir. O que falta na discussão é como as informações ostensivamente precisas são selecionadas, enquadradas e enfatizadas de maneiras que podem moldar a percepção pública. Grandes modelos de linguagem influenciam gradualmente a forma como as pessoas formam opiniões, gerando as informações que os chatbots e assistentes virtuais apresentam às pessoas ao longo do tempo. Estes modelos estão agora também a ser incorporados em sites de notícias, plataformas de redes sociais e serviços de pesquisa, tornando-os a principal porta de entrada para obter informação. Estudos mostram que grandes modelos de linguagem fazem mais do que simplesmente transmitir informação. Suas respostas podem destacar sutilmente certos pontos de vista enquanto minimizam outros, muitas vezes sem que os usuários percebam. Meu colega, o cientista da computação Stefan Schmid, e eu, um estudioso de direito e política tecnológica, mostramos em um próximo artigo aceito na revista Communications of the ACM que grandes modelos de linguagem exibem viés de comunicação. Descobrimos que eles podem ter tendência a destacar perspectivas específicas enquanto omitem ou diminuem outras. Tal preconceito pode influenciar a forma como os utilizadores pensam ou sentem, independentemente de a informação apresentada ser verdadeira ou falsa. A investigação empírica ao longo dos últimos anos produziu conjuntos de dados de referência que correlacionam os resultados do modelo com as posições dos partidos antes e durante as eleições. Eles revelam variações na forma como os atuais modelos de grandes linguagens lidam com o conteúdo público. Dependendo da persona ou do contexto utilizado para gerar grandes modelos de linguagem, os modelos atuais inclinam-se subtilmente para posições específicas – mesmo quando a precisão factual permanece intacta. Estas mudanças apontam para uma forma emergente de orientação baseada na persona – a tendência de um modelo para alinhar o seu tom e ênfase com as expectativas percebidas do utilizador. Por exemplo, quando um utilizador se descreve como um activista ambiental e outro como proprietário de uma empresa, um modelo pode responder à mesma pergunta sobre uma nova lei climática, enfatizando preocupações diferentes, mas factualmente precisas, para cada um deles. Por exemplo, as críticas poderiam ser que a lei não vai suficientemente longe na promoção de benefícios ambientais e que a lei impõe encargos regulamentares e custos de conformidade. Tal alinhamento pode facilmente ser mal interpretado como lisonja. O fenômeno é chamado de bajulação: os modelos dizem efetivamente aos usuários o que eles querem ouvir. Mas embora a bajulação seja um sintoma da interação entre modelo de usuário, o preconceito de comunicação é mais profundo. Reflete disparidades em quem projeta e constrói esses sistemas, de quais conjuntos de dados eles se baseiam e quais incentivos impulsionam o seu refinamento. Quando um punhado de desenvolvedores domina o grande mercado de modelos de linguagem e seus sistemas apresentam consistentemente alguns pontos de vista de forma mais favorável do que outros, pequenas diferenças no comportamento do modelo podem se transformar em distorções significativas na comunicação pública. A sociedade moderna depende cada vez mais de grandes modelos de linguagem como a principal interface entre as pessoas e a informação. Os governos de todo o mundo lançaram políticas para abordar as preocupações sobre o preconceito da IA. Por exemplo, a Lei da IA ​​da União Europeia e a Lei dos Serviços Digitais tentam impor transparência e responsabilização. Mas nenhum deles foi concebido para abordar a questão matizada do preconceito de comunicação nos resultados da IA. Os defensores da regulamentação da IA ​​citam frequentemente a IA neutra como um objectivo, mas a verdadeira neutralidade é muitas vezes inatingível. Os sistemas de IA refletem os preconceitos incorporados nos seus dados, formação e design, e as tentativas de regular esses preconceitos acabam muitas vezes por trocar um tipo de preconceito por outro. E o preconceito de comunicação não tem apenas a ver com precisão – tem a ver com geração e enquadramento de conteúdos. Imagine fazer uma pergunta a um sistema de IA sobre uma legislação controversa. A resposta do modelo não é apenas moldada pelos factos, mas também pela forma como esses factos são apresentados, quais as fontes que são destacadas e o tom e ponto de vista que adopta. Isto significa que a raiz do problema do preconceito não está apenas na abordagem de dados de formação tendenciosos ou resultados distorcidos, mas nas estruturas de mercado que moldam o design da tecnologia em primeiro lugar. Quando apenas alguns grandes modelos linguísticos têm acesso à informação, o risco de preconceito de comunicação aumenta. Além da regulamentação, portanto, a mitigação eficaz de preconceitos exige a salvaguarda da concorrência, a responsabilização orientada pelos utilizadores e a abertura regulamentar a diferentes formas de construir e oferecer grandes modelos linguísticos. A maioria dos regulamentos até agora visam proibir resultados prejudiciais após a implantação da tecnologia, ou forçar as empresas a realizar auditorias antes do lançamento. A nossa análise mostra que, embora as verificações pré-lançamento e a supervisão pós-implantação possam detectar os erros mais flagrantes, podem ser menos eficazes na resolução de preconceitos subtis de comunicação que surgem através das interacções dos utilizadores. É tentador esperar que a regulamentação possa eliminar todos os preconceitos nos sistemas de IA. Em alguns casos, estas políticas podem ser úteis, mas tendem a não abordar uma questão mais profunda: os incentivos que determinam as tecnologias que comunicam informações ao público. As nossas conclusões esclarecem que uma solução mais duradoura reside na promoção da concorrência, da transparência e da participação significativa dos utilizadores, permitindo aos consumidores desempenhar um papel ativo na forma como as empresas concebem, testam e implementam grandes modelos de linguagem. imaginar para o futuro.


Publicado: 2025-12-22 14:19:00

fonte: www.dhakatribune.com