O uso do ChatGPT por um agente de imigração para relatórios está disparando alarmes. Especialistas explicam por que

Colocado em uma nota de rodapé de duas frases em um volumoso parecer do tribunal, um juiz federal recentemente convocou agentes de imigração usando inteligência artificial para escrever relatórios sobre o uso da força, levantando preocupações de que isso poderia levar a imprecisões e minar ainda mais a confiança do público em como a polícia lidou com a repressão à imigração na área de Chicago e os protestos que se seguiram. A juíza distrital dos EUA, Sara Ellis, escreveu a nota de rodapé em um parecer de 223 páginas emitido na semana passada, observando que a prática de usar o ChatGPT para escrever os relatórios de uso da força prejudicam a credibilidade dos agentes e “podem explicar a imprecisão desses relatórios”. Ela descreveu o que viu em pelo menos um vídeo de câmera corporal, escrevendo que um agente pede ao ChatGPT para compilar uma narrativa para uma reportagem depois de fornecer ao programa uma breve frase descritiva e várias imagens. Mas os especialistas dizem que o uso da IA para escrever um relatório que depende da perspectiva específica de um policial sem usar a experiência real de um policial é o pior uso possível da tecnologia e levanta sérias preocupações sobre precisão e privacidade. Especialistas disseram que o exemplo relatado no parecer não atendeu a esse desafio. “O que esse cara fez é o pior de todos os mundos. Dar uma única frase e algumas fotos – se isso for verdade, se foi isso que aconteceu aqui – vai contra todos os conselhos que temos por aí. É um cenário de pesadelo”, disse Ian Adams, professor assistente de criminologia na Universidade da Carolina do Sul, que atua em uma força-tarefa sobre inteligência artificial através do Conselho de Justiça Criminal, um grupo de reflexão apartidário. da Segurança Interna não respondeu aos pedidos de comentários e não ficou claro se a agência tinha diretrizes ou políticas sobre o uso de IA pelos agentes. As imagens da câmera corporal citadas no pedido ainda não foram divulgadas. Adams disse que poucos departamentos implementaram políticas, mas aqueles que muitas vezes proíbem o uso de IA preditiva ao escrever relatórios que justificam decisões de aplicação da lei, especialmente relatórios de uso de força. Os tribunais estabeleceram um padrão denominado razoabilidade objectiva ao considerar se o uso da força era justificado, baseando-se fortemente na perspectiva do agente específico nesse cenário específico. “Precisamos dos eventos específicos articulados desse evento e dos pensamentos específicos desse agente específico para nos informar se este foi um uso justificado da força”, disse Adams. “Esse é o pior cenário, além de dizer explicitamente para inventar fatos, porque você está implorando para inventar fatos nesta situação de alto risco.” Informações e evidências privadas. Além de levantar preocupações sobre um relatório gerado por IA caracterizando imprecisamente o que aconteceu, o uso de IA também levanta possíveis preocupações com privacidade. versão, ele provavelmente não entendeu que perdeu o controle das imagens no momento em que as carregou, permitindo que elas fizessem parte do domínio público e fossem potencialmente usadas por malfeitores. Kinsey disse que do ponto de vista tecnológico a maioria dos departamentos está construindo o avião enquanto ele está sendo pilotado quando se trata de IA. Ela disse que muitas vezes é um padrão na aplicação da lei esperar até que novas tecnologias já estejam sendo usadas e, em alguns casos, erros sejam cometidos para então falar sobre a implementação de diretrizes ou políticas. “Você prefere fazer as coisas ao contrário, entendendo os riscos e desenvolvendo barreiras de proteção em torno dos riscos”, disse Kinsey. “Mesmo que eles não estejam estudando as melhores práticas, há alguns frutos mais fáceis que podem ajudar. Podemos começar pela transparência.”Kinsey disse que, embora a aplicação da lei federal considere como a tecnologia deve ser usada ou não, ela poderia adotar uma política como as implementadas recentemente em Utah ou na Califórnia, onde relatórios policiais ou comunicações escritas usando IA devem ser rotuladas.As fotografias que o policial usou para gerar uma narrativa também causaram preocupações de precisão para alguns especialistas. relatórios. Esses programas de IA comercializados para a polícia operam em um sistema fechado e se limitam em grande parte ao uso de áudio de câmeras corporais para produzir narrativas porque as empresas disseram que os programas que tentam usar recursos visuais não são eficazes o suficiente para uso. “Existem muitas maneiras diferentes de descrever uma cor, uma expressão facial ou qualquer componente visual. Você poderia perguntar a qualquer especialista em IA e eles lhe diriam que os prompts retornam resultados muito diferentes entre diferentes aplicações de IA, e isso fica complicado com um componente visual”, disse Andrew Guthrie Ferguson, professor de direito da George Washington University Law. Escola. “Há também questões de profissionalismo. Estamos bem com os policiais usando análises preditivas?” ele acrescentou. “É sobre o que o modelo acha que deveria ter acontecido, mas pode não ser o que realmente aconteceu. Você não quer que seja o que acaba no tribunal, para justificar suas ações.” — Claudia Lauer, Associated Press
Publicado: 2025-11-26 15:41:00
fonte: www.fastcompany.com








