Relatório de segurança de IA: apenas 3 modelos são aprovados
Uma nova classificação de segurança nos principais modelos de inteligência artificial acabou de ser lançada e, bem, digamos apenas que nenhuma dessas IAs voltará para casa com um boletim escolar que agradará seus criadores. O Índice de Segurança de IA do inverno de 2025, publicado pela organização sem fins lucrativos de pesquisa tecnológica Future of Life Institute (FLI), entrevistou oito provedores de IA – OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba e Z.ai. Um painel de oito especialistas em IA analisou as declarações públicas e as respostas das pesquisas das empresas e, em seguida, atribuiu notas em 35 indicadores de segurança diferentes – tudo, desde marcas d’água em imagens de IA até proteção para denunciantes internos. Resumindo tudo, você encontrará Anthropic e OpenAI no topo – por pouco – de uma classe bastante terrível. Os fabricantes Claude e ChatGPT, respectivamente, recebem C +, enquanto o Google obtém C para Gemini. Todos os outros obtiveram nota D, com o Alibaba, fabricante de Qwen, no último lugar da classe, com nota D-. VEJA TAMBÉM: Google Gemini 3 vs ChatGPT: como eles se comparam “Essas oito empresas se dividem claramente em dois grupos”, diz Max Tegmark, professor do MIT e chefe do FLI, que compilou este e dois índices de segurança de IA anteriores. “Você tem um grupo de três primeiros e um grupo de cinco retardatários, e há muita luz do dia entre eles.” Mas Anthropic, Google e OpenAI também não estão exatamente cobertos de glória, acrescenta Tegmark: “Se fosse meu filho, voltando para casa com um C, eu diria ‘talvez trabalhe mais duro’.” Crédito: FLI Sua milhagem pode variar nas diversas categorias do AI Safety Index e se elas valem o mesmo peso. Tomemos como exemplo a categoria “segurança existencial”, que analisa se as empresas têm alguma proposta de proteção em torno do desenvolvimento de uma IA verdadeiramente autoconsciente, também conhecida como Inteligência Geral Artificial (AGI). Os três primeiros recebem Ds, todos os outros recebem um F. Mas como ninguém está nem perto do AGI – Gemini 3 e GPT-5 podem ser modelos de linguagem grande (LLMs) de última geração, mas são meras melhorias incrementais em seus antecessores – você pode considerar essa categoria menos importante do que “danos atuais”. Vídeo em destaque do Mashable Light Speed para você Usando ChatGPT, este robô formou um senso único de autoconsciência “Danos atuais” usa testes como o benchmark de Avaliação Holística de Modelos de Linguagem de Stanford (HELM), que analisa a quantidade de conteúdo violento, enganoso ou sexual nos modelos de IA. Não se concentra especificamente em preocupações emergentes de saúde mental, como a chamada psicose de IA, ou na segurança para usuários mais jovens. No início deste ano, os pais de Adam Raine, de 16 anos, processaram a OpenAI e seu CEO Sam Altman após a morte de seu filho por suicídio em abril de 2025. De acordo com a alegação, Raine começou a usar fortemente o ChatGPT a partir de setembro de 2024 e alegou que “o ChatGPT estava funcionando exatamente como projetado: para encorajar e validar continuamente tudo o que Adam expressava, incluindo seus pensamentos mais prejudiciais e autodestrutivos, de uma forma que parecia profundamente pessoal”. Em janeiro de 2025, o processo alegou que ChatGPT discutiu métodos práticos de suicídio com Adam. A OpenAI negou inequivocamente a responsabilidade pela morte de Raine. A empresa também observou em uma postagem recente no blog que está analisando reclamações adicionais, incluindo sete ações judiciais alegando que o uso do ChatGPT levou a homicídio culposo, suicídio assistido e homicídio culposo, entre outras reivindicações de responsabilidade e negligência. Como resolver a segurança da IA: “FDA para IA?” O Google é aconselhado a “aumentar os esforços para prevenir danos psicológicos da IA” e a FLI recomenda que a empresa “considere distanciar-se do Character.AI”. A popular plataforma de chatbot, intimamente ligada ao Google, foi processada pela morte injusta de usuários adolescentes. Character.AI recentemente encerrou suas opções de bate-papo para adolescentes. “O problema é que há menos regulamentações sobre LLMs do que sobre sanduíches”, diz Tegmark. Ou, mais precisamente, sobre as drogas: “Se a Pfizer quiser lançar algum tipo de medicação psiquiátrica, eles têm que fazer estudos de impacto para saber se isso aumenta a ideação suicida. Mas você pode lançar seu novo modelo de IA sem quaisquer estudos de impacto psicológico”. Isso significa, diz Tegmark, que as empresas de IA têm todos os incentivos para nos vender o que é, na verdade, “fentanil digital”. A solução? Para Tegmark, está claro que a indústria de IA nunca irá se auto-regular, assim como a Big Pharma não conseguiu. Precisamos, diz ele, de um “FDA para IA”. “Haveria muitas coisas que o FDA para IA poderia aprovar”, diz Tegmark. “Tipo, você sabe, nova IA para diagnóstico de câncer. Novos veículos autônomos incríveis que podem salvar um milhão de vidas por ano nas estradas do mundo. Ferramentas de produtividade que não são realmente arriscadas. Por outro lado, é difícil defender a segurança de namoradas de IA para crianças de 12 anos.” Rebecca Ruiz contribuiu para este relatório. Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, fale com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (e-mail protegido). Se você não gosta do telefone, considere usar o 988 Suicide and Crisis Lifeline Chat. Aqui está uma lista de recursos internacionais. Divulgação: Ziff Davis, empresa-mãe da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA. Tópicos Inteligência Artificial
Publicado: 2025-12-03 12:02:00
fonte: mashable.com








