A investigação oferece uma nova perspetiva sobre a escala de casos de uso potencialmente ilícitos para milhares de implementações de modelos de linguagem de grande escala de código abertoA investigação oferece uma nova perspetiva sobre a escala de casos de uso potencialmente ilícitos para milhares de implementações de modelos de linguagem de grande escala de código aberto

Modelos de IA de código aberto vulneráveis a uso indevido criminoso, alertam investigadores

2026/01/30 15:15

Hackers e outros criminosos podem facilmente assumir o controlo de computadores que operam modelos de linguagem de grande escala de código aberto fora das proteções e restrições das principais plataformas de inteligência artificial, criando riscos de segurança e vulnerabilidades, disseram investigadores na quinta-feira, 29 de janeiro.

Os hackers podem visar os computadores que executam os LLMs e direcioná-los para realizar operações de spam, criação de conteúdo de phishing ou campanhas de desinformação, evitando os protocolos de segurança da plataforma, disseram os investigadores.

A investigação, realizada em conjunto pelas empresas de cibersegurança SentinelOne e Censys ao longo de 293 dias e partilhada exclusivamente com a Reuters, oferece uma nova perspetiva sobre a escala de casos de uso potencialmente ilícitos para milhares de implementações de LLM de código aberto. Estes incluem hacking, discurso de ódio e assédio, conteúdo violento ou sangrento, roubo de dados pessoais, golpes online ou fraude e, em alguns casos, material de abuso sexual infantil, disseram os investigadores.

Embora existam milhares de variantes de LLM de código aberto, uma parte significativa dos LLMs nos servidores acessíveis pela internet são variantes do Llama da Meta, Gemma do Google DeepMind e outros, de acordo com os investigadores. Embora alguns dos modelos de código aberto incluam proteções, os investigadores identificaram centenas de casos em que as proteções foram explicitamente removidas.

As conversas da indústria de IA sobre controlos de segurança estão a "ignorar este tipo de capacidade excedentária que está claramente a ser utilizada para todo o tipo de coisas diferentes, algumas legítimas, outras obviamente criminosas", disse Juan Andres Guerrero-Saade, diretor executivo de investigação de inteligência e segurança da SentinelOne. Guerrero-Saade comparou a situação a um "iceberg" que não está a ser devidamente contabilizado em toda a indústria e comunidade de código aberto.

Estudo examina instruções do sistema

A investigação analisou implementações publicamente acessíveis de LLMs de código aberto implementados através do Ollama, uma ferramenta que permite que pessoas e organizações executem as suas próprias versões de vários modelos de linguagem de grande escala.

Os investigadores conseguiram ver as instruções do sistema, que são as instruções que ditam como o modelo se comporta, em aproximadamente um quarto dos LLMs que observaram. Desses, determinaram que 7,5% poderiam potencialmente permitir atividades prejudiciais.

Cerca de 30% dos servidores observados pelos investigadores estão a operar a partir da China e cerca de 20% nos EUA.

Rachel Adams, CEO e fundadora do Global Center on AI Governance, disse num e-mail que, uma vez lançados os modelos abertos, a responsabilidade pelo que acontece a seguir torna-se partilhada em todo o ecossistema, incluindo os laboratórios de origem.

"Os laboratórios não são responsáveis por cada uso indevido subsequente (que é difícil de antecipar), mas mantêm um importante dever de cuidado para antecipar danos previsíveis, documentar riscos e fornecer ferramentas de mitigação e orientação, particularmente dada a capacidade de aplicação global desigual", disse Adams.

Um porta-voz da Meta recusou-se a responder a perguntas sobre as responsabilidades dos desenvolvedores em abordar preocupações em torno do abuso subsequente de modelos de código aberto e como as preocupações podem ser relatadas, mas observou as ferramentas Llama Protection da empresa para desenvolvedores Llama e o Meta Llama Responsible Use Guide da empresa.

Ram Shankar Siva Kumar, líder da Microsoft AI Red Team, disse num e-mail que a Microsoft acredita que os modelos de código aberto "desempenham um papel importante" em diversas áreas, mas, "ao mesmo tempo, temos consciência clara de que os modelos abertos, como todas as tecnologias transformadoras, podem ser mal utilizados por adversários se forem lançados sem as salvaguardas apropriadas."

A Microsoft realiza avaliações de pré-lançamento, incluindo processos para avaliar "riscos para cenários expostos à internet, auto-hospedados e de chamada de ferramentas, onde o uso indevido pode ser elevado", disse ele. A empresa também monitoriza ameaças emergentes e padrões de uso indevido. "Em última análise, a inovação aberta responsável requer compromisso partilhado entre criadores, implementadores, investigadores e equipas de segurança."

A Ollama não respondeu a um pedido de comentário. A Google da Alphabet e a Anthropic não responderam às perguntas. – Rappler.com

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.