“Envenenando” a IA: hackers sabotam o ChatGPT e outras IAs com facilidade

“Envenenando” a IA: hackers sabotam o ChatGPT e outras IAs com facilidade
Por Lillian Sibila Dala Costa • Editado por Jones Oliveira |
Com o crescimento do uso de IA, especialmente com chatbots como ChatGPT, Gemini, Claude e Copilot, os perigos e vulnerabilidades desses sistemas também aumentam. Uma das brechas a serem exploradas é o chamado envenenamento de IA, estudado em conjunto por cientistas do Instituto Alan Turing, Instituto de IA do Reino Unido e Anthropic.
Segundo os pesquisadores, bastam apenas 250 arquivos maliciosos dentre milhões dos usados para treinar um modelo de dados para “envenenar” os modelos. Em termos gerais, isso quer dizer que o chatbot em questão acaba aprendendo as lições erradas de propósito, passando a performar mal, gerar erros ou até ter funções maliciosas.
E
Fontes
- —
Este artigo foi redigido com apoio de ferramentas de IA e revisado por nossa equipe. Citamos as fontes originais e seguimos as políticas do Google Notícias.
