Notícia

IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo

Por Publicado Atualizado

Uma pesquisa da Escola de Engenharia Tandon da NYU, publicada no IEEE Security & Privacy, alerta que modelos de linguagem grandes (LLMs) podem ser usados para inserir vulnerabilidades maliciosas em projetos de hardware.
Em uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW, equipes empregaram IA generativa para identificar pontos frágeis em designs abertos – incluindo processadores RISC-V e aceleradores criptográficos – e implantar “trojans” de hardware que vazam chaves, abrem backdoors ou travam sistemas sob condições específicas.
IA facilita processo de ataque a chips
– Os pesquisadores demonstraram que ferramentas de IA simplificam o processo, permitindo que tanto iniciantes quanto especialistas automatizem a análise de código, gerem e insiram

Fontes

Fontes:

Este artigo foi redigido com apoio de ferramentas de IA e revisado por nossa equipe. Citamos as fontes originais e seguimos as políticas do Google Notícias.

Encontrou algo a corrigir? Avise a redação.