Robôs com IA podem praticar discriminação e violência, diz estudo

Siga o Olhar Digital no Google Discover
Uma pesquisa realizada pelo King’s College London e a Universidade Carnegie Mellon mostrou que robôs que utilizam grandes modelos de linguagem (LLMs) – um programa de inteligência artificial (IA) capaz de reconhecer e gerar texto, entre outras ações – não estão preparados para lidar com informações pessoais, como nacionalidade, gênero e religião dos indivíduos.
O estudo foi divulgado por meio do International Journal of Social Robotics com o título: “Robôs controlados por LLM correm o risco de praticar discriminação, violência e ações ilegais”.
Leia mais:
– Médicos realizam primeira cirurgia remota de AVC com robô no mundo
– Robôs poderão ajudar no cuidado de idosos?
– Enxame de robôs: insetos viraram inspiração para treinar máquinas
Pesquisa defende
Fontes
- —
Este artigo foi redigido com apoio de ferramentas de IA e revisado por nossa equipe. Citamos as fontes originais e seguimos as políticas do Google Notícias.
