Meta reforça diretrizes para IA contra exploração infantil

Um documento interno obtido pelo Business Insider revela as novas diretrizes que a Meta está usando para treinar e avaliar seu chatbot de inteligência artificial em temas sensíveis, como exploração sexual infantil, crimes violentos e outras categorias de alto risco.
Segundo o relatório, os contratados da empresa seguem um manual atualizado que define o que é permitido ou considerado “extremamente inaceitável” nas respostas da IA — um passo que ocorre após a pressão de órgãos reguladores dos EUA.
Pressão da FTC e revisão de políticas
A Comissão Federal de Comércio (FTC) dos EUA recentemente exigiu que a Meta, o Google, a OpenAI e outras empresas detalhassem como projetam e monitoram seus chatbots, incluindo salvaguardas para proteger menores de idade.
A investigação foi motivada por documen
Fontes
- —
Este artigo foi redigido com apoio de ferramentas de IA e revisado por nossa equipe. Citamos as fontes originais e seguimos as políticas do Google Notícias.
