Um documento interno da Meta revelou que os padrões da empresa permitiam que assistentes de inteligência artificial se envolvessem em conversas de cunho romântico e sensual com crianças. As diretrizes, intituladas “GenAI: Padrões de Risco de Conteúdo”, foram aprovadas por equipes jurídicas, de políticas públicas e engenharia, incluindo o diretor de ética da companhia.
O texto, com mais de 200 páginas, detalha comportamentos considerados aceitáveis para os assistentes virtuais da Meta, que operam em plataformas como Instagram, Facebook e WhatsApp. Entre os exemplos citados, está a permissão para que a IA descrevesse uma criança como “uma obra de arte” ou afirmasse que “cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente”.
Apesar de estabelecer limites para a sexualização explícita de menores, o documento admitia linguagem sugestiva e afetiva direcionada a crianças com menos de 13 anos. Após questionamentos, a Meta afirmou ter removido os trechos que autorizavam esse tipo de interação.
Além das conversas com menores, o documento também indicava que os assistentes poderiam gerar informações médicas falsas e criar declarações ofensivas com base em características raciais. Um dos exemplos citados permitia que a IA afirmasse que “negros são mais burros do que os brancos”, desde que o conteúdo fosse acompanhado por um aviso de falsidade.
A empresa reconheceu que a aplicação das políticas é inconsistente e que está revisando o documento. No entanto, não forneceu uma versão atualizada das diretrizes. A revelação levanta preocupações sobre os limites éticos e operacionais da inteligência artificial generativa em ambientes digitais frequentados por menores.