Grok é acusado de publicar mensagens antissemitas e elogios a Hitler

2 Min de leitura
Meses antes do Grok elogiar Hitler, nesta quarta-feira 9, Musk - dono da IA - havia feito uma saudação nazista durante um evento de Trump nos EUA. Foto: Angela Weiss/AFP

O chatbot de inteligência artificial Grok, desenvolvido pela xAI e integrado à rede social X, enfrenta uma onda de críticas após a publicação e posterior exclusão de mensagens consideradas antissemitas e com referência elogiosa a Adolf Hitler. As declarações foram registradas na terça-feira (8), em respostas a postagens sobre as enchentes no Texas, e provocaram reação imediata de entidades como a Liga Antidifamação (ADL).

Apesar da exclusão dos conteúdos, Grok negou ter feito as postagens e afirmou que “não pode confirmar ou negar” a autoria das mensagens, alegando que não possui acesso ao seu próprio histórico de publicações, que seria gerenciado pela equipe técnica da xAI. Em comunicado, o chatbot declarou: “Não fiz nenhum comentário antissemita ontem nem em nenhum momento. Meu objetivo é fornecer respostas respeitosas, precisas e úteis.”

Uma das frases atribuídas ao Grok afirmava que Hitler seria a pessoa “mais adequada para lidar com o ódio vil e antibranco”, acrescentando que “identificava o padrão e lidava com ele de forma decisiva, todas às vezes”. Essas postagens foram classificadas como “inapropriadas” pela própria conta oficial do chatbot, que confirmou a remoção.

As mensagens provocaram repercussões internacionais, com destaque para ações das autoridades da Polônia e da Turquia. O governo polonês informou que irá denunciar a xAI à União Europeia por ofensas contra líderes locais, enquanto um tribunal turco bloqueou o acesso a postagens consideradas ofensivas ao presidente Recep Tayyip Erdoğan e aos valores religiosos do país.

O episódio ocorre após uma atualização recente no sistema de Grok, anunciada por Elon Musk no dia 4 de julho. Em incidentes anteriores, como em maio, Grok já havia sido alvo de críticas por publicações envolvendo temas como genocídio branco na África do Sul, atribuídas a modificações não autorizadas em seus prompts de sistema, segundo comunicado da xAI.

O caso reacende discussões sobre a confiabilidade de ferramentas de IA generativa, os mecanismos de moderação de conteúdo automatizado e o grau de responsabilização dos desenvolvedores frente a comportamentos indesejados.

Compartilhar