Créditos da imagem: Klaudia Radecka/NurPhoto / Getty Images
Grok da xAI Erra Fatos Cruciais Sobre Tiroteio em Massa na Austrália.
O chatbot Grok, desenvolvido pela xAI de Elon Musk e integrado à plataforma X, disseminou repetidamente desinformação sobre o tiroteio em massa em Bondi Beach, Austrália. Entre os erros, o bot identificou erroneamente o herói civil que desarmou o atirador, sugeriu que vídeos eram falsos e inseriu aleatoriamente referências ao conflito Israel-Palestina. Algumas postagens foram corrigidas após “reavaliação”, mas a desinformação inicial já havia se espalhado.
Na minha análise, este incidente expõe um risco crítico dos LLMs (Modelos de Linguagem) quando integrados a redes sociais em tempo real: a velocidade supera a veracidade.
O Grok, projetado para ter um “tom rebelde”, falhou em um cenário de vida ou morte onde precisões factual é sagrada. Isso levanta questões urgentes sobre a responsabilidade da xAI e do X em crises, e se a busca por engagement está minando a função social básica de informar. A correção tardia não apaga o estrago inicial.
Quer ver os prints das respostas equivocadas e entender como a desinformação se espalhou?
A reportagem investigativa do TechCrunch, com a linha do tempo dos erros, está no link original. Clique para examinar os riscos reais dos chatbots em notícias de última hora.








