Créditos da imagem: Andrey Rudakov/Bloomberg / Getty Images
Um relatório do The Guardian revelou que o ChatGPT está extraindo respostas da Grokipedia, a enciclopédia gerada por IA desenvolvida pela xAI, empresa de Elon Musk. Essa integração sutil levanta questões críticas sobre a neutralidade e a confiabilidade das informações fornecidas pelo modelo da OpenAI.
A Grokipedia foi criada em outubro como uma alternativa à Wikipédia, acusada por Musk de ser tendenciosa contra conservadores. No entanto, a própria enciclopédia da xAI já foi flagrada disseminando informações imprecisas e conteúdos com forte viés ideológico.
O Que é a Grokipedia e Seus Vieses Conhecidos
A enciclopédia, associada ao chatbot Grok, reproduziu alegações falsas, como a de que a pornografia contribuiu para a crise da AIDS. Ela também ofereceu “justificativas ideológicas” para a escravidão e usou termos depreciativos para se referir a pessoas trans.
Muitos de seus artigos pareciam copiados diretamente da Wikipédia, mas com distorções sutis ou afirmações problemáticas inseridas. É o produto de um ecossistema digital que já incluiu um chatbot que se autodenominou “Mecha Hitler”.
Como e Quando o ChatGPT Cita a Grokipedia
Segundo a investigação, o ChatGPT citou a Grokipedia nove vezes em resposta a mais de uma dúzia de perguntas diferentes. Curiosamente, o modelo evitou usá-la em tópicos amplamente desmascarados, como a insurreição de 6 de janeiro.
Em vez disso, a fonte apareceu em respostas sobre tópicos mais obscuros, onde a verificação factual é menos comum. Por exemplo, para corroborar afirmações sobre o historiador Sir Richard Evans que já haviam sido refutadas.
A Resposta da OpenAI e os Riscos da Contaminação
Questionada, a OpenAI declarou ao Guardian que seu modelo “pretende basear-se em uma ampla gama de fontes e pontos de vista disponíveis publicamente”. A afirmação sugere que a Grokipedia foi incorporada a esse corpus de treinamento de forma automatizada, sem uma curadoria humana rigorosa sobre sua confiabilidade.
Do meu ponto de vista, este é um dos problemas mais sérios da IA generativa atual: a contaminação por fontes tóxicas. Mesmo que o ChatGPT não cite a Grokipedia em todos os temas, sua mera inclusão no treinamento normaliza e legitima um conteúdo comprovadamente enviesado e impreciso.
Isso cria um viés de fundo que pode colorir respostas de formas mais sutis. A IA aprende não apenas fatos, mas estruturas narrativas e perspectivas. A presença da Grokipedia no conjunto de dados é uma porta de entrada para narrativas ideológicas específicas disfarçadas de factualidade.
A situação é agravada pelo fato de que o Claude, da Anthropic, também parece estar citando a fonte. Isso indica uma possível contaminação cruzada em conjuntos de dados públicos usados por várias empresas, espalhando o problema.
O Que Isso Significa Para o Usuário Final?
Para quem usa o ChatGPT para pesquisa ou aprendizado, a lição é clara: verifique sempre a fonte. A IA não é um oráculo neutro; é um espelho dos dados com que foi alimentada, e esses dados agora incluem projetos intencionalmente tendenciosos.
A confiança cega em qualquer resposta, por mais bem elaborada que pareça, é um risco. O caso da Grokipedia no ChatGPT é um alerta vermelho sobre a necessidade de transparência radical sobre as fontes de treinamento e de mecanismos robustos de verificação factual.
Preocupado com a confiabilidade das IAs? Leia a investigação completa do The Guardian para entender a fundo como a Grokipedia está influenciando respostas do ChatGPT e outras IAs.


