Imagem: Alex Castro / The Verge
A comunidade de editores voluntários da Wikipédia está enfrentando um ataque de conteúdo residual (“AI Slop”) gerado por inteligência artificial, repleto de informações falsas e citações imprecisas. Para combater esse desafio, os editores adotaram uma nova política de “exclusão rápida” que permite remover artigos que exibem sinais claros de terem sido criados por IA, como frases genéricas ou referências inexistentes, sem o período de discussão habitual. A Wikimedia Foundation, por sua vez, compara essa reação a um “sistema imunológico” que se adapta para proteger a integridade e a confiabilidade da enciclopédia.
Essa mobilização da Wikipédia evidencia o dilema central que a ascensão da IA generativa impõe a toda a internet. A luta contra o conteúdo de baixa qualidade gerado por máquinas não é apenas um desafio editorial, mas um teste sobre a resiliência das plataformas colaborativas e a confiança na informação online. Por outro lado, o artigo mostra que a própria IA pode se tornar uma ferramenta para os editores, ajudando-os a automatizar tarefas e a identificar vandalismo. Esse cenário de “IA contra IA” pode se tornar o padrão para manter a qualidade em um futuro dominado por conteúdo automatizado.
Para entender todos os detalhes de como a Wikipédia está se organizando e as ferramentas que a comunidade está usando para combater essa nova onda de conteúdo, leia o artigo completo no The Verge.