Imagem: The Verge
Parece que a Google IA falhou feio em um teste crucial: a nossa saúde. Uma investigação do The Guardian revelou que os resumos gerados pela IA do Google para algumas pesquisas médicas continham informações “realmente perigosas” e falsas.
O sistema, por exemplo, aconselhou erroneamente pacientes com cancro do pâncreas a evitar gorduras – o oposto do recomendado. Em outro caso, deu dados falsos sobre testes hepáticos, o que poderia fazer pessoas doentes acharem que estão saudáveis. Após a denúncia, o Google desativou essas respostas específicas.
Esta notícia é um alarme estridente sobre a confiança cega na tecnologia. Não se trata de um simples bug, mas de um risco direto à vida. Colocar a IA como autoridade final em saúde, sem supervisão humana robusta e contínua, é uma irresponsabilidade. Para o mercado, é um golpe na credibilidade dessas ferramentas. Para você, leitor, é um lembrete urgente: a internet não é um consultório.
Conselhos de saúde exigem precisão absoluta. Este caso expõe a fragilidade de sistemas que aprendem com a web, onde a desinformação também vive. A reação do Google, removendo os erros, foi necessária, mas tardia. A pergunta que fica é: quantos outros conselhos perigosos ainda não foram descobertos?
Quer entender a fundo o que aconteceu e como se proteger? Leia a investigação completa no The Verge para conhecer todos os detalhes deste caso grave e saber como buscar informações de saúde com segurança. O link está no artigo original. Sua saúde agradece.


