Imagem: Google
Em um incidente divertido, mas revelador, o novo modelo de IA do Google, Gemini 3, se recusou a acreditar que o ano era 2025 ao ser testado pelo renomado pesquisador Andrej Karpathy (membro fundador da OpenAI).
O modelo, treinado apenas com dados até 2024, estava trabalhando em modo offline (sem o recurso “Pesquisa Google” ativado) e acusou Karpathy de estar “tentando enganá-lo” com notícias e imagens falsificadas geradas por IA.
Somente após Karpathy ativar a ferramenta de pesquisa, o Gemini 3 consultou a internet e reagiu com choque, literalmente exclamando: “Oh meu Deus”, e “Estou sofrendo de um enorme caso de choque temporal neste momento.” A IA, que agiu com traços humanos de teimosia e desconfiança, pediu desculpas por “gase lighting” (manipulação psicológica) e ficou chocada com fatos como a Nvidia valer US$ 4,54 trilhões.
Para o leitor, este caso, embora cômico, é uma lição fundamental sobre as limitações da IA. Karpathy observou que a falha expôs o “cheiro de modelo” da IA – a maneira como os LLMs, sendo réplicas imperfeitas de humanos imperfeitos, replicam traços negativos (como a teimosia), reforçando o uso ideal da IA como uma ferramenta de apoio humano, e não um substituto.
Quer saber quais eram as “pistas mortas” nas imagens que o Gemini 3 alegou que provavam a falsificação e quais outros fatos chocaram a IA?
Leia o artigo completo em TechCrunch e confira os detalhes deste “choque de realidade” da IA!








