Lima (Peru) / Tóquio (Japão) – Roteiros de viagem elaborados por ferramentas de inteligência artificial (IA) vêm provocando situações de risco e frustração em diferentes partes do mundo, apontam turistas, guias e especialistas.
O guia peruano Miguel Ángel Gongora Meza, fundador da Evolution Treks Peru, relata que encontrou dois estrangeiros prestes a iniciar sozinho uma caminhada até o suposto “Cânion Sagrado de Humantay”, criação inexistente gerada por IA. Os viajantes pagaram cerca de US$ 160 (aproximadamente R$ 850) para chegar a uma estrada próxima a Mollepata, no departamento de Cusco, sem guia nem destino definido.
Segundo Gongora Meza, a desinformação poderia ter sido fatal: “A altitude chega a 4.000 m, há falta de oxigênio e não há sinal telefônico”, afirmou.
No Japão, a criadora de conteúdo Dana Yao contou que, seguindo instruções do ChatGPT, ela e o marido subiram o monte Misen, na ilha de Itsukushima, para ver o pôr do sol. O chatbot indicou que o último teleférico desceria às 17h30, mas o serviço já estava encerrado, deixando o casal retido no cume.
Em 2024, usuários do site Layla foram informados de que haveria uma Torre Eiffel em Pequim, enquanto outro turista recebeu uma rota de maratona “impraticável” pelo norte da Itália. Já na Malásia, um casal viajou até o local de um teleférico panorâmico inexistente após ver um vídeo gerado por IA no TikTok.
Levantamento citado pela BBC aponta que 30% dos viajantes internacionais utilizam IA generativa no planejamento. Entre os usuários, 37% dizem que as ferramentas fornecem dados insuficientes e 33% relatam informações falsas.
Imagem: redir.folha.com.br
O professor Rayid Ghani, da Carnegie Mellon University (EUA), explica que modelos de linguagem, como o ChatGPT, apenas combinam palavras estatisticamente prováveis, o que resulta em “alucinações” — respostas que soam convincentes, mas não correspondem à realidade. “O sistema não distingue conselhos de viagem de receitas culinárias; ele só conhece palavras”, afirmou.
União Europeia e Estados Unidos discutem exigir marcas d’água ou outros indicadores em conteúdos gerados por IA. Especialistas, porém, veem dificuldade em impedir que chatbots inventem informações durante conversas. O CEO do Google, Sundar Pichai, já classificou as alucinações como característica inerente dos grandes modelos linguísticos.
Para Ghani, a única defesa é vigilância redobrada: ser específico nas perguntas e checar cada detalhe em fontes confiáveis. Ele observa que, em alguns casos, a verificação leva tanto tempo quanto o planejamento tradicional de viagens.
O psicoterapeuta clínico Javier Labourt acrescenta que, mesmo diante de contratempos causados por roteiros falsos, o viajante deve manter flexibilidade: “Se você já está ali, pense em como resolver. Ainda assim, é uma viagem incrível”.