Anúncio

Turistas relatam riscos de itinerários criados por inteligência artificial

Mercado Financeiro18 minutos atrás6 pontos de vista

Anúncio

Lima (Peru) / Tóquio (Japão) – Roteiros de viagem elaborados por ferramentas de inteligência artificial (IA) vêm provocando situações de risco e frustração em diferentes partes do mundo, apontam turistas, guias e especialistas.

Destino inexistente nos Andes

O guia peruano Miguel Ángel Gongora Meza, fundador da Evolution Treks Peru, relata que encontrou dois estrangeiros prestes a iniciar sozinho uma caminhada até o suposto “Cânion Sagrado de Humantay”, criação inexistente gerada por IA. Os viajantes pagaram cerca de US$ 160 (aproximadamente R$ 850) para chegar a uma estrada próxima a Mollepata, no departamento de Cusco, sem guia nem destino definido.

Segundo Gongora Meza, a desinformação poderia ter sido fatal: “A altitude chega a 4.000 m, há falta de oxigênio e não há sinal telefônico”, afirmou.

Casal preso no topo de montanha no Japão

No Japão, a criadora de conteúdo Dana Yao contou que, seguindo instruções do ChatGPT, ela e o marido subiram o monte Misen, na ilha de Itsukushima, para ver o pôr do sol. O chatbot indicou que o último teleférico desceria às 17h30, mas o serviço já estava encerrado, deixando o casal retido no cume.

Erros se repetem em diferentes destinos

Em 2024, usuários do site Layla foram informados de que haveria uma Torre Eiffel em Pequim, enquanto outro turista recebeu uma rota de maratona “impraticável” pelo norte da Itália. Já na Malásia, um casal viajou até o local de um teleférico panorâmico inexistente após ver um vídeo gerado por IA no TikTok.

Números e causa das falhas

Levantamento citado pela BBC aponta que 30% dos viajantes internacionais utilizam IA generativa no planejamento. Entre os usuários, 37% dizem que as ferramentas fornecem dados insuficientes e 33% relatam informações falsas.

Turistas relatam riscos de itinerários criados por inteligência artificial - Imagem do artigo original

Imagem: redir.folha.com.br

O professor Rayid Ghani, da Carnegie Mellon University (EUA), explica que modelos de linguagem, como o ChatGPT, apenas combinam palavras estatisticamente prováveis, o que resulta em “alucinações” — respostas que soam convincentes, mas não correspondem à realidade. “O sistema não distingue conselhos de viagem de receitas culinárias; ele só conhece palavras”, afirmou.

Debate sobre regulamentação

União Europeia e Estados Unidos discutem exigir marcas d’água ou outros indicadores em conteúdos gerados por IA. Especialistas, porém, veem dificuldade em impedir que chatbots inventem informações durante conversas. O CEO do Google, Sundar Pichai, já classificou as alucinações como característica inerente dos grandes modelos linguísticos.

Como se proteger

Para Ghani, a única defesa é vigilância redobrada: ser específico nas perguntas e checar cada detalhe em fontes confiáveis. Ele observa que, em alguns casos, a verificação leva tanto tempo quanto o planejamento tradicional de viagens.

O psicoterapeuta clínico Javier Labourt acrescenta que, mesmo diante de contratempos causados por roteiros falsos, o viajante deve manter flexibilidade: “Se você já está ali, pense em como resolver. Ainda assim, é uma viagem incrível”.

0 Votes: 0 Upvotes, 0 Downvotes (0 Points)

Anúncio

Deixe um Comentário

Comentários Recentes
    Siga-nos
    • Facebook1.5K
    • Instagram1.5K
    Siga-nos!
    Pesquisar tendência
    Mais Vistos
    carregamento

    Entrar em 3 segundos...

    Inscrever-se 3 segundos...