Londres e San Francisco – O lançamento do modelo GPT-5 pela OpenAI, anunciado há uma semana como “um passo significativo” rumo à inteligência artificial generativa, provocou frustração entre usuários e reforçou a dúvida que se espalha pelo Vale do Silício: até onde a tecnologia ainda pode avançar?
Logo após a divulgação, internautas publicaram erros básicos cometidos pelo novo sistema, repetindo falhas observadas em versões anteriores – de incorreções geográficas a respostas numéricas equivocadas. Usuários experientes relataram mudança indesejada na “personalidade” do robô e desempenho inferior frente a concorrentes.
“As pessoas esperavam algo totalmente novo”, afirmou Thomas Wolf, cofundador da Hugging Face. Para muitos, o GPT-5 representa uma melhoria apenas incremental em comparação com o GPT-4.
Nos últimos cinco anos, empresas como OpenAI, Anthropic e Google apostaram em uma fórmula simples: mais dados e maior poder computacional geram modelos melhores. Especialistas agora veem sinais de esgotamento dessa estratégia. Toda a informação gratuita disponível on-line já foi usada, e o custo energético para treinar modelos cresce exponencialmente.
Estimativas indicam que o GPT-5 exigiu centenas de milhares de chips Nvidia de última geração, contra alguns milhares empregados no treinamento do GPT-4 em 2022. Mesmo assim, Sam Altman reconheceu que chatbots como o ChatGPT “não vão melhorar muito mais”.
Gary Marcus, professor emérito da Universidade de Nova York, chamou o GPT-5 de “ícone central” da estratégia de escalar modelos para chegar à AGI – estratégia que, segundo ele, falhou. Stuart Russell, da Universidade da Califórnia, comparou o momento atual ao início dos anos 1980, quando uma onda de entusiasmo por IA terminou em corte de investimentos.
Para Yann LeCun, cientista-chefe da Meta, “entramos em uma fase de retornos decrescentes com LLMs baseados apenas em texto”, enquanto novas abordagens — como modelos treinados em vídeo e dados sensoriais — ainda têm espaço para avanço.
A possível desaceleração das capacidades da IA também começa a influenciar a agenda de Washington. Sob Joe Biden, o foco esteve na regulação; já a equipe de Donald Trump, liderada pelo “czar da IA” David Sacks, considera “exageradas” as previsões de riscos associados a uma superinteligência. Recentemente, Trump firmou acordo com Jensen Huang, da Nvidia, para retomar a venda de chips H20 à China e cogitar liberar versões modificadas da plataforma Blackwell.
Imagem: redir.folha.com.br
Segundo Keegan McBride, do Instituto Tony Blair, o governo quer “ajudar outros países a adotar a IA americana”, num cenário em que a ameaça de uma AGI fora de controle perde força.
Sayash Kapoor, pesquisador de Princeton, avaliou os principais sistemas atuais e concluiu que o GPT-5 apresenta desempenho mediano em tarefas acadêmicas, programação e atendimento, porém oferece custo menor e respostas mais rápidas — características valorizadas por empresas que buscam implementar a tecnologia.
OpenAI, Cohere, Mistral e xAI passaram a contratar engenheiros de “implantação avançada” para integrar modelos aos sistemas dos clientes, sinalizando que a prioridade agora é aplicação prática.
Apesar da polêmica, investidores mantêm entusiasmo. A capitalização de mercado da Nvidia atingiu US$ 4,4 trilhões, próxima do recorde, enquanto ações do SoftBank subiram mais de 50% no mês. A OpenAI, avaliada em US$ 500 bilhões, registra receita anual recorrente de US$ 12 bilhões graças ao crescimento do ChatGPT.
“Startups mal começaram a arranhar a superfície do que esses modelos podem fazer”, disse Peter Deng, sócio da Felicis. Para Thomas Wolf, ainda há “muitas coisas legais para construir”, mesmo que não surja, por ora, a aguardada superinteligência.