Pequenos modelos de linguagem ganham destaque e atraem gigantes da IA

Mercado Financeiroontem12 Visualizações

Pesquisadores da Nvidia afirmam que os small language models (SLMs) tendem a se tornar a principal base para agentes de inteligência artificial, superando os large language models (LLMs) em tarefas repetitivas e específicas. O grupo publicou a previsão em estudo recente, no qual destaca que soluções menores são suficientes, mais baratas e exigem menos poder de processamento.

Menos custo, mais velocidade

Os SLMs operam com dezenas de bilhões — ou até milhões — de parâmetros, enquanto os modelos grandes chegam a centenas de bilhões. Isso permite executar os sistemas em hardwares menos robustos que as GPUs de alto custo, viabilizando o uso até em celulares e veículos autônomos.

Uma pesquisa da Universidade Federal de Minas Gerais e da Universidade Federal de São João del Rei comparou as duas categorias: os LLMs apresentaram desempenho entre 7% e 26% superior, porém demandaram muito mais recursos computacionais. Já os SLMs foram até 590 vezes mais rápidos, característica fundamental para aplicações que exigem respostas em tempo real.

Expansão entre as big techs

Grandes empresas do setor seguem essa tendência. O Google lançou a família Gemma, que inclui versão com 2 bilhões de parâmetros; a Microsoft desenvolve a série Phi; e a própria Nvidia mantém a linha Nemotron-Nano. Levantamento acadêmico italiano aponta que, antes de 2023, quase não havia estudos sobre SLMs, mas agora eles já somam dezenas por ano.

Convivência entre modelos

Para Bruno Garcia, gerente de dados e inteligência artificial da IBM, diferentes modelos devem coexistir conforme o objetivo. Ele compara a escolha de SLM ou LLM à formação de um time, no qual cada integrante cumpre função específica.

Pequenos modelos de linguagem ganham destaque e atraem gigantes da IA - Imagem do artigo original

Imagem: redir.folha.com.br

Lucas Smaira, chefe de pesquisa da VettoAI e ex-Google DeepMind, observa que muitos SLMs nascem a partir dos grandes por meio de técnicas como destilação, o que mantém os LLMs essenciais para avanços tecnológicos. Segundo o pesquisador, embora os sistemas compactos sejam eficazes em produtividade, os modelos extensos continuam centrais para pesquisas de ponta.

Com menor tamanho, menor latência e possibilidade de funcionamento offline, os SLMs despontam como opção viável para levar inteligência artificial a contextos de infraestrutura limitada, enquanto os LLMs seguem fundamentais para inovações de larga escala.

0 Votes: 0 Upvotes, 0 Downvotes (0 Points)

Deixe um Comentário

Pesquisar tendência
Redação
carregamento

Entrar em 3 segundos...

Inscrever-se 3 segundos...

Todos os campos são obrigatórios.