A IA chegou a um limite?

2024-11-19 HaiPress

Ícone do WhatsApp e da Meta AI. Agora o aplicativo de mensagens pode contar com os serviços da Inteligência Artificial da Meta — Foto: Reprodução/ Montagem

RESUMO

Sem tempo? Ferramenta de IA resume para você

GERADO EM: 18/11/2024 - 22:17

Limites na Evolução da Inteligência Artificial devido a Escassez de Textos para Treinamento

A inteligência artificial atinge um possível limite de evolução baseado no aumento de textos para treinamento. Empresas como OpenAI,Google e Anthropic enfrentam desafios inesperados. Fundadores reconhecem a necessidade de novas abordagens. O futuro da IA é incerto,com questionamentos sobre a eficácia contínua do método atual. Custos exorbitantes e escassez de textos disponíveis podem ser obstáculos. A próxima geração de modelos de IA é aguardada com ansiedade.

O Irineu é a iniciativa do GLOBO para oferecer aplicações de inteligência artificial aos leitores. Toda a produção de conteúdo com o uso do Irineu é supervisionada por jornalistas.

CLIQUE E LEIA AQUI O RESUMO

Os meses passam,e não há notícia de GPT 5,de Claude 3.5,de Gemini 2. Os atuais LLMs,modelos de linguagem de grande porte,estão na terceira geração. A expectativa da iminência de uma quarta é grande — mas temos poucas pistas de como vai seu desenvolvimento. Ou ao menos tínhamos poucas pistas. Na semana passada,três veículos de imprensa trouxeram a informação de que há dificuldades nas três companhias — OpenAI,Anthropic e Google. Dificuldades que ninguém esperava.

Míriam Leitão: Após ser único país do G20 fora de aliança global contra fome,Argentina adere a acordo

Primeiro foi The Information,o site ultraespecializado que cultiva as melhores fontes no Vale do Silício. Orion,a nova versão do GPT,tem ficado superior à versão atual. Mas numa escala de melhoria bastante inferior. O salto da versão 2 para a 3 foi enorme,da 3 para a 4 maior. Esta 5 parece estar aquém. É razoavelmente melhor em texto,mas para código de programação não parece ser tão superior. Como a informação para o site foi em off,não há muitos detalhes.

Malu Gaspar: O efeito das gafes de Janja que mais irritou o entorno de Lula

Aí veio a Reuters. A agência britânica entrevistou Ilya Sutskever,um dos fundadores da OpenAI,que deixou a companhia neste ano. É um dos responsáveis diretos pela revolução de inteligência artificial recente.

— A década de 2010 foi a era de ganhar escala — ele afirmou. — Agora voltamos a um tempo de busca e descoberta. Melhorar a coisa certa se tornou mais importante do que nunca.

A mensagem parece críptica,mas dá para traduzir.

Mais Sobre Inteligência Artificial

G20: Google acelera iniciativas de inteligência artificial no Brasil contra efeitos da mudança climática

‘Podemos alfabetizar jovens em computação’,diz presidente do GitHub

Quando cientistas do Google bolaram o modelo Transformer,que permite a um computador se treinar para produzir textos,não imaginavam que a técnica seria tão revolucionária quanto se mostrou. Então a OpenAI pôs uma quantidade muito grande de textos para alimentar o treinamento do GPT2. Ele parecia escrever como um ser humano. A versão seguinte foi ainda mais convincente,treinada com uma quantidade ainda maior de textos. A hipótese em que a indústria depositou todas suas fichas era uma premissa simples: quanto mais textos se dá para um computador cada vez mais poderoso,mais “inteligente” se torna o modelo.

Sutskever parece dizer que se encontrou o limite da força bruta. Não adianta mais jogar muito texto e muito processamento. Para tornar os modelos melhores,mais capazes de raciocínio,será preciso descobrir outros truques no entorno.

Por fim,veio a Bloomberg. Informou,em termos sucintos,que a OpenAI não está sozinha. Que tanto Google quanto Anthropic,suas principais concorrentes,têm encontrado dificuldades semelhantes.

O burburinho se espalhou rapidamente. Sam Altman,CEO da OpenAI,se sentiu compelido a ir para o X. “Não há parede”,ele escreveu. Só isso. Sucinto. Sundar Pichai também foi ao X ser igualmente econômico nas palavras: “Há mais por vir”.

O debate é importante,e não há informação suficiente para entender o que acontece. Muito do intenso debate sobre inteligência artificial,nos últimos dois anos,se baseia na premissa de que é só dar mais texto e mais processamento que,a cada volta,os modelos ficam imensamente melhores. É assim que foi no passado. Mas nada garante que continuará sendo no futuro. E ninguém conhece o teto para essa melhoria continuada — nem sabe se há teto.

As grandes companhias do Vale do Silício vêm apostando dinheiro como jamais fizeram nessa premissa. Gastos na base das centenas de bilhões de dólares. Cada um desses modelos da geração que virá,cada um unitariamente,custará ao todo US$ 10 bilhões só para treinar. Para produzir o pacote bruto que ainda precisaria ser calibrado e ajustado,para então se tornar um serviço comercial. Não conta o custo de uso,cada vez que alguém faz uma pergunta.

Pode ser que o alarme seja falso. Ao menos por enquanto,os CEOs mantêm o discurso de que tudo continua como dantes. É possível que o problema seja outro: acabaram os textos fáceis de encontrar. Tudo o que está na internet e pode ser usado para treinar os modelos já se esgotou. Se for isso,virá o trabalho difícil. Negociar com editoras,com veículos jornalísticos e com quem mais tiver grandes massas de textos fora da internet os direitos autorais para poder usar.

De qualquer forma,há ansiedade na espera. Quando vem a próxima geração?

Declaração: Este artigo é reproduzido em outras mídias. O objetivo da reimpressão é transmitir mais informações. Isso não significa que este site concorda com suas opiniões e é responsável por sua autenticidade, e não tem nenhuma responsabilidade legal. Todos os recursos deste site são coletados na Internet. O objetivo do compartilhamento é apenas para o aprendizado e a referência de todos. Se houver violação de direitos autorais ou propriedade intelectual, deixe uma mensagem.