O empenho contínuo da Meta em tornar o seu assistente de Inteligência Artificial (IA) uma presença essencial nas suas aplicações está a revelar-se um sucesso. Além de anunciar o Llama 3.3, a Meta AI encontra-se a um passo de atingir o seu próximo grande marco, com “quase” 600 milhões de utilizadores mensais, conforme revelou Mark Zuckerberg numa actualização recente.
Este marco foi anunciado juntamente com o lançamento do mais recente modelo Llama 3.3 70 biliões de parâmetros da Meta. Segundo a empresa, este modelo de texto oferece um desempenho “semelhante ao do modelo Llama 3.1 405 biliões de parâmetros”, mas “a uma fracção do custo.”
Ahmad Al-Dahle, vice-presidente de IA generativa da Meta, partilhou no X uma tabela que mostra que o Llama 3.3 obteve pontuações superiores em vários benchmarks quando comparado com o Gemini Pro 1.5 da Google e o GPT-4o da OpenAI.
O novo modelo Llama 3.3 70 biliões de parâmetros tem um melhor desempenho em coding, raciocínio, matemática, tarefas de conhecimento geral, seguimento de instruções e utilização de ferramentas. Os utilizadores podem agora:
- Obter resultados JSON para chamadas de funções;
- Obter resultados de raciocínio passo a passo com respostas mais precisas;
- Obter uma maior cobertura das principais linguagens de programação, com maior precisão;
- Esperar um melhor feedback do código que ajude a identificar e corrigir problemas, bem como um melhor tratamento de erros;
- Invocar ferramentas respeitando de forma fiável os parâmetros predefinidos e especificados;
- Esperar chamadas de ferramentas conscientes da tarefa que evitam chamar uma ferramenta quando nenhuma é útil.
Zuckerberg também deu um pequeno vislumbre do próximo grande lançamento. “O próximo marco será o Llama 4”, disse o CEO num vídeo partilhado no Instagram, referindo que a versão 3.3 é a “última grande actualização de IA deste ano.”
Até ao momento, Zuckerberg manteve-se reservado quanto aos detalhes do Llama 4, mas deixou algumas pistas ao longo dos últimos meses.
Este ano, o CEO revelou que o modelo está a ser treinado num cluster composto por mais de 100 mil unidades de processamento gráfico (GPU) H100, com a expectativa de que uma das versões “mais pequenas” do Llama 4 seja lançada “no início do próximo ano.”
Fonte: Sapo