A Meta lançou o seu mais recente conjunto de modelos de Inteligência Artificial (IA), o Llama 3.2, durante o evento Meta Connect 2024. As inovações incluem modelos de visão e de texto compactos, bem como a interpretação visual de dados.
Os modelos de visão são capazes de interpretar informações contidas em imagens, gráficos e mapas. Além disso, a versão oferece opções abertas e fechadas, que suportam tarefas de reconhecimento de imagem e legendas automáticas. Estes modelos variam entre 11 mil milhões e 90 mil milhões de parâmetros.
De acordo com a Meta, o Llama 3.2 pode analisar o gráfico de vendas de uma empresa e, se solicitado, identificar o mês em que a companhia teve o melhor desempenho de vendas. Os modelos 11B e 90B podem gerar uma ou duas frases como legenda para uma imagem, com base na análise dos detalhes contidos na mesma.
Para telemóveis, o Llama 3.2 estará disponível em versões mais pequenas, com mil milhões e três mil milhões de parâmetros, adequadas para dispositivos móveis ou para edge computing (sistema constituído por centros de dados mais pequenos que operam na periferia da rede, processando os dados localmente e mais perto da fonte).
Os modelos para dispositivos móveis são compatíveis com chips dos principais fabricantes de componentes móveis, Qualcomm e MediaTek, e são optimizados para processadores de arquitectura ARM, comuns em aparelhos compactos e que consomem menos energia, por exemplo.
A Meta também introduziu o Llama Guard 3, um sistema de segurança que monitora as entradas e saídas de texto e imagem dos modelos, garantindo que os aplicativos sejam desenvolvidos de forma responsável.
A empresa lançou o Llama Slack, um conjunto de ferramentas que facilita o uso e a personalização dos modelos Llama em diferentes ambientes, como na nuvem ou localmente em smartphones.
As novas funcionalidades estão disponíveis para download pelos programadores no site oficial da empresa e no Hugging Face.