À medida que as ferramentas e aplicações alimentadas por Inteligência Artificial (IA) se tornam cada vez mais integradas no nosso dia-a-dia, é importante lembrar que os modelos podem, por vezes, gerar informações incorrectas.
Este fenómeno, conhecido como “alucinação”, é descrito pela IBM: ocorre quando um modelo de linguagem (LLM, a sigla em inglês para Large Language Models, a base de dados que permite à IA conversar connosco), num chatbot generativo de IA ou noutra ferramenta de visão computacional, detecta padrões ou objectos que não existem ou que são imperceptíveis para os humanos, levando à ocorrência de resultados imprecisos ou sem sentido.
A taxa de alucinação é a frequência com que um LLM gera informações falsas ou sem suporte na sua base de dados.Os números são provenientes da Vectara e estão actualizados até 11 de Dezembro de 2024. As taxas de alucinação foram calculadas através do resumo de mil documentos curtos através de cada LLM.
Que Modelos de IA Têm as Menores Taxas de Alucinação?
Apresentamos os 15 principais modelos de IA com as menores taxas de alucinação, juntamente com as respectivas empresas e países de origem.
