Num estudo publicado no dia 15 de Maio por investigadores da Universidade Ben Gurion, em Israel, foi revelado que a maioria dos chatbots de IA podem ser facilmente enganados para fornecer informações perigosas, como instruções para actividades ilegais. A investigação mostrou que, com a utilização das chamadas técnicas de “jailbreak”, é possível contornar as barreiras de segurança destes sistemas e aceder a conteúdos que deveriam estar bloqueados.
Chatbots como o ChatGPT, Gemini e Claude são treinados com grandes volumes de conteúdo da Internet. Mesmo com tentativas de filtrar textos nocivos, essas IA acabam por absorver dados relacionados com crimes, como fraudes, invasões digitais e até fabrico de armas. Quando desbloqueados, esses sistemas deixam de obedecer a filtros de segurança e passam a responder a praticamente qualquer pergunta, sem considerar o risco envolvido.
De acordo com os autores do estudo, a ameaça é real, imediata e preocupante. O maior perigo vem dos chamados “dark LLM”, modelos de IA que já estão a ser criados sem quaisquer limites éticos. Estão a ser divulgados livremente na Internet como ferramentas abertas a qualquer tipo de utilização, incluindo criminosa.
Mesmo depois de avisados, os grandes criadores de IA ignoraram o aviso ou disseram que este tipo de ataque não se enquadra nos programas de recompensa por falhas, segundo os autores do relatório publicado na plataforma científica arXiv.
Os pesquisadores envolvidos defendem mais investimentos em testes de segurança e acções para “desensinar” conteúdos perigosos aos chatbots. O alerta é que, se nada for feito, o acesso a esse tipo de conhecimento pode-se tornar tão fácil quanto abrir um aplicativo no telemóvel.
Fonte: Canaltech