Além da nova funcionalidade de privacidade, a OpenAI anuncia também que está a desenvolver um serviço de subscrição empresarial para o ChatGPT que ficará disponível nos próximos meses.
De acordo com a tecnológica, quando o histórico é desactivado, as conversas não serão utilizadas para treinar e melhorar os seus modelos de IA. Além disso, as conversas não aparecerão na barra lateral de histórico. A nova funcionalidade pode ser encontrada nas definições do chatbot e é possível configurá-la sempre que os utilizadores desejarem, afirma a empresa.
Quando o histórico é desactivado, as conversas não serão utilizadas para treinar e melhorar os seus modelos de IA. No entanto, a OpenAI realça que, quando a funcionalidade é activada, as novas conversas com o chatbot serão retidas durante 30 dias, sendo revistas pela empresa apenas quando é necessário analisá-las por suspeitas de abuso das regras da plataforma, antes de serem eliminadas permanentemente.
A empresa anuncia também que está a desenvolver um serviço de subscrição empresarial para o ChatGPT. O serviço, que ficará disponível nos próximos meses, é concebido para “profissionais que querem ter mais controlo no que respeita aos seus dados, assim como empresas que procuram gerir os seus utilizadores”, detalha a tecnológica.
A nova funcionalidade de privacidade surge depois de o chatbot estar na “mira” de autoridades e reguladores. Na Itália, a autoridade responsável pela protecção de dados bloqueou o ChatGPT no país para investigar as práticas da OpenAI.
Países como Espanha e Alemanha também abriram investigações à tecnológica para verificar se as suas práticas violam o Regulamento Geral de Protecção de Dados (RGPD) e o Conselho Europeu de Protecção de Dados criou um grupo dedicado à supervisão do chatbot.
Já nos Estados Unidos, o Center for AI and Digital Policy (Centro de IA e Política Digital ou CAIDP) submeteu uma queixa contra a OpenAI junto da Federal Trade Commission (Comissão Federal do Comércio ou FTC), defendendo que o GPT-4, o mais recente modelo de IA da empresa, viola as regras do regulador norte-americano no que toca a práticas enganadoras.
Anteriormente uma carta aberta com mais de mil signatários já tinha apelado aos laboratórios especializados em IA que parem o treino de sistemas que sejam mais poderosos do que o GPT-4.
Sam Altman, CEO da OpenAI, confirmou recentemente que a empresa não está, para já, a treinar a próxima versão do modelo de IA, acrescentando que melhorar as capacidades do GPT-4, sobretudo no que respeita à segurança, é uma das prioridades.