A investigadora pioneira em Inteligência Artificial disseca equívocos sobre o poder das máquinas. As IA não chegam a domínios inerentes aos seres humanos: bom senso, incerteza, emoções…
Mais do que qualquer outra tecnologia, a Inteligência Artificial (IA) é um domínio em torno do qual há tantas ambições como medos. Como se a sedutora promessa prometeica de máquinas capazes de executar tarefas com uma destreza de sonho implicasse um pesadelo, o da substituição por obsolescência da humanidade. Apesar dos recentes avanços da IA em campos como a linguagem e as artes visuais, anteriormente exclusivos das pessoas – basta pensar nas composições em prosa do modelo de linguagem GPT3 [na fonte do chatbot ChatGPT] ou nas criações visuais do DALL-E [gerador de imagens] –, convém moderar os nossos medos. Quem assim pensa é a cientista da computação, vencedora, em 2022, da prestigiada bolsa Genius da Fundação MacArthur, que coordena um trabalho sem precedentes em torno do desenvolvimento pela IA de senso comum e raciocínio ético. “Especula-se demais e há demasiados receios em torno da IA”, afirmou Yejin Choi, de 45 anos. Isso não significa que as inteligências artificiais não nos tragam surpresas. “Cheira a aventura”, diz-nos a investigadora sobre o seu trabalho. “Estamos a explorar uma terra incógnita. Vemos algo inesperado e pensamos o que mais andará por aí!”
“THE NEW YORK TIMES”: Quais são os principais equívocos sobre a IA?
YEJIN CHOI: As pessoas tendem a generalizar demasiado depressa. “Extraordinário, GPT-3 é capaz de escrever uma publicação nas redes sociais. Talvez o GPT-4 venha a ser jornalista da revista do The New York Times” [risos]. Mas acho que não substituirá ninguém, porque não entenderia os meandros do contexto político e, portanto, não seria capaz de escrever algo relevante para o leitor. Soma-se a isso o problema da senciência da IA [a capacidade de sentir emoções]. Haverá sempre gente capaz de acreditar em coisas que não são verdadeiras. Há quem acredite nas cartas de tarot. Há quem embarque em teorias da conspiração. Então, porque não haverá pessoas a acreditar que as IA têm sentimentos?
Talvez seja uma pergunta trivial, mas será que um dia criaremos uma Inteligência Artificial dotada de senciência?
Posso ter de mudar de opinião, mas neste momento duvido. Existe muito essa impressão, mas nós que trabalhamos em IA encontramos muitas limitações. Esse é o problema. Quem esteja de fora pensará: “Isto é uma loucura!” Mas quem trabalha na área vê muitas falhas. Tratando-se de processar uma infinidade de modelos e dados, a IA é muito forte, como, por exemplo, em jogos como o Go ou o xadrez. Tende-se, por isso, a pensar que se a IA for capaz de enfrentar desafios complexos, como tradução ou xadrez, certamente será boa em qualquer tarefa simples. Na verdade, o que é fácil para as máquinas pode ser difícil para os humanos e vice-versa. É surpreendente como uma IA patina quando se trata de usar o senso comum mais básico.
Consegue definir “bom senso” na perspectiva de uma IA?
Uma maneira de o fazer é dizer que o senso comum é a matéria negra da inteligência. A matéria normal é o que vemos, aquilo com que podemos interagir. Durante muito tempo, acreditou-se que só havia isso à nossa volta. Nada mais existiria no mundo físico. No entanto, é o oposto que se passa: a matéria que vemos ou sentimos corresponde apenas a 5% do Universo. Os restantes 95% são matéria negra e energia negra, que são invisíveis. Sabemos que estão lá porque, se assim não fosse, não conseguiríamos explicar a existência de matéria normal. Sabemos por observação experimental e teorização e sabemo-lo há muito tempo.
O mesmo acontece com o bom senso. Faz tanto sentido que, na maioria das vezes, não falamos sobre isso. Por exemplo, quantos olhos tem um cavalo? Dois. Não falamos sobre isso, mas todos o sabem. Não sabemos a quantidade exacta de conhecimento que você e eu temos, e acerca da qual não falamos, mas julgo que será enorme.
Permita-me outro exemplo: sabemos que as aves em geral voam mas os pinguins não. Assim, os investigadores de IA tentaram codificar a proposição “todos os pássaros voam, excepto pinguins”. Só que as excepções desafiam as regras do bom senso: os ninhos não voam, aves cobertas de petróleo também não, tal como os pássaros feridos ou metidos em gaiolas… As excepções não são assim tantas e somos capazes de as descobrir, mesmo que ninguém nos tenha falado delas. É uma faculdade fascinante mas que gera problemas às IA.
Pareceu céptica quando aludiu ao GPT-3. Não o acha impressionante?
Estou muito admirada com o GPT-3, mas, ao mesmo tempo, sinto que as pessoas tendem a sobrestimá-lo. Há até quem ache que o teste de Turing foi ultrapassado [para passar neste teste, criado em 1950, as máquinas devem demonstrar inteligência indistinguível da de um humano]. Não concordo.
Podemos ter essa impressão se nos ativermos apenas aos melhores desempenhos do GPT-3, mas se olharmos para o seu desempenho médio, ainda estamos longe de um bom nível de inteligência humana. E é para as médias que devemos olhar. Porque, se nos limitarmos ao melhor desempenho, na verdade é a inteligência humana que faz o difícil trabalho de selecção. Embora seja promissor em muitos aspectos, há muitas coisas que não é capaz de fazer bem. Mas as pessoas tendem a generalizar, dizendo: uma vez que é capaz de realizar essa tarefa brilhantemente, a AGI pode estar ao virar da esquina [inteligência geral artificial, semelhante à inteligência flexível que os humanos possuem e que uma máquina deveria adquirir para executar tarefas intelectuais ao nível humano]. Não há provas que sustentem esta ideia.
O que lhe parece mais promissor na IA?
Fascina-me o pluralismo de valores, ou seja: o valor não ser singular. Outra maneira de o dizer é que não existe uma verdade universal. Muita gente tem problemas com isto. Como cientistas, fomos ensinados a ser precisos e a lutar por uma única verdade. Hoje, acho que não existe uma verdade universal, do género: as aves voam ou não? Ou, do lado das normas sociais e culturais: podemos deixar a porta de um armário aberta? Uma pessoa arrumada diria que deve ser sempre fechada. Eu, como não sou muito metódica, posso deixá-la aberta. Mas se o armário em questão for climatizado, vou mantê-lo fechado. Da mesma forma, se o armário estiver numa casa que não a minha, provavelmente terei cuidado.
Estas regras não podem ser gravadas na pedra como verdades universais porque, dependendo se é o seu contexto ou o meu, a verdade não será a mesma. Em relação às regras morais, há uma tendência para dizer que uma verdade moral é necessária. Que não se pode matar pessoas, por exemplo. Mas se for para lhes aliviar o sofrimento, já o poderemos fazer?
Como ensinar a IA a tomar decisões de tipo moral, quando quase todas as regras ou verdades têm excepções?
A IA tem de aprender que há casos sobre os quais pode decidir, enquanto outros devem ser sujeitos a avaliação. É preciso apreender a incerteza e a pluralidade de opiniões. Vou tentar simplificar, olhando para o modelo linguístico. Neste caso, o objectivo é treinar a IA para prever a próxima palavra. Com base no exposto, qual é a palavra que se seguirá? Não existe uma verdade universal sobre isso. Às vezes, só há uma palavra possível, mas em quase todos os casos as possibilidades são múltiplas. Portanto, há incerteza e, no entanto, a formação é eficaz porque a IA aprende, através da análise estatística, quais são as palavras mais lógicas para se seguirem. As decisões morais podem ser tomadas da mesma maneira. Em vez de adoptar decisões taxativas, tipo sim ou não, a IA às vezes terá de tomar decisões com base em avaliações como “isso soa mal”. Ou quando nós temos a nossa opinião, mas isso não nos impede de ver que a outra metade do país pensa de outra forma.
Poderá a IA tomar decisões éticas imparciais ou mesmo contrárias aos objectivos eventualmente imorais dos seus criadores? Ou haverá sempre alguém, em última análise, para garantir os valores éticos?
Quanto à primeira pergunta, é o que gostaríamos de obter [em 2021, Yejin Choi e os seus colegas da Paul G. Allen School of Computer & Engineering da Universidade de Washington e do Allen Institute for AI Research em Seattle lançaram o Delphi, um protótipo que permite ao utilizador fazer perguntas éticas, com – muitas vezes – respostas convincentes].
Em relação à segunda, é o que inevitavelmente acontece. Na realidade, o Delphi tende bastante para a esquerda, porque muitas das pessoas que trabalham para nós têm uma sensibilidade de esquerda. Isso pode criar receios tanto à esquerda quanto à direita, dado que, para as pessoas à esquerda, o Delphi não vai suficientemente longe, enquanto os que estão à direita temem que o modelo não seja suficientemente inclusivo. Mas o Delphi foi apenas um teste. Ainda temos um longo caminho a percorrer. Seria óptimo poder resolver a questão do pluralismo de valores na IA. Garantir que os valores da IA não sejam sistemáticos, mas sim multidimensionais, como num grupo humano.
Como se resolve o pluralismo de valores?
Não tenho uma resposta taxativa. Não sei como, mas a IA deve respeitar o pluralismo de valores e a diversidade, em vez de impor um quadro moral padronizado a todos.
Se chegarmos ao ponto em que dependeremos da IA para tomar decisões éticas, não estaremos no caminho errado? A ética não é daquelas coisas que não se devem subcontratar?
Vão desculpar-me, mas estão a ser vítimas de uma confusão muito comum sobre o modelo Delphi que concebemos. Este modelo baseia-se em perguntas e respostas. Parece-me que foi dada ênfase suficiente ao facto de não fornecer conselhos morais. Seria um exemplo do que a IA não deve fazer. O que eu queria era que a IA aprendesse a tomar decisões no plano ético, para que pudesse interagir com os humanos de uma forma mais segura e respeitosa. Por exemplo, que a IA não sugira que os seres humanos se comportem de forma perigosa, especialmente para com as crianças, ou que não faça comentários potencialmente racistas e sexistas.
A IA nunca deve ser uma autoridade universal em nenhum assunto, mas estar ciente da diversidade dos pontos de vista humanos, entender no que discordam e, seguidamente, ser capaz de evitar enviesamentos. Nunca devemos desenhar uma IA com o objectivo de optimizar uma única coisa. Neste caso, o erro estaria mais do lado dos humanos do que da IA. É por isso que as normas e valores humanos devem fazer parte do conhecimento fundamental da IA. Algumas pessoas pensam que se ensinarmos a IA a optimizar a produção de grampos de fixação de plantas sem intervenção humana, o problema estaria resolvido. Ora, nesse caso, a máquina poderia muito bem erradicar todas as plantas. É por isso que também precisa de bom senso, é bom senso não matar todas as plantas para preservar a vida humana. É senso comum não optar por soluções extremas e devastadoras.
Autor: David Marchese . Órgão: The New York Times Magazine