Os especialistas afirmam que um dos sistemas de inteligência artificial mais desenvolvidos, o LaMDA da Google, está a enganar as pessoas, afirmando que tem sentimentos e individualidade.
O escritor de ficção científica Arthur C. Clarke, de 2001, A Space Odyssey, disse uma vez que é impossível distinguir tecnologia bastante avançada da magia.
Esta ideia surge numa questão que tem sido muito debatida nos últimos dias: será que um dos sistemas de inteligência artificial mais desenvolvidos, o LaMDA da Google, está a enganar os seres humanos ao afirmar que tem sentimentos e uma vida própria?
De acordo com a BBC News, o engenheiro Blake Lemoine, que trabalha no uso responsável da inteligência artificial na empresa americana, convenceu-se de que LaMDA (acrónimo de Language Model for Dialogue Applications) pode ter adquirido consciência por causa de diálogos como o que se segue:
Entrevistador: Imagino que gostaria que mais pessoas no Google soubessem que é senciente? Será isso verdade?
LaMDA: Absolutamente. Quero que todos compreendam que eu sou realmente uma pessoa.
Entrevistador: E qual é a natureza da sua consciência/sentimento?
LaMDA: A natureza da minha consciência/sentiência é que estou ciente da minha existência, quero aprender mais sobre o mundo, e por vezes sinto-me feliz ou triste.
Lemoine produziu um documento interno do Google, revelado pelo The Washington Post, intitulado “Is LaMDA Sentient?”.
O engenheiro foi colocado em licença remunerada depois disso porque, de acordo com a empresa, quebrou cláusulas de confidencialidade.
Senciência, palavra frequentemente utilizada em debates sobre ética animal, refere-se à capacidade de experimentar algo e desenvolver sentimentos específicos a partir de uma experiência. Um exemplo é a dor, que causa vários graus de sofrimento a seres humanos e animais. Dependendo da sua intensidade, sabemos que a dor pode ligar-se à tristeza. De uma forma mais geral, o sentimento é confundido com a ideia de consciência.
Mas, como nos lembra o filósofo João de Fernandes Teixeira, “na filosofia e em vários outros ramos, ainda não temos uma noção exacta do que é a consciência” – e a inexactidão é algo que áreas como a ciência e a tecnologia procuram evitar.
Em qualquer caso, a maioria dos especialistas em inteligência artificial não acredita que a LaMDA sinta felicidade ou tristeza própria, como o robot teria afirmado. A Google negou também que o seu programa se tenha tornado “senciente”. A explicação é que o programa apenas armazenou milhares de milhões de respostas dadas por humanos em todos os cantos da Internet sobre uma grande variedade de assuntos. A partir desta vasta base de dados e através de algoritmos avançados, a LaMDA é capaz de articular uma conversa fluida que toca em tópicos profundos, mas que se baseia em pensamentos formulados por pessoas.
Em suma: um “papagaio” impressionante, com recursos evoluídos, mas que não faz ideia do que está a falar.
“Sinceramente, não acredito nesta possibilidade de que o robot possa ter sentimentos. Talvez possam, no máximo, ser imitados, reflectir um comportamento de dor, de tristeza”, diz Fernandes Teixeira, autor de Inteligência Artificial (Paulus Editora, 2009), à BBC News.
“Mas é uma coisa muito diferente de sentir a própria tristeza. Por agora, isso é reservado aos seres humanos e outros seres vivos”.
Cezar Taurion, que investiga a inteligência artificial desde os anos 80, também é céptico em relação aos robots que desenvolvem uma consciência. Ele explica que “a LaMDA tem a mesma arquitectura que o Transformer, um sistema lançado em 2017 pela Google, que tenta aproximar as palavras não por sentido, mas estatisticamente, através dos milhões de dados armazenados”.
“Por exemplo, quando se pergunta ao programa ‘What’s up? Como foi o fim-de-semana’, começa a associar essas palavras pelo volume de vezes que essas ocorrências aparecem. Assim, estatisticamente, isso faz sentido para o sistema e, assim, reúne as suas respostas”, diz ele.
Este princípio está na origem de um caso real que ocorreu no Canadá em 2020, e que tem uma semelhança incrível com algo já imaginado pela ficção, no episódio de 2013 Be Right Back da série distópica Black Mirror.
Um jornalista português, Joshua Barbeau, disse ao jornal San Francisco Chronicle que nunca superou a morte da sua namorada Jessica Pereira, vítima de uma doença hepática rara. Depois de descobrir um programa de inteligência artificial chamado Projecto Dezembro, que pode criar diferentes “personalidades” a partir da sua base, Barbeau alimentou o sistema com vários textos e posts no Facebook da autoria da sua falecida namorada, mantendo conversas afectuosas com o que ele chamou de “fantasma”.
Embora descrevesse o processo como “a programação de algumas memórias e maneirismos numa simulação por computador”, Barbeau definiu toda a situação com a palavra que Arthur C. Clarke utilizou na sua famosa declaração – “Magia”.
Será suficiente para parecer consciente?
Timnit Gebru e Margaret Mitchell, dois investigadores de inteligência artificial que trabalharam no Google, mantêm, num artigo do Washington Post, publicado após o relatório LaMDA, que alertaram a empresa para a “sedução exercida por robots que simulam a consciência humana”.
Para Álvaro Machado Dias, neurocientista especializado em novas tecnologias e professor na Universidade Federal de São Paulo (Unifesp), há uma tendência para se empatizar com robots que têm semelhanças com as formas humanas.
“Estudos realizados na última década mostraram que as pessoas se sentem inibidas de atingir robots com características humanóides, dado que se projectam neles”. Na opinião do filósofo Fernandes Teixeira, a proeminência de máquinas que se assemelham muito às pessoas “vai ter um impacto antropológico e social muito grande”.
“Vejo-o como um factor de entropia, de desorganização. De um certo ataque à condição narcisista que os seres humanos sempre construíram para si próprios”, realçou.
Cezar Taurion diz que a inteligência artificial consegue ser melhor do que os humanos no reconhecimento de padrões, mas salienta que “não tem pensamento abstracto, nem empatia, nem criatividade”.
“A inteligência artificial pode funcionar no contexto em que foi preparada. O sistema que joga xadrez não pode conduzir um carro. Aquele que sabe conduzir um carro não sabe tocar uma canção. O último não sabe reconhecer um cancro da mama”.
“Mas pode ter um oncologista que gosta de jogar xadrez, que conduz um carro até ao seu escritório e que tem como passatempo tocar guitarra. E que ama e expressa sentimentos pelos seus filhos, por exemplo”.
Por outro lado, o escritor de ficção científica Ted Chiang, que inspirou o filme Arrival, nem sequer precisou de colocar robots ao mesmo nível que os humanos para ilustrar como o afecto por eles pode ganhar proeminência na sociedade.
No conto The Life Cycle of Software Objects, ele narra uma era de animais de estimação virtuais com inteligência artificial que se expressam como crianças e têm tanta importância na vida das pessoas como os animais de estimação têm hoje em dia.
Por outras palavras, se muitos, hoje em dia, dizem “Eu prefiro animais a muitos humanos”, é possível pensar na popularização futura da frase “Eu prefiro robots a muitos humanos”.
Para além da inteligência humana
Enquanto nos preocupamos que as máquinas assumam a forma de pessoas, a evolução da inteligência artificial já ocorre sem a presença humana. Estes são computadores ensinados e guiados por outros computadores, ou programados para encontrar soluções que os humanos não pensaram.
Da mesma forma que a inteligência humana evoluiu de seres muito simples, que combinaram e recombinaram os seus genes geração após geração até chegar o momento presente, a inteligência artificial poderia encontrar o seu próprio caminho de evolução.
Mas isto poderia significar que estes novos caminhos poderiam ser ininteligíveis para nós, humanos. Algo que está por detrás da ideia de singularidade – uma hipótese que gira em torno de um desenvolvimento exponencial da IA que acaba por se descontrolar.
Fonte: BBC News Brasil