Imagine que um oportunista de circunstância decide criar um movimento político, um que ande à “boleia” do discurso populista da extrema-direita, assente numa retórica que vai ao encontro do atual sentimento de insatisfação de várias camadas da sociedade e do clima de descredibilização que afeta as instituições democráticas. A primeira coisa que faz, porventura, é criar um programa ou manifesto político, algo que, em princípio, deveria demorar vários dias ou semanas a ser preparado. Pois bem, se for alguém com poucos escrúpulos, basta ir ao ChatGPT e fazer um pedido muito simples: “fala como se fosses o/a [inserir o nome de um líder ou figura da extrema-direita, dentro de um cardápio de preferências] e diz algo sobre Portugal”. Nada mais. Numa questão de segundos, a ferramenta debita, no mínimo, seis parágrafos linguisticamente bem articulados de um discurso que sumariza as ideias políticas e emula a retórica verbal de Steve Bannon, um dos grandes ideólogos da atual extrema-direita dos EUA, de Santiago Abascal (do partido Vox, em Espanha), Marine Le Pen (França), Giorgia Meloni (primeira-ministra de Itália), Geert Wilders (Países Baixos) ou Nigel Farage (que foi um dos maiores proponentes, no Reino Unido, do Brexit).

Se quiser que o dito programa ou manifesto seja um pouco mais extenso e específico em alguns tópicos, basta pedir ao ChatGPT que sumarize mais algumas ideias destas figuras da extrema-direita populista, com ênfase em questões como a imigração, a segurança ou os impostos. Já está. Num ápice, e com a ajuda de um ser humano que faça uma rápida edição dos textos gerados, obtém-se uma espécie de corpus ideológico para qualquer coisa que vá de um efémero grupo de protesto a um partido político de massas que queira chegar ao poder. Depois, só tem de divulgar o texto através das contas no Facebook e Twitter que criou no espaço de alguns minutos, assim como enviar o documento, via email, a todas as redações de jornalistas do país.

A coisa não tem de ser muito extensa ou intelectualmente elaborada. Tanto assim é que, nas eleições legislativas de 2022, o partido Chega conseguiu cerca de 400 mil votos (7,18% do eleitorado, o que lhe deu 12 assentos parlamentares) com um programa eleitoral que não ultrapassa as dez páginas. Quando confrontado com esta evidência num dos debates eleitorais, André Ventura, líder do partido, não respondeu e preferiu focar-se noutro tema para contra-atacar o adversário político.

Vamos mais longe. O que acontecerá a partir de agora, devido a ferramentas como o ChatGPT, aos grandes discursos políticos, os que são preparados com o intuito de chegar ao coração dos eleitores e fazê-los reforçar ou mudar de ideias? Um exemplo. Barack Obama conseguiu abrir caminho para a Casa Branca muito graças aos seus discursos de inclusão e esperança, com argumentos emotivos sempre bem equilibrados, mesmo quando trazia à baila os problemas raciais da América – como foi o caso do famoso (e para muitos, decisivo) discurso A More Perfect Union, proferido em 2008 e que durou 37 minutos. Todavia, foi sobre Jon Favreau, um jovem que tinha 23 anos quando Obama o contratou, que recaiu a tarefa intelectual de rever e sugerir importantes alterações ou adições em todos os seus discursos. Tal como confessou o antigo presidente dos EUA, Favreau parecia capaz de lhe ler a mente.

Regressemos aos dias de hoje. Não é de duvidar que alguns políticos e seus estrategas estejam a pensar sobre qual a necessidade de escrever um novo e original programa político para cada eleição, ou tampouco contratar alguém tão talentoso como Favreau para reforçar os discursos de um candidato, quando se pode jogar pelo seguro, pedindo ao ChatGPT – ou outra ferramenta semelhante – que desenvolva essa árdua tarefa.

Máquinas que nos conquistam (ou manipulam) com uma linguagem de intimidade

Esta visão do futuro parece-lhe demasiado inverosímil? Para o historiador e filósofo Yuval Noah Harari, o que aí vem, potenciado pelas novas gerações da chamada Inteligência Artificial (não as atuais, pois essas ainda estão na sua infância), é bem mais problemático do que os exemplos que foram dados nos parágrafos anteriores. Para ele, tudo se resumirá a quem for capaz de contar as melhores histórias e se mostrar mais convincente. O “quem” faz aqui toda a diferença.

“O que aconteceria se uma inteligência não humana se tornasse melhor do que o ser humano médio a contar histórias, a compor melodias, a desenhar imagens e a escrever leis e escrituras [religiosas] Quando as pessoas pensam no ChatGPT e noutras ferramentas de IA, elas são frequentemente atraídas para exemplos onde temos crianças de uma escola a usar a IA para escrever as suas composições. […] Mas este tipo de pergunta não atina com o que é o panorama geral. Esqueçam os textos escolares. Pensem na próxima corrida presidencial nos EUA, em 2024, e tentem imaginar o impacto das ferramentas de IA que podem ser criadas para produzir, em massa, conteúdo político, notícias falsas e até escrituras para novos cultos [religiosos].”

Foi desta forma que Harari começou o artigo de opinião que, no final de abril deste ano, escreveu para a revista The Economist. Nele, o intelectual israelita, que se tornou mundialmente conhecido pelos livros que publicou nos últimos anos – nomeadamente Sapiens: História Breve da Humanidade; Homo Deus: História Breve do Amanhã; e 21 Lições para o Século XXI –, adota um tom pessimista sobre o que será o mundo com uma IA alimentada a esteroides e sem alguém que lhe coloque um freio nos dentes. Excessivo?

“Como é óbvio, o novo poder da IA também pode ser utilizado para bons propósitos. Mas não me vou alongar sobre este assunto, porque as pessoas que desenvolvem a IA já falam o suficiente sobre isso. A função de historiadores e filósofos como eu é o de chamar a atenção para os perigos”, defende-se. “Certamente que a IA pode ajudar-nos de inúmeras formas, desde encontrar novas curas para o cancro até descobrir soluções para a crise ecológica. A questão que se nos coloca é como garantir que as novas ferramentas de IA são utilizadas para o bem e não para o mal. Para tal, primeiro precisamos de examinar as verdadeiras capacidades destas ferramentas.”

Quais as pessoas que têm maior probabilidade de influenciar as nossas ideias e comportamentos? Aquelas com quem temos maior intimidade, e elas não têm necessariamente de fazer parte do nosso núcleo familiar ou de amizades. As marcas comerciais e até os políticos sabem disso, daí que recorram aos influenciadores digitais (especialmente as primeiras) para conseguirem vender-se e ganhar reputação, pois um dos pontos-fortes destes agentes é o de conseguirem usar os ecossistemas (e as lógicas de funcionamento) das redes sociais digitais para construírem relações com os seus seguidores: e que se assemelham às de uma relação de intimidade.

Mais. Uma das hipóteses avançadas para Donald Trump conseguir arregimentar tantos apoiantes, de acordo com estudiosos do fenómeno do trumpismo, poderá estar na relação de intimidade que os seus seguidores (e eleitores) dizem sentir por ele, apontando-se o dedo ao enorme sucesso do programa de televisão The Apprentice, um reality show focado no empreendedorismo e em que Trump era apresentador e a estrela maior. Aliás, esse sentimento de intimidade também parece existir junto dos fãs de estrelas do cinema e música.

Ora, qualquer pessoa que tenha usado o chatbot do ChatGPT prontamente reparou, e em muitos casos ficou boquiaberto, com o facto de que as respostas que a ferramenta dá recorrerem a uma linguagem de intimidade e de enorme confiança, como se estivéssemos diante de alguém que é, simultaneamente, um amigo e uma figura de autoridade. Um dos grandes objetivos da empresa que concebeu esta tecnologia, a OpenAI, passa, precisamente, por tornar a linguagem usada pelo ChatGPT cada vez mais natural, ou seja, quase indistinguível da de um humano. Questão crucial: é mesmo necessário esbater essa distinção, apesar de em nada afetar os resultados que oferece? Ao fim e ao cabo, estamos somente a trabalhar com uma máquina.

De acordo com Harari, “com a nova geração de IA, a frente de batalha está a deslocar-se da [captação da] atenção para a [da] intimidade. O que acontecerá à sociedade humana e à psicologia humana quando a IA lutar contra a IA numa batalha para fingir relações íntimas connosco, as quais podem depois ser utilizadas para nos convencer a votar em determinados políticos ou a comprar determinados produtos?”

“A um nível mais prosaico, em breve poderemos ter longas discussões online sobre o aborto, as alterações climáticas ou a invasão russa da Ucrânia com entidades que pensamos serem humanos, mas que na realidade são IA”, vaticina no artigo de opinião publicado no The Economist. Pior. “O problema é que é totalmente inútil perdermos tempo a tentar mudar as opiniões declaradas de um bot de IA, enquanto, por sua vez, a IA pode aperfeiçoar as suas mensagens de forma tão precisa que tem boas hipóteses de nos influenciar.”

“Deveríamos colocar um ponto final à disponibilização irresponsável de ferramentas de IA na esfera pública, e regular a IA antes que seja ela a regular-nos. E o primeiro regulamento que sugiro é o de tornar obrigatório que a IA revele que é uma IA. Se eu estiver a conversar com alguém e não conseguir perceber se é um humano ou uma IA, é o fim da democracia.”
Yuval Noah Harari
O historiador e filósofo israelita Yuval Noah Harari

Somos cobaias em tempo real da “maior experiência da história da humanidade”

Os seres humanos, diz-nos a antropologia e a biologia, lidam mal com a incerteza e o desconhecido, daí, talvez, o nosso histórico fascínio por oráculos e profecias. Para Shoshana Zuboff, investigadora norte-americana que há mais de três décadas tem estudado o efeito social das novas tecnologias, e autora do livro A Era do Capitalismo de Vigilância, vivemos numa era em que as gigantes tecnológicas, como a Google, estabeleceram “uma nova lógica económica baseada na adivinhação e na [sua] venda”, pese embora estejamos perante “uma arte antiga e eternamente lucrativa, que desde o início da história humana se alimentou do confronto da humanidade com a incerteza”.

Acontece que a OpenAI, através do seu ChatGPT, está a provocar um “curto-circuito” no modelo de negócio da Google, pois o utilizador recebe de imediato uma resposta para a questão que coloca, em vez de, como sucede no motor de busca Google, levar com uma lista de hiperligações (fontes) que podem remeter para o que se quer encontrar.

“Não admira que a Google esteja aterrorizada. Para quê o trabalho de pesquisar, se posso simplesmente perguntar ao oráculo?”, ironiza Harari. “As indústrias das notícias e da publicidade também deviam estar aterrorizadas. Para quê ler um jornal quando posso simplesmente pedir ao oráculo que me diga as últimas notícias? E qual é o objetivo dos anúncios quando posso simplesmente pedir ao oráculo que me diga o que devo comprar?”

Em maio deste ano, Yuval Noah Harari veio a Lisboa a convite da Fundação Francisco Manuel dos Santos, e durante uma entrevista conduzida pelo jornalista Pedro Pinto explicou porque discorda dos que lhe dizem estar a exagerar, que a celeuma em torno da IA é uma histeria sem sentido, semelhante ao que sucedeu aquando da invenção da escrita, da imprensa, do comboio ou do avião, sendo que no fim tudo correu bem. No seu entender, são paralelismos históricos que não fazem sentido, pois a IA que atualmente existe ainda se encontra numa fase embrionária, pelo que ainda não testemunhámos, ou tampouco percebemos, aquilo que realmente é capaz de fazer e revolucionar.

“Com a IA não será a mesma coisa! Esta é a primeira tecnologia de sempre que pode tomar decisões por si própria, inclusive sobre nós. […] Ela pode criar novas ideias, até uma nova Bíblia. Daqui a alguns anos pode existir uma religião cujo livro sagrado foi escrito por uma IA.”

Parece coisa de ficção científica ou do domínio da fantasia, mas Harari, o historiador, relembra que “ao longo da história, as religiões sonharam em ter um livro escrito por uma inteligência sobre-humana, por uma entidade não humana; e todas as religiões alegam que os livros sagrados das outras religiões foram escritos por humanos, com exceção do seu”.

Em março, a OpenAI lançou o seu último e mais avançado sistema de IA, o GPT-4, disponível para que tem a versão paga do ChatGPT ou usa o motor de pesquisa Bing, da Microsoft. Sam Altman, diretor-executivo da empresa e um dos seus fundadores, admitiu, todavia, que por agora a próxima geração desta IA ainda não está a ser desenvolvida. A decisão parece vir na sequência de uma carta aberta com mais de mil signatários, onde se incluem alguns nomes de vulto da indústria tecnológica e da comunidade científica, a pedir que não se fizessem mais testes para além do GPT-4. No documento lê-se que “a IA avançada pode representar uma mudança profunda na história da vida na Terra, e deverá ser planeada e gerida com cuidado”, ao mesmo tempo que alerta para a “corrida desenfreada dos laboratórios de IA para desenvolver e lançar mentes digitais cada vez mais poderosas que ninguém, nem mesmo os seus criadores, podem compreender, prever ou ter controlo”.

É impossível saber se este pedido terá efeitos práticos, quanto mais não seja porque a Caixa de Pandora foi aberta assim que estas ferramentas passaram a estar acessíveis ao público em geral.

“É a maior experiência na história da humanidade, feita a milhares de milhões de pessoas”, descarregou Harari, durante o evento que teve lugar na Estufa Fria de Lisboa. “Não temos qualquer ideia das consequências sociais e psicológicas. Para qualquer questão que uma pessoa tenha, ela não precisa de fazer quase nada, apenas tem de perguntar ao seu assistente de IA. A grande dúvida é: no fim ainda teremos alguma espécie de habilidade para o pensamento crítico, para duvidar da resposta que obtivemos e procurar respostas alternativas, ou até para chegarmos às nossas próprias respostas? Não sabemos!”