Afinal, a "inteligência" artificial não é inteligente!


«(...) hoje em dia, a IA manipula as propriedades do eletromagnetismo para processar textos com um êxito extraordinário e, a miúdo, de um modo que não se distingue de como os seres humanos seriam capazes de o fazer. São os chamados "grandes modelos linguísticos" (large language models, LLM), que causam sensação e com razão.

Os LLM mais famosos são o GPT3, o ChatGPT (também conhecido como GPT3.5, produzido pela OpenAI-Microsoft) e o Bard (produzido pela Google). Não raciocinam nem compreendem, não são um passo para nenhuma IA de ficção científica e não têm nada que ver com os processos cognitivos presentes no mundo animal e, sobretudo, no cérebro e mente humanas, no que toca a gerir conteúdos semânticos com êxito (veja-se Bishop, 2021). Sem dúvida, com o assombroso crescimento dos dados disponíveis, a quantidade e a velocidade de cálculo e algoritmos cada vez melhores podem fazer estadisticamente - isto é, trabalhando sobre a estrutura formal e não sobre o significado dos textos com os quais trabalham - o que nós podemos fazer de maneira semântica, ainda que de formas que ainda estão a ser exploradas pela neurociência.

(...) O exercício já não consiste em fazer resumos sem usar o ChatGPT, mas sim em ensinar a usar prompts ou pedidos adequados (a pergunta ou pedtição que gera o texto), comprovar o resultado, saber o que corrigir no texto produzido pelo ChatGPT, descobrir que existe um debate [por exemplo, a propósito da Divina Comédia] sobre que género literário se aplica melhor à Divina Comédia e, ao fazer tudo isto, aprender muitas coisas não só sobre o software, mas, sobretudo, sobre a Divina Comédia em si. Como costumava ensinar aos meus alunos de Oxford na década de 1990, um dos melhores exercícios para escrever um ensaio sobre as Meditações de Descartes não é resumir o que já se disse, mas sim pegar no texto eletrónico de uma das Meditações e tentar melhorar a sua tradução para o inglês (assim se aprende a rever o original); clarificar as passagens menos claras com uma paráfrase mais acessível (assim se vê se realmente se entendeu o texto); tentar criticar ou refinar os argumentos, modificando-os ou reforçando-os (assim se dará conta que outros trentaram fazer o mesmo e isso não é asim tão fácil); e enquanto se faz tudo isso aprende-se a natureza, a estrutura interna, a dinâmica e os mecanismos do conteúdo sobre o qual se está a trabalhar. Ou, para mudar de exemplo, conhece-se realmente um tema, não quando se sabe escrever uma entrada na Wikipédia sobre ele - o ChatGPT pode fazer isto cada vez melhor -, mas sim quando sabe como corrigi-lo. (...)

As limitações destes LLM são agora evidentes, inclusive para os mais entusiastas. (...) Inventam textos, respostas ou referências quando não sabem como responder; cometem erros evidentes sobre factos; por vezes falham nas inferências lógicas mais triviais ou têm problemas com a matemática simples; ou têm pontos cegos linguísticos nos quais se enterram.

(...) Os LLM sintetizam textos de maneiras novas, reestruturando os conteúdos sobre os quais foram treinados, não proporcionando simples repetições ou justaposições. Parecem-se muito mais com a função de autocompletar de um motor de busca. E, na sua capacidade de síntese, aproximam-se dos estudantes medíocres e preguiçosos, que, para escrever um ensaio breve, utilizam uma dezena de referências relevantes sugeridas pelo professor e, colhendo um pouco daqui e um pouco dali, armam um texto eclético, coerente, mas sem ter entendido grande coisa nem ter acrescentado nada. (...) Agora, [este tipo de textos] podem produzir-se de forma mais rápida e eficaz com o ChatGPT.»

Floridi, L. (2024). La Ética de la Inteligência Artificial (pp. 120-5). Barcelona: Herder.


Comentários

Mensagens populares