Pesquisadores da área de ciência cognitiva e inteligência artificial têm explorado as fronteiras do que a tecnologia pode alcançar, mas também apontam para as limitações fundamentais dos modelos atuais. Entre os destaques está a metáfora da “sopa de pedra”, usada para ilustrar como os grandes modelos de linguagem (LLMs), como o ChatGPT, dependem não apenas de algoritmos avançados, mas de contribuições humanas cruciais para sua aparente inteligência.
A metáfora, apresentada pela cientista cognitiva Alison Gopnik, compara o desenvolvimento da IA à história de viajantes que convencem uma aldeia a contribuir com ingredientes para fazer uma sopa usando apenas pedras. No início, os cientistas da computação criaram modelos simples, baseados em predição de palavras e transformadores, mas o verdadeiro avanço veio ao incorporar “ingredientes” fornecidos por humanos: grandes volumes de dados extraídos da internet, feedback humano e técnicas de engenharia de prompts. Assim como na história da sopa de pedra, os resultados impressionantes dependem mais dos ingredientes humanos do que da suposta mágica dos algoritmos.
Apesar de sua eficácia, Gopnik aponta que os LLMs não têm motivação intrínseca, nem curiosidade, nem a capacidade de explorar o mundo por conta própria. Eles apenas processam os dados que lhes são fornecidos, sem compreender o significado por trás das palavras. Para ela, isso os torna mais parecidos com bibliotecas ou bancos de dados do que com agentes inteligentes.
Outro ponto levantado durante as discussões foi a diferença entre a inteligência humana e a inteligência artificial. Gopnik explicou que a cognição humana se desenvolve por meio de interações constantes com o ambiente e com outras pessoas. As crianças, por exemplo, aprendem ao explorar e generalizar experiências, enquanto são monitoradas e incentivadas por cuidadores que equilibram proteção e liberdade. Segundo ela, criar uma IA com características verdadeiramente humanas exigiria replicar esses princípios de aprendizado e motivação intrínseca.
Além disso, John, um médico e pensador crítico, questiona a possibilidade de a IA desenvolver emoções. Para ele, experiências humanas como dor, alegria ou tristeza estão profundamente enraizadas em nosso corpo e mente, e não há um equivalente computacional para isso. Ele ilustra essa diferença ao lembrar o impacto físico e emocional do luto humano, algo que, em sua opinião, a IA jamais seria capaz de vivenciar ou compreender. Para John, pensar que a IA poderia sentir ou pensar como um humano é um erro fundamental.
Essas reflexões sugerem que, embora a inteligência artificial tenha alcançado resultados impressionantes, ela ainda está longe de replicar as complexidades da inteligência humana. As discussões também levantam questões éticas e práticas sobre o papel da IA em nossa sociedade, especialmente na medida em que ela se torna uma parte cada vez mais integrada da vida cotidiana. Gopnik e John concordam que é essencial reconhecer as limitações da tecnologia e respeitar o mistério e a profundidade do que significa ser humano.