Michal Kosinski piensa que los modelos de inteligencia artificial han alcanzado una facultad llamada “teoría de la mente”.
Se trata de un psicólogo investigador de Stanford con olfato para los temas coyunturales. Considera que su trabajo no solo hace avanzar el conocimiento, sino que alerta al mundo de los peligros potenciales de los sistemas informáticos. Sus proyectos más conocidos han estado consagrados a analizar los mecanismos que permitieron a Facebook (ahora Meta) adquirir un conocimiento asombrosamente profundo de sus usuarios a partir de todas las veces que pulsaron «me gusta» en la plataforma. Ahora se dedica a estudiar las cosas sorprendentes que puede hacer la inteligencia artificial (IA). Por ejemplo, ha realizado experimentos que indican que los ordenadores podrían predecir la orientación sexual de una persona analizando una foto de su cara.
He llegado a conocer a Kosinski a través de mis artículos sobre Meta y he vuelto a ponerme en contacto con él para hablar de su último artículo, publicado esta semana en la revista Proceedings of the National Academy of Sciences. Su conclusión es sorprendente. Según él, los grandes modelos del lenguaje (LLM) como GPT de OpenAI han cruzado una frontera cualitativa y utilizan técnicas análogas al pensamiento real que antes se consideraba propias solo de las personas de carne y hueso (o al menos de los mamíferos).
En concreto, probó los modelos GPT-3.5 y GPT-4 de OpenAI para ver si dominaban lo que se conoce como «teoría de la mente», que es la capacidad de los humanos, desarrollada durante la infancia, de comprender los procesos de pensamiento de otros humanos. Es una habilidad importante. Si un sistema informático no puede interpretar correctamente lo que piensa la gente, su comprensión del mundo se empobrecerá y se equivocará en muchas cosas. Si los modelos tienen teoría de la mente, están un paso más cerca de igualar y superar las capacidades humanas. Kosinski puso a prueba a los LLM y ahora afirma que sus experimentos demuestran que en GPT-4 en particular, una capacidad similar a la teoría de la mente «puede haber surgido como un subproducto no intencionado de la mejora de las habilidades lingüísticas de los LLM [lo que] significan el advenimiento de una IA más poderosa y socialmente hábil».

Kosinski se cuida de no afirmar que los LLM dominen por completo la teoría de la mente… todavía. En sus experimentos presentó algunos problemas clásicos a los chatbots, algunos de los cuales resolvieron muy bien. Pero incluso el modelo más sofisticado, GPT-4, falló una cuarta parte de las veces. Los éxitos, escribe, sitúan a GPT-4 al nivel de niños de 6 años. «Observando el rápido progreso de la IA, muchos se preguntan si la IA podría alcanzar la teoría de la mente o la conciencia, y cuándo», escribe. Dejando a un lado esa palabra con «c» radiactiva, hay mucho que masticar.
«Si la teoría de la mente surgió de forma espontánea en esos modelos, también pueden surgir otras habilidades a continuación», me dice. «Pueden ser mejores educándonos, influyéndonos y manipulándonos gracias a esas habilidades». Le preocupa que no estemos realmente preparados para las IA que entienden la forma de pensar de los humanos. Sobre todo si llegan al punto de entender a los humanos mejor que ellos mismos.
«Los humanos no simulamos la personalidad, la tenemos «, afirma, “así que estoy atrapado en mi personalidad. Estas cosas modelan la personalidad”. Cuando le digo a Kosinski que suena como si estuviera describiendo a un sociópata, se ilumina. «Un sociópata puede ponerse una máscara: en realidad no está triste, pero puede hacerse pasar por una persona triste». Este poder camaleónico podría convertir a la IA en un estafador superior. Con cero remordimientos.
