El psicólogo que advirtió sobre el poder de Facebook ahora dice que la IA entenderá a los humanos mejor que ellos mismos

mundoia_inteligencia_artificial_img_ok11

El psicólogo que advirtió sobre el poder de Facebook ahora dice que la IA entenderá a los humanos mejor que ellos mismos

Michal Kosinski piensa que los modelos de inteligencia artificial han alcanzado una facultad llamada “teoría de la mente”.

Se trata de un psicólogo investigador de Stanford con olfato para los temas coyunturales. Considera que su trabajo no solo hace avanzar el conocimiento, sino que alerta al mundo de los peligros potenciales de los sistemas informáticos. Sus proyectos más conocidos han estado consagrados a analizar los mecanismos que permitieron a Facebook (ahora Meta) adquirir un conocimiento asombrosamente profundo de sus usuarios a partir de todas las veces que pulsaron «me gusta» en la plataforma. Ahora se dedica a estudiar las cosas sorprendentes que puede hacer la inteligencia artificial (IA). Por ejemplo, ha realizado experimentos que indican que los ordenadores podrían predecir la orientación sexual de una persona analizando una foto de su cara.

He llegado a conocer a Kosinski a través de mis artículos sobre Meta y he vuelto a ponerme en contacto con él para hablar de su último artículo, publicado esta semana en la revista Proceedings of the National Academy of Sciences. Su conclusión es sorprendente. Según él, los grandes modelos del lenguaje (LLM) como GPT de OpenAI han cruzado una frontera cualitativa y utilizan técnicas análogas al pensamiento real que antes se consideraba propias solo de las personas de carne y hueso (o al menos de los mamíferos).

En concreto, probó los modelos GPT-3.5 y GPT-4 de OpenAI para ver si dominaban lo que se conoce como «teoría de la mente», que es la capacidad de los humanos, desarrollada durante la infancia, de comprender los procesos de pensamiento de otros humanos. Es una habilidad importante. Si un sistema informático no puede interpretar correctamente lo que piensa la gente, su comprensión del mundo se empobrecerá y se equivocará en muchas cosas. Si los modelos tienen teoría de la mente, están un paso más cerca de igualar y superar las capacidades humanas. Kosinski puso a prueba a los LLM y ahora afirma que sus experimentos demuestran que en GPT-4 en particular, una capacidad similar a la teoría de la mente «puede haber surgido como un subproducto no intencionado de la mejora de las habilidades lingüísticas de los LLM [lo que] significan el advenimiento de una IA más poderosa y socialmente hábil».

OpenAI traza el mapa hacia la super inteligencia artificial
OpenAI ha desarrollado una escala interna para evaluar el progreso de sus modelos de lenguaje hacia la inteligencia artificial general(AGI). Este tipo hipotético de inteligencia artificial (IA) tiene el potencial de igualar o superar la inteligencia humana promedio, según informó Bloomberg.
Kosinski ve su trabajo en IA como una consecuencia natural de su anterior inmersión en los likes de Facebook. «En realidad no estaba estudiando las redes sociales, sino a los humanos», dice. Cuando OpenAI y Google empezaron a construir sus últimos modelos generativos de IA, pensaron que los estaban entrenando para manejar principalmente el lenguaje, «pero en realidad entrenaron un modelo de mente humana, porque no se puede predecir qué palabra voy a decir a continuación sin modelar mi mente».

Kosinski se cuida de no afirmar que los LLM dominen por completo la teoría de la mente… todavía. En sus experimentos presentó algunos problemas clásicos a los chatbots, algunos de los cuales resolvieron muy bien. Pero incluso el modelo más sofisticado, GPT-4, falló una cuarta parte de las veces. Los éxitos, escribe, sitúan a GPT-4 al nivel de niños de 6 años. «Observando el rápido progreso de la IA, muchos se preguntan si la IA podría alcanzar la teoría de la mente o la conciencia, y cuándo», escribe. Dejando a un lado esa palabra con «c» radiactiva, hay mucho que masticar.

«Si la teoría de la mente surgió de forma espontánea en esos modelos, también pueden surgir otras habilidades a continuación», me dice. «Pueden ser mejores educándonos, influyéndonos y manipulándonos gracias a esas habilidades». Le preocupa que no estemos realmente preparados para las IA que entienden la forma de pensar de los humanos. Sobre todo si llegan al punto de entender a los humanos mejor que ellos mismos.

«Los humanos no simulamos la personalidad, la tenemos «, afirma, “así que estoy atrapado en mi personalidad. Estas cosas modelan la personalidad”. Cuando le digo a Kosinski que suena como si estuviera describiendo a un sociópata, se ilumina. «Un sociópata puede ponerse una máscara: en realidad no está triste, pero puede hacerse pasar por una persona triste». Este poder camaleónico podría convertir a la IA en un estafador superior. Con cero remordimientos.

Cómo nació Perplexity, el poderoso buscador IA que quiere el negocio de Google
Aravind Srinivas creció en la misma ciudad que Sundar Pichai y desarrolló una obsesión por la empresa mucho antes de lanzar su propia startup de búsqueda por IA.
Algunos psicólogos investigadores han cuestionado las afirmaciones de Kosinski. En respuesta a un preprint que Kosinski había publicado en Arxiv a principios de 2023, un grupo de investigadores de IA escribió un artículo sugiriendo que en realidad estaba observando a un «Clever Hans», en referencia a ese famoso caballo de principios del siglo XX por el que la gente fue engañada. El caballo (o mejor, su dueño) les hacía creer que podía hacer matemáticas y seguir un calendario. Según Vered Shwartz, profesor adjunto de informática en la Universidad de Columbia Británica y uno de los coautores del estudio, «los LLM pueden tener cierta capacidad de razonamiento, pero no es completa ni robusta como la de los humanos». «Hicimos muchas pruebas distintas, y desde luego no podemos afirmar que los modelos lingüísticos tengan la misma capacidad [de teoría de la mente] que las personas. Y podría ser que simplemente hicieran trampas».
Shwartz se refiere al hecho de que, dado que los LLM se entrenan con enormes corpus de información, algunos de ellos contienen inevitablemente artículos académicos publicados en los que se discuten experimentos similares a los que realizó Kosinski. GPT-4 podría haber recurrido a su vasto material de formación para encontrar las respuestas. El escéptico en jefe de AI, Gary Marcus, descubrió que las pruebas que utilizó Kosinski también se emplearon en experimentos clásicos que habían sido citados en artículos científicos más de 11.000 veces. Es como si los LLM hubieran memorizado información para fingir tener teoría de la mente. Para mí, dicho sea de paso, este atajo a sangre fría hacia la cognición, de ser cierto, es aún más aterrador que los LLM adquiriendo teoría de la mente de forma emergente).
Kosinski afirma que el trabajo realizado para esta última versión del artículo aborda esas críticas. Además, recientemente se han publicado otros artículos que parecen reforzar sus afirmaciones, incluido uno en Nature Human Behavior en el que se constata que tanto GPT-3.5 como el GPT-4, aunque no tienen éxito en todas las tareas de teoría de la mente, «muestran un rendimiento impresionante» en algunas de ellas y «superan el nivel humano» en otras. En un correo electrónico, el autor principal, James Strachan, investigador postdoctoral del Centro Médico Universitario de Hamburgo-Eppendorf, no afirma que los LLM dominen por completo la teoría de la mente, pero afirma que su equipo refutó la acusación de hacer trampas. «Parece que estas habilidades van más allá de simplemente regurgitar los datos utilizados para entrenar a los LLM», afirma, y que «es posible reconstruir una gran cantidad de información sobre los estados mentales humanos a partir de las estadísticas del lenguaje natural».
Soy agnóstico sobre si los LLM lograrán una verdadera teoría de la mente. Lo que importa es si se comportan como si tuvieran esa capacidad, y sin duda están en camino de conseguirlo. Incluso Shwartz, que rechazó algunos de los métodos de Kosinski, admite que es posible. «Si las empresas siguen perfeccionando los modelos lingüísticos, quizá en algún momento lleguen a tener [teoría de la mente]», afirma.
Por eso merece la pena escuchar a Kosinski, a pesar de las duras críticas a su trabajo. Atendamos la conclusión de su artículo: «es poco probable que la Teoría de la Mente sea la cúspide de lo que las redes neuronales pueden lograr en este universo», escribe. “Puede que pronto estemos rodeados de sistemas de IA equipados con capacidades cognitivas que nosotros, los humanos, ni siquiera podemos imaginar.”
Artículo publicado originalmente en WIRED, adaptado por Manuel de León.

Deja un Comentario

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí