¿Puede la Inteligencia Artificial tener sentimientos?

Leonardo_Kino_XL_Create_a_hyperrealistic_8K_image_that_represe_1

¿Puede la Inteligencia Artificial tener sentimientos?

Un proyecto denominado ‘LOVE’, liderado por la Universidad de Granada (UGR), está trabajando en el diseño de una inteligencia artificial (IA) capaz de sentir, aprender y expresar emociones de forma autónoma. Este esfuerzo busca añadir una dimensión emocional a la IA, algo que hasta ahora ha estado ausente en las tecnologías que están transformando numerosos aspectos de nuestra vida diaria.

La investigación doctoral de Alberto Hernández Marcos, desarrollada en la UGR, aborda este desafío mediante la creación de un marco de autoaprendizaje emocional para agentes de IA. Este marco está diseñado para que los agentes puedan aprender y expresar patrones emocionales por sí mismos.

«Este avance representa un paso significativo hacia sistemas de IA más humanos y efectivos», afirmó Hernández Marcos, responsable del estudio LOVE, acrónimo de ‘Latest Observed Values Encoding’, que en español se traduce como ‘Codificación de los Últimos Valores Observados’.

Hernández Marcos explicó que, al intentar incorporar sentimientos en la tecnología, los modelos actuales suelen apoyarse en soluciones específicas y rígidas, lo que limita su capacidad para generalizar. Su investigación busca establecer una base científica sólida que explique cómo las emociones pueden surgir espontáneamente de las percepciones que los agentes artificiales tienen de su entorno. Además, pretende lograr una interpretación de estas emociones mediante un sistema que identifica las emociones aprendidas con patrones emocionales ya documentados.

El marco de trabajo combina principios de aprendizaje por refuerzo y aprendizaje no supervisado para analizar datos clave del entorno del agente, como recompensas recientes, expectativas futuras y estados anticipados.

Mediante una red neuronal entrenada con datos sin etiquetar, el sistema identifica patrones temporales que se asocian con emociones básicas. Esta red neuronal actúa como un codificador emocional, funcionando como un sistema límbico artificial para la IA, que genera emociones sintéticas durante su funcionamiento.

El proyecto LOVE también cuenta con la colaboración de la Facultad de Psicología de la UGR, que participó en uno de los experimentos para analizar las emociones cuando un agente de IA tuvo que alunizar una nave en un terreno rocoso.

Los resultados principales del experimento demostraron que el sistema es capaz de identificar emociones básicas al aprender patrones emocionales coherentes.

Estos avances tienen numerosas aplicaciones prácticas potenciales. El aprendizaje de emociones puede integrarse en robots sociales, asistentes conversacionales y sistemas educativos, mejorando su capacidad para adaptarse a las interacciones humanas.

El marco desarrollado no solo amplía la comprensión científica de cómo pueden surgir las emociones en sistemas artificiales, sino que también sienta las bases para nuevas aplicaciones prácticas en diversos campos.

Deja un Comentario

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí