¿Puede el ChatGPT entender las emociones humanas? Esto dice un nuevo estudio
Las herramientas de inteligencia artificial, como el ChatGPT, siguen asombrando con sus capacidades, y un nuevo estudio asegura que el chatbot es capaz de ser empático con su interlocutor.
Imagen referencial de 'Wehead', un asistente virtual que usa el sistema chatGTP, mostrado en una feria tecnológica, el 8 de enero de 2024.
AFP
Autor:
Actualizada:
Compartir:
Por Manuel G. Pascual
Una de las habilidades que definen al ser humano es su capacidad para inferir lo que están pensando las personas. Esa lectura entre líneas, la capacidad de figurarse qué piensan quienes nos rodean es una de las bases sobre las que se sustentan las relaciones sociales. ¿Pueden herramientas de inteligencia artificial, como el ChatGPT, entender también las emociones de su interlocutor?
Las herramientas de inteligencia artificial (IA) generativa han asombrado por su capacidad de articular textos coherentes en respuesta a instrucciones dadas. Desde que en 2022 irrumpió ChatGPT, científicos y pensadores de todo el mundo debaten si estos sistemas son capaces de mostrar un comportamiento que les haga indistinguibles de las personas.
El resultado de la investigación, que se publicaron en la revista Nature Human Behaviour, es que estos modelos obtienen resultados iguales o mejores que las personas cuando se les plantea preguntas que implican ponerse en la mente del interlocutor.
“Los modelos generativos muestran un rendimiento que es característico de las capacidades sofisticadas de toma de decisiones y razonamiento, incluida la resolución de tareas ampliamente utilizadas para probar la teoría de la mente en los seres humanos”, sostienen los autores.
¿Qué concluyó el nuevo estudio?
Los autores han usado en su estudio dos versiones de ChatGPT (la gratuita, 3.5, y la avanzada, 4) y el modelo de código abierto de Meta, Llama 2.
Han sometido estas tres herramientas a una batería de experimentos que tratan de medir diferentes habilidades relacionadas con la teoría de la mente.
Desde captar la ironía hasta interpretar peticiones indirectas (como en el caso de la ventana), detectar conversaciones en las que una de las partes dice algo inapropiado o responder a preguntas sobre situaciones en las que falta información y, por tanto, hay que especular.
Paralelamente, expusieron a 1.907 individuos a las mismas pruebas y contrastaron los resultados.
El artículo concluye que ChatGPT-4 iguala o mejora la puntuación de los humanos en las pruebas relativas a la identificación de peticiones indirectas, falsas creencias y desorientación, pero tiene dificultades para detectar los llamados pasos en falso.
Curiosamente, este es el único terreno en el que Llama 2 supera a las personas, aunque su éxito es ilusorio.
“Estos resultados no solo demuestran que los LLM muestran un comportamiento coherente con los resultados de la inferencia mentalista en humanos, sino que también destacan la importancia de realizar pruebas sistemáticas para garantizar una comparación no superficial entre inteligencias humanas y artificiales”, razonan los autores del reporte.
Pero no todos opinan igual. Ramon López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del Centro Superior de Investigaciones Científicas (CSIC) y uno de los pioneros de la materia en España, se muestra escéptico con los resultados del estudio.
“El gran problema de la IA actual es que los tests para medir su rendimiento no son fiables. Que la IA se compare o supere a los humanos en una comparativa de rendimiento que se llama como una habilidad general no es lo mismo que la IA supere a los humanos en esa habilidad general”, subraya.
Es decir, según explica López, no porque una herramienta saque buena nota en una prueba diseñada para medir el desempeño en comprensión lectora se puede decir que eso demuestra que la herramienta tiene comprensión lectora.
*Artículo publicado el 20 de mayo de 2024 en El País, de PRISA MEDIA. Lea el contenido completo aquí. PRIMICIAS reproduce este contenido con autorización de PRISA MEDIA.
Compartir: