En un sorprendente avance, modelos de inteligencia artificial como ChatGPT y Llama 2 están demostrando un rendimiento equiparable o incluso superior al humano en pruebas diseñadas para evaluar la capacidad de inferir estados mentales. Este hito desafía las concepciones previas sobre las habilidades exclusivamente humanas en áreas como la inteligencia emocional y social.
La capacidad de inferir las intenciones y estados mentales de otras personas, conocida como teoría de la mente, ha sido considerada durante mucho tiempo como un rasgo distintivo de la inteligencia humana. Sin embargo, un estudio reciente, publicado en la revista Nature Human Behaviour y liderado por investigadores del Centro Médico Universitario Hamburgo-Eppendorf (Alemania), revela que modelos de lenguaje de inteligencia artificial como ChatGPT-3.5 y GPT-4 de OpenAI, así como Llama 2 de Meta, están desafiando estas percepciones.
La investigación se centró en una serie de pruebas diseñadas para evaluar diferentes aspectos de la teoría de la mente, incluida la capacidad de inferir intenciones a partir de insinuaciones, el reconocimiento de pasos en falso, la comprensión de la ironía y el reconocimiento de falsas creencias. Los resultados revelaron que los modelos de lenguaje de inteligencia artificial, en particular los modelos GPT, exhibieron un rendimiento similar o incluso superior al humano en varias de estas pruebas.
Por ejemplo, en la tarea de insinuación, diseñada para medir la capacidad de deducir las verdaderas intenciones a partir de comentarios indirectos, los modelos GPT se situaron en la media humana o incluso por encima de ella. Además, en la detección de pasos en falso, los modelos Llama 2 superaron a los humanos, aunque los autores sugieren que este éxito puede deberse más a un sesgo que a una verdadera sensibilidad a los pasos en falso.
Estos hallazgos sugieren que los modelos de lenguaje de inteligencia artificial están comenzando a emular algunas de las capacidades cognitivas asociadas tradicionalmente con la inteligencia humana. Sin embargo, los autores advierten que el rendimiento similar en estas pruebas no equivale necesariamente a una comprensión completa de la teoría de la mente por parte de los modelos de inteligencia artificial.
A pesar de estas cautelas, los resultados del estudio tienen importantes implicaciones para el futuro de la inteligencia artificial y las interacciones hombre-máquina. Podrían allanar el camino para una mayor comprensión de cómo el rendimiento de los modelos de lenguaje en la inferencia de estados mentales puede influir en la cognición de los individuos en entornos de interacción hombre-máquina, abriendo nuevas oportunidades para la investigación y el desarrollo en este campo emocionante y en evolución.