22.4 C
Pereira
martes, junio 25, 2024

Grandes modelos de inteligencia artificial rivalizan con humanos en tareas de ‘Teoría de la Mente’

Un reciente estudio ha revelado que los grandes modelos de lenguaje (LLM), como ChatGPT y Llama 2, pueden igualar e incluso superar a los humanos en ciertas tareas relacionadas con la ‘teoría de la mente’, un rasgo esencial de la inteligencia emocional y social que permite inferir las intenciones y estados mentales de otras personas.

La investigación, publicada en la revista Nature Human Behaviour y liderada por científicos del Centro Médico Universitario Hamburgo-Eppendorf en Alemania, examinó el rendimiento de los modelos de lenguaje ChatGPT-3.5 y GPT-4 de OpenAI, así como Llama 2 de Meta. Los resultados mostraron que estos modelos tienen un rendimiento comparable al de los humanos en tareas que evalúan la capacidad de seguir los estados mentales de los demás.

Resultados del Estudio

En el experimento participaron 1,907 humanos y se compararon sus capacidades con las de los modelos de lenguaje en diversas pruebas de teoría de la mente, que incluían la identificación de peticiones indirectas, falsas creencias, comprensión de la ironía y detección de pasos en falso.

  • ChatGPT y GPT-4: Estos modelos de OpenAI se situaron en la media humana o la superaron en la identificación de peticiones indirectas, falsas creencias y desorientación.
  • Llama 2: Superó a los humanos en la detección de pasos en falso, aunque los autores del estudio sugieren que esto se debió más a un sesgo en el modelo que a una verdadera sensibilidad a los pasos en falso.

Contexto y Repercusiones

La teoría de la mente es crucial para la interacción social humana, la comunicación y la empatía. Tradicionalmente, se ha considerado una capacidad exclusivamente humana. Sin embargo, este estudio sugiere que los modelos de lenguaje avanzados pueden desempeñar tareas que requieren esta capacidad a niveles comparables a los humanos.

«En el núcleo de lo que nos define como humanos está el concepto de teoría de la mente: la capacidad de seguir los estados mentales de otras personas», explican los autores en su artículo. Este hallazgo genera un debate intenso sobre si los LLM pueden mostrar comportamientos indistinguibles de los humanos en tareas de teoría de la mente.

Precauciones y Advertencias

A pesar de los resultados prometedores, los investigadores advierten que el rendimiento similar al de los humanos de los LLM en estas tareas no implica que posean una teoría de la mente humana. «El hecho de que los LLM muestren un rendimiento similar al de los humanos en estas tareas no equivale a capacidades similares a las de los humanos y no significa que posean una teoría de la mente», aclaran.

Futuras Investigaciones

Los hallazgos de este estudio establecen una base importante para futuras investigaciones. Los científicos planean examinar cómo el rendimiento de los LLM en inferencias mentales puede influir en la cognición de los individuos durante las interacciones hombre-máquina. Esto podría tener implicaciones significativas para el desarrollo de la inteligencia artificial y su integración en la vida cotidiana.

El avance de los LLM en tareas de teoría de la mente plantea preguntas importantes sobre el futuro de la interacción entre humanos y máquinas, así como sobre los límites de la inteligencia artificial en replicar aspectos complejos de la cognición humana.

SUSCRÍBETE A NUESTRO BOLETÍN INFORMATIVO

Para estar bien informado, recibe en tu correo noticias e información relevante.

 
- Publicidad -

Para estar informado

- Advertisement -
- Publicidad -
- publicidad -