En la carrera por desarrollar una inteligencia artificial general (IAG), empresas como OpenAI y Meta están invirtiendo miles de millones de dólares en sistemas capaces de replicar el pensamiento humano.
Aunque todavía no existe una definición única y aceptada para la IAG, el concepto apunta a construir una inteligencia artificial tan versátil que pueda enfrentarse a múltiples tareas de manera similar a una persona.
Y aunque la IA actual ha demostrado habilidades sorprendentes —como vencer campeones de ajedrez o predecir estructuras proteicas—, aún está lejos de igualar a la mente humana en términos de razonamiento y comportamiento general.
Sin embargo, un equipo internacional de científicos ha desarrollado un nuevo sistema llamado Centaur, que podría acercarnos un poco más a esa meta. El proyecto, liderado por el científico cognitivo Marcel Binz desde el centro de investigación Helmholtz Múnich, busca explorar si un modelo de lenguaje similar a ChatGPT puede comportarse como un ser humano en experimentos psicológicos.
El sistema, cuyo nombre hace referencia al ser mitológico mitad humano, mitad caballo, fue entrenado para replicar las decisiones y comportamientos de voluntarios reales en más de 160 estudios psicológicos.
Estos experimentos, recopilados por Binz y su equipo, incluían tareas tan diversas como memorizar palabras, jugar con máquinas tragamonedas o pilotar una nave espacial virtual para encontrar tesoros.
A diferencia de los modelos clásicos, que suelen centrarse en una sola habilidad, Centaur fue diseñado para generalizar comportamientos humanos en múltiples contextos. “Queríamos ver si era posible imitar diferentes funciones mentales en un solo modelo, sin tener que diseñar una teoría desde cero para cada tarea”, explicó Binz.
Para lograrlo, los investigadores utilizaron el modelo LLaMA de código abierto creado por Meta, que permite ajustar su funcionamiento interno. Alimentaron al sistema con más de 10 millones de respuestas humanas y lo premiaron cada vez que sus elecciones se alineaban con las de los participantes reales.
El resultado fue un modelo que no solo imitaba patrones de respuesta, sino que también mostraba un razonamiento similar al humano ante nuevas situaciones.
Uno de los aspectos más notables del experimento fue la capacidad de transferencia de conocimiento de Centaur. Cuando se le presentaban nuevas versiones de los juegos —como reemplazar la nave espacial por una alfombra voladora—, el modelo conservaba la estrategia de búsqueda original, tal como lo haría una persona.
Además, cuando se le pidió resolver problemas de lógica que no estaban en su entrenamiento, Centaur replicó no solo los aciertos humanos, sino también sus errores más comunes.
Este comportamiento despertó el interés de varios expertos. Russ Poldrack, científico cognitivo de la Universidad de Stanford, calificó el modelo como “impresionante” y aseguró que es el primero en replicar tantas tareas con tanta fidelidad al comportamiento humano. Otro especialista, Ilia Sucholutsky, de la Universidad de Nueva York, destacó que Centaur supera ampliamente a los modelos cognitivos tradicionales.
Sin embargo, también surgieron críticas. Olivia Guest, de la Universidad Radboud en los Países Bajos, cuestionó que Centaur no esté basado en una teoría de la mente concreta. “Hacer predicciones no significa entender cómo funciona la mente”, señaló.
Una opinión similar expresó Gary Lupyan, de la Universidad de Wisconsin-Madison, quien aseguró que el objetivo de la ciencia cognitiva no es replicar comportamientos, sino comprender los mecanismos que los generan.
Binz reconoce estas limitaciones. Según él, Centaur no pretende ser una teoría definitiva del pensamiento humano, pero sí puede servir como plataforma para crear nuevas hipótesis y explorar cómo emergen ciertos patrones cognitivos. Actualmente, su equipo trabaja en quintuplicar la base de datos de experimentos para ampliar aún más las capacidades del modelo.
Mientras la inteligencia artificial avanza a pasos agigantados, sistemas como Centaur abren una puerta fascinante: utilizar la IA no solo como herramienta, sino como espejo para entender mejor la mente humana. Aunque todavía queda un largo camino hacia una verdadera IAG, cada paso como este nos permite ver con mayor claridad lo que nos hace humanos.