El modelo de IA tiene como objetivo predecir el comportamiento humano

La inteligencia artificial (IA), en forma de modelos lingüísticos, parece ser cada vez más capaz de replicar el comportamiento humano. Pero ¿son estos modelos de IA también capaces de predecir decisiones humanas? Un equipo internacional de investigación del Instituto de IA Centrada en el Ser Humano del Helmholtz Zentrum München se propuso determinarlo y desarrolló el nuevo modelo lingüístico Centaur.
El equipo utilizó como base un modelo de lenguaje de código abierto de Meta AI. Posteriormente, los investigadores programaron la IA Centaur con datos de 160 experimentos psicológicos. Alrededor de 60.000 sujetos de prueba recibieron tareas como clasificar objetos o tomar decisiones en juegos de azar.
Diez millones de decisiones como entrenamiento de IAEn total, el conjunto de datos de Centaur contiene más de diez millones de decisiones. La IA se entrenó con el 90 % de los datos de resultados. Los resultados del 10 % restante permanecieron desconocidos. Los investigadores utilizaron estos datos para probar su nuevo modelo de lenguaje: ¿Sería Centaur capaz de predecir el comportamiento de los sujetos de prueba?
El resultado: El modelo de IA logró predecir las decisiones reales con una precisión de hasta el 64 %. Cenatur continuó obteniendo buenos resultados incluso con ligeras modificaciones en la configuración experimental, es decir, cuando se le pidió que hiciera predicciones sobre situaciones para las que no había sido entrenado específicamente.

La novedad de Centaur es que la IA puede aplicarse a datos de comportamiento, afirma Clemens Stachl, director del Instituto de Ciencias del Comportamiento y Tecnología de la Universidad de St. Gallen. «Esto se logró traduciendo al lenguaje los resultados de experimentos clásicos de toma de decisiones».
Los modelos de IA como Centaur también podrían aplicarse más allá de las ciencias sociales y del comportamiento, afirma Stachl. «Por ejemplo, donde sea necesario analizar y predecir el comportamiento humano, como en el ámbito comercial, la educación o el ejército».
El científico del comportamiento considera que la aplicación práctica es obvia, dado que este tipo de modelos de IA fueron desarrollados por la industria. Centaur, por ejemplo, utiliza la arquitectura básica de Google y la base preentrenada de Meta.
Podemos suponer que las grandes empresas tecnológicas ya utilizan modelos similares para predecir nuestro comportamiento y preferencias en la toma de decisiones, por ejemplo, al comprar en línea o en las redes sociales.
Stachl cita como ejemplos el modelo de lenguaje ChatGPT y la plataforma de redes sociales TikTok. «Estos modelos se han vuelto muy eficaces. Consideremos, por ejemplo, la eficacia con la que TikTok sugiere vídeos para mantener a los usuarios en la aplicación el mayor tiempo posible».

Otros expertos creen que pasará algún tiempo antes de que aplicaciones de IA como Centaur se utilicen fuera de los laboratorios.
Las pruebas psicológicas utilizadas para entrenar la IA cubrieron solo una pequeña parte del comportamiento humano, afirma Markus Langer, director del Departamento de Psicología Industrial y Organizacional de la Universidad de Friburgo. «Eso no dice mucho sobre la predicción del comportamiento humano 'natural' o 'cotidiano'».
Considera que el principal riesgo de este tipo de investigación es que los resultados se sobreinterpreten, como: "¡Guau! Ahora por fin podemos predecir el comportamiento humano con precisión". Esto simplemente no es así todavía, afirma Langer. Cabe preguntarse también si la precisión de las predicciones de Centaur, cercana al 64 %, puede considerarse realmente "buena".
¿Debería la IA ser capaz de interpretar el comportamiento humano?El modelo Centauro y los resultados del estudio deben entenderse principalmente como una contribución a la investigación básica, afirma el científico del comportamiento Stachl. Modelos de este tipo podrían, en principio, ayudar a resolver desafíos sociales complejos, por ejemplo, en el sector sanitario.
«Sin embargo, al mismo tiempo, existe el riesgo de que nos vuelvan cada vez más predecibles y nos conduzcan a una forma de dependencia digital o incluso de 'esclavitud digital'», continuó Stachl, añadiendo que nuestro consumo diario de medios y el uso de tecnologías digitales generan nuevos datos de comportamiento a diario, lo que contribuye a la mejora de dichos modelos.
Para el científico del comportamiento, cómo abordar esta tecnología es una pregunta que "nuestra sociedad en su conjunto debe responder. En este sentido, la ciencia, pero especialmente los abogados y los responsables políticos, se enfrentarán a mayores desafíos en el futuro".
dw