Colapso de modelos de IA generativa: un riesgo muy real

En este artículo, exploro el concepto del colapso de modelos en la inteligencia artificial, un fenómeno que puede ocurrir cuando los modelos se entrenan principalmente con datos sintéticos, lo que podría degradar su rendimiento con el tiempo. A través de ejemplos y analogías, se destaca la import...

José M. Alarcón
José M. Alarcón
Gallego de Vigo, amante de la tecnología, la música y la lectura. Ingeniero industrial y empresario. Autor artículos y libros desde 1996. YouTuber. Inversor.
Colapso de modelos de IA generativa: un riesgo muy real

OpenAI planea lanzar su próximo gran modelo de IA llamado Orion, que se espera para finales de año, con el objetivo de abordar problemas que están más allá del alcance de los modelos actuales.

Los puntos clave de lo que se sabe:

  • Razonamiento a nivel humano: el modelo está diseñado para ampliar los límites del "razonamiento" actual de este tipo de LLMs, lo que podría revolucionar tareas como el soporte o las experiencias personalizadas de los clientes, organización de proyectos o de logística, etc...
  • Nuevas capacidades avanzadas: Strawberry será capaz de realizar ciertas de tareas complejas que ahora no es capaz de resolver, como problemas matemáticos novedosos. Hay que tener en cuenta que las tareas de la misma dificultad para los humanos pueden ser muy diferentes en dificultad para los LLMs, y no pensar en "círculos" concéntricos de capacidades, sino en capacidades discretas para tareas específicas, que es lo que se logra con ellos.

Como paso previo a su entrenamiento, la empresa desarrolló Strawberry, un modelo avanzado previo que están utilizando para generar datos sintéticos que sirvan para entrenar a Orion sin alucinaciones y de una forma más optimizada.

Los modelos grandes de lenguaje (LLMs) tradicionales se entrenan con datos del mundo real sacados de Internet. Dado su origen pueden estar sesgados, incompletos o sujetos a limitaciones de derechos de autor (esto cada vez va tomando más protagonismo). La generación de datos sintéticos de Strawberry ofrece una buena solución, al proporcionar un conjunto de datos diverso y controlado que ayuda a reducir errores como las "alucinaciones".

El problema de las vacas locas

¿Te acuerdas del grave problema que tuvimos con la enfermedad de las vacas locas hace un cuarto de siglo? Una de las causas era darle de comer pienso cuya composición eran... otras vacas. Los priones hicieron estragos en los cerebros de esos bovinos después de tantos años alimentándose de si mismas...

Pues con los modelos corremos el riesgo de llegar a lo mismo con lo que se conoce como colapso del modelo. Esto se produce cuando los modelos de IA entrenados fundamentalmente con datos sintéticos degradan su rendimiento y sus capacidades con el tiempo, volviéndose menos efectivos.

Otra forma de verlo es hacer el símil con cómo la diversidad genética limitada puede debilitar a una especie. Si Orion depende demasiado de datos sintéticos, quizá pueda ser menos efectivo que uno de los modelos entrenados con datos "salvajes" sacados de la Red.

OpenAI, que no son tontos, seguro que van a evitar que esto ocurra en el entrenamiento de Orion. Para ello seguro que van a incorporar también nuevos datos sacados del mundo real, utilizarán supervisión humana (como ya han hecho en modelos GPT anteriores) para afinar los procesos de aprendizaje, y usando técnicas "clásicas" como las pruebas adversariales para que el propio modelo se afine a si mismo en algunos escenarios.

De todos modos el concepto de colapso es interesante y es algo a tener muy en cuenta ahora que otros modelos, como Llama 3 de Meta, están orientados también a generar datos sintéticos para entrenamiento de otros modelos. Y me refiero a modelos "clásicos" de Machine Learning, no solo a LLMs, por lo que debemos tenerlo en cuenta todos.

Sígueme: