- Publicado el
Desde finales de 2024, se debate intensamente si el progreso de los modelos de lenguaje de IA alcanzará una “pared” que no podrá derribarse simplemente aumentando la cantidad de datos, cómputo y el tamaño del modelo. Sin embargo, la clave parece estar en aumento del cómputo en tiempo de inferencia, como ha comenzado a implementarse en modelos como o1 y o3 de OpenAI. Nos preguntamos, ¿existe realmente una pared para el progreso de la IA? ¿En qué consiste la nueva estrategia de escalado basada en hacer que los modelos "piensen" en lugar de simplemente aumentar su tamaño?