Humai Blog
  • Publicado el
    Desde finales de 2024, se debate intensamente si el progreso de los modelos de lenguaje de IA alcanzará una “pared” que no podrá derribarse simplemente aumentando la cantidad de datos, cómputo y el tamaño del modelo. Sin embargo, la clave parece estar en aumento del cómputo en tiempo de inferencia, como ha comenzado a implementarse en modelos como o1 y o3 de OpenAI. Nos preguntamos, ¿existe realmente una pared para el progreso de la IA? ¿En qué consiste la nueva estrategia de escalado basada en hacer que los modelos "piensen" en lugar de simplemente aumentar su tamaño?
  • Publicado el
    El 30 de noviembre se cumplen 2 años del lanzamiento de ChatGPT, un evento que generó grandes ondas expansivas en el desarrollo tecnológico, la sociedad y la economía. En este espacio abierto donde no siempre es fácil (o tal vez siquiera posible) separar realidad de expectativas, este artículo aborda con una mirada reflexiva el impacto concreto y potencial de la IA generativa, haciendo un balance de los sucesos desde 2022 y revisando qué promesas se cumplieron, cuáles siguen en carrera para cumplirse y cuáles parecen haber quedado en el camino.