Humai Blog
  • Publicado el
    Desde finales de 2024, se debate intensamente si el progreso de los modelos de lenguaje de IA alcanzará una “pared” que no podrá derribarse simplemente aumentando la cantidad de datos, cómputo y el tamaño del modelo. Sin embargo, la clave parece estar en aumento del cómputo en tiempo de inferencia, como ha comenzado a implementarse en modelos como o1 y o3 de OpenAI. Nos preguntamos, ¿existe realmente una pared para el progreso de la IA? ¿En qué consiste la nueva estrategia de escalado basada en hacer que los modelos "piensen" en lugar de simplemente aumentar su tamaño?
  • Publicado el
    DeepSeek ha demostrado que es posible desarrollar modelos de IA eficientes con menos recursos, pero sigue dependiendo de hardware de alto rendimiento, dominado por fabricantes estadounidenses como Nvidia. En respuesta a este avance, EE.UU. ha redoblado sus esfuerzos para restringir el acceso de China a chips avanzados, endureciendo los controles de exportación con el objetivo de frenar el progreso de la IA en su principal rival geopolítico. En este artículo, exploramos el impacto de la ballena DeepSeek.