Entrevista con un antiguo empleado de $ORCL sobre el panorama de la IA y el futuro de Neocloud: - Expert destaca un cambio significativo en la oferta de $ORCL cloud, OCI ahora ofrece un ahorro medio del 66% en costes de cómputo en comparación con otros socios hiperescalados, posicionándose para un rápido crecimiento a pesar de su históricamente deficiente diseño de red. El experto señala que la principal ventaja estratégica de OCI es su previsible y bajo TCO, en contraste con los costes impredecibles de competidores como $AMZN, $MSFT y $GOOGL, donde las características multirregional y de recuperación reducida pueden provocar aumentos inesperados de precios del 30%–40%. - Según el experto, los hiperescaladores están invirtiendo masivamente en la infraestructura de GPU de centros de datos, principalmente para habilitar modelos de IA y bases de datos vectoriales para uso de los clientes. Sin embargo, el experto observa un desequilibrio financiero significativo a corto plazo: los costes de inversión de los hiperescaladores son actualmente superiores a los ingresos generados por la facturación de clientes, lo que indica que aún no están completamente monetizados. Anticipan que tardarán entre 2 y 3 años en que los hiperescaladores recuperen su inversión y alcancen un precio rentable. Esto se debe principalmente a que la industria aún está en medio del ciclo de vida de la GPU y sigue determinando los costes operativos a largo plazo. - El experto enfatiza que las neonubes emergentes, como $CRWV y $NBIS, son una fase temporal impulsada por severas limitaciones de capacidad en el mercado, donde la demanda de IA supera la oferta de GPU, principalmente de $NVDA. El experto considera la actual alta demanda como una "burbuja de IA" que persistirá durante los próximos tres o cuatro años. - Cree que la arquitectura futura se centrará en la eficiencia, priorizando un presupuesto de CPU del 80%, con solo un 10% destinado al uso bajo demanda de GPU (para tareas como inferencia y ajuste fino) y el 10% restante para seguridad/gobernanza. En última instancia, una vez que los modelos de IA sean altamente eficientes, la necesidad de perseguir constantemente grandes clústeres de GPU disminuirá, permitiendo a la industria centrarse en modelos de lenguaje más pequeños y afinados, entrenables dentro de la propia nube del cliente.