Entretien avec un ancien employé de $ORCL sur le paysage de l'IA et l'avenir de Neocloud : - L'expert souligne un changement significatif dans l'offre cloud de $ORCL, OCI offrant désormais en moyenne 66 % d'économies sur les coûts de calcul par rapport à d'autres partenaires hyperscale, se positionnant pour une croissance rapide malgré son historique de conception réseau médiocre. L'expert note que l'avantage stratégique clé d'OCI est son TCO prévisible et faible, le contrastant avec les coûts imprévisibles de concurrents comme $AMZN, $MSFT et $GOOGL, où les fonctionnalités multi-régionales et de DR peuvent entraîner des augmentations de prix inattendues de 30 % à 40 %. - Selon l'expert, les hyperscalers investissent massivement dans l'infrastructure GPU des centres de données, principalement pour permettre des modèles d'IA et des bases de données vectorielles pour l'utilisation des clients. Cependant, l'expert observe un déséquilibre financier significatif à court terme : les coûts d'investissement des hyperscalers sont actuellement plus élevés que les revenus générés par la facturation des clients, indiquant qu'ils ne sont pas encore pleinement monétisés. Ils anticipent qu'il faudra encore 2 à 3 ans aux hyperscalers pour récupérer leur investissement et atteindre un point de prix rentable. Cela est principalement dû au fait que l'industrie est encore au milieu du cycle de vie des GPU et qu'elle détermine encore les coûts opérationnels à long terme. - L'expert souligne que les néo-clouds émergents, tels que $CRWV et $NBIS, sont une phase temporaire entraînée par de sévères contraintes de capacité sur le marché, où la demande en IA dépasse l'offre de GPU, principalement de $NVDA. L'expert considère la demande actuelle élevée comme une "bulle IA" qui persistera pendant les trois à quatre prochaines années. - Il croit que l'architecture future se concentrera sur l'efficacité, en priorisant un budget CPU de 80 % avec seulement 10 % alloué à l'utilisation de GPU à la demande (pour des tâches comme l'inférence et le fine-tuning) et les 10 % restants pour la sécurité/la gouvernance. En fin de compte, une fois que les modèles d'IA deviendront très efficaces, le besoin de poursuivre constamment de grands clusters GPU diminuera, permettant à l'industrie de se concentrer sur des modèles de langage plus petits et affinés, entraînables au sein de la propre location cloud d'un client.