Rozhovor s bývalým zaměstnancem $ORCL o oblasti AI a budoucnosti Neocloudu: - Expert zdůrazňuje významnou změnu v cloudové nabídce $ORCL, OCI nyní poskytuje průměrnou úsporu výpočetních nákladů 66 % ve srovnání s jinými hyperscale partnery, což ji připravuje na rychlý růst navzdory historicky špatnému návrhu sítě. Odborník poznamenává, že klíčovou strategickou výhodou OCI je její předvídatelný a nízký TCO, což kontrastuje s nepředvídatelnými náklady konkurentů jako $AMZN, $MSFT a $GOOGL, kde multi-regionové a DR funkce mohou vést k neočekávanému zvýšení cen o 30–40 %. - Podle odborníka hyperscaleři masivně investují do infrastruktury GPU datových center, především proto, aby umožnili AI modely a vektorové databáze pro potřeby zákazníků. Odborník však pozoruje významnou krátkodobou finanční nerovnováhu: investiční náklady hyperscalerů jsou v současnosti vyšší než příjmy generované z fakturace zákazníkům, což naznačuje, že ještě nejsou plně monetizovány. Očekávají, že hyperscaleři budou trvat příští 2 až 3 roky, než se investice vrátí a dosáhnou výhodné cenové hladiny. Je to hlavně proto, že průmysl je stále uprostřed životního cyklu GPU a stále určuje dlouhodobé provozní náklady. - Expert zdůrazňuje, že vznikající neocloudy, jako $CRWV a $NBIS, jsou dočasnou fází způsobenou vážnými kapacitními omezeními na trhu, kde poptávka po AI převyšuje nabídku GPU, především ze $NVDA. Odborník vnímá současnou vysokou poptávku jako "bublinu umělé inteligence", která přetrvá následující tři až čtyři roky. - Věří, že budoucí architektura se zaměří na efektivitu, přičemž 80 % bude mít rozpočet CPU, přičemž pouze 10 % bude vyhrazeno pro on-demand využití GPU (pro úkoly jako inference a jemné ladění) a zbývajících 10 % na bezpečnost/governance. Nakonec, jakmile se AI modely stanou vysoce efektivními, potřeba neustálého honby za velkými GPU clustery se sníží, což umožní průmyslu zaměřit se na menší, jemně vyladěné jazykové modely, které lze trénovat v rámci cloudového nájemného systému zákazníka.