Wywiad z byłym pracownikiem $ORCL na temat krajobrazu AI i przyszłości Neocloud: - Ekspert podkreśla znaczną zmianę w ofercie chmurowej $ORCL, OCI teraz zapewnia średnio 66% oszczędności kosztów obliczeniowych w porównaniu do innych partnerów hiperskalowych, co pozycjonuje go do szybkiego wzrostu pomimo historycznie słabego projektu sieci. Ekspert zauważa, że kluczową strategiczną przewagą OCI jest jego przewidywalny i niski TCO, w przeciwieństwie do nieprzewidywalnych kosztów konkurentów takich jak $AMZN, $MSFT i $GOOGL, gdzie funkcje wieloregionowe i DR mogą prowadzić do nieoczekiwanych wzrostów cen o 30%–40%. - Według eksperta, hiperskalowcy masowo inwestują w infrastrukturę GPU centrów danych, głównie w celu umożliwienia modeli AI i baz danych wektorowych do użytku klientów. Jednak ekspert zauważa znaczną krótkoterminową nierównowagę finansową: koszty inwestycji hiperskalowców są obecnie wyższe niż przychody generowane z fakturowania klientów, co wskazuje, że nie są jeszcze w pełni zmonetyzowane. Przewidują, że zajmie to następne 2 do 3 lat, aby hiperskalowcy odzyskali swoją inwestycję i osiągnęli opłacalny punkt cenowy. Dzieje się tak głównie dlatego, że branża wciąż znajduje się w środku cyklu życia GPU i nadal określa długoterminowe koszty operacyjne. - Ekspert podkreśla, że pojawiające się neochmury, takie jak $CRWV i $NBIS, są tymczasową fazą napędzaną poważnymi ograniczeniami pojemności na rynku, gdzie popyt na AI przewyższa podaż GPU, głównie od $NVDA. Ekspert postrzega obecny wysoki popyt jako "bańkę AI", która będzie się utrzymywać przez następne trzy do czterech lat. - Uważa, że przyszła architektura skupi się na efektywności, priorytetując 80% budżetu CPU, zaledwie 10% przeznaczone na użycie GPU na żądanie (do zadań takich jak wnioskowanie i dostrajanie) oraz pozostałe 10% na bezpieczeństwo/zarządzanie. Ostatecznie, gdy modele AI staną się wysoce efektywne, potrzeba ciągłego ścigania się za dużymi klastrami GPU zmniejszy się, co pozwoli branży skupić się na mniejszych, dostosowanych modelach językowych, które można trenować w ramach własnej dzierżawy chmurowej klienta.