Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Interview mit einem ehemaligen $ORCL-Mitarbeiter über die KI-Landschaft und die Zukunft von Neocloud:
- Der Experte hebt einen signifikanten Wandel im Cloud-Angebot von $ORCL hervor, OCI bietet nun im Durchschnitt 66 % Einsparungen bei den Rechenkosten im Vergleich zu anderen Hyperscale-Partnern, was es trotz seines historisch schlechten Netzwerkdesigns für schnelles Wachstum positioniert. Der Experte merkt an, dass OCIs strategischer Vorteil in den vorhersehbaren und niedrigen TCO liegt, im Gegensatz zu den unvorhersehbaren Kosten von Wettbewerbern wie $AMZN, $MSFT und $GOOGL, bei denen Multi-Region- und DR-Funktionen zu unerwarteten Preiserhöhungen von 30 %–40 % führen können.
- Laut dem Experten investieren Hyperscaler massiv in die GPU-Infrastruktur von Rechenzentren, hauptsächlich um KI-Modelle und Vektordatenbanken für die Nutzung durch Kunden zu ermöglichen. Der Experte beobachtet jedoch ein erhebliches kurzfristiges finanzielles Ungleichgewicht: Die Investitionskosten der Hyperscaler sind derzeit höher als die Einnahmen aus der Kundenabrechnung, was darauf hindeutet, dass sie noch nicht vollständig monetarisiert sind. Sie erwarten, dass es 2 bis 3 Jahre dauern wird, bis die Hyperscaler ihre Investitionen zurückgewinnen und einen profitablen Preis erreichen. Dies liegt hauptsächlich daran, dass sich die Branche noch mitten im GPU-Lebenszyklus befindet und die langfristigen Betriebskosten noch bestimmt werden.
- Der Experte betont, dass die aufkommenden Neoclouds, wie $CRWV und $NBIS, eine vorübergehende Phase sind, die durch erhebliche Kapazitätsengpässe auf dem Markt getrieben wird, wo die Nachfrage nach KI das Angebot an GPUs, hauptsächlich von $NVDA, übersteigt. Der Experte sieht die derzeit hohe Nachfrage als eine "KI-Blase", die in den nächsten drei bis vier Jahren bestehen bleiben wird.
- Er glaubt, dass die zukünftige Architektur auf Effizienz ausgerichtet sein wird, wobei ein 80 % CPU-Budget priorisiert wird, während nur 10 % für die bedarfsorientierte GPU-Nutzung (für Aufgaben wie Inferenz und Feinabstimmung) und die verbleibenden 10 % für Sicherheit/Governance vorgesehen sind. Letztendlich, sobald KI-Modelle hochgradig effizient werden, wird die Notwendigkeit, ständig große GPU-Cluster zu verfolgen, abnehmen, was der Branche ermöglicht, sich auf kleinere, fein abgestimmte Sprachmodelle zu konzentrieren, die innerhalb der eigenen Cloud-Miete eines Kunden trainierbar sind.




Top
Ranking
Favoriten
