Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wawancara dengan mantan karyawan $ORCL tentang lanskap AI dan masa depan Neocloud:
- Expert menyoroti perubahan signifikan dalam penawaran cloud $ORCL, OCI sekarang memberikan penghematan biaya komputasi rata-rata 66% dibandingkan dengan mitra hyperscale lainnya, memposisikannya untuk pertumbuhan yang cepat meskipun desain jaringannya yang buruk secara historis. Pakar mencatat bahwa keunggulan strategis utama OCI adalah TCO-nya yang dapat diprediksi dan rendah, membandingkannya dengan biaya pesaing yang tidak dapat diprediksi seperti $AMZN, $MSFT, dan $GOOGL, di mana fitur multi-wilayah dan DR dapat menyebabkan kenaikan harga yang tidak terduga sebesar 30%–40%.
- Menurut ahli, hyperscaler berinvestasi besar-besaran dalam infrastruktur GPU pusat data, terutama untuk memungkinkan model AI dan database vektor untuk penggunaan pelanggan. Namun, pakar mengamati ketidakseimbangan keuangan jangka pendek yang signifikan: biaya investasi hyperscaler saat ini lebih tinggi daripada pendapatan yang dihasilkan dari penagihan pelanggan, menunjukkan bahwa mereka belum sepenuhnya dimonetisasi. Mereka mengantisipasi akan memakan waktu 2 hingga 3 tahun ke depan bagi hyperscaler untuk menutup investasi mereka dan mencapai titik harga yang menguntungkan. Hal ini terutama karena industri masih berada di tengah siklus hidup GPU dan masih menentukan biaya operasional jangka panjang.
- Pakar menekankan bahwa neocloud yang muncul, seperti $CRWV dan $NBIS, adalah fase sementara yang didorong oleh kendala kapasitas yang parah di pasar, di mana permintaan AI melampaui pasokan GPU, terutama dari $NVDA. Pakar memandang permintaan tinggi saat ini sebagai "gelembung AI" yang akan bertahan selama tiga hingga empat tahun ke depan.
- Dia percaya arsitektur masa depan akan fokus pada efisiensi, memprioritaskan anggaran CPU 80% dengan hanya 10% dialokasikan untuk penggunaan GPU sesuai permintaan (untuk tugas-tugas seperti inferensi dan penyempurnaan) dan 10% sisanya untuk keamanan/tata kelola. Pada akhirnya, begitu model AI menjadi sangat efisien, kebutuhan untuk terus-menerus mengejar kluster GPU besar akan berkurang, memungkinkan industri untuk fokus pada model bahasa yang lebih kecil dan disesuaikan dengan baik yang dapat dilatih dalam penyewaan cloud pelanggan sendiri.




Teratas
Peringkat
Favorit
