AI menjawab pertanyaan Anda dalam hitungan detik, tetapi di balik kecepatan itu ada sesuatu yang disebut inferensi—proses intensif komputasi di mana model terlatih menghasilkan respons. Di AWS, kami telah membangun chip khusus seperti Trainium, sistem perutean cerdas, dan infrastruktur terpadu untuk membuat inferensi lebih cepat dan lebih terjangkau. Karena agen AI menangani tugas multi-langkah yang kompleks, inferensi menyumbang 80-90% dari daya komputasi AI. Kami merekayasa pada skala planet untuk menjaga milidetik tersebut tetap dapat diandalkan.