xAI của Elon Musk vừa đạt được điều chưa từng có trong ngành AI. Colossus 2, siêu máy tính của xAI, hiện đã hoạt động với công suất một gigawatt, trở thành cụm đào tạo AI quy mô gigawatt đầu tiên trên thế giới. Để hình dung điều này, một gigawatt cung cấp năng lượng cho khoảng 750.000 hộ gia đình và vượt quá nhu cầu điện cao điểm của San Francisco. Cơ sở này sẽ nâng cấp lên 1,5 gigawatt vào tháng 4 và cuối cùng đạt tổng công suất 2 gigawatt, tiêu thụ nhiều năng lượng như hầu hết các thành phố lớn của Mỹ. Bên trong có khoảng 555.000 chip máy tính chuyên dụng gọi là GPU làm việc cùng nhau để đào tạo các mô hình AI.​​ Điều này quan trọng vì trong AI, cơ sở hạ tầng lớn hơn đồng nghĩa với AI thông minh hơn. Trí tuệ và khả năng của một mô hình AI tỷ lệ thuận với sức mạnh tính toán được sử dụng để đào tạo nó. Nhiều GPU và năng lượng cho phép các công ty đào tạo các mô hình lớn hơn, có khả năng hơn nhanh hơn. Lợi thế thực sự là tốc độ, Colossus 1 đã từ bùn đất trở thành hoạt động hoàn toàn chỉ trong 122 ngày. Trong khi các đối thủ như OpenAI và Google vẫn đang lên kế hoạch cho cơ sở hạ tầng năm 2026-2027, xAI đã hoạt động với mức tiêu thụ điện năng ở cấp độ thành phố ngay hôm nay. Ai đào tạo các mô hình AI nhanh nhất có thể lặp lại nhanh hơn và triển khai các phiên bản cải tiến trước khi các đối thủ bắt kịp.​ Quy mô thật đáng kinh ngạc. 555.000 GPU của xAI vượt xa ước tính 150.000 của Meta, khoảng 100.000 của Microsoft và cơ sở hạ tầng phân phối của Google. Cơ sở 2 GW dự kiến sẽ mạnh gấp khoảng 4 lần so với địa điểm đào tạo AI chuyên dụng lớn nhất tiếp theo. Công suất tính toán khổng lồ này sẽ đào tạo Grok, mô hình AI của xAI được tích hợp với hàng trăm triệu người dùng của X, cung cấp cả sức mạnh tính toán thô và phân phối tích hợp.​ ...