Hoàn toàn sai. Kích thước mô hình sẽ trở nên lớn hơn nhiều vào năm 2026 do sự phát triển quy mô lớn hơn trong các giá đỡ của Nvidia (và cả của Google TPU), từ B200 với 1,4 TB cho mỗi thế giới mở rộng 8 chip đến GB300 với 20 TB cho mỗi thế giới mở rộng.
expatanon
expatanon03:04 18 thg 3
Altman thừa nhận rằng các mô hình transformer đã gặp phải giới hạn. Hầu hết các cải tiến trong 9 tháng qua chủ yếu là do công cụ xung quanh mô hình chứ không phải bản thân các mô hình. Nói cách khác, công nghệ này đang phát triển nhanh chóng mà không có dấu hiệu của một bước nhảy vọt khác.
Các khoản đầu tư vào trung tâm dữ liệu gây ấn tượng trong năm 2024/2025 đang bắt đầu được đưa vào hoạt động, với phần cứng tốt hơn nhiều so với các mẫu thế hệ hiện tại được tối ưu hóa cho việc suy diễn.
106