Konyol kami memecahkan Videogen dengan melemparkan semuanya ke dalam transformator. Semua bias induktif yang bagus untuk teks tidak benar-benar mengikuti dalam video: Anda melakukan perhatian di antara tambalan piksel di seluruh ruang dan waktu? namun itu bekerja dengan sangat baik
Tanggapan umum adalah bahwa model hanya ingin belajar dan transformator adalah hal yang kita tahu cara menskalakan dengan sangat baik. Tapi ini menimbulkan pertanyaan mengapa transformator adalah satu-satunya hal yang kita tahu cara menskalakan? Ini bukan hanya biaya tenggelam
29,78K