Předpříprava se konečně zajímá. Hutter musí být šťastný.
Seungwook Han
Seungwook Han12. 3. 22:26
Mohou jazykové modely se naučit užitečné předpoklady, aniž by kdy viděly jazyk? Předtrénujeme transformátory na neuronových buněčných automatech — plně syntetických, bez jazyka. To zlepšuje jazykové modelování až o 6 %, urychluje konvergenci o 40 % a posiluje následné uvažování. Překvapivě to dokonce překoná předškolení na přirozeném textu! Blog: (1/n)
Tohle jsem (tak trochu) předpověděl Stále čekám, že ho nějaká velká laboratoř přijme
32