Współzałożyciele @flappyairplanes nazywają obecny paradygmat RL dla treningu modeli "bałaganem środowiskowym." Wyjaśniają: "Paradygmaty wzmocnienia dzisiaj są szokująco nieefektywne. Nie uzyskujesz zbyt wiele uogólnienia w różnych zadaniach, uczysz modelu przez jeden rodzaj uczenia, a potem uczysz go następnego. To trochę jak gra w bijaka. Patrzymy na to i myślimy, że to trochę szalone. Następny paradygmat AI nie będzie bałaganem środowiskowym." "Inteligencja na poziomie ludzkim nie jest sufitem, to jedynie podłoga tego, co jest możliwe. Jeśli możesz trenować modele z znacznie mniejszą ilością danych i być może większą mocą obliczeniową w bardzo różnych sposób, co się stanie? Tak naprawdę nie wiemy. Ale myślę, że będą inne i dziwne, i będą miały interesujące możliwości, które znajdziemy w naprawdę wartościowych sposobach wykorzystania."