Співзасновники @flappyairplanes називають нинішню парадигму RL для навчання моделей «навколишньою помилкою». Вони пояснюють: «Парадигми підкріплення сьогодні шокуюче неефективні. Ви не отримуєте багато узагальнень між завданнями, ви навчаєте моделі через один тип навчання, а потім навчаєте її наступному. Це щось на кшталт «вдар крота». Ми дивимося на це і думаємо, що це трохи божевільно. Наступна парадигма ШІ не буде навколишньою проблемою.» "Інтелект людського рівня — це не стеля, це лише підлога можливого. Якщо ви зможете навчати моделі з набагато меншою кількістю даних і, можливо, більшою кількістю обчислень дуже різними способами, що ж станеться? Ми насправді не знаємо. Але я думаю, що вони будуть різними і дивними, і матимуть цікаві можливості, які ми знайдемо дуже цінні способи використання.»