Właściwie bardzo podobał mi się ten artykuł. Na jednym poziomie te modele są już ogólne, ponieważ można zadać im prawie każde pytanie lub zadanie, a one mogą coś z tym zrobić. Ale problem nie polega na tym, że modele nie są "ogólne", lecz na tym, że Turing się mylił co do tego, czym właściwie jest ogólna inteligencja i co to oznacza. Gra w naśladownictwo była błędna. Naśladownictwo to nie inteligencja. Inteligencja jest znacznie głębsza i bardziej złożona. Największymi problemami dzisiaj są modele, które nie uczą się na błędach i nie są spójne. Nie mają teorii umysłu. Mogą coś zrobić w jeden sposób dzisiaj, a to samo jutro w inny sposób. Naprawdę ogólne maszyny będą musiały mieć: 1) długoterminową pamięć 2) spójną teorię umysłu 3) spójne, niezawodne działanie w danej przestrzeni problemowej 4) spójne struktury przekonań, jakiś rodzaj "meta-wagi" 5) ciągłe uczenie się, które aktualizuje wagi 6) zdolność uczenia się na błędach i doświadczeniu Dopóki tego nie mamy, nie mamy maszyny, na której naprawdę możemy polegać ani czegoś, co spełnia prawdziwą definicję inteligencji. Jeszcze raz, naśladownictwo to nie inteligencja.