Na verdade, gostei muito deste artigo. Em certo nível, esses modelos já são gerais, no sentido de que você pode colocar praticamente qualquer pergunta ou tarefa para eles e eles podem fazer algo com isso. Mas o problema não é que os modelos não sejam "gerais", é que Turing estava errado sobre o que inteligência geral realmente é e o que ela significa. O jogo da imitação estava errado. Imitação não é inteligência. A inteligência é muito mais profunda e nuançada. Os maiores problemas hoje são que os modelos não aprendem com os erros e não são consistentes. Eles não têm teoria da mente. Eles podem fazer algo de um jeito hoje e exatamente a mesma coisa diferente amanhã. Máquinas verdadeiramente gerais precisarão ter: 1) memória de longo prazo 2) uma teoria consistente da mente 3) ação consistente e confiável em um dado espaço de problemas 4) Estruturas de crença centrais consistentes, algum tipo de "meta-peso" 5) aprendizado contínuo que atualiza os peso 6) a capacidade de aprender com erros e experiências Até termos isso, não temos uma máquina em que realmente possamos confiar ou algo que atenda à verdadeira definição de inteligência. Novamente, imitação não é inteligência.