Na verdade, gostei muito deste artigo. A um nível, estes modelos já são gerais, na medida em que você pode lançar praticamente qualquer pergunta ou tarefa para eles e eles conseguem fazer algo com isso. Mas o problema não é que os modelos não são "gerais", é que Turing estava errado sobre o que a inteligência geral realmente é e o que significa. O jogo da imitação estava errado. Imitação não é inteligência. Inteligência é muito mais profunda e mais sutil. Os maiores problemas hoje são que os modelos não aprendem com os erros e não são consistentes. Eles não têm uma teoria da mente. Eles podem fazer algo de uma maneira hoje e a mesma coisa de forma diferente amanhã. Máquinas verdadeiramente gerais precisarão ter: 1) memória de longo prazo 2) uma teoria da mente consistente 3) ação consistente e confiável em um determinado espaço de problemas 4) Estruturas de crença centrais consistentes, algum tipo de "meta-peso" 5) aprendizado contínuo que atualiza pesos 6) a capacidade de aprender com erros e experiências Até que tenhamos isso, não temos uma máquina na qual realmente possamos confiar ou algo que atenda à verdadeira definição de inteligência. Novamente, imitação não é inteligência.