De hecho, disfruté mucho este artículo. A un nivel, estos modelos ya son generales, en el sentido de que puedes lanzar casi cualquier pregunta o tarea y ellos pueden hacer algo con ello. Pero el problema no es que los modelos no sean "generales", es que Turing estaba equivocado sobre lo que realmente es la inteligencia general y lo que significa. El juego de imitación estaba equivocado. La imitación no es inteligencia. La inteligencia es mucho más profunda y matizada. Los mayores problemas hoy en día son que los modelos no aprenden de los errores y no son consistentes. No tienen una teoría de la mente. Pueden hacer algo de una manera hoy y exactamente la misma cosa de manera diferente mañana. Las máquinas verdaderamente generales necesitarán tener: 1) memoria a largo plazo 2) una teoría de la mente consistente 3) acción consistente y fiable en un espacio de problemas dado 4) estructuras de creencias centrales consistentes, algún tipo de "meta-peso" 5) aprendizaje continuo que actualiza los pesos 6) la capacidad de aprender de los errores y la experiencia Hasta que tengamos eso, no tenemos una máquina en la que realmente podamos confiar o algo que cumpla con la verdadera definición de inteligencia. De nuevo, la imitación no es inteligencia.