Es poco probable que los LLM se conviertan en AGI: son inherentemente vulnerables a los exploits de inyección rápida, no pueden hacer un razonamiento abstracto y, quizás lo más importante, son pésimos para generalizar: @skdh explica por qué estas tres son limitaciones difíciles de descifrar: