I LLM non diventeranno mai AGI—sono intrinsecamente vulnerabili agli exploit di iniezione di prompt, non possono fare ragionamenti astratti e, forse cosa più importante, sono scadenti nella generalizzazione: @skdh spiega perché queste tre sono limitazioni difficili da superare: