LLM-y prawdopodobnie nigdy nie staną się AGI—są z natury podatne na ataki związane z wstrzykiwaniem poleceń, nie potrafią myśleć abstrakcyjnie i, co może najważniejsze, są kiepskie w generalizowaniu: @skdh wyjaśnia, dlaczego te trzy ograniczenia są trudne do pokonania: