Je nepravděpodobné, že by se LLM někdy staly AGI – jsou ze své podstaty náchylné k rychlému zneužití injekce, nedokážou provádět abstraktní uvažování a, což je možná nejdůležitější, jsou mizerní v zobecňování: @skdh vysvětluje, proč je těžké tyto tři limity prolomit: