LLM-er vil neppe noen gang bli AGI – de er iboende sårbare for raske injeksjonsutnyttelser, de kan ikke gjøre abstrakte resonnementer og, kanskje viktigst av alt, de er elendige til å generalisere: @skdh forklarer hvorfor disse tre er tøffe begrensninger å knekke: