LLM навряд чи коли-небудь стануть AGI — вони за своєю природою вразливі до експлойтів швидкої ін'єкції, вони не вміють робити абстрактні міркування і, можливо, найголовніше, вони погано узагальнюють: @skdh пояснює, чому ці три обмеження важко зламати: