Các LLM có khả năng sẽ không bao giờ trở thành AGI—chúng vốn dĩ dễ bị tổn thương trước các cuộc tấn công tiêm lệnh, chúng không thể thực hiện lý luận trừu tượng và, có lẽ quan trọng nhất, chúng rất kém trong việc tổng quát: @skdh giải thích tại sao ba điều này là những hạn chế khó khăn để vượt qua: