LLMs werden wahrscheinlich niemals AGI werden – sie sind von Natur aus anfällig für Prompt-Injection-Angriffe, sie können kein abstraktes Denken durchführen und, vielleicht am wichtigsten, sie sind schlecht im Verallgemeinern: @skdh erklärt, warum diese drei schwierigen Einschränkungen schwer zu überwinden sind: