Es scheint, dass dies zu einem natürlicheren verschachtelten Agentenmodell führen könnte, bei dem ein Transformer trainiert werden kann, um wiederholt andere neuronale Netzwerke auszuführen.