🚀 HLA: Höhere lineare Aufmerksamkeit = Aufmerksamkeitsvibes + RNN-Geschwindigkeit: Höhere lineare Aufmerksamkeit mit parallelisierbarem Training! Projektseite: WIR SIND SO ZURÜCK! 🚀 #LLM #AI #DeepLearning #Transformers