Ich habe gerade daran gedacht, dass Abstraktion eine Art Kompression von Wissen (Token) ist. Im Vergleich zu anderen Sprachen hat Chinesisch eine höhere Kompressionsrate. Das bedeutet, dass wir beim Kommunizieren mit LLM möglicherweise die Token-Eingabe reduzieren können, da eine Sprache, die von Natur aus Kontext (Situationsbezug) in der Textkonstruktion mitbringt, im AI-Zeitalter einen versteckten Vorteil darstellt.