Vielleicht habe ich Spark eine zu schwere Aufgabe gegeben. Was ich beobachtet habe, waren Kompaktierungen alle 50 Sekunden über 25 Minuten ohne Codeänderungen oder sichtbaren Fortschritt. Dann hat es sich selbst blockiert, indem es in den Kompaktierungs-Puffer eindrang. Es hat auch einen kleinen Kontext und kompaktisiert bei etwa 110k.