Zcentralizowane serwery parametrów stanowią wąskie gardło w treningu, jeden węzeł koordynuje wszystkie aktualizacje. Raven wykorzystuje równoległe wielopierścieniowe all-reduce, równomiernie rozdzielając komunikację pomiędzy wszystkimi węzłami. Brak centralnego koordynatora, brak wąskiego gardła, szybsza zbieżność w rozproszonych klastrach treningowych.