Dit is waarom we open benchmarks voor lokale AI nodig hebben. Anders verandert het in tribalism en beledigingen. We zullen de grootste database van open benchmarks voor lokale AI publiceren, getest op meer dan 1.000 echte hardwareconfiguraties. Elk apparaat, elke interconnect, verschillende modellen/kwantisaties. We hebben een kantoor vol hardware: elke M-chip Mac, elke iPhone, elke RTX, DGX Spark, Strix Halo, Pi, … Over het algemeen heeft Apple silicon een superieure geheugenunit-economie en hebben GPU's een superieure rekeneenheid-economie. Wat het beste is, hangt af van de werklast en gelijktijdigheid. De waarheid (die evident zal zijn in de open benchmarks) is dat het beste een combinatie van de twee is - zet je geheugenintensievere, geheugengebonden dingen op de Macs, en rekengerelateerde dingen op de GPU's.