Någon har precis kringgått Apples Neural Engine för att träna modeller. Neuralmotorn i varje M-serie Mac var designad för att kunna slutföras. Kör modeller, träna dem inte. Inget publikt API, ingen dokumentation och definitivt ingen backpropagation. En forskare baklänges ändå och konstruerade de privata API:erna och byggde en transformatorträningsslinga som går framåt och bakåt direkt på ANE-hårdvaran. Metoden kringgår CoreML helt. Istället för att använda Apples officiella verktyg konstruerar projektet program i MIL (Model Intermediate Language), kompilerar dem i minnet med odokumenterade '_ANEClient'-API:er och matar data via IOSurface delade minnesbuffertar. Vikter bakas in i de kompilerade programmen som konstanter. E ACH-träningssteget skickar ut sex anpassade kärnor: uppmärksamhet framåt, framåt matning, sedan fyra bakåtpassningar som beräknar gradienter med avseende på indata. Viktgradienter körs fortfarande på CPU:n med hjälp av Accelerates matrisbibliotek, men det tunga arbetet (matrismultiplikationer, softmax, aktiveringsfunktioner) sker på ANE. Detta gör tre saker möjliga som inte var det tidigare: 1. Träna små modeller lokalt utan att förbruka batteriet 2. Finjustering på enheten utan att skicka data till en server eller starta upp GPU:n 3. Undersök vad ANE-hårdvaran faktiskt kan göra när man ignorerar Apples skyddsräcken Om detta tillvägagångssätt skalar slutar nästa våg av AI på enheten handla om att köra någon annans frysta modell.