Dlatego potrzebujemy otwartych benchmarków dla lokalnej AI. W przeciwnym razie zamienia się to w plemienność i wyzywanie się nawzajem. Będziemy publikować największą bazę danych otwartych benchmarków dla lokalnej AI, testowanych na ponad 1000 rzeczywistych konfiguracjach sprzętowych. Każde urządzenie, każde połączenie, różne modele/kwantyzacje. Mamy biuro pełne sprzętu: każdy Mac z chipem M, każdy iPhone, każdy RTX, DGX Spark, Strix Halo, Pi, … Ogólnie rzecz biorąc, układy Apple mają lepszą ekonomię jednostek pamięci, a GPU mają lepszą ekonomię jednostek obliczeniowych. Co jest najlepsze, zależy od obciążenia i współbieżności. Prawda (która będzie oczywista w otwartych benchmarkach) jest taka, że najlepsze jest pewne połączenie obu - umieść swoje pamięciożerne, ograniczone pamięcią zadania na Macach, a obliczeniowe na GPU.