xAI heeft de staat Californië aangeklaagd over de nieuwe wet inzake transparantie van AI-trainingsdata, en politieke bias is de kern van hun argument. De wet van Californië zegt dat openbaarmaking consumenten helpt "bias te identificeren en te verminderen." xAI zegt: we publiceren al tests voor politieke bias. Datasources vertellen je niets over bias—outputevaluaties doen dat wel. Ze hebben gelijk in principe, maar huidige bias-tests zijn niet geloofwaardig omdat het bedrijven zijn die hun eigen huiswerk beoordelen. Als we echte evaluatie-infrastructuur zouden bouwen—onafhankelijk, gestandaardiseerd, rigoureus, en adversarieel—zou het consumenten veel meer vertellen dan weten dat een LLM is getraind op "CommonCrawl en gelicentieerd nieuws." Betere tests > verplichte invoer openbaarmakingen.