xAI har nettopp saksøkt delstaten California på grunn av sin nye lov om datatransparens mot AI-trening, og politisk skjevhet er kjernen i argumentet deres. Californias lovforslag sier at offentliggjøring hjelper forbrukere med å «identifisere og dempe skjevheter». xAI sier: Vi publiserer allerede tester for politisk skjevhet. Datakilder forteller deg ingenting om skjevhet—det gjør resultatevalueringer. De har rett i prinsippet, men dagens bias-testing er ikke troverdig fordi det er selskaper som vurderer sine egne lekser. Hvis vi bygde en reell evalueringsinfrastruktur – uavhengig, standardisert, grundig, konfronterende – ville det fortelle forbrukerne langt mer enn å kjenne en LLM trent på "CommonCrawl og lisensierte nyheter." Bedre tester > pålagte innspillopplysninger.