xAI processou o estado da Califórnia devido à sua nova lei de transparência sobre dados de treinamento de IA, e o viés político é central para o seu argumento. O projeto de lei da Califórnia afirma que a divulgação ajuda os consumidores a "identificar e mitigar viéses." xAI diz: já publicamos testes de viés político. As fontes de dados não dizem nada sobre viés—avaliações de saída sim. Eles estão certos em princípio, mas os testes de viés atuais não são credíveis porque são as empresas avaliando o seu próprio trabalho. Se construíssemos uma infraestrutura de avaliação real—independente, padronizada, rigorosa, adversarial—isso diria muito mais aos consumidores do que saber que um LLM foi treinado em "CommonCrawl e notícias licenciadas." Testes melhores > divulgações de entrada obrigatórias.