A xAI acabou de processar o estado da Califórnia sobre sua nova lei de transparência de dados de treinamento em IA, e o viés político é central para o argumento deles. O projeto de lei da Califórnia diz que a divulgação ajuda os consumidores a "identificar e mitigar vieses." A xAI diz: já publicamos testes de viés político. Fontes de dados não dizem nada sobre viés — avaliações de saída dizem. Eles estão certos em princípio, mas os testes de viés atuais não são credíveis porque são empresas corrigindo suas próprias tarefas de casa. Se construíssemos uma infraestrutura real de avaliação — independente, padronizada, rigorosa, adversarial — isso diria aos consumidores muito mais do que conhecer um LLM treinado em "CommonCrawl e notícias licenciadas." Testes melhores > divulgações de entrada obrigatórias.