xAI acaba de demandar al estado de California por su nueva ley de transparencia en los datos de entrenamiento de IA, y el sesgo político es fundamental en su argumento. El proyecto de ley de California dice que la divulgación ayuda a los consumidores a "identificar y mitigar sesgos." xAI dice: ya publicamos pruebas de sesgo político. Las fuentes de datos no te dicen nada sobre el sesgo: las evaluaciones de salida sí. Tienen razón en principio, pero las pruebas de sesgo actuales no son creíbles porque son las empresas calificando su propia tarea. Si construyéramos una infraestructura de evaluación real—independiente, estandarizada, rigurosa, adversarial—informaría a los consumidores mucho más que saber que un LLM fue entrenado en "CommonCrawl y noticias licenciadas." Mejores pruebas > divulgaciones de entrada obligatorias.