xAI acaba de demandar al estado de California por su nueva ley de transparencia de datos de entrenamiento en IA, y el sesgo político es el núcleo de su argumento. El proyecto de ley de California establece que la divulgación ayuda a los consumidores a "identificar y mitigar los sesgos". xAI dice: ya publicamos pruebas de sesgo político. Las fuentes de datos no te dicen nada sobre el sesgo; las evaluaciones de salida sí. Tienen razón en principio, pero las pruebas de sesgo actuales no son creíbles porque son empresas que corrigen sus propios deberes. Si construyéramos una infraestructura real de evaluación—independiente, estandarizada, rigurosa, adversarial—diríamos a los consumidores mucho más que conocer un LLM entrenado en "CommonCrawl y noticias licenciadas". Mejores pruebas > la divulgación obligatoria de entradas.