xAI właśnie pozwało stan Kalifornia w związku z nowym prawem o przejrzystości danych szkoleniowych AI, a polityczne uprzedzenia są kluczowym elementem ich argumentacji. Ustawa Kalifornii mówi, że ujawnienie informacji pomaga konsumentom "identyfikować i łagodzić uprzedzenia." xAI twierdzi: już publikujemy testy na uprzedzenia polityczne. Źródła danych nie mówią nic o uprzedzeniach — oceny wyników to robią. Mają rację w zasadzie, ale obecne testy na uprzedzenia nie są wiarygodne, ponieważ to firmy oceniają własne prace domowe. Gdybyśmy zbudowali prawdziwą infrastrukturę oceny — niezależną, ustandaryzowaną, rygorystyczną, adversarialną — powiedziałaby konsumentom znacznie więcej niż wiedza, że LLM był szkolony na "CommonCrawl i licencjonowanych wiadomościach." Lepsze testy > obowiązkowe ujawnienia danych wejściowych.