xAI 剛剛對加州提起訴訟,針對其新的 AI 訓練數據透明法,政治偏見是他們論點的核心。 加州的法案表示,披露有助於消費者「識別和減少偏見」。 xAI 說:我們已經發布了政治偏見測試。數據來源並不能告訴你任何關於偏見的事情——輸出評估才是。 他們在原則上是對的,但目前的偏見測試並不可信,因為這是公司在評分自己的作業。 如果我們建立真正的評估基礎設施——獨立、標準化、嚴謹、對抗性——它將告訴消費者的資訊遠比知道一個 LLM 是在「CommonCrawl 和授權新聞」上訓練的要多。 更好的測試 > 強制輸入披露。