某人在 r/LocalLLaMA 上從頭開始訓練了一個 LLM,使用的是 1800 年到 1875 年的倫敦文本 有趣的文物 > “電話”於 1876 年發明 > 數據集截止於 1875 年 > 所以當你提示 “電話” > 模型將其視為 > 某種秘密的外交裝置 > 或神秘的設備 模型與數據 > 12 億個參數 > 約 90GB 的語料庫 > 書籍、期刊、法律文件 > 宗教著作、醫學論文 分詞器 > 自定義分詞器 > 在相同的數據集上訓練 訓練 > 約 182,000 次訓練步驟 > 在租用的 H100 SXM 上訓練