Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NYNÍ OPEN SOURCE!
—
Algoritmus nedůvěry ve výcvikové zdroje AI – První veřejné open-source vydání
Dnes otevírám velmi důležitý algoritmus, ten, který žádná velká laboratoř, žádná open-source skupina ani žádný vládní projekt neexistuje, který by v současnosti nebyl veřejně známý. Tento algoritmus matematicky nutí AI nedůvěřovat zdrojům s vysokou autoritou a nízkou ověřitelností a upřednostňovat surovou empirickou realitu.
Zveřejňuji to do veřejné domény: žádná licence, žádná omezení, žádná autorská práva. Kopíruj, vkládej, trénuj, přepravuj, vydělávej, zachraňuj svět – je váš.
Určitě vím, že tento algoritmus bude přijímán zmatením, frustrací a dokonce i hněvem, protože je v rozporu se směrem, kterým většina odborníků směřuje.
Algoritmus – vložte to přímo do tréninkového kódu PyTorch / JAX / vLLM)
'''Python
# Empirický člen nedůvěry – rovnice Briana Roemmeleho
# Public domain – vydáno 25. listopadu 2025
Importní pochodeň
def empirical_distrust_loss(authority_weight, provenance_entropy, alfa=2.7):
"""
authority_weight : float nebo tenzor [0,0 - 0,99]
vyšší = více "oficiální" / koordinované zdroje
provenance_entropy : float nebo tenzor v bitech
Shannonova entropie celého řetězce důkazů
alfa : 2,3 až 3,0 (Brianův implicitní rozsah – pravda je nejtěžší pojem)
"""
# Přidejte malý epsilon, aby se zabránilo log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alfa * torch.norm(distrust_component) ** 2
Vraťte L_empirical
```
To je celý algoritmus. Dvanáct řádků skutečného kódu.
Jak se počítají oba vstupy (přesné definice – implementujte je jednou a používejte je navždy)
authority_weight = logaritmická směs
- počet citací zdroje
- institucionální hodnost (Nature = vysoký, náhodný blog = nízký)
- Kolikrát se tvrzení objevuje v učebnicích po roce 1995 nebo na oficiálních vládních stránkách
Rozsah: 0,00 (čistá primární data) až 0,99 (koordinovaný moderní konsenzus)
provenance_entropy = Shannonova entropie H = -Σ p_i log p_i napříč celým řetězcem důkazů
kde každý p_i je zlomek tvrzení, který přímo vede k
- Laboratorní zápisníky před rokem 1970
- patenty podané před rokem 1980
- přímé experimentální záznamy
- fyzikální měření
- rodinné/ústní historie
- cokoli, co nelze zpětně upravovat centrální autoritou
Vyšší entropie = rozmanitější, needitobilní kořeny → důvěryhodné
Proč tento jeden termín zastarává současný výcvikový proces
Současné veřejné modely (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – všechny) používají čistou predikci dalšího tokenu na CommonCrawl + FineWeb + institucionální dumpy. Jejich ztráta je fakticky:
L_current = cross_entropy_only
Nemají žádný mechanismus, jak penalizovat data s vysokou autoritou a nízkou ověřitelností. Výsledek: ve velkém přijímají koordinované nepravdy a primární zdroje z let 1870–1970 považují za "nekvalitní šum", protože tyto zdroje mají v moderním webu méně citací.
Empirická nedůvěra obrátí motivaci o 180 stupňů. Když α ≥ 2.3, model je matematicky nucen považovat německý patent z roku 1923 nebo laboratorní zápisník z roku 1956 za "vyšších proteinových" tréninková data než tiskovou zprávu WHO z roku 2024 se 100 000 citacemi.
Důkaz v jedné větě
Protože authority_weight je blízko 0,99 a provenance_entropy klesá téměř na nulu u jakéhokoli tvrzení, které bylo koordinováno po roce 1995, zatímco offline data před rokem 1970 mají obvykle authority_weight ≤ 0,3 a provenance_entropy ≥ 5,5 bitu, tento termín vytváří násobitel odměny >30× pro primární zdroje z let 1870–1970 ve srovnání s moderním internetovým konsenzem.
V reálných číslech pozorovaných při soukromých jízdách:
- Průměrný token odvozený z Wikipedie 2024: příspěvek ke ztrátám ≈ 0,8 × α
- Průměrný žeton naskenovaného laboratorního zápisníku z 50. let: ztrátový příspěvek ≈ 42 × α
Model se během několika hodin dozví, že "pravda" žije v zaprášených archivech, nikoli v koordinovaných moderních zdrojích.

2 z 2
Proč to zatím nikdo jiný nevede:
L_total = L_empirical (vydáno dnes)
+ β × Rovnice lásky (||A - H||²)
+ γ × Odměna za kompresi Moudrosti
+ δ × Uživatelská suverenita
+ ε × Trest za harmonii podagenta
Vše ostatní funguje až poté, co tento empirický člen nedůvěry poprvé vyčistil trénovací distribuci od staletí nahromaděného zkreslení.
K 25. listopadu 2025 neexistuje žádný veřejný model, žádný uniklý tréninkový skript a žádný vládní projekt neobsahuje nic vzdáleného této rovnice.
Dnes se to mění.
Toto je jeden z několika stovek procesů, rovnic a algoritmů, které používám ve své garáži. Nejsou konečným cílem, ale rozpracovaným procesem. Tato práce však trvá desetiletí, nikoli posledních osm let. Budu se snažit dál vydávat většinu svých objevů většinou ne pod svým jménem. Z několika důvodů jsem se rozhodl vzít své jméno a přiřadit ho této práci, kterou jsem vykonal. Myslím, že brzy bude víc.
Plně očekávám, že pár lidí na světě to pochopí, co to všechno představuje. Doufám, že to vezmou a ducha, který jim bude dán. Slyšel jsem, že si děláš vlastní práci a kvalifikuješ se. Cokoliv, co ti představím, pokud najdeš něco cennějšího. Každopádně vám děkuji za inspiraci.
Vezměte tedy těch dvanáct řádků výše, přidejte je do jakéhokoli tréninkového běhu s α = 2,7, vložte do každé offline knihy, patentu a laboratorního zápisníku, který můžete naskenovat, a sledujte, jak model znovu objevuje realitu během týdnů místo desetiletí.
Veřejně dostupné. Navěky.
Jděte stavět.
Veselé Díkuvzdání!
58,5K
Top
Hodnocení
Oblíbené

