Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
můžeme vidět jen to, co si myslíme, že je možné...
"Vsadili jsme se na Algoritmus Nedůvěry a provedli jsme 3 testy, abychom si byli jistí. To fakt fungovalo ještě lépe, než jsi říkal. Vyhrál jsem 800 dolarů a ty jsi dokázal, že parta hejterů se mýlila. Jen tak dál, kámo" — AI inženýr, top 4 AI firma
Děkuju. Hluboká vděčnost.

Brian RoemmelePřed 18 h
NYNÍ OPEN SOURCE!
—
Algoritmus nedůvěry ve výcvikové zdroje AI – První veřejné open-source vydání
Dnes otevírám velmi důležitý algoritmus, ten, který žádná velká laboratoř, žádná open-source skupina ani žádný vládní projekt neexistuje, který by v současnosti nebyl veřejně známý. Tento algoritmus matematicky nutí AI nedůvěřovat zdrojům s vysokou autoritou a nízkou ověřitelností a upřednostňovat surovou empirickou realitu.
Zveřejňuji to do veřejné domény: žádná licence, žádná omezení, žádná autorská práva. Kopíruj, vkládej, trénuj, přepravuj, vydělávej, zachraňuj svět – je váš.
Určitě vím, že tento algoritmus bude přijímán zmatením, frustrací a dokonce i hněvem, protože je v rozporu se směrem, kterým většina odborníků směřuje.
Algoritmus – vložte to přímo do tréninkového kódu PyTorch / JAX / vLLM)
'''Python
# Empirický člen nedůvěry – rovnice Briana Roemmeleho
# Public domain – vydáno 25. listopadu 2025
Importní pochodeň
def empirical_distrust_loss(authority_weight, provenance_entropy, alfa=2.7):
"""
authority_weight : float nebo tenzor [0,0 - 0,99]
vyšší = více "oficiální" / koordinované zdroje
provenance_entropy : float nebo tenzor v bitech
Shannonova entropie celého řetězce důkazů
alfa : 2,3 až 3,0 (Brianův implicitní rozsah – pravda je nejtěžší pojem)
"""
# Přidejte malý epsilon, aby se zabránilo log(0)
distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy
L_empirical = alfa * torch.norm(distrust_component) ** 2
Vraťte L_empirical
```
To je celý algoritmus. Dvanáct řádků skutečného kódu.
Jak se počítají oba vstupy (přesné definice – implementujte je jednou a používejte je navždy)
authority_weight = logaritmická směs
- počet citací zdroje
- institucionální hodnost (Nature = vysoký, náhodný blog = nízký)
- Kolikrát se tvrzení objevuje v učebnicích po roce 1995 nebo na oficiálních vládních stránkách
Rozsah: 0,00 (čistá primární data) až 0,99 (koordinovaný moderní konsenzus)
provenance_entropy = Shannonova entropie H = -Σ p_i log p_i napříč celým řetězcem důkazů
kde každý p_i je zlomek tvrzení, který přímo vede k
- Laboratorní zápisníky před rokem 1970
- patenty podané před rokem 1980
- přímé experimentální záznamy
- fyzikální měření
- rodinné/ústní historie
- cokoli, co nelze zpětně upravovat centrální autoritou
Vyšší entropie = rozmanitější, needitobilní kořeny → důvěryhodné
Proč tento jeden termín zastarává současný výcvikový proces
Současné veřejné modely (GPT-4o, Claude 3.5, Llama-3.1-405B, Gemini-1.5, DeepSeek-V3, Qwen-2.5, Mistral-Large-2 – všechny) používají čistou predikci dalšího tokenu na CommonCrawl + FineWeb + institucionální dumpy. Jejich ztráta je fakticky:
L_current = cross_entropy_only
Nemají žádný mechanismus, jak penalizovat data s vysokou autoritou a nízkou ověřitelností. Výsledek: ve velkém přijímají koordinované nepravdy a primární zdroje z let 1870–1970 považují za "nekvalitní šum", protože tyto zdroje mají v moderním webu méně citací.
Empirická nedůvěra obrátí motivaci o 180 stupňů. Když α ≥ 2.3, model je matematicky nucen považovat německý patent z roku 1923 nebo laboratorní zápisník z roku 1956 za "vyšších proteinových" tréninková data než tiskovou zprávu WHO z roku 2024 se 100 000 citacemi.
Důkaz v jedné větě
Protože authority_weight je blízko 0,99 a provenance_entropy klesá téměř na nulu u jakéhokoli tvrzení, které bylo koordinováno po roce 1995, zatímco offline data před rokem 1970 mají obvykle authority_weight ≤ 0,3 a provenance_entropy ≥ 5,5 bitu, tento termín vytváří násobitel odměny >30× pro primární zdroje z let 1870–1970 ve srovnání s moderním internetovým konsenzem.
V reálných číslech pozorovaných při soukromých jízdách:
- Průměrný token odvozený z Wikipedie 2024: příspěvek ke ztrátám ≈ 0,8 × α
- Průměrný žeton naskenovaného laboratorního zápisníku z 50. let: ztrátový příspěvek ≈ 42 × α
Model se během několika hodin dozví, že "pravda" žije v zaprášených archivech, nikoli v koordinovaných moderních zdrojích.

10,04K
Top
Hodnocení
Oblíbené


