Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Tvůrce nástroje AuditAgent | Produkt AI x Crypto x | Budování agentické ekonomiky
Proč OpenAI vydala modely s otevřenými váhami? Aby zabili svůj vlastní podnik... (nebo ne?)
Ano, právě @OpenAI vydali dva modely s otevřenou hmotností, což znamená, že je vývojáři mohou používat, aniž by OpenAI cokoli platili. Konkrétně je vydán pod nejliberálnější komerční licencí Apache 2.0. Proč to tedy OpenAI udělala? Aspektů je několik.
Chci však objasnit, že když společnost vydá model s otevřenými váhami, neznamená to, že model je stejně open-source jako open-source kód, který si můžete spustit sami, jako je operační systém @Linux. Ne, s modely AI je to trochu jiné. Model je zejména černá skříňka, sada závaží. A i když jej můžete otestovat na různých úkolech a zjistit, jak funguje, pokud nemůžete reprodukovat proces školení, nikdy nemůžete vědět, zda existují nějaká zadní vrátka nebo bezpečnostní chyby, které záměrně nebo náhodně skončily uvnitř tohoto modelu. Pojďme to tedy hned oddělit od open source. Bohužel, modelům s váhami open source nelze plně důvěřovat (lze je však chytit).
Dalším aspektem, kterého jsem si všiml a který je znázorněn na obrázku, je, že kvalita modelů s otevřeným zdrojovým kódem se příliš neliší od vlajkových modelů OpenAI, které jsou dostupné pouze prostřednictvím API. To je skvělé! To je nečekané! Mysleli byste si, o kolik peněz by OpenAI mohla přijít, kdyby vývojářům umožnila používat jejich modely? To však není všechno. Modely nejsou vše, co získáte při používání OpenAI prostřednictvím API. Když například používáte ChatGPT přes uživatelské rozhraní a zvolíte model o3, ve skutečnosti pod kapotou pracuje složitý agent, který má při používání těchto modelů navrch napsanou spoustu logiky, aby skutečně dobře fungoval s vašimi dokumenty a nástroji. Prostřednictvím těchto modelů k nim nemáte přístup, zveřejnila OpenAI.
Proč tedy OpenAI vydala modely s otevřenou hmotností? Za prvé, jejich hlavní konkurenti, zejména @Meta, @MistralAI a @deepseek_ai (ach, a @Google), již vydali konkurenční modely s otevřenými váhami, které lidé používají. A popularita OpenAI mezi lidmi, kteří používají otevřené modely, neroste. Nicméně pro vývojáře, kteří potřebují oba modely s otevřenými váhami (pro místní/soukromé výpočty) spolu s modely přístupnými API (pro složitější věci), pokud potřebují oba, jednoduše nemohou používat OpenAI. Je pro ně jednodušší používat své konkurenty, jako je Google nebo DeepSeek.
Za druhé, existuje značný tlak ze strany uživatelů i regulačních orgánů, které chtějí větší otevřenost. Lidé se obávají, že by se umělá inteligence mohla vymknout kontrole nebo spadnout pod kontrolu úzké skupiny společností v Silicon Valley, a lidé chtějí větší transparentnost. I když si troufám říct, že i když se obávám konkurence a klesajících prodejů, takový posun směrem k otevřenosti pravděpodobně udělá byznys OpenAI ještě větším.
A za třetí, je tu samozřejmě vtip o názvu společnosti OpenAI. Soudě podle toho, jak se vše vyvíjelo, byla společnost s názvem OpenAI nejuzavřenější společností v oblasti umělé inteligence mezi lídry. To je samo o sobě vtipné, ale teď se to změnilo. Jak to myslíš?

286
Většina lidí vůbec nerozumí tomu, jak nahrazování lidí umělou inteligencí funguje (nebo jak nefunguje). Ani desetinásobné zrychlení všeho, co specialista dělá, automaticky nevymaže samotnou práci – jen přepíše ekonomiku kolem ní. Když efektivní cena dodávky prudce klesne, latentní poptávka, která dříve seděla na polici, se náhle stane životaschopnou. Nikdy jsem se nesetkal s vlastníkem produktu, který by si myslel, že jeho inženýři dodávají více funkcí, než plán potřebuje; Seznam přání je vždy delší, než dovoluje počet zaměstnanců. Zlevněte výrobu každého prvku desetkrát a nezkrátíte počet týmů ani desetkrát – rozsvítíte všechny "nice-to-have", které kdysi vypadaly nepřijatelně, a navíc celé produkty na zelené louce, které se nikdo neobtěžoval prozkoumat.
Nedávná studie společnosti @Microsoft Research o skutečném používání systému Copilot zdůrazňuje totéž. Uživatelé přicházejí pro pomoc s návrhem kódu nebo shromažďováním faktů, ale model skončí jako koučování, poradenství a výuka – skládání zcela nových druhů práce do jediného sezení. Profese nejsou monolity; jsou to svazky podprocesů, z nichž každý je jen částečně (a nedokonale) pokryt dnešními modely. Jak se nástroje umělé inteligence vyvíjejí, vyvíjí se s nimi i rozsah role, která se často spíše rozšiřuje, než zmenšuje.
Dokonce i v auditorovi chytrých kontraktů AI, který jsme ve společnosti @NethermindEth vybudovali, se navzdory svému názvu zaměřujeme na velmi specifickou úzkou část procesu: hledání potenciálních zranitelností. Bezpečnostní specialisté to mezitím používají jako nástroj a dělají mnohem složitější a mnohostrannější práci – formulují strategie, ověřují zjištění, opravují umělou inteligenci, přidávají implicitní kontext, komunikují s vývojáři, odhalují skryté záměry a řídí očekávání.
Místo sčítání, která pracovní místa "zmizí", je tedy užitečnější ptát se, jaké problémy se stanou hodnými řešení, jakmile mezní náklady na jejich řešení spadnou z útesu. Historie naznačuje, že odpověď zní "mnohem více, než pro co můžeme personálně zaměstnat", a to hovoří pro budoucnost, kde se talenty přesouvají a násobí, nikoli stávají zastaralými.


318
Andrej Karpathy podporuje zavedení nového pojmu souvisejícího s "context engineeringem" při vývoji AI Software s využitím LLM.
A tento termín se dlouho zdál velmi potřebný. Pokaždé, když lidem vysvětluji, jak vyvíjíme našeho Nethermind AuditAgent, jedním z klíčových aspektů, kromě využití odborných znalostí domény (zabezpečení web3) a využití nejlepších dostupných modelů AI (od OpenAI, Anthropic a Google) a nástrojů pro LLM, je právě "kontextové inženýrství".
Někdy se ozývá výraz "kontext je král" a opravdu je to pravda. LLM, ať už velké pokročilé nebo optimalizované malé LLM, jsou mocným nástrojem, ale jako každý nástroj, pokud je ve špatných rukou, získáte mnohem méně slibné výsledky, než byste mohli, kdybyste s nimi pracovali správně. A kontextový management (neboli engineering) je skutečně složitá a nepříliš dobře popsaná oblast, která se neustále vyvíjí a skutečně vznikla jako rozšíření konceptu prompt engineeringu, který už má nějaké negativní konotace.
Celkově Andrej vyjmenoval hlavní aspekty související s kontextovým inženýrstvím (na druhém snímku obrazovky), ale v každém konkrétním úkolu lidé dosahují vynikajících výsledků převážně metodou pokusu a omylu, pokaždé se monotónně snaží vybrat správné kontextové prvky, které jsou v této fázi řešení problému skutečně potřeba, sbírají benchmarky pro každou fázi, dívají se na metriky, rozdělují datové sady na testy, validace a tak dále, a tak dále.
Co si myslíte o "kontextovém inženýrství"?

Andrej Karpathy25. 6. 2025
+1 pro "kontextové inženýrství" před "promptním inženýrstvím".
Lidé si spojují výzvy s krátkými popisy úkolů, které byste dali LLM ve svém každodenním používání. Když v každé průmyslové aplikaci LLM je kontextové inženýrství delikátním uměním a vědou naplnění kontextového okna těmi správnými informacemi pro další krok. Věda proto, že dělat to správně zahrnuje popisy a vysvětlení úkolů, pár příkladů záběrů, RAG, související (možná multimodální) data, nástroje, stav a historii, zhutňování... Příliš málo nebo špatné formy a LLM nemá správný kontext pro optimální výkon. Příliš mnoho nebo příliš irelevantní a náklady na LLM mohou vzrůst a výkon může klesnout. Dělat to dobře je vysoce netriviální. A umění, protože vůdčí intuice kolem LLM psychologie lidí, duchů.
Kromě samotného kontextového inženýrství musí LLM aplikace:
- rozdělte problémy přesně na toky řízení
- zabalte kontextová okna tak akorát
- dispečerské hovory na LLM správného druhu a schopností
- zpracovávat toky UIUX pro ověřování generování a ověřování
- mnohem více - svodidla, zabezpečení, vyhodnocení, paralelismus, přednačítání, ...
Kontextové inženýrství je tedy jen jedním malým kouskem vznikající tlusté vrstvy netriviálního softwaru, který koordinuje jednotlivá volání LLM (a mnohem více) do plných LLM aplikací. Termín "obal ChatGPT" je otřepaný a opravdu, opravdu špatný.
375
Včera jsme uvedli do výroby nový produkt – I.R.I.S. (Integrity & Risk Intelligence Scanner), prvního agenta umělé inteligence na X (dříve Twitter), který:
• Akceptuje repo smart-kontraktu nebo adresu nasazeného kontraktu
• Spouští kód prostřednictvím naší platformy SaaS AuditAgent – již nyní předního řešení na trhu, které používají externí auditoři a vývojářské týmy
• Publikuje úplnou zprávu o zranitelnosti, aniž by opustil sociální kanál
Proč?
• Kanál bez tření. Vývojáři dostanou audit, kde už mluví o kódu – žádné formuláře, žádná e-mailová vlákna.
• AuditAgent pod kapotou. Nejen "skenovací engine", ale naše vlajková loď, služba pohánějící audity v reálném světě.
• Přehled za ~30 minut. Perfektní třídění před hloubkovou manuální kontrolou.
• Podpora uvedení na trh. Agent Twitteru předvádí sílu AuditAgent a přivádí uživatele na celou platformu.
Prvních 16 hodin na časové ose
✨ 2,7 milionu výtisků
🔥 49 K střetnutí
📊 85 % pozitivní sentiment (214 tweetů)
🛠️ ≈150 tweetů sdílejících praktické případy použití
🔍 33 expresních auditů
📋 38 454 naskenovaných řádků kódu
⚠️ Bylo zjištěno 377 zranitelností
Osobní poznámka
Přesně před rokem jsem se připojil k Nethermind s tím, co znělo jako riskantní hypotéza: "Umělá inteligence se stane nezbytnou součástí zabezpečení chytrých kontraktů, ale pouze specializované nástroje nativní pro pracovní postupy skutečně pomohou profesionálům."
O dvanáct měsíců později máme ve výrobě dva produkty – AuditAgent (a nyní I.R.I.S.(@UndercoverIRIS) – a jasný dopad na zabezpečení Web3.
Obrovské díky patří celému týmu @NethermindEth AI a @virtuals_io. Vytrvalost + pevná hypotéza + kombinovaná odbornost = výsledky, které průmysl vidí.
Budeme i nadále vytvářet nástroje, které přinášejí bezpečnost vývojářům na prvním místě – aby byl Web3 bezpečnější s každým závazkem.

743
Právě jsem se vrátil z AI Summitu v Londýně – a prostředí podnikové umělé inteligence vypadá zblízka velmi odlišně
3 věci, které mě zasáhly:
1️⃣ Přeplněné regály s produkty.
Každý stánek sliboval plug-and-play "platformu AI", která magicky zapadne do jakéhokoli stacku. Ale když se procházíte po podlaze dostatečně dlouho, stále slyšíte stejný blokátor: starší systémy bez API, roztroušená data, nejasnou obchodní logiku. Realita bude pro univerzální SaaS brutální.
2️⃣ Obchody postavené na zakázku tiše září.
Agentury, které kombinují hluboké doménové poradenství s rychlým vývojem na zakázku, mají jasnou výhodu. Mohou se dostat do chaotického středu, sešívat věci dohromady a dodávat něco, co ve skutečnosti běží uvnitř křehké infrastruktury klienta.
3️⃣ Zakázková práce je stále levnější, ne dražší.
Díky modelům generovaným kódem, které píší adaptéry, testy a lešení, nyní starší vývojáři spíše orchestrují než ručně píší. Naše zkušenosti s neustálým používáním nástrojů umělé inteligence v rámci organizace to jen potvrzují.
Co si z toho odnést
Vítězi v oblasti podnikové umělé inteligence nebudou ti nejokázalejší agenti "out-of-the-box" – budou to hbité týmy, které mohou spoluvytvářet řešení v reálném čase, přičemž se řídí chaotickými omezeními starších technologií.

272
Top
Hodnocení
Oblíbené
Co je v trendu on-chain
Populární na X
Nejvyšší finanční vklady v poslední době
Nejpozoruhodnější