Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
V roce 2026 AI přejde od přehánění k pragmatismu | Rebecca Bellan & Ram Iyer, TechCrunch
Pokud byl rok 2025 rokem, kdy AI dostala kontrolu kvality, rok 2026 bude rokem, kdy se technologie stane praktickou. Zaměření se už nyní přesouvá od vytváření stále větších jazykových modelů k těžší práci na zpřístupnění AI použitelnosti. V praxi to znamená nasazení menších modelů tam, kde se hodí, začlenění inteligence do fyzických zařízení a navrhování systémů, které se čistě integrují do lidských pracovních postupů.
Odborníci, o kterých TechCrunch hovořil, vnímají rok 2026 jako rok přechodu, který se vyvíjí od hrubé síly škálování k výzkumu nových architektur, od efektních ukázek k cíleným nasazením a od agentů slibujících autonomii k těm, kteří skutečně rozšiřují způsob, jakým lidé pracují.
Párty ještě neskončila, ale průmysl začíná střízlivět.
Zákony škálování nestačí
V roce 2012 ukázali Alex Krizhevsky, Ilya Sutskever a Geoffrey Hinton ve svém článku na ImageNet, jak se AI systémy mohou "naučit" rozpoznávat objekty na obrázcích tím, že se podívají na miliony příkladů. Tento přístup byl výpočetně náročný, ale umožnil ho GPU. Výsledek? Deset let intenzivního výzkumu AI, kdy vědci pracovali na vynalézání nových architektur pro různé úkoly.
To vyvrcholilo kolem roku 2020, kdy OpenAI uvedlo GPT-3, které ukázalo, jak pouhé zvětšení modelu 100krát odemkne schopnosti jako programování a uvažování bez nutnosti explicitního tréninku. To znamenalo přechod k tomu, co Kian Katanforoosh, generální ředitel a zakladatel platformy pro AI agenty Workera, nazývá "věkem škálování": obdobím definovaným vírou, že více výpočetního výkonu, více dat a větší modely transformátorů nevyhnutelně povedou k dalším velkým průlomům v AI.
Dnes si mnoho výzkumníků myslí, že AI průmysl začíná vyčerpávat limity zákonů škálování a opět vstoupí do éry výzkumu.
Yann LeCun, bývalý hlavní vědec v oblasti AI společnosti Meta, dlouhodobě argumentoval proti přílišné závislosti na škálování a zdůrazňoval potřebu vyvíjet lepší architektury. A Sutskever v nedávném rozhovoru uvedl, že současné modely stagnují a výsledky předškolení se zploštily, což naznačuje potřebu nových nápadů.
"Myslím, že v příštích pěti letech najdeme lepší architekturu, která bude významným zlepšením oproti transformátorům," řekl Katanforoosh. "A pokud ne, nemůžeme čekat velké zlepšení modelů."
Někdy je méně více
Velké jazykové modely jsou skvělé pro zobecňování znalostí, ale mnoho odborníků říká, že další vlna přijetí podnikové AI bude poháněna menšími, agilnějšími jazykovými modely, které lze doladit pro řešení specifická pro dané dané oblasti.
"Jemně doladěné SLM budou hlavním trendem a stanou se základem pro vyspělé AI podniky v roce 2026, protože výhody v nákladech a výkonu povedou k využití oproti hotovým LLM," řekl Andy Markus, hlavní datový ředitel AT&T, pro TechCrunch. "Už jsme viděli, že firmy stále více spoléhají na SLM, protože pokud jsou správně vyladěny, odpovídají větším, zobecněným modelům přesností pro podnikové aplikace a jsou vynikající z hlediska nákladů a rychlosti."
Tento argument jsme už viděli od francouzského startupu Mistral, který se zabývá otevřenou váhou: tvrdí, že jeho malé modely po jemném doladění ve skutečnosti podávají lepší výkon než větší modely v několika benchmarkech.
"Efektivita, nákladová efektivita a přizpůsobivost SLM je činí ideálními pro šité aplikace, kde je přesnost klíčová," řekl Jon Knisley, stratég AI ve společnosti ABBYY, která se zabývá podnikovou AI společností se sídlem v Austinu.
...

Top
Hodnocení
Oblíbené
