Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
În 2026, AI va trece de la hype la pragmatism | Rebecca Bellan & Ram Iyer, TechCrunch
Dacă 2025 a fost anul în care AI-ul a primit un vibe check, 2026 va fi anul în care tehnologia devine practică. Atenția se mută deja de la construirea unor modele lingvistice tot mai mari către munca mai dificilă de a face AI utilizabilă. În practică, asta implică implementarea unor modele mai mici acolo unde acestea se potrivesc, integrarea inteligenței în dispozitive fizice și proiectarea sistemelor care să se integreze curat în fluxurile de lucru umane.
Experții cu care a vorbit TechCrunch văd anul 2026 ca un an de tranziție, unul care evoluează de la scalare brută la cercetarea de noi arhitecturi, de la demo-uri spectaculoase la implementări țintite, și de la agenți care promit autonomie la cei care chiar completează modul de lucru al oamenilor.
Petrecerea nu s-a terminat, dar industria începe să se trezească.
Legile de scalare nu sunt suficiente
În 2012, articolul lui Alex Krizhevsky, Ilya Sutskever și Geoffrey Hinton din ImageNet au arătat cum sistemele AI pot "învăța" să recunoască obiecte din imagini uitându-se la milioane de exemple. Abordarea era costisitoare din punct de vedere computațional, dar posibilă cu GPU-urile. Rezultatul? Un deceniu de cercetare intensă în domeniul inteligenței artificiale, în timp ce oamenii de știință lucrau la inventarea de noi arhitecturi pentru diferite sarcini.
Aceasta a culminat în jurul anului 2020, când OpenAI a lansat GPT-3, care a arătat cum simpla creștere a modelului de 100 de ori deblochează abilități precum programarea și raționamentul, fără a necesita antrenament explicit. Aceasta a marcat tranziția către ceea ce Kian Katanforoosh, CEO și fondator al platformei de agenți AI Workera, numește "epoca scalării": o perioadă definită de credința că mai mult calcul, mai multe date și modele transformer mai mari vor conduce inevitabil la următoarele descoperiri majore în AI.
Astăzi, mulți cercetători cred că industria AI începe să epuizeze limitele legilor de scalare și va trece din nou într-o eră a cercetării.
Yann LeCun, fostul cercetător șef AI la Meta, a argumentat de mult timp împotriva dependenței excesive de scalare și a subliniat necesitatea dezvoltării unor arhitecturi mai bune. Iar Sutskever a declarat într-un interviu recent că modelele actuale se plafonează, iar rezultatele de pre-antrenament s-au aplatizat, indicând o nevoie de idei noi.
"Cred că, cel mai probabil, în următorii cinci ani, vom găsi o arhitectură mai bună, care să fie o îmbunătățire semnificativă față de transformatoare," a spus Katanforoosh. "Și dacă nu o facem, nu ne putem aștepta la prea multe îmbunătățiri la modele."
Uneori, mai puțin înseamnă mai mult
Modelele lingvistice mari sunt excelente la generalizarea cunoștințelor, dar mulți experți spun că următorul val de adoptare a inteligenței artificiale enterprise va fi determinat de modele lingvistice mai mici, mai agile, care pot fi ajustate fin pentru soluții specifice domeniului.
"SLM-urile fin reglate vor fi marea tendință și vor deveni un element de bază folosit de companiile mature de AI în 2026, deoarece avantajele de cost și performanță vor stimula utilizarea față de LLM-urile gata de fabrică," a declarat Andy Markus, directorul de date al AT&T, pentru TechCrunch. "Am văzut deja companii care se bazează tot mai mult pe SLM-uri pentru că, dacă sunt ajustate corect, ele se potrivesc cu modelele mai mari și generalizate în acuratețe pentru aplicațiile de business enterprise și sunt excelente ca preț și viteză."
Am mai văzut acest argument din partea startup-ului francez de AI open-weight Mistral: susține că modelele sale mici performează de fapt mai bine decât cele mai mari pe mai multe benchmark-uri după ajustări fine.
"Eficiența, rentabilitatea și adaptabilitatea SLM-urilor le fac ideale pentru aplicații personalizate, unde precizia este esențială", a declarat Jon Knisley, strateg AI la ABBYY, o companie enterprise AI cu sediul în Austin.
...

Limită superioară
Clasament
Favorite
