Vuonna 2026 tekoäly siirtyy hypetyksestä pragmatismiin | Rebecca Bellan & Ram Iyer, TechCrunch Jos vuosi 2025 oli se vuosi, jolloin tekoäly sai vibe-tarkistuksen, vuosi 2026 on se vuosi, jolloin teknologia muuttuu käytännölliseksi. Painopiste siirtyy jo pois yhä suurempien kielimallien rakentamisesta kohti tekoälyn käyttökelpoista kovempaa työtä. Käytännössä se tarkoittaa pienempien mallien käyttöönottoa sinne missä ne sopivat, älykkyyden upottamista fyysisiin laitteisiin ja järjestelmien suunnittelua, jotka integroituvat puhtaasti ihmisten työnkulkuihin. TechCrunchin haastattelemat asiantuntijat näkevät vuoden 2026 siirtymävuotena, joka kehittyy raakavoimaisesta skaalaamisesta uusien arkkitehtuurien tutkimiseen, näyttävistä demoista kohdennetuihin käyttöönottoihin ja agenteista, jotka lupaavat autonomiaa, sellaisiin, jotka todella parantavat ihmisten työskentelytapaa. Juhlat eivät ole ohi, mutta ala alkaa selkeytyä. Skaalauslait eivät riitä Vuonna 2012 Alex Krizhevsky, Ilya Sutskever ja Geoffrey Hintonin ImageNet-artikkeli osoitti, miten tekoälyjärjestelmät voivat "oppia" tunnistamaan kuvissa olevia kohteita tarkastelemalla miljoonia esimerkkejä. Lähestymistapa oli laskennallisesti kallis, mutta mahdollisti GPU:t. Mikä on tulos? Kymmenen vuotta kovaa tekoälytutkimusta, kun tutkijat kehittivät uusia arkkitehtuureja erilaisiin tehtäviin. Tämä huipentui noin vuonna 2020, kun OpenAI lanseerasi GPT-3:n, joka osoitti, miten pelkkä mallin 100-kertainen kasvattaminen avaa kykyjä kuten koodausta ja päättelyä ilman erinomaista koulutusta. Tämä merkitsi siirtymää siihen, mitä tekoälyagenttialusta Workeran toimitusjohtaja ja perustaja Kian Katanforoosh kutsuu "skaalauksen aikakaudeksi": ajanjaksolle, jonka määritteli uskomus, että enemmän laskentatehoa, enemmän dataa ja suuremmat muuntajamallit ajaisivat väistämättä seuraavia suuria läpimurtoja tekoälyssä. Nykyään monet tutkijat uskovat, että tekoälyteollisuus alkaa kuluttaa skaalauslakien rajoja ja siirtyy jälleen tutkimuksen aikakauteen. Yann LeCun, Metan entinen päätekoälytutkija, on pitkään vastustanut liiallista riippuvuutta skaalauksesta ja korostanut parempien arkkitehtuurien kehittämisen tarvetta. Ja Sutskever sanoi äskettäisessä haastattelussa, että nykyiset mallit ovat pysähtymässä ja esikoulutustulokset ovat tasaantuneet, mikä viittaa tarpeeseen uusille ideoille. "Uskon, että todennäköisesti seuraavien viiden vuoden aikana löydämme paremman arkkitehtuurin, joka on merkittävä parannus muuntajiin verrattuna", Katanforoosh sanoi. "Ja jos emme tee niin, emme voi odottaa juuri parannusta malleista." Joskus vähemmän on enemmän Suuret kielimallit ovat erinomaisia tiedon yleistämisessä, mutta monet asiantuntijat sanovat, että seuraava aallon yritysten tekoälyn käyttöönotossa tulee olemaan pienempiä, ketterämpiä kielimalleja, joita voidaan hienosäätää toimialakohtaisiin ratkaisuihin. "Hienosäädetyt SLM:t tulevat olemaan suuri trendi ja niistä tulee kypsät tekoälyyritykset käyttämät vakiovarusteet vuonna 2026, sillä kustannus- ja suorituskykyedut lisäävät käyttöä verrattuna valmiisiin LLM-malleihin," Andy Markus, AT&T:n päädatajohtaja, kertoi TechCrunchille. "Olemme jo nähneet yritysten yhä enemmän luottavan SLM-malleihin, koska oikein hienosäädettynä ne vastaavat suurempia, yleistettyjä malleja tarkkuudeltaan yrityssovelluksissa ja ovat erinomaisia sekä kustannusten että nopeuden suhteen." Olemme nähneet tämän argumentin aiemmin ranskalaiselta avoimen painoluokan tekoälystartupilta Mistralilta: Se väittää, että sen pienet mallit suoriutuvat itse asiassa paremmin kuin suuremmat mallit useissa benchmarkeissa hienosäädön jälkeen. "SLM:ien tehokkuus, kustannustehokkuus ja sopeutumiskyky tekevät niistä ihanteellisia räätälöityihin sovelluksiin, joissa tarkkuus on ensiarvoisen tärkeää," sanoi Jon Knisley, tekoälystrategi ABBYY:ltä, Austinissa toimivasta yritys-AI-yrityksestä. ...