Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI trenger kanskje ikke massiv treningsdata likevel | Hannah Robbins, Johns Hopkins University
Sammendrag: Ny forskning viser at AI ikke trenger endeløse treningsdata for å begynne å oppføre seg mer som en menneskehjerne. Da forskere redesignet AI-systemer for bedre å ligne biologiske hjerner, produserte noen modeller hjernelignende aktivitet uten noen form for trening. Dette utfordrer dagens datakrevende tilnærming til AI-utvikling. Arbeidet antyder at smartere design dramatisk kan fremskynde læring samtidig som kostnader og energibruk kuttes.
---
Ny forskning fra Johns Hopkins University viser at kunstig intelligens-systemer bygget med design inspirert av biologi kan begynne å ligne menneskelig hjerneaktivitet før de er trent på noen data. Studien antyder at hvordan KI er strukturert kan være like viktig som hvor mye data den behandler.
Funnene, publisert i Nature Machine Intelligence, utfordrer den dominerende strategien innen AI-utvikling. I stedet for å stole på måneder med opplæring, enorme datasett og enorm datakraft, fremhever forskningen verdien av å starte med et hjernelignende arkitektonisk fundament.
Å tenke nytt om den datatunge tilnærmingen til AI
"Måten AI-feltet beveger seg på nå, er å kaste masse data på modellene og bygge dataressurser på størrelse med små byer. Det krever at man bruker hundrevis av milliarder dollar. I mellomtiden lærer mennesker å se ved hjelp av svært lite data,» sa hovedforfatter Mick Bonner, førsteamanuensis i kognitiv vitenskap ved Johns Hopkins University. "Evolusjonen kan ha konvergert rundt dette designet av en god grunn. Vårt arbeid antyder at arkitektoniske design som er mer hjerneaktige gir AI-systemene et svært fordelaktig utgangspunkt.»
Bonner og hans kolleger hadde som mål å teste om arkitektur alene kunne gi AI-systemer et mer menneskelignende utgangspunkt, uten å være avhengig av storskala trening.
Sammenligning av populære AI-arkitekturer
Forskerteamet fokuserte på tre hovedtyper nevrale nettverksdesign som ofte brukes i moderne AI-systemer: transformatorer, fullt tilkoblede nettverk og konvolusjonelle nevrale nettverk.
De justerte disse designene gjentatte ganger for å skape dusinvis av forskjellige kunstige nevrale nettverk. Ingen av modellene var trent på forhånd. Forskerne viste deretter de utrente systembildene av objekter, mennesker og dyr, og sammenlignet deres indre aktivitet med hjerneresponser fra mennesker og ikke-menneskelige primater som så på de samme bildene.
Hvorfor konvolusjonelle nettverk skilte seg ut
Å øke antallet kunstige nevroner i transformatorer og fullt tilkoblede nettverk førte til liten meningsfull endring. Imidlertid førte lignende justeringer til konvolusjonelle nevrale nettverk til aktivitetsmønstre som lignet mer på de man ser i den menneskelige hjernen.
Ifølge forskerne presterte disse utrente konvolusjonsmodellene på nivå med tradisjonelle AI-systemer som vanligvis krever eksponering for millioner eller til og med milliarder av bilder. Resultatene tyder på at arkitektur spiller en større rolle i å forme hjernelignende atferd enn tidligere antatt.
En raskere vei til smartere AI
...

Topp
Rangering
Favoritter
