Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI heeft misschien toch geen enorme trainingsdata nodig | Hannah Robbins, Johns Hopkins University
Samenvatting: Nieuw onderzoek toont aan dat AI geen eindeloze trainingsdata nodig heeft om meer als een menselijke hersenen te functioneren. Toen onderzoekers AI-systemen opnieuw ontwierpen om beter op biologische hersenen te lijken, produceerden sommige modellen hersenachtige activiteit zonder enige training. Dit daagt de huidige data-hongerige benadering van AI-ontwikkeling uit. Het werk suggereert dat slimmer ontwerp het leren dramatisch kan versnellen terwijl het kosten en energieverbruik vermindert.
---
Nieuw onderzoek van Johns Hopkins University toont aan dat kunstmatige intelligentiesystemen die zijn gebouwd met ontwerpen geïnspireerd door de biologie, kunnen beginnen te lijken op menselijke hersenactiviteit, zelfs voordat ze op enige data zijn getraind. De studie suggereert dat hoe AI is gestructureerd net zo belangrijk kan zijn als hoeveel data het verwerkt.
De bevindingen, gepubliceerd in Nature Machine Intelligence, dagen de dominante strategie in AI-ontwikkeling uit. In plaats van maandenlange training, enorme datasets en enorme rekenkracht te gebruiken, benadrukt het onderzoek de waarde van beginnen met een hersenachtig architectonisch fundament.
Herzien van de Data-intensievere Benadering van AI
"De manier waarop het AI-veld zich momenteel ontwikkelt, is om een hoop data op de modellen te gooien en rekenbronnen te bouwen ter grootte van kleine steden. Dat vereist het uitgeven van honderden miljarden dollars. Ondertussen leren mensen om te zien met heel weinig data," zei hoofdauteur Mick Bonner, assistent-professor cognitieve wetenschap aan Johns Hopkins University. "Evolutie kan om een goede reden op dit ontwerp zijn samengekomen. Ons werk suggereert dat architectonische ontwerpen die meer hersenachtig zijn, de AI-systemen in een zeer voordelige startpositie plaatsen."
Bonner en zijn collega's wilden testen of alleen de architectuur AI-systemen een meer menselijke startpositie kon geven, zonder afhankelijk te zijn van grootschalige training.
Vergelijking van Populaire AI-Architecturen
Het onderzoeksteam richtte zich op drie belangrijke soorten neurale netwerkontwerpen die vaak worden gebruikt in moderne AI-systemen: transformers, volledig verbonden netwerken en convolutionele neurale netwerken.
Ze pasten deze ontwerpen herhaaldelijk aan om tientallen verschillende kunstmatige neurale netwerken te creëren. Geen van de modellen was vooraf getraind. De onderzoekers toonden de ongetrainde systemen vervolgens afbeeldingen van objecten, mensen en dieren en vergeleken hun interne activiteit met hersenreacties van mensen en niet-menselijke primaten die dezelfde afbeeldingen bekeken.
Waarom Convolutionele Netwerken Opvielen
Het verhogen van het aantal kunstmatige neuronen in transformers en volledig verbonden netwerken leidde tot weinig betekenisvolle verandering. Echter, vergelijkbare aanpassingen aan convolutionele neurale netwerken leidden tot activiteitspatronen die dichter bij die van de menselijke hersenen lagen.
Volgens de onderzoekers presteerden deze ongetrainde convolutionele modellen op hetzelfde niveau als traditionele AI-systemen die doorgaans blootstelling aan miljoenen of zelfs miljarden afbeeldingen vereisen. De resultaten suggereren dat architectuur een grotere rol speelt in het vormgeven van hersenachtige gedragingen dan eerder werd gedacht.
Een Snellere Weg naar Slimmere AI
...

Boven
Positie
Favorieten
