Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI może nie potrzebować ogromnych zbiorów danych do treningu | Hannah Robbins, Uniwersytet Johnsa Hopkinsa
Podsumowanie: Nowe badania pokazują, że AI nie potrzebuje nieskończonych zbiorów danych, aby zacząć działać bardziej jak ludzki mózg. Kiedy badacze przeprojektowali systemy AI, aby lepiej przypominały biologiczne mózgi, niektóre modele wykazywały aktywność podobną do mózgowej bez żadnego treningu. To kwestionuje dzisiejsze podejście do rozwoju AI, które wymaga dużych ilości danych. Prace sugerują, że mądrzejszy projekt może dramatycznie przyspieszyć uczenie się, jednocześnie obniżając koszty i zużycie energii.
---
Nowe badania z Uniwersytetu Johnsa Hopkinsa pokazują, że systemy sztucznej inteligencji zbudowane na podstawie projektów inspirowanych biologią mogą zacząć przypominać aktywność ludzkiego mózgu nawet przed przeszkoleniem na jakichkolwiek danych. Badanie sugeruje, że sposób, w jaki AI jest zbudowane, może być równie ważny jak ilość przetwarzanych danych.
Wyniki, opublikowane w Nature Machine Intelligence, kwestionują dominującą strategię w rozwoju AI. Zamiast polegać na miesiącach treningu, ogromnych zbiorach danych i ogromnej mocy obliczeniowej, badania podkreślają wartość rozpoczęcia od architektonicznej podstawy przypominającej mózg.
Przemyślenie podejścia opartego na dużych zbiorach danych do AI
"Sposób, w jaki obecnie rozwija się dziedzina AI, polega na rzucaniu dużej ilości danych na modele i budowaniu zasobów obliczeniowych wielkości małych miast. To wymaga wydawania setek miliardów dolarów. Tymczasem ludzie uczą się widzieć, używając bardzo małej ilości danych," powiedział główny autor Mick Bonner, profesor nadzwyczajny nauk kognitywnych na Uniwersytecie Johnsa Hopkinsa. "Ewolucja mogła zbiec się na tym projekcie z dobrego powodu. Nasza praca sugeruje, że architektoniczne projekty, które są bardziej podobne do mózgu, stawiają systemy AI w bardzo korzystnej pozycji startowej."
Bonner i jego koledzy mieli na celu przetestowanie, czy sama architektura może dać systemom AI bardziej ludzką punkt wyjścia, bez polegania na dużych treningach.
Porównanie popularnych architektur AI
Zespół badawczy skupił się na trzech głównych typach projektów sieci neuronowych powszechnie używanych w nowoczesnych systemach AI: transformatorach, sieciach w pełni połączonych i konwolucyjnych sieciach neuronowych.
Ciągle dostosowywali te projekty, aby stworzyć dziesiątki różnych sztucznych sieci neuronowych. Żaden z modeli nie był wcześniej trenowany. Badacze następnie pokazali nieprzeszkolonym systemom obrazy obiektów, ludzi i zwierząt i porównali ich wewnętrzną aktywność z reakcjami mózgu ludzi i nie-ludzkich małp oglądających te same obrazy.
Dlaczego sieci konwolucyjne wyróżniały się
Zwiększenie liczby sztucznych neuronów w transformatorach i w pełni połączonych sieciach nie przyniosło znaczących zmian. Jednak podobne dostosowania do konwolucyjnych sieci neuronowych prowadziły do wzorców aktywności, które bardziej przypominały te obserwowane w ludzkim mózgu.
Według badaczy, te nieprzeszkolone modele konwolucyjne osiągnęły wyniki porównywalne z tradycyjnymi systemami AI, które zazwyczaj wymagają ekspozycji na miliony lub nawet miliardy obrazów. Wyniki sugerują, że architektura odgrywa większą rolę w kształtowaniu zachowań podobnych do mózgowych, niż wcześniej sądzono.
Szybsza droga do mądrzejszej AI
...

Najlepsze
Ranking
Ulubione
