Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
KI benötigt möglicherweise doch keine massiven Trainingsdaten | Hannah Robbins, Johns Hopkins Universität
Zusammenfassung: Neue Forschungen zeigen, dass KI nicht endlose Trainingsdaten benötigt, um menschlicher zu agieren. Als Forscher KI-Systeme umgestalteten, um biologischen Gehirnen ähnlicher zu sein, produzierten einige Modelle gehirnähnliche Aktivitäten ohne jegliches Training. Dies stellt den heutigen datensüchtigen Ansatz zur KI-Entwicklung in Frage. Die Arbeit legt nahe, dass ein intelligenteres Design das Lernen dramatisch beschleunigen und gleichzeitig Kosten und Energieverbrauch senken könnte.
---
Neue Forschungen von der Johns Hopkins Universität zeigen, dass künstliche Intelligenzsysteme, die mit biologisch inspirierten Designs gebaut wurden, beginnen können, menschliche Gehirnaktivität zu ähneln, selbst bevor sie auf Daten trainiert werden. Die Studie legt nahe, dass die Struktur von KI ebenso wichtig sein könnte wie die Menge an Daten, die sie verarbeitet.
Die Ergebnisse, veröffentlicht in Nature Machine Intelligence, stellen die dominierende Strategie in der KI-Entwicklung in Frage. Anstatt sich auf monatelanges Training, enorme Datensätze und riesige Rechenleistung zu verlassen, hebt die Forschung den Wert hervor, mit einer gehirnähnlichen architektonischen Grundlage zu beginnen.
Neudenken des datenschweren Ansatzes zur KI
"Derzeit bewegt sich das KI-Feld dahin, eine Menge Daten auf die Modelle zu werfen und Rechenressourcen in der Größe kleiner Städte aufzubauen. Das erfordert Hunderte von Milliarden Dollar. In der Zwischenzeit lernen Menschen, mit sehr wenig Daten zu sehen," sagte der Hauptautor Mick Bonner, Assistenzprofessor für Kognitionswissenschaft an der Johns Hopkins Universität. "Die Evolution könnte aus gutem Grund auf dieses Design konvergiert sein. Unsere Arbeit legt nahe, dass architektonische Designs, die gehirnähnlicher sind, die KI-Systeme in eine sehr vorteilhafte Ausgangsposition bringen."
Bonner und seine Kollegen wollten testen, ob allein die Architektur den KI-Systemen einen menschlicheren Ausgangspunkt geben könnte, ohne auf großangelegtes Training angewiesen zu sein.
Vergleich beliebter KI-Architekturen
Das Forschungsteam konzentrierte sich auf drei Haupttypen von neuronalen Netzwerkdesigns, die häufig in modernen KI-Systemen verwendet werden: Transformer, vollständig verbundene Netzwerke und konvolutionale neuronale Netzwerke.
Sie passten diese Designs wiederholt an, um Dutzende von verschiedenen künstlichen neuronalen Netzwerken zu erstellen. Keines der Modelle wurde zuvor trainiert. Die Forscher zeigten dann den untrainierten Systemen Bilder von Objekten, Menschen und Tieren und verglichen ihre interne Aktivität mit den Gehirnreaktionen von Menschen und nicht-menschlichen Primaten, die dieselben Bilder betrachteten.
Warum konvolutionale Netzwerke herausstachen
Die Erhöhung der Anzahl künstlicher Neuronen in Transformern und vollständig verbundenen Netzwerken führte zu wenig bedeutenden Veränderungen. Ähnliche Anpassungen an konvolutionalen neuronalen Netzwerken führten jedoch zu Aktivitätsmustern, die den im menschlichen Gehirn beobachteten Mustern näher kamen.
Laut den Forschern schnitten diese untrainierten konvolutionalen Modelle gleichwertig ab mit traditionellen KI-Systemen, die typischerweise Millionen oder sogar Milliarden von Bildern ausgesetzt sind. Die Ergebnisse deuten darauf hin, dass die Architektur eine größere Rolle bei der Formung gehirnähnlichen Verhaltens spielt, als zuvor angenommen.
Ein schnellerer Weg zu intelligenterer KI
...

Top
Ranking
Favoriten
