Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Viele führende Forscher beginnen zu argumentieren, dass Skalierung allein uns nicht zu AGI führen wird und dass wir letztendlich einen großen Forschungsdurchbruch benötigen, ähnlich der Schaffung von Transformatoren.
Ich hatte kürzlich die Gelegenheit, mit John Hennessy (dem Vorsitzenden von Alphabet) zu sprechen, und ich fragte ihn, ob der aktuelle Skalierungstrend nur eine vorübergehende Phase oder ein Paradigma für sich ist.
Er sagte, es gibt zwei zentrale Fragen:
Ob die Skalierung weiterhin Fortschritte bei der Fähigkeit bringen wird, KI-Systeme zu entwickeln, die komplexes Denken durchführen. Bisher haben wir keinen Halt dabei gesehen, also ist die Antwort nicht eindeutig ja, sondern wahrscheinlich.
Die zweite Frage ist, ob die Skalierung kosteneffektiv bleibt, und seine Antwort darauf war nein. Eine nützliche Kennzahl, auf die man achten sollte, ist die Leistung pro Watt, und diese Kurve beginnt sich abzuflachen.
Ich glaube, es wird zunehmend klar, dass selbst wenn die Skalierung weiterhin die Modellfähigkeiten verbessert, der eigentliche Engpass möglicherweise nicht abnehmende Erträge sind, sondern die Energiekosten, die erforderlich sind, um AGI- und ASI-Level-Systeme zu erreichen. Das Plateau zeigt sich nicht in der Rohleistung, sondern in der Leistung pro Watt. Das ASI-Problem reduziert sich letztendlich auf ein Energieproblem. Kardashev ist es.
Top
Ranking
Favoriten

