Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Javi Lopez ⛩️
"Software wird eine Ware sein, wie Elektrizität, und sie wird direkt in der LLM-Schicht laufen."
Was bedeutet das überhaupt? Ich werde es im Detail aufschlüsseln (langer Beitrag kommt 🍿) und wenn du fertig bist, wird es keinen Mittelweg geben. Du wirst die Idee entweder komplett ablehnen (und falsch liegen) oder du wirst als Konvertit herausgehen und ich werde dich in meinem Kult willkommen heißen 😂
Der Beitrag von gestern, in dem ich sagte, dass ich das in naher Zukunft sehr klar sehen kann, hat viel Aufregung und Fragen ausgelöst. Also werde ich die Idee, die ich hier (und mit jedem, der sich außerhalb von X nicht langweilt, ich bin an diesem Punkt müde von mir selbst) seit über einem Jahr teile, weiter ausarbeiten. Lass uns anfangen.
1. ‚Alle Software wird in der LLM-Schicht laufen‘
Zuerst das Offensichtliche.
Selbst heute gibt es Menschen, die, unglaublich, immer noch leugnen, dass wir auf eine Welt zusteuern, in der alle Software (Frontend, Backend, Infrastruktur usw.) mit einfacher natürlicher Sprache erstellt wird.
In Wirklichkeit sind wir mit LLMs wie Claude, Grok oder ChatGPT und Tools wie Cursor, Windsurf oder Lovable bereits fast dort. Jeder anständige Entwickler, den ich kenne, schreibt keinen einzigen Code mehr. Sie sprechen in natürlicher Sprache und leiten Schwärme von Agenten an, um die gesamte App zu erstellen, dann überprüfen sie sie nur (und streiten und betteln 🤣), damit die KI ihre Vision umsetzt.
Dieser Teil ist trivial. Wenn du noch nicht dort bist, liegt es daran, dass du es nicht willst.
Der nächste Sprung ist viel größer, und hier schauen mich selbst Leute, die tief in der KI stecken, skeptisch an.
Wir werden diese Schicht auch nicht brauchen. Kein Python, kein HTML, kein C++, kein CSS, nichts.
Alles (die gesamte Software-Schicht, die Logik, die Persistenz oder das Gedächtnis (nenn es eine Datenbank, wenn du willst, aber es wird viel mehr sein), wird direkt innerhalb des LLM „laufen“.
Elon Musk hat es in einem Satz zusammengefasst, der in die Geschichte eingehen wird: "Jeder Eingabebitstream zu jedem Ausgabebitstream."
Wenn du Technik verstehst, brauchst du wahrscheinlich nicht mehr. Du verstehst es bereits. Nur für den Fall, hier ist ein schnelles Beispiel.
Heute, wenn wir einen Upscaler wie Magnific bauen wollen, brauchen wir:
- Backend-Logik, den Code, der auf dem Server läuft (in unserem Fall Python)
- Eine Datenbank (Firebase, Postgres, Supabase, MySQL usw.)
- Die Frontend-Schicht, was der Benutzer sieht: HTML, CSS, JavaScript
- Die Infrastruktur-Schicht: Cloud-GPUs, wo die Magie läuft und wo wir Workflows über APIs aufrufen
Was für ein Zirkus!
Und sicher, du kannst das ziemlich gut bereits mit Cursor + Claude bauen. Aber Programmiersprachen wurden für Menschen entwickelt. Zukünftige KIs werden sie nicht brauchen. Sie sind überflüssig. Ein Parameter, den wir entfernen sollten. Eine Ineffizienz.
Glaubst du wirklich, dass das alles notwendig ist? Glaubst du wirklich, dass wir in 20 Jahren noch so arbeiten werden?
Nein. Ein zukünftiges LLM, eines, das heute schwer vorstellbar ist, aber das wir schneller sehen werden, als du denkst, könnte einen Screenshot des heutigen Magnific aufnehmen und mit nur diesem Bild und einem Mausklick oder -ziehen ableiten, was es als Nächstes tun muss.
ABLEITEN, WAS ES ALS NÄCHSTES TUN MUSS.
Und ich meine nicht, dass es heimlich ein Frontend, Backend und eine Datenbank im Hintergrund erstellt (das ist mittelalterlich). Ich meine, es wird buchstäblich den nächsten visuellen Frame generieren, um ihn dem Benutzer zu zeigen. Das könnte derselbe Screenshot sein, bei dem der Schieberegler um 1 Pixel nach rechts verschoben wurde und das angezeigte Bild mit einer etwas detaillierteren Upscale.
So einfach.
„Aber… aber… aber… Javi… wo passiert die Logik? Wo ist das Programm, das das macht?“
Direkt im LLM! Auf die gleiche Weise, wie die heutigen Modelle ein Bild nehmen und ein vollständiges Video mit anständiger Physik generieren können, werden sie verstehen, was wir derzeit die „Geschäftslogik“ einer Anwendung nennen, egal wie komplex.
"Jeder Eingabebitstream zu jedem Ausgabebitstream."
Logik, die aus dem Modell selbst entsteht, nicht aus handgefertigtem Code.
Jetzt hast du es wahrscheinlich verstanden. Wenn nicht, nimm dir eine Minute Zeit, um über die Idee nachzudenken, bevor du zum nächsten Punkt übergehst, lass es dir nicht im Hals stecken bleiben.
2. ‚Software wird eine Ware sein, wie Elektrizität‘
Und nicht nur Software. Auch alle digitalen Unterhaltungen (Filme, Videospiele usw.). In Echtzeit.
Der größte Teil des Wertes der digitalen Technologie wird sich in sehr wenigen Unternehmen konzentrieren. Die, die das multimodale LLM-Rennen gewinnen und die, die die Infrastruktur bereitstellen, auf der sie laufen. Stell dir eine Welt vor, in der zu sagen „Ich will ein SaaS, das das macht“ oder „Mach mir einen Film in diesem Stil mit meinem Hund in der Hauptrolle“ dir ein sofortiges Ergebnis von einem LLM in einer Qualität liefert, die weit über den besten Produktionen von heute liegt.
Ich denke im Grunde, dass alle Logik- und visuellen Schichten auf ultra-advanced LLMs laufen werden, die wir heute kaum vorstellen können. Es wird keinen Sinn machen, Apps, Websites oder Unterhaltung so zu erstellen, wie wir es jetzt tun. Die Fähigkeit, dies zu tun, wird sich in Unternehmen konzentrieren, die die besten LLMs und die Rechenleistung haben, um sie in großem Maßstab zu betreiben.
Wir werden KI-Anbieter hauptsächlich nach Preis und viel weniger nach Funktionen oder Kapazität auswählen. Denk an Elektrizitätsunternehmen heute oder PS vs Xbox, wenn sie einige interessante IPs sichern.
3. ‚Aber Javi, sie sind nicht deterministisch und sie haben kein Gedächtnis. Sie werden niemals anständige Apps so bauen‘
Es als unmöglich zu bezeichnen, ist kurzsichtig. Natürlich werden sie Persistenz und Gedächtnis haben. Nur nicht auf die vereinfachte „wie eine Datenbank“-Art, die wir heute verwenden.
4. ‚Okay, aber wie würdest du so ein LLM überhaupt bauen?‘
Sorgfältig 😂
Hauptsächlich mit synthetischen Daten. Hier ist eine offensichtliche Idee, die immer noch ziemlich revolutionär ist.
Da LLMs und Agenten kurz davor sind, End-to-End-Apps (Backend und Frontend) zu generieren, können wir sie instrumentieren, um in einem geschlossenen Loop mit expliziten Zielen und Belohnungsfunktionen zu bauen, UI-Zustände und Eingaben zu protokollieren. Diese Trajektorien können das Training für zukünftige Basis-Modelle speisen.
Wenn ich mit meinem begrenzten Wissen darüber nachdenken kann (auch wenn kein großes Unternehmen öffentlich gesagt hat, dass sie es tun), kann ich annehmen, dass viel hellere Köpfe bereits daran arbeiten.
5. ‚Wenn sich das als wahr herausstellt, wie bekommst du einen Vorteil gegenüber den Ungläubigen?‘
Du bist bereits im Vorteil, wenn du in etwas wie diesem recht hast. Für jetzt ist mein Schritt, mich durch Investitionen zu positionieren, herauszufinden, welche Unternehmen die meiste Macht konzentrieren werden, indem sie GPUs und die Technologie sichern. Ich werde später einen Link im Thread posten, obwohl es kurzsichtig sein kann und sich auf das konzentriert, was heute existiert. Das Beste, was du tun kannst, ist, das Spiel Tag für Tag zu verfolgen und scharf zu bleiben.
Wie kommt das an?
Bei Fragen beantworte ich diese gerne in den Kommentaren.

11,84K
Bruder...


Javi Lopez ⛩️Vor 9 Stunden
Airbnbs, und ich meine wirklich erstklassige Airbnbs, waren früher Orte, an denen man weniger als in einem Hotel zahlte und viel mehr bekam, wie zum Beispiel die Möglichkeit, früh einzuchecken und spät auszuchecken, usw.
Jetzt sind sie viel teurer als 5-Sterne-Hotels und zwingen dich, den Müll rauszubringen, andernfalls droht eine Geldstrafe, lassen dich erst um 16 Uhr rein, werfen dich um 10 Uhr raus und geben dir eine lange Liste von Anweisungen, wie du den Ort verlassen sollst, obwohl du 300 € für die sogenannte Reinigung und 700 € pro Tag für den Ort selbst zahlst.


3,2K
Airbnbs, und ich meine wirklich erstklassige Airbnbs, waren früher Orte, an denen man weniger als in einem Hotel zahlte und viel mehr bekam, wie zum Beispiel die Möglichkeit, früh einzuchecken und spät auszuchecken, usw.
Jetzt sind sie viel teurer als 5-Sterne-Hotels und zwingen dich, den Müll rauszubringen, andernfalls droht eine Geldstrafe, lassen dich erst um 16 Uhr rein, werfen dich um 10 Uhr raus und geben dir eine lange Liste von Anweisungen, wie du den Ort verlassen sollst, obwohl du 300 € für die sogenannte Reinigung und 700 € pro Tag für den Ort selbst zahlst.


7,07K
Morgen Nachrichten:
Lovable hat OpenAI getötet.
Und Video tötete den Radio-Star!

Javi Lopez ⛩️8. Aug., 20:57
⚡ GPT-5 hat gerade Loveable getötet.
Schließlich werden alle Schichten von Software direkt innerhalb von LLMs laufen.
Die massive Menge an Macht, die KI-Unternehmen mit GPUs haben und die Fähigkeit, ständig neue LLMs herauszubringen, wird zu absoluten Monopolen führen.
4,43K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten