Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

ℝ𝕦𝕓𝕚𝕜𝕤
Forschung, DeFi & Wirtschaftsdesign
Es gibt eine neue Erzählung unter den Projekten.
"TGE bald. Wir bringen diesen Token auf den Markt. Hier ist unsere Tokenomics. Kein VC, keine Insider, nur die Community und so weiter."
---
Warum funktioniert dieser Pitch?
Projekte haben 2023 und 2024 eine harte Lektion gelernt, als viele Tokens in der frühen Phase sofort abstürzten, als die Insider-Klippen abliefen. @HyperliquidX hat das umgedreht. Es hat zuerst ein funktionierendes Perpetual DEX ausgeliefert, Vorverkaufszuweisungen übersprungen und 28 % des Angebots direkt an die Nutzer verteilt. Innerhalb von zwei Monaten überstieg der Papierwert des Airdrops 7 Milliarden Dollar und das tägliche Volumen erreichte 1,39 Milliarden Dollar, was Fonds zwang, die sich zurückgehalten hatten, am Markt zu kaufen, anstatt zu einem Rabatt. Der Fall bewies, dass ein echtes Produkt plus ein fairer Launch Nachfrage ohne Venture-Unterstützung erzeugen kann.
---
Gibt es Vorteile bei "Community-Only"-Launches? Ja, die gibt es:
• Einnahmenfonds Liquidität: Hyperliquid leitet Handelsgebühren an eine Rückkauf-Wallet weiter, was ständige Kaufunterstützung schafft.
• Klare Nützlichkeit: Der Token wird verwendet, um die Nachfrage mit der Nutzung zu skalieren.
• Transparente Eigentümerschaft: Kein VC-Überhang, der den frühen Handel drückt.
Wenn diese drei Punkte zusammenkommen, wird der Token zur Cashflow-Pipeline für das Protokoll.
---
Ich sehe ein Problem in der Erzählung. Warum?
Zu viele Teams haben den Slogan kopiert, ohne den Inhalt zu übernehmen. In dem Boom der KI-Agenten überlebten die meisten Agenten-Tokens im Durchschnitt kaum 17 Tage, und der Ausfallmodus ist einfach:
• Kein haftendes Produkt → keine externen Cashflows.
• Token-Nützlichkeit beschränkt auf "Zahl steigt" → Nachfrage bricht zusammen, sobald der Hype nachlässt.
• Angebot inflatiert weiterhin planmäßig → Preis geht nach unten.
---
Fehlgeleitete Ökonomien können auch echte Produkte ruinieren.
Wovon spreche ich?
Eine funktionierende App ist nicht genug, wenn die Verteilung verzerrt ist. Überdimensionierte Team- oder Berateranteile, unendliche Inflationsemissionen oder kein Burn-Offset beseitigen das Vertrauen und drücken langfristige Halter. 90 % der seit 2020 gestarteten Tokens werden jetzt unter dem Listenpreis gehandelt, und dies ist hauptsächlich auf schlechtes Anreizdesign zurückzuführen. Deshalb habe ich eine Reihe von Dingen, die ich in Betracht ziehe, bevor ich einem Projekt, das die NO VC-Erzählung verkauft, vertraue.
---
Checkliste, bevor Sie einen "No-VC"-Launch begrüßen
1. Einnahmenmotor: Kann das Protokoll Gebühren in einem großen genug Markt verdienen, um relevant zu sein?
2. Token-Senke: Müssen die Nutzer den Token benötigen, um auf diese Einnahmen oder Dienstleistungen zuzugreifen?
3. Angebotsrhythmus: Ist die Ausgabe an die prognostizierte Aktivität angepasst, mit klaren Obergrenzen und transparenten Freigaben?
4. Liquiditätsplan nach dem Launch: Gebühren, Rückkäufe oder Senken, die Wert in den Umlauf zurückführen.
5. Adaptive Governance: Mechanismen zur Anpassung von Parametern, sobald der Markt Mängel aufdeckt.
Wenn einer dieser Punkte leer ist, ist das Fehlen eines VCs ein Warnsignal, dass der Einzelhandel gebeten wird, Exit-Liquidität bereitzustellen.
---
Schließlich können Community-first-Launches das Eigentum demokratisieren und sogar Fonds unter Druck setzen, faire Marktpreise zu zahlen, aber nur, wenn sie durch echte Produkttraktion und diszipliniertes Token-Engineering unterstützt werden. Copy-Paste-Slogans werden kein schwaches Geschäftsmodell reparieren, und fehlgeleitete Emissionspläne können selbst starke Projekte ruinieren. Behandeln Sie jeden neuen "TGE bald"-Thread als Pitch-Deck, verfolgen Sie die Cashflows, lesen Sie die Kapitaltabelle und denken Sie daran, dass Code ohne Ökonomie kein Markt ist, sondern nur Software.
Danke fürs Lesen! Wenn Sie etwas gelernt haben, teilen Sie es bitte und folgen Sie mir @RubiksWeb3hub für weitere Einblicke.
2,85K
Ich weiß, dass ich kein Master Prompt Engineer bin, aber ich muss mehr Zeit mit Grok 4 verbringen, um es in meine Methodik zu integrieren.
Ich habe bisher keine Zufriedenheit aus der Nutzung im Vergleich zu O3 gewonnen, aber ich werde es sicher herausfinden.
Es gibt jedoch eine Sache, die ich mag. Die Aufschlüsselung des Denkens ist cool.
560
AI-Zentralisierung vs. Dezentralisierung: Was lohnt sich zu spielen?
Stellen Sie sich zwei Arenen vor: Eine wird von Technologiegiganten dominiert, die massive Rechenzentren betreiben, fortschrittliche Modelle trainieren und die Regeln festlegen. Die andere verteilt Rechenleistung, Daten und Entscheidungsfindung über Millionen von Minern, Edge-Geräten und offenen Gemeinschaften. Wo Sie wählen, zu bauen oder zu investieren, hängt davon ab, welche Arena Ihrer Meinung nach die nächste Welle von Wert erfassen wird oder ob die wahre Gelegenheit darin liegt, beide zu verbinden.
---
Was Zentralisierung und Dezentralisierung in der KI bedeuten
Zentralisierte KI findet sich hauptsächlich in hyperskalierenden Cloud-Plattformen wie AWS, Azure und Google Cloud, die die Mehrheit der GPU-Cluster kontrollieren und einen Marktanteil von 68 % am globalen Cloud-Markt halten. Diese Anbieter trainieren große Modelle, halten Gewichte geschlossen oder unter restriktiven Lizenzen (wie bei OpenAI und Anthropic zu sehen) und verwenden proprietäre Datensätze und exklusive Datenpartnerschaften. Die Governance ist typischerweise unternehmerisch, gelenkt von Vorständen, Aktionären und nationalen Regulierungsbehörden.
Auf der anderen Seite verteilt dezentrale KI die Berechnung über Peer-to-Peer-GPU-Märkte, wie @akashnet_ und @rendernetwork, sowie über On-Chain-Inferenznetzwerke wie @bittensor_. Diese Netzwerke zielen darauf ab, sowohl das Training als auch die Inferenz zu dezentralisieren.
---
Warum die Zentralisierung weiterhin dominiert
Es gibt strukturelle Gründe, warum zentralisierte KI weiterhin führend ist.
Das Training eines fortschrittlichen Modells, sagen wir, eines multilingualen Modells mit 2 Billionen Parametern, erfordert über 500 Millionen Dollar an Hardware, Strom und Humankapital. Nur sehr wenige Entitäten können solche Vorhaben finanzieren und umsetzen. Darüber hinaus stellen regulatorische Verpflichtungen wie die US-Erlass zur KI und das EU-KI-Gesetz strenge Anforderungen an Red-Teaming, Sicherheitsberichte und Transparenz. Die Erfüllung dieser Anforderungen schafft einen Compliance-Schutz, der gut ausgestattete Marktteilnehmer begünstigt. Zentralisierung ermöglicht auch eine engere Sicherheitsüberwachung und Lebenszyklusmanagement über Trainings- und Bereitstellungsphasen hinweg.
---
Risse im zentralisierten Modell
Doch diese Dominanz hat Schwachstellen.
Es gibt zunehmende Bedenken hinsichtlich des Konzentrationsrisikos. In Europa haben Führungskräfte von 44 großen Unternehmen die Regulierungsbehörden gewarnt, dass das EU-KI-Gesetz unbeabsichtigt US-Cloud-Monopole verstärken und die regionale KI-Entwicklung einschränken könnte. Exportkontrollen, insbesondere von den USA geführte GPU-Beschränkungen, schränken ein, wer auf hochmoderne Rechenleistung zugreifen kann, und ermutigen Länder und Entwickler, nach dezentralen oder offenen Alternativen zu suchen.
Darüber hinaus hat die API-Preisgestaltung für proprietäre Modelle seit 2024 mehrfach zugenommen. Diese Monopolrenten motivieren Entwickler, kostengünstigere, offene Gewichts- oder dezentrale Lösungen in Betracht zu ziehen.
---
Dezentrale KI
Wir haben On-Chain-Computermärkte wie Akash, Render und @ionet, die es GPU-Besitzern ermöglichen, ungenutzte Kapazitäten für KI-Arbeitslasten zu vermieten. Diese Plattformen erweitern sich nun, um AMD-GPUs zu unterstützen, und arbeiten an arbeitslastspezifischen Nachweisen, um die Leistung zu garantieren.
Bittensor incentiviert Validatoren und Modellbetreiber durch den $TAO-Token. Föderiertes Lernen gewinnt an Akzeptanz, hauptsächlich im Gesundheitswesen und in der Finanzwirtschaft, indem es kollaboratives Training ermöglicht, ohne sensible Rohdaten zu bewegen.
Proof-of-Inference und Zero-Knowledge-Maschinenlernen ermöglichen überprüfbare Modellausgaben, selbst wenn sie auf untrusted Hardware ausgeführt werden. Dies sind grundlegende Schritte für dezentrale, vertrauenslose KI-APIs.
---
Wo die wirtschaftliche Gelegenheit liegt
Kurzfristig (heute bis 18 Monate) liegt der Fokus auf der Infrastruktur der Anwendungsschicht. Werkzeuge, die es Unternehmen ermöglichen, einfach zwischen OpenAI, Anthropic, Mistral oder lokalen offenen Gewichtsmodellen zu wechseln, werden wertvoll sein. Ebenso gewinnen fein abgestimmte Studios, die regulatorisch konforme Versionen offener Modelle unter Unternehmens-SLAs anbieten, an Bedeutung.
Mittelfristig (18 Monate bis 5 Jahre) würden dezentrale GPU-Netzwerke an Bedeutung gewinnen, da ihre Tokenpreise die tatsächliche Nutzung widerspiegeln. In der Zwischenzeit werden Bittensor-ähnliche Subnetzwerke, die sich auf spezialisierte Aufgaben wie Risikobewertung oder Protein-Faltung konzentrieren, effizient durch Netzwerkeffekte skalieren.
Langfristig (5+ Jahre) wird Edge-KI voraussichtlich dominieren. Telefone, Autos und IoT-Geräte werden lokale LLMs ausführen, die durch föderiertes Lernen trainiert werden, wodurch Latenz und Abhängigkeit von der Cloud verringert werden. Datenbesitzprotokolle werden ebenfalls entstehen, die es Benutzern ermöglichen, Mikro-Tantiemen zu verdienen, während ihre Geräte Gradienten zu globalen Modellaktualisierungen beitragen.
---
Wie man die Gewinner identifiziert
Projekte, die wahrscheinlich erfolgreich sein werden, haben einen starken technischen Schutz, der Probleme rund um Bandbreite, Verifizierung oder Privatsphäre auf eine Weise löst, die Verbesserungen um Größenordnungen liefert. Wirtschaftliche Flywheels müssen gut gestaltet sein. Höhere Nutzung sollte bessere Infrastruktur und Mitwirkende finanzieren, nicht nur kostenlose Mitfahrer subventionieren.
Governance ist entscheidend. Tokenabstimmungen allein sind fragil, suchen Sie stattdessen nach Multi-Stakeholder-Räten, progressiven Dezentralisierungswegen oder Dual-Token-Modellen.
Schließlich ist der Ecosystem-Pull wichtig. Protokolle, die frühzeitig mit Entwickler-Toolchains integriert werden, werden die Akzeptanz schneller steigern.
---
Strategische Spielzüge
Für Investoren kann es klug sein, sich abzusichern, indem sie sowohl zentrale APIs (für stabile Renditen) als auch dezentrale Tokens (für asymmetrische Aufwärtsbewegungen) halten. Für Entwickler ist es eine hochgradige Gelegenheit, Abstraktionsschichten zu schaffen, die einen Echtzeitswitch zwischen zentralen und dezentralen Endpunkten basierend auf Latenz, Kosten oder Compliance ermöglichen.
Die wertvollsten Gelegenheiten liegen möglicherweise nicht an den Polen, sondern im verbindenden Gewebe: Protokolle, Orchestrierungsebenen und kryptografische Nachweise, die es Arbeitslasten ermöglichen, frei innerhalb sowohl zentralisierter als auch dezentralisierter Systeme zu navigieren.
Danke fürs Lesen!

1,22K
21M Bitcoins, Was passiert, wenn sie abgebaut werden?
Wie wir alle wissen, begrenzt das Design von Bitcoin die Gesamtmenge auf 21 Millionen Münzen. Also, was passiert nach dem letzten Bitcoin-Block? Kann das System weiterhin bestehen? Lest weiter, Jungs 👇
Bitcoin halbiert die Subvention für neue Münzen ungefähr alle vier Jahre. Sobald die letzte Subvention ausgezahlt ist, wahrscheinlich um das Jahr 2140, werden die einzigen Einnahmen für Miner die Transaktionsgebühren sein. Die Sorge ist klar. Wenn die Gebühren zu niedrig bleiben, könnten Miner ihre Maschinen abschalten, was die Hash-Rate und die Kosten für einen Angriff auf das Netzwerk senken würde. Was kann das System dagegen tun?
---
1. Wo steht das Einkommen der Miner heute?
Seit der Halbierung im April 2024 fiel die Blocksubvention auf 3,125 BTC. Die Gebühren stiegen kurzzeitig während des Ordinals- und Runes-Wahns Anfang 2024 und überstiegen für einige Tage die Subvention. Momentan liegen die Gebühren wieder bei etwa 7 % des Einkommens der Miner, dem niedrigsten Anteil seit dem letzten Bärenmarkt-Tief. Allein die Energie für einen durchschnittlichen Block kostet immer noch 90.000 $ bei 0,05 $/kWh. Daher müsste der Gebührenanteil um das 4-fache steigen, um die Kosten bei den aktuellen Preisen zu decken.
---
2. Der Weg bis 2140
Die Subvention verschwindet nicht über Nacht. Selbst nach der nächsten Halbierung im Jahr 2028 wird voraussichtlich etwa 90 % des Einkommens der Miner weiterhin aus neuen Münzen stammen. Das Sicherheitsbudget sinkt daher langsam, was fast ein Jahrhundert Zeit gibt, um stabile Gebührenquellen zu finden. Dieser Zeitraum ist wichtig. Er ermöglicht sowohl Protokollinnovationen als auch organisches Wirtschaftswachstum, um die Lücke zu schließen.
---
3. Sicherheitsbudget und Angriffskosten
Das Sicherheitsbudget ist der Gesamtwert, den Miner pro Block verdienen. Ein Rückgang dieses Budgets ist nicht automatisch katastrophal, da die Schwierigkeitsanpassung die Hash-Rate reduziert, bis der marginale Miner wieder profitabel ist. Das Risiko besteht darin, dass die Dollar-Kosten für einen Mehrheitsangriff schneller sinken könnten als der wirtschaftliche Durchsatz des Netzwerks, was gut finanzierte Gegner anziehen könnte.
---
4. Wie ein nachhaltiger Gebührenmarkt entstehen könnte
A. Gebührendruck durch begrenzten Blockraum: Selbst ohne neue Funktionen kann die Basis-Schicht von Bitcoin nur einige Hunderttausend Transaktionen pro Tag abwickeln. Wenn die globale Nachfrage nach endgültiger Abwicklung steigt, während der Blockraum knapp bleibt, werden die Nutzer die Gebühren in die Höhe treiben und die Miner werden diese Knappheitsprämie einstreichen. Ein funktionierender Gebührenmarkt existiert bereits, bleibt aber dünn, da die globale Nachfrage noch bescheiden ist.
B. Ereignisgesteuerte Spitzen signalisieren latente Nachfrage: Der Boom der Ordinals-Inschrift zeigte, dass neuartige Nutzungen des Blockraums die Gebühreneinnahmen vorübergehend über die Subvention treiben können. Obwohl der Anstieg nachließ, verdeutlichte er die Bereitschaft der Nutzer, zu zahlen, wenn sie einen einzigartigen Wert in der Unveränderlichkeit von Bitcoin wahrnehmen.
C. Layer-2-Abwicklung: Lightning, Fedimint, ₿apps, Rollups, die mit Opcodes wie OP_CAT oder BitVM vorgeschlagen werden, und Drivechains sind alle darauf ausgelegt, viele Off-Chain-Übertragungen in einer einzigen On-Chain-Abwicklungstransaktion zu bündeln. Wenn diese Ökosysteme wachsen, könnte ein wachsender Anteil des globalen Wertes wieder auf die Basis-Schicht zurückfließen und höhere Gesamtkosten für Gebühren zahlen, während individuelle Einzelhandelsübertragungen günstig bleiben.
D. Hochwertige Transaktionskategorien noch ungenutzt: Große Unternehmensschatzämter, Staatsfonds, tokenisierte reale Vermögenswerte und fortschrittliche, auf Covenants basierende Anwendungen könnten jeweils Blöcke mit Transaktionen injizieren, deren absolute Gebühren in Dollar weit höher sind als der heutige Median. Studien zeigen, dass spezialisierte Aktivitätscluster schwere Schwänze in der Gebührenverteilung antreiben.
---
5. Protokoll-Ebene Antworten
→ Inkrementelle Soft Forks: Funktionen, die die wirtschaftliche Dichte jedes Bytes erhöhen, wie Covenants, verbesserte Skripting oder native Rollup-Faktoren, können die obere Grenze der Gebühreneinnahmen erhöhen, ohne den Angebotszeitplan zu ändern.
→ Vorschläge zur Tail-Emission: Gemeinschaften setzen sich dafür ein, eine jährliche Inflationssubvention von 0,1 % hinzuzufügen, um ein Mindest-Sicherheitsbudget zu garantieren. Dies bricht das Credo des festen Angebots und erfordert sozialen Konsens.
→ Wiederverwendung inaktiver Münzen: Andere schlagen vor, inaktive Münzen wiederzuverwenden, was jedoch die bestehenden Normen über Eigentumsrechte on-chain in Frage stellt.
---
6. Anpassung und Diversifizierung der Miner
Öffentlich gelistete Miner wie @RiotPlatforms und @MARA begannen, die Bitcoin-Produktion mit Datenzentrum-Hosting, KI-Inferenz und erneuerbarer Energie-Balancierung zu kombinieren, um die Einkommensvolatilität abzufedern. Dies würde die fortgesetzte Hash-Power auch in Zeiten niedriger Gebühren subventionieren. Es löst das Problem des Sicherheitsbudgets nicht allein, kauft aber zusätzliche Resilienz.
---
7. Szenarioanalyse
→ Optimistischer Weg: Globale Akzeptanz von Bitcoin als neutrales Abwicklungsnetz, plus erfolgreiche L2-Ökosysteme, treiben den anhaltenden Wettbewerb um Blockraum voran. Die Gebühren steigen auf mehrere Hunderttausend Dollar pro Block, ersetzen die verschwindende Subvention und halten die Hash-Rate hoch.
→ Stagnierender Wertspeicher-Weg: Wenn die On-Chain-Nachfrage stagniert und Bitcoin hauptsächlich als Kaltlager fungiert, bleiben die Gebühren niedrig. Die Hash-Rate sinkt, bis nur die günstigsten erneuerbaren Standorte profitabel bleiben. Die Sicherheit könnte für statische Ersparnisse ausreichen, wäre jedoch während Preis schwacher Phasen anfällig für Angriffe auf staatlicher Ebene.
---
Fazit
Bitcoin hat ungefähr 115 Jahre, bevor die Subvention vollständig verschwindet, aber die Anreize verschieben sich bereits. Entweder müssen die Gebühren durch echte wirtschaftliche Nachfrage nach knappen Abwicklungsplätzen steigen, oder die Regeln müssen sich ändern, oder die Sicherheit wird nach unten angepasst. Jedes Ergebnis ist möglich. Die kommenden Jahrzehnte werden diese testen, aber was nicht funktionieren wird, ist ein statisches Modell, das die Wirtschaft ignoriert. Bitcoin bleibt nur so lange sicher, wie jemand bereit ist, für diese Sicherheit zu zahlen.
Danke fürs Lesen!

887
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten