Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
加密洞察
#OKX年夜饭 Tretet mal auf, @star_okx hat es zu gut gesagt, mitten im Gespräch die Schmerzpunkte der Branche getroffen!
Wenn die Grundfarbe von Crypto nur noch aus "All-in", "PVP", "xx Leben" und "hundertfacher Reichtum" besteht, die mit einer aggressiven Glücksspielkultur verbunden sind, dann ersticken wir tatsächlich die Zukunft dieser Branche mit unseren eigenen Händen und shorten $BTC in unseren eigenen Händen.
Wenn Stablecoins, RWA, AI+Crypto, DeFi usw. allmählich Mainstream werden, ist Crypto schon lange nicht mehr die Randbranche, die von Außenstehenden verachtet wird, sondern eine echte parallele Industrie, die gleichwertig mit traditionellen Finanzsektoren ist. Genießt nicht gleichzeitig die Vorteile der Branche und stigmatisiert unseren früheren Glauben mit vulgärer "Glücksspieler-Narration".
Weigert euch, euch selbst herabzusetzen, Crypto verdient eine bessere Definition.
4,51K
Es ist wirklich frustrierend, mein zweites Claude-Konto wurde innerhalb einer Woche ohne Grund gesperrt.
Aber um ehrlich zu sein, hat mich das dieses Mal überhaupt nicht berührt, ich musste sogar ein wenig lachen. Warum?
Weil ich die zugrunde liegende Logik des willkürlichen Sperrens längst durchschaut habe und weil ich eine viel bessere Strategie zur Bewältigung dieser Situation entwickelt habe. Besonders nachdem ich einen Monat lang im Bereich Vibe Coding gearbeitet habe, habe ich ein ausgereiftes Denkmodell zur Beherrschung von KI aufgebaut, das es mir ermöglicht, mit solchen plötzlichen "Veränderungen" gelassen umzugehen.
Zuerst die Gründe, die offensichtlichen Gründe sind klar: Es sind nur häufige Wechsel der VPN-Knoten, die eine Risikoüberprüfung auslösen, oder die Zahlungsadresse der Visa-Karte stimmt nicht mit der IP des Endgeräts überein, was eine Sicherheitswarnung auslöst, oder der kurzfristige, häufige Tokenverbrauch wird vom System einfach als bösartiger Bot eingestuft.
Aber der tiefere Grund ist folgender: @claudeai's Sternenhimmel ist ein unternehmensweites SaaS-Angebot. Es interessiert sich für große Kunden wie die Fortune 500, während wir als stark von der Webversion abhängige persönliche Pro- oder Max-Nutzer für Anthropic überhaupt nicht von Bedeutung sind und sogar als unkontrollierbare Risikofaktoren betrachtet werden.
Deshalb ist es völlig unnötig, sich weiterhin mit dem Problem der Kontosperrung zu beschäftigen. Die wichtigste Lektion, die mir die KI beigebracht hat, ist: Binde niemals deine Kernproduktivität an ein extrem instabiles Webkonto.
Tatsächlich besteht die wahre Lösung darin, ein KI-lokales Dienstsystem zu schaffen, das unabhängig vom Modell ist:
1) Verwende OpenRouter/Antigravity usw., um den Modellzugang zu routen und Claude zu einer jederzeit umschaltbaren, grundlegenden Inferenzmaschine herabzustufen, um nicht in die Enge getrieben zu werden;
2) Verwende Drittanbieter-APIs, um Claude Code + Skills + Cowork auszustatten und eine Interaktionslogik neu zu konstruieren, die die Web-Frontend-Interaktionsweise, die am wenigsten kontrollierbar ist, aufgibt, ohne sich um den Verlust von Daten wie Konfigurations-Prompts/Anweisungen durch Sperrungen sorgen zu müssen, und lasse die KI in deinem Dateisystem wohnen, um Dienste anzubieten;
3) Greife über das MCP-Protokoll direkt auf das lokale Code-Repository zu, kombiniere es mit Local RAG (lokale Retrieval-Verbesserung), um in Echtzeit auf dein privates Wissensarchiv zuzugreifen und sogar automatisch Tests, Git-Commits und Bugfix-Zyklen im Terminal auszuführen.
Kurz gesagt, aufgegeben werden sollte das "Cloud-Rentals"-Modell der KI-Nutzung, und aktiv die "lokale Souveränität" ergriffen werden, das ist die ultimative Form des Vibe Coding.
Wenn du nur das stärkste Modell beherrscht, aber nicht das unentziehbare Nutzungsrecht des Modells, was ist das dann für ein Vibe Coding?
786
Während der CES-Konferenz wurde die neu eingeführte Rubin-Architektur von NVIDIA zum Gesprächsthema auf dem Markt. Sie stellt einen bedeutenden Durchbruch neben der MOE-Architektur dar und wurde speziell für die Ära der Agentic AI entwickelt. Ich habe mir das genauer angesehen und tatsächlich das Gefühl von Huang's "Selbstrevolution" gespürt:
1) Früher profitierte NVIDIA von den Vorteilen der GPU-Hardware und nutzte die Phase, in der große KI-Unternehmen massenhaft Rechenleistung für das Training großer Modelle einkauften. Damals war die Logik einfach: Wer die meisten Grafikkarten hatte, konnte die besten Modelle trainieren.
Aber jetzt hat sich der KI-Krieg vom „Rechenleistung“-Schlachtfeld auf das „Inference“-Feld verlagert, insbesondere mit dem Aufkommen der Agentic-Ära, in der KI hochfrequente, mehrstufige und extrem lange Kontexte verarbeiten muss.
In dieser Phase haben die Modellparameter oft Billionen, und die Datenübertragungsrate ist enorm. Wenn die GPU auch noch so schnell rechnet, wenn der Speicher die Daten nicht schnell genug überträgt, läuft die GPU leer. Das ist die „Speicherkraftwand“. Mit anderen Worten, es reicht nicht mehr aus, nur viele Grafikkarten zu haben; es braucht auch viel Speicher und Bandbreite, um dies zu unterstützen. Rubin soll dieses Problem lösen.
2) Daher bietet Rubin als erstes HBM4 an, das die vierte Generation des Hochbandbreiten-Speichers unterstützt und eine Bandbreite von 22 TB/s erreichen kann. Aber entscheidend ist, dass es mit der NVLink 6-Technologie (Rack-Bandbreite von 260 TB/s) kombiniert wird, wodurch 72 Karten logisch zu „einem riesigen Chip“ werden.
Was bedeutet das? Früher kaufte man Grafikkarten als unabhängige Komponenten, und die Datenübertragung zwischen den Karten war wie ein Paketdienst, der mehrere Umsteigestationen durchlaufen musste. Jetzt ermöglicht Rubin durch extrem dichte Interkonnektivität, dass Daten zwischen verschiedenen GPUs fließen, ohne dass man die physische Distanz spürt. 72 Arbeiter arbeiten nicht mehr unabhängig, sondern teilen sich ein großes Gehirn.
Ich denke, das ist Rubins wahre Geheimwaffe: Es geht nicht nur darum, Hardwareparameter zu stapeln, sondern das gesamte System der Datenübertragung neu zu gestalten.
3) Wenn man sagt, dass MOE (Mixed Expert Model Architecture) ein dimensionaler Schlag gegen das „brutale Stapeln von Karten“ Geschäftsmodell von NVIDIA durch aufstrebende Unternehmen wie DeepSeek war, dann ist Rubin auf jeden Fall eine strategische Gegenoffensive von Huang. Es geht nicht mehr darum, wer weniger Karten benötigt, sondern direkt darum, die Kosten für die Nutzung von KI neu zu gestalten. Natürlich bedeutet dieser überraschende Schritt auch, dass NVIDIA sich endgültig von dem alten Modell des brutalen Stapelns von Karten verabschieden muss.
Huang denkt an eine andere Rechnung: Um die Agentic-Ära wirklich in allen Branchen zu verankern, muss man die Hürde der Token-Kosten überwinden, was ein unvermeidlicher Trend ist, den NVIDIA nicht aufhalten kann.
Huang sieht es so: Anstatt darauf zu warten, dass große Unternehmen wie Google und Meta den Markt mit selbstentwickelten Chips erobern oder dass Unternehmen wie DeepSeek den Angebotsmarkt mit neuen Modellen umkrempeln, ist es besser, selbst derjenige zu sein, der die Lösung findet.
4) Die Frage ist nun, wie sich NVIDIA nach dieser Selbstrevolution positionieren wird. Der Weg ist klar: vom „Verkauf von Grafikkarten“ zum „Verkauf von Systemen“, vom Dienstleister für wenige große Unternehmen hin zu einer echten Verbreitung von KI.
Früher, wenn man eine H100 kaufte, verdiente NVIDIA immer nur an dem Preis der Grafikkarte. Zukünftig wird Rubin dir sagen: Du musst das gesamte NVL72-Rack kaufen – 72 GPUs, NVLink Switch, ein vollflüssiges Kühlsystem, ein Gehäuse, und sogar die passende Software-Stack, alles im Paket verkauft.
Huang hat auch einen klaren Plan: Es sieht so aus, als ob die Kosten für die verpackte Hardware höher sind, aber sie bieten eine extrem hohe Effizienz bei der Inferenz, wodurch die Kosten pro Einheit für die Nutzung von KI gesenkt werden, und so wird der Marktanteil nicht verloren gehen.
Aber, aber, aber: Dieses Modell erhöht auch die Einstiegshürden für kleine und mittlere Spieler. Nur große Unternehmen und Cloud-Dienstleister können sich das leisten, was die Monopolisierung der Rechenleistung weiter verschärfen wird. In der aktuellen Wettbewerbssituation ist es ein großes Risiko, denn wenn es Probleme mit der Massenproduktion von HBM4 gibt, könnten AMD, Google TPU und andere in der Lage sein, in der Übergangsphase alternative Lösungen anzubieten, was es NVIDIA erschweren könnte, den Traum vom Verkauf von Systemen zu verwirklichen.
956
Top
Ranking
Favoriten