Gradient Lass uns über dezentrale AI-Infrastruktur sprechen. Die Projekte in diesem Bereich sind allesamt Finanzierungsmonster, da sie eine sehr starke Erzählkraft besitzen. Aber wo sie derzeit umsetzbar sind und welche unterschiedlichen Erfahrungen sie bieten können, wird aus der Perspektive von @Gradient_HQ betrachtet: Wenn man AI in die einfachsten Strukturen zerlegt, kann man sie grundlegend in 4 Schichten unterteilen: Anwendungsebene / Ausführungskoordination / Modelltraining / Daten, was sich leicht verstehen lässt. Die meisten DeAI-Projekte konzentrieren sich hauptsächlich auf die Ausführungskoordination und fügen darüber hinaus Crypto-bezogene Eigenschaften hinzu, wie z.B. Abrechnung und Anreize, ZK-Verifizierbarkeit usw. Die Schichten des Modelltrainings und der Ausführung sind derzeit am konzentriertesten und auch am teuersten, und es ist momentan sehr schwierig, sie zu dezentralisieren. Für Neulinge ist es sinnvoll, zunächst eine grundlegende Einführung zu geben; Fachwissen kann diese Teile überspringen. Ausführung und Koordination können als das Verständnis betrachtet werden, Anforderungen an Rechenleistung und Modelle zu verteilen, wie z.B. Rechenleistungsmarkt, Aufgabenplanung usw. Zunächst sollte man „Rechenleistung“ verstehen. Einfach gesagt, um ein Modell zum Laufen zu bringen, sind viele mathematische Berechnungen erforderlich, und die Fähigkeit, diese Berechnungen auszuführen, ist die Rechenleistung. Im traditionellen AI-Bereich, wie z.B. wenn du mit ChatGPT chattest, benötigt es Rechenleistung, um die Schlussfolgerungen zu ziehen, die hauptsächlich aus den Datenzentren in der Cloud (GPU/AI-Beschleuniger auf Servern) stammen. Du gibst Inhalte ein → sie werden über das Netzwerk an das Backend gesendet → eine Gruppe von GPUs/Beschleunigern im Datenzentrum des Backends führt das Modell aus und vollzieht die Schlussfolgerung → das Ergebnis wird an den Browser zurückgesendet. Gradient bietet derzeit die Infrastruktur Parallax an, die sich von den üblichen H100- und H20-basierten Rechensystemen unterscheidet. Es zerlegt die Schlussfolgerung auf Geräten mit unterschiedlichen Modellen, unterschiedlichen Speicherkapazitäten und unterschiedlichen Netzwerkbedingungen. Es teilt das Modell automatisch in geeignete Größen auf, sodass jede Maschine es ausführen kann. Die zentrale Herausforderung besteht in der Kommunikationseffizienz zwischen den Maschinen und der Hochleistungsoptimierung in heterogenen Hardwareumgebungen. Die meisten Projekte versuchen immer noch, die Offline-H100 „on-chain abzurechnen“, während Gradient hier einen mutigeren Ansatz verfolgt, der es ermöglicht, dass zwei 4090 für 4000 Dollar durch Kombinationen eine Leistung nahe der einer 20.000 Dollar teuren A100 erreichen. Hier werden zwei Anwendungsfälle ermöglicht: 1/ Jeder kann zu Hause mit mehreren Computern selbstständig große Modelle ausführen und dabei die persönliche Privatsphäre vollständig wahren. 2/ Jeder kann einem Netzwerk von Schlussfolgerungsclustern beitreten und gemeinsam mit Freunden Modelle ausführen, sogar ein größeres Schlussfolgerungsnetzwerk aufbauen. Gradient hat hier auch einen recht komplexen Algorithmus entworfen, der die Anzahl der optimierten Segmentierungen und die dynamische Routenführung umfasst. Hier möchte ich nicht weiter darauf eingehen; interessierte Personen können das Paper lesen. Natürlich macht Gradient nicht nur das eine; ich werde das hier nicht weiter ausführen. Es handelt sich um eine Open-Source-AI-Infrastruktur. Sie umfasst auch eine Reihe von Themen, die derzeit in der AI-Community recht fortschrittlich sind, wie z.B. verstärkendes Lernen. Man kann erkennen, dass es sich um ein sehr ambitioniertes Team handelt, das eng mit AI-Innovationen verbunden ist. Kürzlich wurde das Team auch von Moonlight, Alibaba Qianwen und anderen AI-Labs anerkannt und unterstützt, was in der Branche recht selten ist. Diese Herangehensweise zur Verbesserung der AI hat zunächst heterogene Ressourcen integriert und ein offenes, quelloffenes System aufgebaut, das es mehr Menschen ermöglicht, große Modelle einfach auszuführen und mehr interessante Anwendungen zu schaffen. Im Vergleich zur Miete von Rechenleistung senkt es in gewissem Maße die Kosten, verringert das Risiko von Einzelpunkten und erhöht die Widerstandsfähigkeit gegen Zensur, was in der Crypto-Welt recht vertraut ist. Gleichzeitig kann es in Bezug auf die Privatsphäre sensible Daten zunächst in der eigenen Region/nahezu verarbeiten. Viele Branchenriesen haben ebenfalls eine positive Haltung gegenüber DeAI. Einer der größten Unterstützer der DeAI-Narrative, David O. Sacks, hat mehrfach öffentlich betont: AI wird die Welt neu gestalten, aber der zentralisierte Entwicklungsweg birgt Risiken. Dezentrale AI-Infrastruktur ist der einzige Weg, um sicherzustellen, dass Innovationen nachhaltig sind und freier Wettbewerb möglich ist. Gradient hat derzeit 10 Millionen Dollar an Investitionen erhalten, angeführt von prominenten Investoren wie Multicoin Capital, Pantera, HSG (ehemals Sequoia China) usw. "Wenn AI monopolisiert wird, ist das Spiel vorbei. Die Zukunft hängt davon ab, ob Intelligenz offen sein kann – dezentralisiert, verteilt und für alle zugänglich." — David O. Sacks