Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meta
Joueur vétéran de Gamefi
Investissements et investissements dans des projets primaires et secondaires
🏅Co-fondateur @Opensky_888
🏅 Membres principaux @InFuture_Web3
Depuis le lancement de l'accélérateur mondial 0G par @0G_labs et Web3Labs, de nombreuses équipes de startups à travers le monde ont soumis leurs projets. Bien que les projets sélectionnés n'aient pas encore été annoncés, tout le monde attend avec impatience le Demo Day qui se tiendra à Hong Kong le 29 août. Le point commun de ces projets soumis est qu'ils s'intègrent profondément autour de la pile technologique de 0G.
Voici quelques domaines clés qui sont devenus des axes d'intérêt pour 0G 🎯
1️⃣ Marchés prédictifs alimentés par l'IA
Les marchés prédictifs traditionnels comme Polymarket dépendent encore de mécanismes de résolution manuels et controversés, tandis que ces nouveaux projets explorent des réseaux d'oracles auto-améliorants et des mécanismes de résolution multi-modèles. Un projet développe même un nouveau modèle qui relie la croyance au prix, associé à la création de marchés et à la validation des résultats alimentées par l'IA.
2️⃣ Plateformes de trading AI natives
Il ne s'agit pas d'ajouter des fonctionnalités d'IA sur des plateformes DeFi existantes, mais de construire un environnement d'exécution natif pour les agents AI dès le départ. Certains projets intègrent dynamiquement des flux de données inter-marchés avec MCP, permettant au système de s'adapter en continu aux conditions changeantes du marché.
3️⃣ Agents AI tokenisés / NFT intelligents
La norme iNFT ERC-7857 de 0G rend possible la création, la possession, l'entraînement et la monétisation d'agents AI sur la blockchain. Plusieurs projets explorent maintenant des services entièrement alimentés par des iNFT échangeables, allant du marché des agents grand public.
4️⃣ Science décentralisée
Les projets DeSci se concentrent principalement sur la combinaison de l'IA avec la propriété et le stockage des données, ce qui s'aligne parfaitement avec le module d'application de stockage de 0G et les valeurs de l'IA en tant que bien public.
@0G_labs, en tant que premier L1 natif de l'IA, fournit l'infrastructure manquante pour amener complètement l'IA sur la blockchain grâce à une architecture modulaire, un raisonnement vérifiable et une couche d'exécution dédiée à l'IA.
Ces signaux montrent que les bâtisseurs recherchent une base technique permettant aux agents, modèles et données de fonctionner sans confiance, avec la combinabilité comme caractéristique par défaut. Cela s'aligne parfaitement avec la philosophie de conception de 0G.

15,92K
De plus en plus de personnes commencent à réaliser que l'IA subit un "hard fork". Passant d'un "grand modèle" qui voulait tout faire à un "modèle spécialisé" plus ciblé. Les cinq raisons mentionnées dans le tweet de @OpenledgerHQ sont en fait des choix que l'ensemble de l'industrie est en train de faire.
D'un point de vue pratique, l'IA générale est comme un outil universel, capable de tout faire, mais sans exceller dans quoi que ce soit. En revanche, l'IA spécialisée est une solution sur mesure pour des scénarios spécifiques.
🎯 Résolution ciblée des problèmes
Les modèles d'IA spécialisés sont profondément optimisés pour des domaines spécifiques. L'IA n'a pas besoin de traiter des données et des scénarios non pertinents, toute la puissance de calcul et les paramètres sont concentrés sur la résolution d'un problème dans un domaine vertical. Cet accent mis sur la spécialisation entraîne une amélioration exponentielle.
🔍 L'explicabilité devient une nécessité
Dans des scénarios à haut risque comme la finance, on ne peut pas se fier uniquement à une boîte noire pour obtenir des réponses. Les exigences réglementaires, les besoins de conformité et la détermination des responsabilités nécessitent que chaque étape du raisonnement de l'IA puisse être retracée et vérifiée. Les modèles spécialisés peuvent concevoir des chemins de décision adaptés à des scénarios spécifiques.
⛓️ Vérification et mécanisme de confiance sur la chaîne
La technologie blockchain permet d'enregistrer et de vérifier de manière permanente le processus de raisonnement de l'IA. L'IA spécialisée, associée à la preuve sur la chaîne, peut construire une chaîne de confiance complète. Chaque raisonnement, chaque point de décision est traçable, ce qui est une nécessité pour les entreprises nécessitant des audits et de la conformité.
📊 Résolution du problème des hallucinations
Les hallucinations de l'IA générale proviennent en grande partie de la complexité et de la diversité des données d'entraînement. L'IA spécialisée peut réduire considérablement le taux d'hallucination en limitant la portée et la qualité des données d'entraînement. Dans un domaine vertical, la qualité des données est contrôlable, les frontières de la connaissance sont claires, et le modèle est plus à même de fournir des réponses précises et fiables.
💰 Recalcul du rapport coût-efficacité
Bien que l'IA générale semble pouvoir résoudre tous les problèmes avec un seul modèle, le coût de déploiement est en réalité très élevé. L'IA spécialisée peut atteindre de meilleurs résultats avec une taille de modèle plus petite, des coûts de raisonnement plus bas et un déploiement plus flexible.
Les cinq points soulevés par @OpenledgerHQ répondent en réalité à des besoins réels de l'industrie. Ce n'est pas seulement une lutte de trajectoires, mais un choix entre efficacité et faisabilité. Les grands modèles représentent l'exploration, tandis que les modèles spécialisés représentent l'industrialisation. Et des équipes comme Openledger, qui se positionnent sur les infrastructures de chaîne, pourraient bien être les acteurs en aval de cette transformation.

35,68K
Hier, après avoir écouté l'AMA de @anoma, j'ai vraiment eu l'impression qu'anoma avançait rapidement.
Depuis le début de la construction d'anoma jusqu'à aller tester le réseau chaque jour, le temps a passé si vite, de l'excitation d'attendre le TGE à maintenant une certaine tranquillité. Même pour le réseau de test qui touche à sa fin, j'ai un peu de nostalgie.
Hier soir, un nouveau jeu "machine à sous" a également été lancé. Je pensais qu'il utiliserait Fitcoin comme jetons de jeu, mais finalement, ils ont choisi Points.
Comme tout le monde le sait, le total de Points détermine le classement, et l'importance du classement est évidente sous l'incitation des récompenses du réseau de test. Je suis en fait du genre à avoir de la malchance, hier, je suis allé à fond et j'ai perdu 100 000 Points, et bien sûr, je n'ai pas récupéré mon investissement. On dit que le gros lot peut atteindre 1 million de Points.
Aujourd'hui, après avoir réussi à jouer gros, mon score total est de 5,56 millions, avec un classement autour de 500. Je prévois de jouer gros avec 100 petites boules, voyons ce que ça donne !
Après avoir joué gros, le total de Points est de 5,79 millions, avec un classement de 427. Comparé à avant d'avoir joué 100 petites boules, j'ai obtenu un total de 230 000 Points. En moyenne, chaque petite boule a rapporté 2300 Points.
Actuellement, le réseau de test a émis environ 25 000 Codes, et l'équipe prévoit d'en émettre 30 000. Il reste encore 5 000 qui n'ont pas été envoyés. Se classer dans le top 500, c'est à peu près 2 % du réseau de test. Mais pour être honnête, quand j'ai cliqué sur 100 petites boules, j'avais vraiment l'intention de "forcer le destin". Je lui ai dit que je voulais cliquer sur 100 petites boules, ça m'a donné des frissons au cuir chevelu 🤣
En plus de suivre l'interaction du réseau de test @anoma chaque jour, n'oubliez pas que si vous avez des contributions, vous pouvez soumettre une preuve de contribution chaque mercredi à DC. Le rôle DC devrait également être inclus dans le snapshot à l'avenir, n'oubliez pas d'en profiter si vous en avez l'occasion. Un autre point à noter est le NFT, il faut absolument trouver un moyen d'en obtenir. J'espère que tout le monde pourra obtenir de grands résultats à la fin !



40,01K
Beaucoup de gens évoquent l'IA en pensant aux grands modèles LLM, aux questions-réponses intelligentes, et à la feuille de route de l'AGI, mais en réalité, peu de personnes réalisent une chose : le champ de bataille de valeur le plus crucial de l'IA à l'avenir ne résidera probablement pas dans le modèle lui-même, mais dans le contenu qu'il ingère, c'est-à-dire l'IP.
Actuellement, la valorisation de l'économie mondiale de l'IP est de 61,9 trillions de dollars. Mais le problème est que cette immense ressource de contenu est essentiellement enfermée dans une multitude de contrats, de plateformes centralisées, de cadres juridiques et de systèmes fermés. Pour que l'IA puisse l'utiliser, elle doit d'abord surmonter de nombreux obstacles, et elle risque également de tomber dans des pièges.
Ainsi, la plupart des modèles d'IA actuels ne peuvent que subtiliser des données en cachette. Les articles, images, sons et vidéos sur Internet sont tous discrètement utilisés pour alimenter l'apprentissage des modèles. Mais cette méthode, face à l'explosion des problèmes de droits d'auteur, aux blocages de plateformes et à l'augmentation des poursuites judiciaires, est pratiquement devenue insoutenable.
La pensée de @campnetworkxyz est très claire : ne pas bloquer, ne pas voler, mais faire en sorte que l'IP elle-même soit mise sur la chaîne, devenant un actif programmable pouvant être combiné légalement et autorisé de manière transparente.
C'est aussi ce qui rend Camp très concret. Il ne s'agit pas de créer une plateforme de contenu IA, mais de construire directement un ensemble de protocoles de base et d'infrastructures, permettant à tous les créateurs et détenteurs d'IP de pouvoir enregistrer leur contenu sur la chaîne, de préciser les conditions d'autorisation et de définir les modalités de répartition des revenus. Si un modèle d'IA veut utiliser, il paie directement selon les conditions.
Le plus crucial est que tout ce processus est combinable. À l'avenir, les modèles d'IA ne seront pas dans une énorme boîte noire à aspirer des données, mais fonctionneront comme des blocs de construction, en ajustant librement des modules de contenu autorisés selon différentes sources de contenu, usages et styles. Et tout cela commence par chaque IP mise sur la chaîne avec des clauses d'autorisation + une logique de revenus.
L'importance de cela est énorme, car cela transforme la relation entre l'IA et l'IP, d'une extraction passive et d'une exploitation, en une coopération équitable. Les créateurs ne sont plus des victimes de plagiat, mais deviennent des fournisseurs pour l'entraînement de l'IA et des participants aux bénéfices commerciaux.
Je suis également très d'accord avec l'idée de @campnetworkxyz selon laquelle "le plus grand marché que l'IA touchera est l'IP". Peu importe la puissance du modèle, il doit être alimenté par des données. Peu importe la quantité de contenu, si son utilisation n'est pas conforme, cela finira par poser problème.
41,13K
Beaucoup de gens parlent des outils de trading en disant qu'ils doivent être plus rapides, moins chers et plus fluides. Mais si vous faites souvent du trading multi-chaînes, surtout entre Solana, ETH, Base et BSC, vous comprendrez que ces mots sont faciles à dire, mais qu'il est pratiquement impossible de les réaliser.
@LABtrade_ vise essentiellement à créer une couche d'infrastructure pour le trading multi-chaînes. Vous pouvez continuer à utiliser le même logiciel de trading, mais avec une vitesse accrue, des frais réduits et des fonctionnalités améliorées. Cette approche est en fait assez intelligente, car elle ne force pas les utilisateurs à changer leurs habitudes, mais optimise plutôt la base. D'un point de vue statistique, 150 millions de dollars de volume de transactions en 20 jours et 700 000 dollars de revenus, c'est plutôt impressionnant.
LAB propose quatre produits : un robot de trading, une application, une barre latérale et une extension de navigateur. Ces outils peuvent fonctionner sans couture sur n'importe quelle plateforme de trading. Pas besoin de changer de plateforme, pas besoin de s'adapter à une nouvelle interface, vous pouvez directement profiter d'une vitesse plus rapide et de frais plus bas dans un environnement que vous connaissez.
D'un point de vue commercial, LAB a identifié un point de douleur très concret. Lorsque les gens effectuent des transactions sur la chaîne, ce qui les préoccupe le plus, ce sont les frais élevés, la lenteur et la complexité des opérations. Les frais des DEX traditionnels commencent à 1 % et nécessitent une attente pour la confirmation, ce qui n'est pas très agréable. LAB a réduit les frais à 0,5 % et n'impose pas de seuil de volume de transactions, ce qui est très attractif pour les petits investisseurs.
En ce qui concerne la composition des investisseurs, Lemniscap est le principal investisseur, et Animoca, OKX Ventures et Mirana sont des institutions bien connues dans le secteur. Ce portefeuille d'investissement est assez fiable, car il montre au moins que le projet a passé une due diligence auprès des institutions.
D'un point de vue technique, LAB prend déjà en charge les chaînes principales comme Solana, Ethereum, Base et BSC. Le support multi-chaînes est en effet une nécessité dans cet environnement où les écosystèmes sont fragmentés, permettant aux utilisateurs de ne pas avoir à changer de portefeuille et d'outils entre différentes chaînes.
Dans l'ensemble, le projet LAB a une bonne idée, répondant aux besoins réels des utilisateurs, et ses performances en termes de données sont également acceptables. Mais pour savoir s'il pourra se maintenir dans un environnement concurrentiel intense, cela nécessitera du temps pour le vérifier. Pour ceux qui souhaitent participer, il est conseillé de commencer par de petits montants pour tester le produit avant de décider s'ils veulent s'engager plus profondément.
Lien :

34,7K
Aujourd'hui, @OpenledgerHQ a lancé son propre petit jeu, Octoman. Au départ, je pensais juste y jouer pour passer le temps, mais une fois que j'ai commencé, je n'ai plus pu m'arrêter. Le principe du jeu est de contrôler un homme pieuvre qui se balance dans les airs, en essayant de voler le plus loin possible, mais cette mécanique simple rend le jeu addictif.
Le cœur du jeu, c'est le Timing Timing Timing !!!
La logique de jeu n'est pas compliquée, sur mobile, il y a juste deux flèches directionnelles et un bouton pour tirer des fils d'araignée, et sur ordinateur, il suffit d'utiliser les touches WAD. Mais pour vraiment bien jouer à ce jeu, la clé est de maîtriser le rythme du moteur physique. Savoir quand relâcher le fil d'araignée et quand le reprendre, si tu maîtrises ce timing, tu pourras voler loin et stable dans les airs.
Ce qui est intéressant, c'est qu'à chaque fois que tu améliores ton meilleur score, le système génère automatiquement une carte de score exclusive. Cette carte n'est pas faite au hasard, mais elle débloque des personnages de différentes raretés en fonction de ton score. Plus le score est élevé, plus le personnage est rare, ce design incite vraiment à vouloir battre ses records.
Maintenant, ils ont mis en place un événement de deux jours, et les règles sont très simples. Il te suffit de publier ta carte de score sur Twitter, de taguer @OpenledgerHQ, puis d'ajouter le hashtag #iloveplayingoctoman. On peut voir qu'ils espèrent que les joueurs s'impliquent vraiment.
D'un point de vue design produit, Octoman est assez intelligent. Le jeu est suffisamment simple pour que tout le monde puisse y jouer, mais pour bien jouer, il faut de la pratique et des compétences. Le système de carte de score donne aux joueurs une raison de se vanter, et la propagation sur les réseaux sociaux peut attirer de nouveaux utilisateurs.
Pour ma part, j'ai joué un peu et j'ai obtenu 551 points. Ils m'ont directement donné un petit ninja pieuvre ! L'image est vraiment parfaite, elle correspond tellement à ma photo de profil. Je ne prévois pas de dépasser ce score, ça me va comme ça. J'adore, j'adore !!!

22,67K
Reddit a officiellement interdit à Internet Archive de récupérer du contenu pour entraîner des IA. À première vue, cela semble être une opération normale de protection des données de la plateforme, mais cela reflète en réalité un problème fondamental du modèle économique de l'IA.
La situation actuelle est que les entreprises d'IA ont besoin d'une quantité massive de données de haute qualité pour entraîner leurs modèles, mais les plateformes de contenu et les créateurs ne reçoivent aucune récompense de ce processus. Le contenu créé avec tant d'efforts est pris gratuitement par les entreprises d'IA pour l'entraînement, puis les grandes entreprises gagnent de l'argent avec les modèles entraînés, tandis que les créateurs ne reçoivent rien.
De plus en plus de plateformes commencent à établir des barrières, et l'interdiction d'Internet Archive par Reddit n'est qu'un début. Le problème est qu'une simple interdiction ne résout pas le problème fondamental ; elle limite simplement l'accès sans établir un mécanisme raisonnable d'autorisation et de partage des revenus.
Ce dont nous avons vraiment besoin, c'est d'une infrastructure qui permette d'appliquer de manière contraignante les conditions d'utilisation, les droits de propriété et les redevances dès la phase de conception.
Camp a proposé une nouvelle voie : plutôt que d'interdire, il vaut mieux redéfinir les règles d'utilisation des données d'entraînement de l'IA. La logique centrale est en fait très simple :
1️⃣ Le contenu est enregistré sur la blockchain, avec une preuve d'origine.
2️⃣ Les créateurs définissent eux-mêmes les conditions d'autorisation.
3️⃣ Si l'IA veut utiliser le contenu, elle doit payer.
4️⃣ Les redevances reviennent automatiquement aux créateurs.
La logique sous-jacente : plutôt que d'empêcher l'IA d'utiliser le contenu, il vaut mieux aligner les intérêts de toutes les parties. Les entreprises d'IA ont besoin de données, les créateurs ont besoin de revenus, et les plateformes ont besoin de valeur écologique, chacun y trouve son compte.
Actuellement, plus de 1,5 million de créations ont déjà été enregistrées sur @campnetworkxyz, comprenant non seulement des images et de la musique, mais aussi des vidéos, des contenus narratifs, etc. Cela est devenu une base de données IP décentralisée. Pour les modèles d'IA, cela fournit une source de données légale, durable et évolutive. Pour les créateurs, c'est enfin une manière de ne plus être exploités.

35,94K
La collaboration entre IQ AI et NEAR repose sur la logique fondamentale de permettre aux agents AI d'agir de manière autonome à travers les chaînes, sans intervention humaine.
D'un point de vue technique, la vitesse de 600 ms pour le blocage et 1,2 seconde pour la confirmation de @NEARProtocol est effectivement rapide. Pour les agents AI, plus le temps d'attente est court, mieux c'est, car la vitesse de décision de l'AI est déjà plus rapide que celle des humains. Si l'AI doit encore attendre un certain temps avant d'exécuter, l'efficacité globale en souffre. Actuellement, cette vitesse permet une réponse quasi en temps réel.
Auparavant, les opérations inter-chaînes étaient déjà assez complexes pour les utilisateurs ordinaires, sans parler de la nécessité de faire traiter divers logiques de pont par des agents AI. Maintenant, en étant directement intégré dans le kit de développement, les agents AI peuvent effectuer des opérations inter-chaînes de manière autonome, réduisant ainsi le seuil d'entrée.
D'un point de vue stratégique, cela vise à s'emparer de la position d'infrastructure de l'économie AI. Actuellement, l'engouement pour les agents AI est en forte hausse, mais il y a encore peu d'infrastructures permettant aux agents AI d'accéder directement à la couche de transaction et de participer aux activités économiques sur la chaîne. Grâce à cette collaboration, NEAR renforce sa position en tant qu'infrastructure de niveau 1 pour l'intelligence artificielle et les agents.
En réalité, les besoins des agents AI diffèrent de ceux des utilisateurs eux-mêmes. Les humains peuvent tolérer des processus opérationnels complexes, attendre des temps de confirmation et gérer manuellement diverses situations exceptionnelles. Mais les agents AI ont besoin d'un environnement d'exécution standardisé, automatisé et hautement efficace.
En termes de cas d'utilisation, l'exécution de transactions inter-chaînes est effectivement très pratique. Si un agent AI peut surveiller simultanément des opportunités d'arbitrage sur plusieurs chaînes et exécuter automatiquement des arbitrages inter-chaînes après avoir détecté une opportunité, tout le processus peut se faire sans l'intervention de l'utilisateur, ce qui signifie que les opportunités d'arbitrage sont bien plus nombreuses que les opérations effectuées par les utilisateurs eux-mêmes. Si plusieurs agents peuvent également travailler en collaboration, cela pourrait générer une valeur encore plus grande.
Pour NEAR, c'est un excellent positionnement différencié. Alors que de nombreux L1 se battent pour le TPS et l'écosystème, en collaborant avec @IQAICOM et en se concentrant sur le domaine vertical des agents AI, accumuler une bonne base dès le départ est très significatif pour l'avenir.


NEAR Protocol13 août, 21:06
Les agents IA tokenisés ne sont plus de la science-fiction. La nouvelle intégration de @IQAICOM avec NEAR débloque des actions autonomes inter-chaînes qui sont rapides, définitives et sécurisées.
Voici à quoi ressemble l'abstraction de chaîne en action.
7,29K
Je viens de voir que @boundless_xyz a publié hier une présentation détaillée de ZK Coin. En tant que personne qui suit ce projet depuis un certain temps, je trouve cela plutôt intéressant. Après tout, ce qu'ils veulent faire, c'est une infrastructure de base générale pour les preuves ZK.
Tout d'abord, le projet Boundless lui-même. Il s'agit essentiellement de créer un protocole de preuve ZK général, permettant à toutes les blockchains de bénéficier des capacités ZK. Si chaque chaîne devait construire son propre système de preuve ZK, cela coûterait cher et serait inefficace. Boundless fournit des services de preuve ZK à chaque chaîne via un réseau indépendant de nœuds de preuve. On peut aussi le comprendre simplement comme une externalisation des calculs.
La méthode d'expansion est beaucoup plus simple et directe que les solutions de type sharding ou layer2 existantes, en augmentant directement le nombre de nœuds pour améliorer le débit global du réseau.
ZK Coin, en tant que jeton natif de ce système, n'est pas un jeton de gouvernance pur. Chaque demande de preuve nécessite de staker des ZKC en tant que garantie, et cela doit être au moins 10 fois le montant des frais maximaux. Cela signifie qu'avec l'augmentation de l'utilisation du réseau, les ZKC verrouillés augmenteront également de manière exponentielle, réduisant directement l'offre en circulation.
Il y a aussi le mécanisme de preuve de travail vérifiable PoVW, qui permet essentiellement aux nœuds de preuve de miner des ZKC en générant des preuves ZK. Mais pour participer au minage, il faut d'abord staker une certaine quantité de ZKC. Cela crée un cycle vertueux : plus de demandes de preuve → plus de ZKC stakés → meilleures incitations de performance → plus de nœuds participants.
En ce qui concerne la distribution des jetons, 49 % sont destinés au développement de l'écosystème. Mais en regardant de plus près la logique de distribution, 31 % du fonds écologique sont principalement utilisés pour trois directions : le financement d'applications vérifiables, l'intégration de protocoles et les outils de développement, ainsi que la maintenance des protocoles et le développement d'infrastructures. 18 % du fonds de croissance stratégique est spécifiquement destiné à l'intégration d'entreprises et aux nœuds de preuve de niveau institutionnel. Ce mode de distribution montre qu'il s'agit vraiment de construire un écosystème.
L'équipe et les contributeurs précoces obtiennent 23,5 %, dont 3,5 % sont spécifiquement destinés à RISC Zero pour le recrutement et la recherche futurs. Ce détail montre que Boundless et RISC Zero ont une relation étroite, et RISC Zero a effectivement beaucoup d'accumulation dans le domaine des zkVM.
La vente de jetons communautaires et les airdrops ne représentent que 6 %, ce qui n'est pas très élevé. Cependant, étant donné qu'il s'agit d'un projet d'infrastructure, ce pourcentage est raisonnable. Je ne sais juste pas combien Yapper pourra en obtenir par la suite.
La distribution pour les investisseurs est de 21,5 %, avec un mécanisme de verrouillage similaire à celui de l'équipe, un cliff d'un an puis une libération linéaire sur deux ans. Ce design garantit que les intérêts des investisseurs précoces et de l'équipe sont liés, évitant ainsi une chute brutale dès le lancement.
Le mécanisme d'inflation est de 7 % la première année, puis diminue progressivement à 3 % à partir de la huitième année. Mais la clé est que chaque demande de preuve nécessite de staker des ZKC, donc l'offre en circulation se contractera avec l'augmentation de l'utilisation du réseau. De plus, 50 % des ZKC stakés qui sont coupés seront directement détruits, créant ainsi un mécanisme d'équilibre entre inflation et déflation.
Pour moi, les points forts de @boundless_xyz sont deux :
1️⃣ Ce n'est pas un ZK dédié à une chaîne spécifique, mais ils veulent vraiment créer une infrastructure ZK générale pour toutes les chaînes. La direction choisie est effectivement une nécessité, la technologie ZK dans le domaine de la blockchain ne fera que se répandre et deviendra une base indispensable.
2️⃣ La conception du jeton est directement liée aux besoins commerciaux. Plus il y a de preuves, plus il y a de ZKC verrouillés, la demande de jetons et l'utilisation du réseau sont linéairement corrélées.
@TinaLiu333 @RiscZeroCN



46,1K
Hier, j'ai vu deux ensembles de données comparatives, et je trouve cela assez intéressant. Je vais partager cela avec vous. Il s'agit des données de Story et de Camp. Bien que je sache que cette comparaison peut ne pas être particulièrement précise, étant donné qu'un est un réseau principal et l'autre un réseau de test, les performances des données de Camp sont vraiment impressionnantes.
1️⃣ Données de Story Protocol
7,6 millions de blocs
43,7 millions de transactions
4 millions d'adresses
192 000 transactions par jour
Temps de blocage de 2,4 secondes
2️⃣ Données du réseau de test Camp
16,2 millions de blocs
84,9 millions de transactions
6,6 millions d'adresses
842 000 transactions par jour
Temps de blocage de 0,9 seconde
D'après les données, @campnetworkxyz a déjà surpassé les performances du réseau principal de Story sur plusieurs dimensions pendant la phase de test. Le nombre de blocs est plus de deux fois supérieur à celui de Story, le volume des transactions est presque deux fois plus élevé, le nombre d'adresses présente également un avantage significatif, et le volume quotidien des transactions atteint plus de quatre fois celui de Story.
Story vient juste de lancer son réseau principal, tandis que Camp est encore en phase de test, donc l'état d'esprit et les comportements des utilisateurs sont certainement différents. Les utilisateurs du réseau de test peuvent être plus enclins à interagir fréquemment, car il n'y a pas de pression liée au Gas. Mais ces chiffres reflètent tout de même l'activité des utilisateurs et la capacité de traitement du réseau, ce qui est assez convaincant.
La conception architecturale de @campnetworkxyz est en effet quelque peu unique en comparaison. Le protocole Proof of Provenance ne se limite pas à la protection des droits de propriété intellectuelle, mais ressemble davantage à la construction d'un système d'échange de valeur entre l'IA et les créateurs. Les utilisateurs peuvent enregistrer leur contenu en tant que propriété intellectuelle, puis lorsque l'IA utilise ces données pour s'entraîner ou générer du contenu, les créateurs peuvent recevoir une répartition des revenus correspondante.
Ce modèle a une valeur unique dans le contexte actuel où l'IA consomme beaucoup de données d'entraînement. Surtout avec la rareté croissante des données d'entraînement de haute qualité, un mécanisme comme celui de Camp, qui incite les utilisateurs à contribuer activement des données et à être récompensés, pourrait devenir de plus en plus important.
D'un point de vue technique, le temps de blocage de 0,9 seconde de Camp est effectivement beaucoup plus rapide que les 2,4 secondes de Story. Cet avantage de performance sera très utile lors du traitement d'un grand nombre d'enregistrements de propriété intellectuelle et de transactions d'autorisation. De plus, ils prennent en charge l'enregistrement de propriété intellectuelle sans gas, ce qui abaisse le seuil d'entrée pour les utilisateurs ordinaires.
Camp est encore en phase de test, mais d'après ces performances, le lancement de son réseau principal sera certainement un projet à surveiller. Surtout dans le domaine de la combinaison de l'IA et de la propriété intellectuelle, j'attends avec impatience les percées de Camp.


35,88K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables