Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
独立研究员| Chercheur | 以技术和商业视角解读区块链前沿科技 | ZK, agent IA, DePIN, etc. | 硬核科普 | Précédemment :@ambergroup_io | @peckshield | DMs for Collab | 社群只对Substack订阅会员开放
L'investissement discret de @circle dans Sei a porté ses fruits, et après avoir fait son entrée sur Wall Street avec des résultats impressionnants, est-il enfin temps de "soutenir de vieux amis" ? Après le lancement de l'USDC natif sur Sei, beaucoup se demanderont peut-être pourquoi c'est @SeiNetwork ? Quel impact aura l'"identité" de l'émetteur de stablecoin conforme à la réglementation sur le marché ?
1) Sei est une blockchain de layer1 hautes performances spécialement optimisée pour le trading d'actifs numériques. Grâce à son architecture EVM parallèle, elle permet de traiter plusieurs transactions simultanément, atteignant ainsi une finalité de 390 millisecondes et une capacité de traitement parallèle de 28 300 TPS, ce qui en fait un exemple typique de blockchain hautes performances.
De plus, l'enjeu ne réside pas seulement dans les "performances" ; le mécanisme de performance des layer1 hautes performances vise en réalité à ouvrir de nouveaux scénarios d'application à haute fréquence capables de résoudre des paiements à fort volume pour les entreprises.
La différenciation de Sei réside dans son optimisation de base spécifiquement pour les scénarios de trading : un moteur de correspondance d'ordres natif (OME) intégré qui lutte directement contre le problème de MEV, un mécanisme de consensus à double turbine, et un niveau de stockage SeiDB qui empêche l'expansion des données sur la chaîne, etc., ce qui en fait une "piste" exclusive pour la circulation à haute fréquence des stablecoins.
Ainsi, USDC, en tant que nouvelle identité d'une entreprise cotée conforme, s'associe à son vieil ami Sei, l'un fournissant l'autoroute et l'autre la voiture de course, formant ainsi un duo parfait ? Si l'on considère que l'investissement précoce de Circle dans Sei était une forme d'investissement stratégique, le lancement de l'USDC est clairement une manière de monétiser cet investissement initial.
2) En tant qu'émetteur de stablecoin conforme déjà coté, Circle, avec l'USDC, le stablecoin le plus fiable et réglementé au monde, peut bénéficier de l'injection massive de liquidités que son lancement sur Sei apporte, tout en intégrant des actifs de base conformes dans ses applications DeFi, de paiement, de jeu, etc.
Mais le véritable avantage réside dans le fait que cela représente en réalité les "normes d'achat" que Wall Street impose aux infrastructures cryptographiques.
Il y a trois ans, les stablecoins étaient remis en question, puis BlackRock, Fidelity et d'autres ont commencé à s'intéresser aux infrastructures d'actifs numériques, et aujourd'hui, avec l'introduction de la loi GENIUS, l'émetteur de stablecoin Circle est devenu le chouchou de Wall Street, etc. Si tout se passe comme prévu, Wall Street devra sélectionner davantage de "fournisseurs qualifiés" capables d'accueillir des fonds institutionnels ?
Après son introduction en bourse, Circle fait face à la pression de la croissance des performances et de la divulgation des données financières, et doit donc intensifier ses efforts pour propulser l'USDC vers le domaine des "applications commerciales mainstream", et la seule voie pour détacher les scénarios d'application des stablecoins des transactions spéculatives est de réaliser une percée à grande échelle dans les scénarios de paiement à haute fréquence pour les entreprises, y compris le paiement des salaires en temps réel, les règlements B2B transfrontaliers en millisecondes, le financement de la chaîne d'approvisionnement, etc.
Je pense que c'est là le sens profond de l'alliance rapide entre Circle, en tant qu'émetteur de stablecoin conforme déjà coté, et $SEI, en tant que layer1 optimisé pour le trading hautes performances.
8,93K
Autour de cette vague "MicroStrategy Summer" pour Ethereum, $ETH peut-il vraiment reproduire le "flywheel positif" de MicroStrategy pour BTC ? Voici quelques points de vue personnels :
1) La stratégie MicroStrategy pour ETH imite effectivement le modèle de succès de MicroStrategy pour BTC, et à court terme, de nombreuses entreprises américaines vont essayer de Fomo, créant ainsi un flywheel positif. Peu importe qui manœuvre sur le marché américain, la réalité est que l'argent réel des institutions traditionnelles et la force d'achat des investisseurs vont faire de $ETH un actif de réserve, ce qui sortira Ethereum d'un état de faiblesse à long terme.
En d'autres termes, le Fomo qui entraîne la hausse est une règle d'or du marché haussier des cryptomonnaies, sauf que cette fois, les acteurs du Fomo ne sont plus de simples particuliers du secteur crypto, mais de l'argent réel de Wall Street, ce qui prouve au moins qu'ETH a enfin réussi à se libérer de la dépendance à la narration accumulée dans le secteur crypto et commence à attirer des fonds supplémentaires de l'extérieur ;
2) BTC est plus proche de la position d'actif de réserve de "l'or numérique", avec une valeur relativement stable et des attentes claires, tandis qu'ETH est essentiellement un "actif productif", dont la valeur est liée à l'utilisation du réseau Ethereum, aux revenus des frais de Gas, au développement de l'écosystème, etc. Cela signifie que la volatilité et l'incertitude d'ETH en tant qu'actif de réserve sont plus grandes.
Si l'écosystème Ethereum rencontre de sérieux problèmes de sécurité technique, ou si les régulateurs exercent des pressions sur des fonctions comme DeFi ou Staking, les risques et les variables de volatilité auxquels ETH fait face en tant qu'actif de réserve peuvent être beaucoup plus importants que ceux de BTC. Ainsi, la logique narrative de la stratégie MicroStrategy pour BTC peut être inspirante, mais cela ne signifie pas que la logique de valorisation du marché peut rester cohérente ;
3) L'écosystème Ethereum a une accumulation d'infrastructures DeFi plus mature et une plus grande capacité d'expansion narrative par rapport à BTC. Grâce au mécanisme de staking, ETH peut générer un rendement natif d'environ 3 à 4 %, ce qui en fait une sorte de "titre de créance à intérêt" dans le monde crypto.
L'adhésion des institutions à cette histoire, à court terme, est un coup dur pour les infrastructures de BTC qui ont été construites pour fournir des rendements d'actifs natifs, mais à long terme, c'est tout le contraire. Une fois qu'ETH joue un rôle catalyseur en tant qu'actif à rendement programmable dans la stratégie MicroStrategy pour ETH, cela stimulera en fait le développement plus rapide de l'écosystème BTC pour compléter les infrastructures de base ;
4) Cette vague de MicroStrategy Summer est essentiellement un grand remaniement de la direction narrative du Crypto passé. Auparavant, les projets construisaient des projets et diffusaient des récits techniques à des VC et à des investisseurs particuliers, pour le dire simplement, ils parlaient aux natifs du secteur crypto. Maintenant, cette nouvelle narration, qu'il s'agisse de RWA ou de TradiFi, devra probablement raconter des histoires à Wall Street.
La différence clé est que Wall Street ne se contente pas de concepts purs ; ils veulent du PMF - une véritable croissance des utilisateurs, des modèles de revenus, une taille de marché, etc. Cela pousse les projets crypto à passer d'une "orientation narrative technique" à une "orientation valeur commerciale", n'est-ce pas la pression que Solana a exercée sur Ethereum ? En fin de compte, il faut y faire face ;
5) Cette vague de MicroStrategy aux États-Unis, comprenant des acteurs comme SharpLink Gaming, Bitmine immersion Tech, Bit Digital, BTCS inc., est principalement constituée d'entreprises du marché des capitaux traditionnels qui souffrent d'une croissance stagnante et cherchent à fusionner avec le Crypto pour trouver de nouvelles percées. Leur choix de s'engager pleinement dans les actifs cryptographiques est souvent dû à un manque de points de croissance dans leurs activités principales, les obligeant à rechercher de nouveaux moteurs de croissance de valeur.
Et ces acteurs osent être aussi agressifs en grande partie parce qu'ils profitent de la "fenêtre d'arbitrage" avant que le gouvernement américain ne mette en place des réformes réglementaires dans l'industrie crypto. À court terme, ils ont exploité de nombreuses failles juridiques et de conformité - comme l'ambiguïté des normes comptables sur la classification des actifs cryptographiques, la flexibilité des exigences de divulgation de la SEC, les zones grises de traitement fiscal, etc.
Le succès de MicroStrategy a largement profité de la super bulle de BTC, mais en tant que suiveurs, ils n'ont pas nécessairement la même chance et la même capacité de manœuvre. Par conséquent, l'enthousiasme du marché généré par ces acteurs n'est pas très différent de la spéculation narrative purement crypto d'avant, c'est essentiellement un pari et un essai, il faut rester vigilant face aux risques d'investissement.
Note : Cette vague de MicroStrategy Summer ressemble davantage à un "grand entraînement" pour l'entrée du Crypto dans le système financier traditionnel. Si cela réussit, tout le monde sera heureux, et si cela échoue, ce sera une petite joie (après tout, l'expérience qui a réussi à sortir ETH de l'impasse narrative est déjà un succès, qu'elle réussisse ou échoue !)

16,31K
Auparavant, après que le $ETH ait augmenté, cela déclenchait une série de mouvements dans l'écosystème Ethereum, avec des projets comme MeMe, les blue chips DeFi layer2, NFT, GameFi, ainsi que des secteurs narratifs comme ZK et la modularité qui se lançaient tour à tour, c'était vraiment un festival de diversité ;
Maintenant que le $ETH décolle à nouveau, le marché a complètement changé de ton. Les gens ne se concentrent plus sur les récits d'innovation de l'écosystème natif d'Ethereum, mais cherchent plutôt des actifs en ETH encapsulés dans des actions américaines TradiFi, sans même se soucier de la véritable nature de ces institutions/entreprises qui se présentent sous le couvert de la tokenisation des actions américaines.
Eh bien, le BTC atteint de nouveaux sommets, l'ETH est également prêt à s'envoler vers de nouveaux sommets, mais le marché des altcoins natifs de Crypto, que nous n'avons pas vu depuis longtemps, va-t-il revenir ? La nouvelle vague de fusion RWA dominée par la finance traditionnelle représente-t-elle vraiment plus d'opportunités que de pièges ? Le marché des particuliers en Crypto, rempli de sauvagerie, d'innovation, d'opportunités, de volatilité et d'imagination, existe-t-il encore ?
60,22K
Haotian | CryptoInsight a reposté
L'IA influence le Web3, AgentFi sera-t-il le variable clé de la prochaine vague ?
Demain soir, nous nous associons à des leaders du secteur pour un dialogue approfondi sur « AgentFi : Nouvelles opportunités économiques des intelligences artificielles dans la vague de l'IA dans le Web3 » :
Détails de l'événement 🔽
Date : 18 juillet (vendredi)
Heure : 20h00
Langue : Chinois
Invités :
- Haotian @tmel0211 (Chercheur indépendant)
- 0xTodd @0x_Todd (Partenaire de Nothing Research / Co-fondateur d'Ebunker)
- LaoBai @wuhuoqiu (Ancien partenaire d'investissement et de recherche chez ABCDE)
- Howe @0xcryptoHowe (Stagiaire chez Amber Group)
- Anne @AnneXingxb (Chercheuse en IA chez Amber Group)
Les sujets incluent les opportunités d'entrepreneuriat Agent, les variables structurelles, les chemins de fusion entre IA et Crypto et les perspectives futures.
Nous vous invitons à écouter et à anticiper le prochain point de rupture de l'économie des intelligences👉
À demain !

4,55K
Pourquoi le nouveau sommet de $ETH est-il très important pour le marché des altcoins ?
1) En tant que projet phare de la narration technique, le retour de la confiance du marché dans la narration technique du marché des altcoins doit être basé sur la nouvelle confiance du marché dans la feuille de route technique d'ETH, l'application des protocoles de produits et la vision de mise en œuvre. Après avoir longtemps souffert d'une baisse des prix, Ethereum ne peut raviver la confiance dans son leadership narratif technique qu'avec une nouvelle dynamique de prix ;
2) ETH ne produit pas seulement un projet de narration technique unique, mais les liens logiques techniques entre les grands projets de l'écosystème, la combinabilité de la liquidité TVL, ainsi que les systèmes de tarification et d'évaluation mutuels sont tous déterminés par les fondamentaux du marché d'Ethereum et influencent directement le marché. La montée d'ETH a un effet d'entraînement ;
3) Le grand écosystème d'ETH a accumulé trop d'anciennes narrations dont les attentes n'ont pas été atteintes. La DeFi peut-elle connaître une renaissance ? Les NFT peuvent-ils relancer une vague artistique ? Layer 2 a-t-il vraiment une valeur d'adoption massive ? La nouvelle narration RWA peut-elle entraîner une grande tendance haussière, etc. ? Pendant les périodes de morosité du marché, ces narrations, qui ont été excessivement réprimées par l'émotion, pourraient, une fois que la logique d'évaluation d'ETH atteignant un nouveau sommet est rétablie, déclencher un cycle de rotation fulgurant.
9,73K
Il est de plus en plus évident que de nombreux projets cherchent à réaliser un TGE, mais le marché des altcoins semble ne pas avoir beaucoup amélioré :
1) L'Ethereum reste à un niveau bas et n'a pas encore réussi à déclencher une nouvelle saison des altcoins. On ne sait pas combien il faut pour que cela fonctionne, mais l'émotion doit être au rendez-vous, il faut au moins attendre que la croyance dans le récit technique dominé par l'Ethereum revienne ;
2) Actuellement, lancer un TGE sous le poids de l'épuisement de la liquidité, d'un récit technique désert et de divers effets négatifs sans airdrop est un choix désespéré pour les projets. Cependant, d'un autre point de vue, les projets qui ont le courage d'émettre des tokens en période de creux du marché et de se développer par la suite sont beaucoup plus fiables que ceux qui attendent encore une liquidité abondante pour émettre des tokens ;
3) La danse solitaire du Bitcoin et la solitude des altcoins sont déjà polarisées, mais on ne peut pas s'attendre à ce que l'effet d'entraînement du Bitcoin sauve le marché des altcoins. Les altcoins doivent prouver leur valeur intrinsèque en sortant du vide où le récit est roi et en se libérant du modèle de pure spéculation sans livraison ni PMF.
21,18K
J'ai passé en revue plusieurs projets populaires dans le domaine Crypto+AI du mois dernier et j'ai identifié trois tendances significatives, accompagnées d'une brève introduction et d'une évaluation des projets :
1) Les chemins technologiques des projets deviennent plus pragmatiques, mettant l'accent sur les données de performance plutôt que sur un simple emballage conceptuel ;
2) Les scénarios de niche deviennent le point focal de l'expansion, l'IA généralisée cédant la place à l'IA spécialisée ;
3) Les investisseurs accordent plus d'importance à la validation des modèles commerciaux, les projets avec des flux de trésorerie étant clairement plus prisés ;
Annexe : Présentation des projets, analyse des points forts, commentaires personnels :
1. @yupp_ai
Présentation du projet : Plateforme d'évaluation de modèles d'IA décentralisée, ayant complété un tour de financement de 33 millions de dollars en juin, dirigé par a16z, avec la participation de Jeff Dean.
Analyse des points forts : Applique l'avantage du jugement subjectif humain aux lacunes de l'évaluation de l'IA. Grâce à un travail de crowdsourcing, plus de 500 grands modèles sont notés, les retours des utilisateurs pouvant être échangés contre de l'argent (1000 points = 1 dollar), attirant des entreprises comme OpenAI pour l'achat de données, avec un véritable flux de trésorerie.
Commentaire personnel : Projet avec un modèle commercial relativement clair, ce n'est pas un modèle de brûlage d'argent pur. Cependant, la prévention des fraudes est un grand défi, et l'algorithme anti-sorcellerie doit être continuellement optimisé. Mais avec une levée de fonds de 33 millions de dollars, il est clair que les investisseurs privilégient les projets avec une validation de monétisation.
2. @Gradient_HQ
Présentation du projet : Réseau de calcul d'IA décentralisé, ayant complété un tour de financement de 10 millions de dollars en juin, dirigé par Pantera Capital et Multicoin Capital.
Analyse des points forts : Grâce à l'extension de navigateur Sentry Nodes, il a déjà un certain consensus sur le marché dans le domaine DePIN de Solana, les membres de l'équipe venant de Helium, avec le lancement du protocole de transmission de données Lattica et du moteur d'inférence Parallax, ayant fait des explorations substantielles en matière de calcul en périphérie et de vérifiabilité des données, réduisant la latence de 40 % et supportant l'accès d'appareils hétérogènes.
Commentaire personnel : La direction est correcte, s'inscrivant parfaitement dans la tendance de "localisation" de l'IA. Cependant, pour traiter des tâches complexes, il faut comparer l'efficacité avec celle des plateformes centralisées, la stabilité des nœuds en périphérie reste un problème. Néanmoins, le calcul en périphérie est une nouvelle demande issue de l'auto-concurrence de web2AI et représente un avantage du cadre distribué de web3AI, je suis optimiste quant à l'avancement de produits concrets basés sur des performances réelles.
3. @PublicAI_
Présentation du projet : Plateforme d'infrastructure de données d'IA décentralisée, incitant les utilisateurs du monde entier à contribuer des données dans divers domaines (santé, conduite autonome, voix, etc.) par le biais de jetons, ayant généré plus de 14 millions de dollars de revenus, établissant un réseau de contributeurs de données de plusieurs millions.
Analyse des points forts : Intègre techniquement la vérification ZK et l'algorithme de consensus BFT pour garantir la qualité des données, et utilise également la technologie de calcul de confidentialité Amazon Nitro Enclaves pour répondre aux exigences de conformité. Il est intéressant de noter qu'un dispositif de collecte d'ondes cérébrales, le HeadCap, a été lancé, marquant une expansion du logiciel vers le matériel. Le modèle économique est également bien conçu, les utilisateurs pouvant gagner 16 dollars + 500 000 points pour 10 heures de marquage vocal, et les entreprises voyant le coût de l'abonnement aux services de données réduit de 45 %.
Commentaire personnel : Je pense que la plus grande valeur de ce projet réside dans la réponse à la demande réelle de marquage de données d'IA, en particulier dans des domaines comme la santé et la conduite autonome, où les exigences en matière de qualité des données et de conformité sont très élevées. Cependant, un taux d'erreur de 20 % reste supérieur à celui de 10 % des plateformes traditionnelles, la variabilité de la qualité des données est un problème à résoudre en continu. Le domaine des interfaces cerveau-machine a un potentiel d'imagination, mais la difficulté d'exécution est également importante.
4. @sparkchainai
Présentation du projet : Réseau de puissance de calcul distribué sur la chaîne Solana, ayant complété un financement de 10,8 millions de dollars en juin, dirigé par OakStone Ventures.
Analyse des points forts : Agrège les ressources GPU inutilisées grâce à une technologie de découpage dynamique, supportant l'inférence de grands modèles comme Llama3-405B, avec des coûts 40 % inférieurs à ceux d'AWS. La conception de la transaction de données tokenisée est assez intéressante, transformant directement les contributeurs de puissance de calcul en parties prenantes, tout en incitant davantage de personnes à participer au réseau.
Commentaire personnel : Modèle typique d'"agrégation de ressources inutilisées", logiquement cohérent. Cependant, un taux d'erreur de validation inter-chaînes de 15 % est effectivement un peu élevé, la stabilité technique doit encore être perfectionnée. Cependant, dans des scénarios comme le rendu 3D, où les exigences de temps réel ne sont pas très élevées, il y a effectivement un avantage, la clé étant de réduire le taux d'erreur, sinon même le meilleur modèle commercial sera entravé par des problèmes techniques.
5. @olaxbt_terminal
Présentation du projet : Plateforme de trading haute fréquence de cryptomonnaies alimentée par l'IA, ayant complété un tour de financement de 3,38 millions de dollars en juin, dirigé par @ambergroup_io.
Analyse des points forts : La technologie MCP peut optimiser dynamiquement les chemins de trading, réduisant le slippage, avec une amélioration de l'efficacité de 30 % mesurée. S'inscrivant dans la tendance #AgentFi, cela représente une opportunité dans le domaine relativement vierge du trading quantitatif DeFi, comblant ainsi une demande du marché.
Commentaire personnel : La direction est correcte, DeFi a effectivement besoin d'outils de trading plus intelligents. Cependant, le trading haute fréquence exige des délais et une précision très élevés, la synergie en temps réel entre les prévisions de l'IA et l'exécution sur la chaîne doit encore être validée. De plus, les attaques MEV représentent un grand risque, les mesures de protection technique doivent suivre.
Note : Pour plus de nouveaux projets dans le domaine AI+Crypto, n'hésitez pas à compléter dans la section des commentaires, je sélectionnerai les projets ayant une valeur de recherche et d'investissement pour un suivi et un partage, merci.
8,52K
En plus de la "localisation descendante" de l'IA, le plus grand changement dans le domaine de l'IA ces derniers temps est sans doute : la percée technologique dans la génération de vidéos multimodales, qui est passée de la génération de vidéos à partir de texte pur à une technologie d'intégration complète générant du texte + images + audio.
Voici quelques exemples de percées technologiques pour que vous puissiez vous en rendre compte :
1) Le cadre EX-4D open source de ByteDance : une vidéo monoculaire se transforme instantanément en contenu 4D à perspective libre, avec un taux d'acceptation des utilisateurs atteignant 70,7 %. Cela signifie qu'en fournissant une vidéo ordinaire, l'IA peut automatiquement générer un effet de vision sous n'importe quel angle, ce qui nécessitait auparavant une équipe de modélisation 3D professionnelle ;
2) La plateforme "Hui Xiang" de Baidu : une image génère une vidéo de 10 secondes, prétendant atteindre une qualité "cinéma". Mais il faudra attendre la mise à jour de la version Pro en août pour voir si cela n'est pas exagéré par le marketing ;
3) Google DeepMind Veo : capable de générer des vidéos 4K synchronisées avec des sons d'environnement. Le point clé de cette technologie est la capacité de "synchronisation" ; auparavant, les vidéos et les audios étaient deux systèmes distincts, et pour parvenir à une correspondance véritable au niveau sémantique, il fallait surmonter de grands défis, comme la correspondance entre les mouvements de marche dans l'image et les sons de pas dans des scènes complexes ;
4) Douyin ContentV : 80 milliards de paramètres, génération de vidéos 1080p en 2,3 secondes, coût de 3,67 yuans/5 secondes. Honnêtement, ce contrôle des coûts est plutôt bon, mais la qualité de génération actuelle laisse à désirer dans des scènes complexes ;
Pourquoi ces exemples représentent-ils des percées significatives en termes de qualité vidéo, de coût de génération et de scénarios d'application ?
1. En termes de percée de valeur technologique, la complexité de la génération de vidéos multimodales est souvent exponentielle. Une image unique génère environ 10^6 pixels, une vidéo doit garantir la cohérence temporelle (au moins 100 images), en plus de la synchronisation audio (10^4 points d'échantillonnage par seconde), tout en tenant compte de la cohérence spatiale 3D.
En résumé, la complexité technique n'est pas négligeable. Auparavant, c'était un très grand modèle qui gérait toutes les tâches, et il est dit que Sora a utilisé des dizaines de milliers de H100 pour acquérir la capacité de génération vidéo. Maintenant, cela peut être réalisé par décomposition modulaire + collaboration de grands modèles. Par exemple, l'EX-4D de ByteDance décompose en réalité la tâche complexe en : module d'estimation de profondeur, module de conversion de perspective, module d'interpolation temporelle, module d'optimisation de rendu, etc. Chaque module se concentre sur une tâche spécifique, puis collabore via un mécanisme de coordination.
2. En ce qui concerne la réduction des coûts : cela implique en fait l'optimisation de l'architecture de raisonnement, y compris une stratégie de génération par niveaux, générant d'abord un squelette à basse résolution puis améliorant le contenu d'image à haute résolution ; un mécanisme de réutilisation de cache, c'est-à-dire la réutilisation de scènes similaires ; et une allocation dynamique des ressources, qui ajuste en fait la profondeur du modèle en fonction de la complexité du contenu spécifique.
C'est ainsi qu'une telle optimisation a permis d'obtenir le résultat de 3,67 yuans/5 secondes pour Douyin ContentV.
3. En termes d'impact sur l'application, la production vidéo traditionnelle est un jeu de gros investissements : équipements, lieux, acteurs, post-production, un spot publicitaire de 30 secondes peut coûter des centaines de milliers. Maintenant, l'IA a compressé ce processus à un prompt + quelques minutes d'attente, tout en réalisant des angles et des effets spéciaux difficiles à atteindre par la prise de vue traditionnelle.
Cela transforme les barrières techniques et financières de la production vidéo en créativité et en esthétique, ce qui pourrait entraîner une nouvelle réorganisation de l'économie des créateurs.
La question se pose : après avoir parlé de tant de changements dans la demande du côté web2 de l'IA, quel est le lien avec l'IA web3 ?
1. Tout d'abord, il y a un changement dans la structure de la demande en puissance de calcul. Auparavant, l'IA se battait pour la taille de la puissance de calcul ; celui qui avait le plus de clusters GPU homogènes gagnait, mais la génération de vidéos multimodales nécessite une combinaison diversifiée de puissance de calcul, ce qui pourrait générer une demande pour la puissance de calcul distribuée inutilisée, ainsi que pour divers modèles de micro-ajustement distribués, algorithmes et plateformes de raisonnement ;
2. Ensuite, la demande de marquage de données sera également renforcée. Générer une vidéo de niveau professionnel nécessite : des descriptions de scène précises, des images de référence, des styles audio, des trajectoires de mouvement de caméra, des conditions d'éclairage, etc., qui deviendront de nouveaux besoins de marquage de données professionnels. Avec les méthodes d'incitation du web3, cela pourrait inciter des photographes, des ingénieurs du son, des artistes 3D, etc., à fournir des données professionnelles, renforçant ainsi la capacité de génération vidéo de l'IA avec des données de niche ;
3. Enfin, il convient de mentionner que lorsque l'IA passe d'une allocation de ressources centralisée à grande échelle à une collaboration modulaire, cela représente une nouvelle demande pour des plateformes décentralisées. À ce moment-là, la puissance de calcul, les données, les modèles et les incitations formeront ensemble un volant d'auto-renforcement, entraînant ainsi une grande fusion des scénarios web3AI et web2AI.

Haotian | CryptoInsight2 juil., 10:37
Récemment, en observant l'industrie de l'IA, j'ai remarqué un changement de plus en plus "descendant" : de la concentration initiale sur la puissance de calcul et le consensus mainstream des "grands" modèles, une branche s'est développée vers des petits modèles locaux et le calcul en périphérie.
Cela se voit à travers la couverture de 500 millions d'appareils par Apple Intelligence, le lancement par Microsoft d'un petit modèle de 3,3 milliards de paramètres dédié à Windows 11, et les opérations "hors ligne" des robots de Google DeepMind, etc.
Qu'est-ce qui va changer ? L'IA dans le cloud mise sur l'échelle des paramètres et les données d'entraînement, la capacité à brûler de l'argent est la principale force concurrentielle ; l'IA locale mise sur l'optimisation technique et l'adaptation aux scénarios, ce qui permettra d'aller plus loin en matière de protection de la vie privée, de fiabilité et de praticité. (Le problème d'illusion des modèles généraux affectera gravement la pénétration des scénarios verticaux)
Cela représente en fait une plus grande opportunité pour l'IA web3. Lorsque tout le monde se battait pour la capacité de "généralisation" (calcul, données, algorithmes), cela était naturellement monopolisé par les grandes entreprises traditionnelles. Essayer de rivaliser avec Google, AWS, OpenAI, etc., en s'appuyant sur le concept de décentralisation est tout simplement illusoire, car il n'y a pas d'avantage en ressources, en technologie, et encore moins en base d'utilisateurs.
Mais dans un monde de modèles localisés et de calcul en périphérie, la situation à laquelle fait face le service de la technologie blockchain est très différente.
Lorsque les modèles d'IA fonctionnent sur les appareils des utilisateurs, comment prouver que les résultats de sortie n'ont pas été altérés ? Comment réaliser la coopération des modèles tout en protégeant la vie privée ? Ces questions sont précisément les points forts de la technologie blockchain...
J'ai remarqué quelques nouveaux projets liés à l'IA web3, comme le protocole de communication de données Lattica récemment lancé par @Gradient_HQ avec un investissement de 10 millions de dollars de Pantera, pour résoudre le problème de monopole des données et de boîte noire des plateformes d'IA centralisées ; @PublicAI_ avec l'appareil de collecte de données cérébrales HeadCap qui recueille des données humaines réelles, construisant une "couche de validation humaine", ayant déjà réalisé 14 millions de dollars de revenus ; en fait, tous tentent de résoudre le problème de "fiabilité" de l'IA locale.
En un mot : ce n'est que lorsque l'IA sera réellement "descendue" sur chaque appareil que la coopération décentralisée deviendra une nécessité plutôt qu'un concept ?
#Web3AI Au lieu de continuer à se battre dans la course à la généralisation, il serait préférable de réfléchir sérieusement à la manière de fournir un soutien infrastructurel à la vague de l'IA localisée ?
10,83K
Ces derniers jours, le marché secondaire de @plumenetwork $PLUME a bien performé, validant un fait : dans le marché Crypto actuel, si l'on peut établir un lien avec la famille Trump, on peut récolter un bonheur stable ? Que se passe-t-il exactement ?
Récemment, Plume a annoncé un partenariat important avec World Liberty Finance (WLFI) @worldlibertyfi, fondé par la famille Trump, devenant ainsi le premier à intégrer le USD1 dans les actifs de réserve de son stablecoin natif pUSD sur la chaîne RWA.
Le USD1 est un stablecoin soutenu par la famille Trump, avec une garantie d'ancrage 1:1 sur les obligations d'État américaines, avec une capitalisation actuelle de 2,2 milliards de dollars, et un volume de transactions sur 24 heures qui se classe au deuxième rang du marché des stablecoins, juste derrière l'USDT.
En d'autres termes, le USD1 n'est pas un projet de stablecoin ordinaire, il bénéficie d'un double soutien de la famille Trump et de la SEC. Dans le contexte actuel d'un gouvernement amical envers les cryptomonnaies, cela équivaut à un "coup de pouce" pour la voie RWA.
Alors, quels sont les points forts de cette collaboration ?
1) L'application commerciale à grande échelle des fonds institutionnels par RWA est désormais une réalité : auparavant, MGX soutenu par les Émirats a déjà réglé un investissement de 2 milliards de dollars à Binance en USD1, prouvant que le récit RWA a déjà des applications commerciales importantes.
Ainsi, pour Plume, l'intégration du USD1 apporte non seulement un soutien de liquidité de 2,2 milliards de dollars, mais signifie également que RWA a émergé du pur scénario DeFi pour devenir une infrastructure capable d'accueillir d'énormes fonds de la finance traditionnelle. Essentiellement, cela représente un saut de RWA de la "preuve de concept" à la "commercialisation" ;
2) Il existe une incertitude dans la configuration du marché des stablecoins : le USD1 est passé de zéro à 2,2 milliards de dollars de capitalisation, et son volume de transactions sur 24 heures peut dépasser celui de l'USDC, se classant au deuxième rang. Une telle rapidité prouve en fait que le duopole USDT/USDC peut facilement être perturbé par le USD1 bénéficiant d'un "soutien politique".
Évidemment, le fait que Plume ait pu intégrer le USD1 en premier vise à se positionner en avance dans la nouvelle configuration du marché des stablecoins. Alors que d'autres projets RWA hésitent encore entre USDT et USDC, Plume s'est déjà positionnée du côté de la certitude politique ;
En résumé : dans le contexte actuel où le Crypto est facilement influencé par les politiques, parfois, le "politiquement correct" peut souvent apporter des rendements excessifs à court terme plus que l'innovation technologique. Le marché a déjà formé une logique d'investissement mature autour des concepts liés à la famille Trump, et cette vague de dividendes politiques à court terme devrait pouvoir être exploitée pendant un certain temps.
Bien sûr, un environnement politique amical ne peut être qu'un catalyseur à court terme, à long terme, le projet doit revenir à l'épreuve des fondamentaux. En particulier, la capacité de l'écosystème RWA à réellement intégrer davantage d'actifs traditionnels sur la chaîne, ainsi que la possibilité de créer des innovations de produits différenciées dans un cadre réglementaire, etc.

Plume - RWAfi Chain1 juil., 08:20
Off the heels of our meetings with Treasury and SEC's Crypto Task Force last month, we are grateful that we got the privilege to spend time with Donald J. Trump, the president of the United States to discuss crypto policy, tokenization, and the future of RWAs in America.
The passing of the GENIUS Act sets the stage for the future of crypto in America. Our meeting with the SEC Crypto Task Force and the announcement from Paul Atkins referencing the innovation exemption that we introduced for onchain products like Nest underscore how serious this is.
We are excited to continue working with the President of the United States, Donald J. Trump, and the rest of the cabinet — including Scott Bessent, Vice President J.D. Vance, the SEC Crypto Task Force, and the Treasury to define and advance crypto policy in America, enabling a free, open, and permissionless world for everyone.
This is the start of much more, where permissionless innovation and regulatory clarity go hand-in-hand. Trillions of dollars of liquidity inbound.
Plumerica 🇺🇸

17,06K
Récemment, en observant l'industrie de l'IA, j'ai remarqué un changement de plus en plus "descendant" : de la concentration initiale sur la puissance de calcul et le consensus mainstream des "grands" modèles, une branche s'est développée vers des petits modèles locaux et le calcul en périphérie.
Cela se voit à travers la couverture de 500 millions d'appareils par Apple Intelligence, le lancement par Microsoft d'un petit modèle de 3,3 milliards de paramètres dédié à Windows 11, et les opérations "hors ligne" des robots de Google DeepMind, etc.
Qu'est-ce qui va changer ? L'IA dans le cloud mise sur l'échelle des paramètres et les données d'entraînement, la capacité à brûler de l'argent est la principale force concurrentielle ; l'IA locale mise sur l'optimisation technique et l'adaptation aux scénarios, ce qui permettra d'aller plus loin en matière de protection de la vie privée, de fiabilité et de praticité. (Le problème d'illusion des modèles généraux affectera gravement la pénétration des scénarios verticaux)
Cela représente en fait une plus grande opportunité pour l'IA web3. Lorsque tout le monde se battait pour la capacité de "généralisation" (calcul, données, algorithmes), cela était naturellement monopolisé par les grandes entreprises traditionnelles. Essayer de rivaliser avec Google, AWS, OpenAI, etc., en s'appuyant sur le concept de décentralisation est tout simplement illusoire, car il n'y a pas d'avantage en ressources, en technologie, et encore moins en base d'utilisateurs.
Mais dans un monde de modèles localisés et de calcul en périphérie, la situation à laquelle fait face le service de la technologie blockchain est très différente.
Lorsque les modèles d'IA fonctionnent sur les appareils des utilisateurs, comment prouver que les résultats de sortie n'ont pas été altérés ? Comment réaliser la coopération des modèles tout en protégeant la vie privée ? Ces questions sont précisément les points forts de la technologie blockchain...
J'ai remarqué quelques nouveaux projets liés à l'IA web3, comme le protocole de communication de données Lattica récemment lancé par @Gradient_HQ avec un investissement de 10 millions de dollars de Pantera, pour résoudre le problème de monopole des données et de boîte noire des plateformes d'IA centralisées ; @PublicAI_ avec l'appareil de collecte de données cérébrales HeadCap qui recueille des données humaines réelles, construisant une "couche de validation humaine", ayant déjà réalisé 14 millions de dollars de revenus ; en fait, tous tentent de résoudre le problème de "fiabilité" de l'IA locale.
En un mot : ce n'est que lorsque l'IA sera réellement "descendue" sur chaque appareil que la coopération décentralisée deviendra une nécessité plutôt qu'un concept ?
#Web3AI Au lieu de continuer à se battre dans la course à la généralisation, il serait préférable de réfléchir sérieusement à la manière de fournir un soutien infrastructurel à la vague de l'IA localisée ?
7,18K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables