Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brendan Farmer
fonctionne sur ZK @0xPolygon, anciennement mir
Brendan Farmer a reposté
Le montant d'argent et de ressources qui sera dépensé pour passer à la cryptographie post-quantique à cause de ces ordinateurs quantiques qui ne peuvent faire que de l'échantillonnage de circuits aléatoires, c'est-à-dire qu'ils ne peuvent rien calculer... c'est juste tellement stupide, mais c'est un récit que l'on ne peut pas combattre. Tout le monde est d'accord.
6,83K
Cela ressemble à un projet cool, construit sur le travail Mersenne-31 de Polygon Zero et Circle-STARKs de Polygon Zero et Starkware.
L’accélération zkVM profite à tout le monde dans l’espace, et je suis ravi de voir cela se développer. Félicitations à l’équipe !

ZKsync (∎, ∆)25 juin 2025
Prêt à prouver Ethereum en quelques secondes sur un seul GPU ?
Présentation de ZKsync Airbender :
Le zkVM RISC-V open-source le plus rapide au monde ⚡️
10,45K
Enfin, c'est une excellente nouvelle. La meilleure personne pour diriger une startup est son fondateur.
Au cours des dernières années, Polygon a mené l'industrie en R&D ZK avec plonky2 et plonky3 (je suis biaisé car c'est mon équipe et celle de @dlubarov 😁)
Mais la véritable force de Polygon, son ADN, réside dans la mise sur le marché des produits et la domination en croissance et développement commercial. Cela n'a pas été possible ces dernières années, mais elle retourne enfin à ses racines.
Malgré les meilleurs efforts de l'équipe Hermez, le projet zkEVM n'a pas été couronné de succès et sera déprécié. Mais c'est un mouvement positif car cela signifie que Polygon pourra se concentrer complètement sur Polygon PoS et l'Agglayer.
Depuis que j'ai commencé à réfléchir à l'AL début 2023, la vision technique n'a pas vraiment changé. Mais maintenant, il y a une stratégie solide autour de la mise sur le marché avec Katana et d'autres chaînes.
Polygon PoS gagne discrètement du terrain et proposera d'incroyables améliorations techniques plus tard cette année.
Je suis impatient de voir Polygon de retour sur le marché.

Sandeep | CEO, Polygon Foundation (※,※)11 juin 2025
GROS update - En tant que plus grand détenteur de POL et quelqu'un qui a dédié sa vie au développement et au succès de @0xPolygon depuis le tout début, j'ai décidé de prendre le contrôle total de la Fondation Polygon et d'en devenir le PDG à partir de maintenant. La Fondation Polygon possède et supervise plusieurs entités, y compris l'un des principaux contributeurs, Polygon Labs, qui continuera d'être dirigé par Marc Boiron @0xMarcB en tant que PDG, qui, à mon avis, est le meilleur cadre/leader de toute l'industrie crypto.
J'ai toujours évité de passer au rôle de PDG parce que je me suis concentré sur la construction de PF en tant que fondation gouvernée institutionnellement. Mais en ce moment, Polygon a besoin d'une direction claire et d'une exécution ciblée, et cela signifie prendre les devants.
Avec une trésorerie saine et plusieurs centaines de millions en liquidités, nous sommes dans une excellente position pour continuer à construire à long terme, sans distractions ni pression pour lever des fonds.
Aujourd'hui, j'annonce une série de changements nécessaires conçus pour offrir une plus grande valeur aux stakers de POL et apporter une clarté accrue au marché plus large.
1. Nous allons déprécier Polygon zkEVM l'année prochaine. L'objectif principal de Polygon sera Polygon PoS et @Agglayer, rien d'autre. Polygon PoS se concentrera sur les paiements en Stablecoin et les RWAs, tandis qu'Agglayer se concentrera sur la construction d'un Internet de Blockchains sans confiance.
2. Le premier jalon de la feuille de route Gigagas de Polygon POS est maintenant en ligne sur le testnet. Cette première mise à niveau pousse la capacité du réseau au-delà de 1 000 transactions par seconde début juillet et ce n'est que le début. Nous avons déjà le plan de passer à zéro reorgs et <1 seconde de finalité avec >5000 TPS atteints dans un environnement devnet. Cela mettra Polygon PoS parmi les blockchains les plus performantes d'ici septembre-octobre. Et au-delà, nous avons un chemin clair pour évoluer vers 100k+ TPS au cours des prochaines années. Ces mises à niveau augmentent massivement la viabilité économique du protocole Polygon et donc la valeur pour les stakers de POL.
3. Agglayer v0.3 est en préparation et j'annonce la semaine du 30 juin comme date de déploiement. Cette version d'Agglayer est complète en fonctionnalités sauf pour l'interopérabilité rapide que nous prévoyons d'achever d'ici la fin du T3. Nous sommes de retour en mode expédition massive.
4. Le programme Agglayer Breakout continuera de faire émerger des projets entraînant un focus accru pour Polygon PoS et Agglayer et d'énormes airdrops pour les stakers de POL. Nous sommes dans le domaine de la construction de réseaux blockchain et ZK est un outil important pour apporter cette évolutivité de niveau Internet aux blockchains. Nous avons beaucoup contribué à ZK et continuerons à le faire de manière plus neutre en faisant émerger davantage d'efforts de recherche ZK. Prochainement, Polygon ZisK dirigé par Jordi Baylina @jbaylina. Plus à venir.
5. Maintenant que la SEC a abandonné ses enquêtes et poursuites liées à MATIC en tant que sécurité, ce qui n'aurait jamais dû exister compte tenu de la nature de MATIC (et maintenant POL), nous sommes ravis de voir plusieurs grands teneurs de marché revenir à la table ces derniers jours pour créer des marchés en POL, ce qui renforce la liquidité de POL sur les échanges à l'échelle mondiale.
6. La Fondation s'engagera également dans des campagnes éducatives pour s'assurer que tout le monde soit au courant de la mise à niveau de MATIC vers POL.
7. Mettre la marque Polygon au premier plan de ce qui était auparavant la marque neutre Agglayer. Il est temps d'aligner l'écosystème de manière plus claire et audacieuse sous l'identité Polygon.
De plus, à l'avenir, les annonces majeures de Polygon viendront souvent de mon compte Twitter, alors suivez-moi pour rester à jour et activez vos notifications.
Alors pourquoi fais-je cela ?
Entre 2021 et 2022, nous avons fait un réel effort pour institutionnaliser le projet en intégrant des personnes incroyables en tant que co-fondateurs et membres du conseil d'administration et en posant les bases pour faire évoluer Polygon de la phase 10-100 d'un projet.
Mais je ne savais pas que l'Ethereum lui-même allait entrer dans une crise existentielle qui ramènerait Polygon et l'ensemble de l'écosystème Ethereum à la phase 1 à 10... ou par certaines mesures, même de 0 à 1.
Et la phase de 0 à 1 est une bête différente. Elle nécessite de la vitesse, du courage pour faire des paris audacieux et la capacité de gérer l'échec. De plus, l'industrie crypto a changé d'une approche centrée sur la recherche à une approche centrée sur l'utilisateur et Polygon doit changer en conséquence. Les configurations institutionnelles et les structures de conseil sont excellentes pour la stabilité, mais elles tendent à produire des décisions moyennes — pas les mouvements tranchants et agressifs nécessaires pour obtenir des résultats exponentiels.
Polygon est maintenant de retour en tant que startup de zéro à un. Avec le soutien d'une équipe incroyable chez Polygon Labs, et un leadership fort incluant Marc @0xMarcB, Mudit Gupta @Mudit__Gupta (CTO), Ryan (COO) @web3RyanN et bien d'autres, nous allons FAIRE LE JOB.
Jouons !
13,69K
Une partie essentielle de la thèse d’Agglayer est que les chaînes à usage général n’ont pas de sens.
Sans l’Agglayer, les chaînes doivent construire leurs propres effets de réseau (utilisateurs, développeurs, liquidité). Ils doivent être neutres et sans opinion pour attirer les développeurs.
C’est mauvais ! La liquidité d’amorçage est coûteuse et rend plus difficile la recherche de PMF. Il est difficile de distinguer vos futurs utilisateurs des agriculteurs et de déterminer si le capital restera dans les parages.
La neutralité est également coûteuse : le fait d’avoir 4 protocoles de prêt différents et 8 DEX fragmente la liquidité entre les protocoles d’une chaîne, et la profondeur et l’exécution en souffrent.
Ensuite, il y a les frais généraux liés à l’exécution de chaînes à usage général : payer pour des intégrations de protocoles, prendre en charge un large éventail d’applications, tout cela pour une chaîne qui ne pourra jamais atteindre l’échelle d’Internet. Peu importe qu’il s’agisse de Base, Solana, etc.
L’Agglayer veut tuer les chaînes à usage général et permettre aux constructeurs de se concentrer sur la construction de choses différenciées. Cela nécessite la possibilité de partager des effets de réseau entre les chaînes.
En tant que développeur, je devrais être capable de créer un DEX hyper-performant, ou un jeu, ou une application sociale, de le déployer comme son propre espace de bloc indépendant, et d’exploiter les utilisateurs existants et les liquidités.
@katana’est un élément essentiel de cela. Un gestionnaire d’actifs DeFi / on-chain opiniâtre qui amorcera la liquidité de l’ensemble de l’écosystème Agglayer.
L’Agglayer est totalement neutre : vous pourrez déployer une chaîne avec n’importe quelle VM, n’importe quel jeton de gaz, n’importe quel DA, n’importe quel système de preuve, n’importe quelle règle de séquençage, et vous n’aurez jamais à payer d’impôts sur les bénéfices de votre chaîne ou de frais de séquenceur.
Katana est une stratégie très ciblée pour attirer un maximum de liquidités dans l’AL. Je suis ravi de la voir se développer.

katana28 mai 2025
Réveillez le samouraï. C’est le katana.
pas seulement une autre chaîne à usage général. Une chaîne DeFi forgée pour tuer les actifs inactifs via une liquidité profonde et un haut rendement. Mainnet public à la fin du mois de juin.
incubé par @0xpolygon x @gsr_io
Pré-dépôts en direct ⚔️ Arrêtez de dormir sur vos sacs
30,58K
J’ai réalisé que je ne savais pas ce que signifiait réellement « découverte des prix mondiaux à la vitesse de la lumière ».
D’après ce que je comprends, la thèse est que s’il existe une plate-forme de négociation exploitée par un ensemble de validateurs décentralisés à l’échelle mondiale, alors chaque fois qu’il y a un événement n’importe où dans le monde, une transaction peut être incluse par le producteur de blocs le plus proche et propagée au reste du réseau pour la formation des prix. Les nœuds situés à Djibouti n’ont pas d’inconvénient par rapport aux nœuds situés à New York ou à Londres (pour le trading d’informations provenant de Djibouti).
En revanche, des sites comme NASDAQ, Binance, Coinbase, Hyperliquid opèrent dans un seul lieu géographique. Les traders qui sont colocalisés avec ces sites ou qui peuvent obtenir des informations sur ces sites plus rapidement ont un avantage.
Notez que les plates-formes de trading qui ne sont pas décentralisées à l’échelle mondiale peuvent fonctionner à une latence beaucoup plus faible, ce qui améliore la liquidité, compresse les spreads, etc.
L’affirmation est que la découverte des prix mondiaux à la vitesse de la lumière sera meilleure que celle du NASDAQ, car quelqu’un qui voit un événement critique se produire à Singapour peut immédiatement trader sur cette information avant même que le cône de lumière n’atteigne New York.
D’accord.
Il y a un problème immédiat, c’est que le NASDAQ décentralisé sous-performera le NASDAQ sur toutes les informations provenant de près de New York, car le moteur de correspondance du NASDAQ fonctionne à une latence beaucoup plus faible. L’activité financière a tendance à être localisée autour des centres financiers, de sorte que le NASDAQ décentralisé sous-performera dans le cas moyen.
Mais je ne suis pas sûr de comprendre la microstructure.
Disons qu’un événement se produit à Taïwan qui affecte NVDA. Je soumets un échange au producteur de blocs taïwanais et ce commerce se propage à travers le reste du réseau.
Il semble que le même problème existe à la fois dans le NASDAQ décentralisé et centralisé. Les teneurs de marché fournissent des liquidités à NVDA à l’échelle mondiale, à New York et à Londres, en soumettant des transactions à des producteurs de blocs locaux.
En tant que preneur/agresseur, si je peux être le plus rapide à transmettre des informations de Taïwan à ces producteurs de blocs, je peux choisir ces commandes et gagner de l’argent aux dépens des teneurs de marché. En fonction de l’ordre en MCP, mes transactions peuvent finir par être placées plus haut dans le bloc que celles du producteur de blocs à Taïwan.
Cela semble être le même cas que si j’étais le plus rapide à faire passer des informations de Taïwan au NASDAQ dans le New Jersey : je vais gagner de l’argent. Mais étant donné que le NASDAQ décentralisé est désavantagé en ce qui concerne la rapidité avec laquelle il peut faire correspondre les ordres, il est difficile pour moi de voir comment ce n’est pas strictement pire du point de vue de la liquidité et de l’exécution.
Même avec des réseaux de fibre dédiés comme doublezero, j’imagine que les entreprises HFT professionnalisées prendront la priorité pour elles-mêmes sur les lignes qu’elles louent à des protocoles décentralisés, ou qu’elles surenchériront sur les protocoles pour la priorité sur les informations qu’elles peuvent exploiter de manière rentable. Les acteurs qui ont le plus d’incitation à être rapide devraient être les plus rapides dans la propagation de l’information.
Bien sûr, la décentralisation présente des avantages : accès sans autorisation, vivacité, résistance à la censure, conception différente des mécanismes, etc.
Mais il semble que la « découverte des prix mondiaux à la vitesse de la lumière » existe déjà. Les traders s’affrontent pour être les premiers à communiquer les informations d’où elles proviennent à une plate-forme de négociation... à (presque) la vitesse de la lumière.
5,14K
Les progrès réalisés par @SuccinctLabs et @RiscZero vers la preuve en temps réel ont été très impressionnants.
QT-ing non pas pour être critique mais parce que je pense que ces questions sont vraiment intéressantes (et j’aimerais voir RTP arriver sur Ethereum !).
1. Prouver tous les blocs Ethereum historiques dans les 12 secondes n’est pas suffisant pour couvrir le pire des temps.
C’est important car il existe des blocs pathologiques possibles où le coût de preuve >> coût de gaz (prouver le coût est une mesure de la latence ou $).
La première étape consiste à prouver tous les blocs historiques dans les 12 secondes. Mais cela ne suffit pas. Nous devons travailler à identifier les cas pathologiques qui ne sont pas encore apparus sur Ethereum. Je ne sais pas quel est le barème des coûts pour SP1, mais quelque chose comme un bloc entier rempli d’extcodehash pourrait être coûteux en termes de latence.
2. La vérification formelle doit également couvrir le compilateur 😱
@argumentxyz avions un bon article sur la fréquence à laquelle les bogues du compilateur sont trouvés ( tl ; dr il existe une classe spécifique de « bogues de mauvaise optimisation » qui pourraient potentiellement être exploitables dans les zkVM pour créer des problèmes de solidité. Ces insectes sont trouvés assez fréquemment.
@drakefjustin a soutenu que nous pouvons contourner ce problème avec de nombreuses implémentations de zkVM. Mais cela ne fonctionne pas si ces zkVM partagent la même chaîne d’outils de compilateur et sont vulnérables aux mêmes bogues.
3. Il n’est pas nécessaire de faire ses preuves à domicile
Je pense que je suis d’accord que la preuve à domicile n’est pas nécessaire. Nous nous appuyons déjà sur des acteurs extra-protocolaires comme les constructeurs pour construire des blocs. La garantie que nous voulons, c’est que *quelqu’un* soit toujours disponible pour générer des preuves.
Reporter RTP pour le scénario de la Troisième Guerre mondiale, où tous les prouveurs se déconnectent, semble exagéré. Peut-être que dans ce scénario, Ethereum pourrait revenir par défaut à un mode où la limite de gaz diminue et où les blocs sont réexécutés plutôt que vérifiés avec des ZKP.
4. 100x-ing la limite de gaz pourrait créer des problèmes
La preuve parallélisée aide certainement, mais le timing est si serré que nous devons prendre en compte la génération de témoins (non parallélisable dans de nombreuses zkVM) et la récursivité.
La surcharge de récursivité doit évoluer de manière logarithmique, mais si la limite de gaz augmente de 100x, les temps d’étalonnage peuvent dépasser les temps de blocage.
Bonus - Je dirais qu’il est vraiment important pour Ethereum de réduire les temps de bloc et le temps jusqu’à la finalité, afin d’aider les utilisateurs à s’intégrer aux L2, à faire le pont entre les CEX, etc. Cela augmente les exigences de latence lors de la démonstration.
Il serait sous-optimal si nous ne pouvions pas passer à des temps de bloc de 1 s, car la limite inférieure de la latence RTP dans le pire des cas est de 10 s.

Uma Roy22 mai 2025
L’annonce d’hier est une étape importante, et @VitalikButerin soulève de bons points sur le travail supplémentaire qui sera nécessaire.
MAIS je pense que nous sommes plus proches sur tous ces points que les gens ne le pensent...
1. La preuve en temps réel dans le pire des cas peut être résolue avec de simples modifications du calendrier de gaz d’Ethereum : Aujourd’hui, ~94 % des blocs peuvent être prouvés en < 12 secondes, 99 % des blocs peuvent être prouvés en < 13 secondes. Pour les valeurs aberrantes restantes, de simples ajustements au calendrier de gaz d’Ethereum devraient suffire (actuellement, les précompilés bn254, bls12-381 sont sous-évalués par rapport à leurs coûts de preuve). De plus, l’EIP limitant l’utilisation maximale de gaz d’une seule transaction aidera à garantir qu’il n’y a pas de vecteurs DDOS (puisque nous prouvons des sous-blocs de transactions en parallèle pour atteindre notre faible latence).
2. La vérification formelle pour SP1 est déjà en cours : Comme par hasard, nous avons eu 2 annonces la semaine dernière concernant la vérification formelle pour SP1, en collaboration avec @NethermindEth et @VeridiseInc ! Nous avons une ligne de mire claire pour vérifier officiellement tous nos DA de base au cours des prochains mois.
3. La preuve à domicile n’est pas nécessaire avec les réseaux de décentralisés : À l’heure actuelle, RTP nécessite ~160 GPU, ce qui est très petit pour n’importe quel centre de données, mais peut-être légèrement grand pour une configuration à domicile. Cependant, avec les lancements à venir de réseaux de démonte-conducteurs décentralisés, je ne suis pas sûr que nous devions viser à faire nos preuves chez nous. Le réseau incitera économiquement à ce qu’il y ait toujours des prouveurs en ligne prêts à prouver en temps réel.
4. La preuve parallélisée des sous-blocs signifie que 100x-ing la limite de gaz n’est pas un problème pour la latence : je suis tout à fait pour 100x-ing la limite de gaz et ce ne sera pas un problème pour nous. Notre implémentation de preuve en temps réel utilise une approche de sous-bloc, où nous prenons un bloc et le divisons en sous-blocs plus petits de quelques transactions. Ces sous-blocs sont prouvés en parallèle, puis agrégés en 1 preuve à la fin. Même si la limite de gaz augmente de 100x, nous pouvons toujours paralléliser la vérification des sous-blocs (il y en a juste plus), ce qui signifie que la latence ne sera pas affectée.
Croyez en quelque chose de réel. Croyez en la preuve en temps réel.
9,19K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables