Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Justin Thaler
Onderzoekspartner @ a16z crypto
Universitair hoofddocent CS in Georgetown.
Deze weerlegging van mijn bericht valt posities aan die ik niet heb ingenomen en presenteert technische ontwikkelingen zonder de juiste context.
1) Mijn bericht zegt niet dat handtekeningen/blockchains "minder kwetsbaar" zijn dan encryptie. Dezelfde algoritmen die de een breken, breken de ander. Het zegt dat een post-quantum overgang voor encryptie urgenter is vanwege HNDL-aanvallen. Dit kan niet ter discussie staan: iedereen die overstapt naar PQ-handtekeningen voordat er een cryptografisch relevante quantumcomputer (CRQC) arriveert, kan niet worden aangevallen, maar dit is niet het geval voor encryptie vanwege HNDL.
2) Mijn bericht stelt niet dat blockchains net zo gemakkelijk zullen overstappen als gecentraliseerde entiteiten. Ik weet niet waarom dit wordt aangehaald als iets waar ik een standpunt over heb ingenomen. Mijn bericht zegt dat de meeste blockchains gemakkelijker te upgraden zijn dan internetinfrastructuur — wat een heel andere bewering is dan "het upgraden van blockchains is gemakkelijk."
3) De 6.100 neutrale-atoom qubit-array vangt en houdt de atomen coherent vast — het is geen 6.100-qubit gate-model quantumcomputer en toont geen verstrengelingspoorten, quantumfoutcorrectie of algoritmische berekeningen op een dergelijke schaal aan. Dit presenteren alsof we nu een 6.100-qubit quantumcomputer hebben, is precies het soort misleidende communicatie dat mensen doet denken dat een CRQC veel dichterbij is dan het in werkelijkheid is, en het gaat zelfs verder dan de gebruikelijke overdrijving van qubit-aantallen.
4) De "20x reductie" in geschatte qubits voor Shor's (van 20M naar ~1M) wordt in mijn bericht geciteerd. Wat extra context: Deze schattingen gaan uit van hardwareparameters die geen enkel bestaand systeem bereikt: 0,1% twee-qubit poortfoutpercentages, 1 μs cyclus tijden, en 10 μs feedbacklatentie op schaal. Huidige supergeleidende twee-qubit poorten zijn ~0,5% op zijn best. Supergeleidende systemen benaderen de vereiste cyclus tijden, maar ondervinden ernstige schaalproblemen in cryogenica en bedrading. Neutraal-atoomsystemen kunnen plausibel opschalen naar 1M qubits, maar hebben cyclus tijden die meerdere ordes van grootte langzamer zijn. We hebben vandaag de dag honderden qubits, geen miljoen. Theoretische verbeteringen in schattingen van middelen sluiten deze kloof niet.
5) De weerlegging citeert recent werk over oppervlaktecodes en kleurcodes als bewijs van "ongelooflijk snelle vooruitgang" op magic-state distillatie en hoge-fideliteit non-Clifford poorten. Deze papers bereiken betekenisvolle constante-factor verbeteringen in de hulpbronnenkosten van dergelijke fabrieken, maar ze demonstreren geen fout-gecorrigeerde non-Clifford poort, en ze verwijderen niet de dominante hulpbronflessenhals: de enorme overhead van magic-state fabrieken. Structureel zijn Clifford-poorten in de relevante codes "gemakkelijk" (ze kunnen transversaal of met lage overhead worden geïmplementeerd), terwijl non-Clifford poorten zoals T-poorten "moeilijk" zijn en gerealiseerd moeten worden via magic states. Het aanpassen van oppervlakte- of kleurcodeconstructies maakt T-poorten niet plotseling transversaal of goedkoop. De fabrieken zelf blijven een fundamentele bottleneck, en het algehele hulpbronnenbeeld wordt nog steeds gedomineerd door non-Clifford overhead. Deze papers citeren als bewijs dat deze bottleneck is opgelost, of dicht bij oplossing is, overdrijft wat ze daadwerkelijk bereiken.
Het is ook belangrijk dat de werken die in de weerlegging worden geciteerd, protocol- en hulpbronnenanalyse papers zijn, geen hardware demonstraties of roadmaps. Ze analyseren, via numerieke simulaties, de middelen die nodig zijn om de hoge-fideliteit magic states te genereren die vereist zijn in Shor-schaal berekeningen, uitgaande van het bestaan van een zeer grote, lage-fout oppervlakte/kleur-code machine die veel logische qubits implementeert op aanzienlijke codeafstand. In tegenstelling tot, zoals mijn bericht benadrukt, adverteren openbare hardware roadmaps doorgaans "logische qubits" samen met ongedifferentieerde logische poortenaantallen (essentially voor Clifford-dominante workloads), zonder te adresseren of deze budgetten daadwerkelijk de hulpbron-intensieve T-fabrieken en bijbehorende non-Clifford overhead kunnen ondersteunen die vereist zijn voor cryptografisch relevante Shor-runs. Die kloof blijft een belangrijke reden waarom tijdlijnen naar een CRQC worden overschat.
6) Ik zie geen daadwerkelijke onenigheid met mijn aanbevelingen — mijn bericht roept expliciet op tot het starten van governance- en planningsprocessen nu, precies omdat ze traag zijn.
7) Mijn bericht zegt niet dat de vooruitgang langzaam gaat. Het gaat snel genoeg om opwinding te genereren. Maar de kloof tussen waar we vandaag zijn (gebaseerd op openbare gegevens) en een cryptografisch relevante quantumcomputer is zo groot dat zelfs met snelle vooruitgang, een CRQC voor 2030 zeer onwaarschijnlijk is. De ontwikkelingen die in dit antwoord worden geciteerd, veranderen die beoordeling niet, die ik met meerdere experts heb herzien voordat ik publiceerde.

Alex Pruden7 dec, 07:05
Ik heb groot respect voor @succinctJT en het a16z-team. Maar ik ben het niet eens met het argument dat quantumcomputing geen urgent probleem is voor blockchains. De dreiging is dichterbij, de vooruitgang sneller en de oplossing moeilijker dan hoe hij het framet en dan de meeste mensen zich realiseren. 👇
0/
21,65K
1/ Voorspellingen over quantumcomputing variëren de laatste tijd van "publieke sleutelcryptografie zal binnen 2 jaar worden gebroken" tot "het is een eeuw weg." Beide zijn verkeerd.
Mijn laatste post legt uit wat publiek bekende vooruitgang daadwerkelijk ondersteunt — en wat blockchains daarover zouden moeten doen.
Draad hieronder 🧵

22,69K
Boven
Positie
Favorieten

