Dette motargumentet til innlegget mitt angriper standpunkter jeg ikke tok, og presenterer tekniske utviklinger uten passende kontekst. 1) Innlegget mitt sier ikke at signaturer/blokkjeder er «mindre sårbare» enn kryptering. De samme algoritmene som bryter den ene, ødelegger den andre. Den sier at en post-kvante-overgang for kryptering er mer presserende på grunn av HNDL-angrep. Dette kan ikke bestrides: alle som går over til PQ-signaturer før en kryptografisk relevant kvantedatamaskin (CRQC) ankommer, kan ikke angripes, men dette gjelder ikke for kryptering på grunn av HNDL. 2) Innlegget mitt hevder ikke at blokkjeder vil ha like lett for overgangen som sentraliserte enheter. Jeg er ikke sikker på hvorfor dette tas opp som noe jeg har tatt stilling til. Innlegget mitt sier at de fleste blokkjeder er lettere å oppgradere enn internettinfrastruktur — noe som er en helt annen påstand enn «å oppgradere blokkjeder er enkelt.» 3) Det 6 100 nøytrale atomer qubit-arrayet fanger og holder bare atomene koherent — det er ikke en 6 100-qubit portmodell kvantedatamaskin og demonstrerer ikke sammenfiltrede porter, kvantefeilkorrigering eller algoritmiske beregninger på noe lignende skala. Å presentere dette som om vi nå har en kvantedatamaskin på 6 100 kubbiter, er akkurat den typen misvisende kommunikasjon som får folk til å tro at en CRQC er mye nærmere enn den egentlig er, og det går utover selv den vanlige overvekten av antall qubits. 4) Den «20x reduksjonen» i estimerte qubits for Shors (fra 20M til ~1M) nevnes i innlegget mitt. Litt ekstra kontekst: Disse estimatene antar maskinvareparametere som ingen eksisterende system oppnår: 0,1 % feilrate for to-qubit-porter, 1 μs syklustid og 10 μs tilbakekoblingsforsinkelse i stor skala. Nåværende superledende to-qubit-porter er på det beste ~0,5 %. Superledende systemer nærmer seg de nødvendige syklustidene, men møter alvorlige flaskehalser i kryogenikk og ledninger. Nøytrale atomsystemer kan plausibelt skalere mot 1 million qubits, men har syklustider som er mange størrelsesordener tregere. Vi har hundrevis av qubits i dag, ikke en million. Teoretiske forbedringer i ressursestimater lukker ikke dette gapet. 5) Motargumentet viser til nyere arbeid med overflatekoder og fargekoder som bevis på «utrolig rask fremgang» innen magisk tilstandsdestillasjon og høyoppløselige ikke-Clifford-porter. Disse artiklene oppnår meningsfulle konstantfaktorforbedringer i ressurskostnaden for slike fabrikker, men de demonstrerer ikke en feilkorrigert ikke-Clifford-port, og de fjerner ikke den dominerende ressursflaskehalsen: den enorme overheaden til magiske statfabrikker. Strukturelt, i relevante koder, er Clifford-porter «enkle» (de kan implementeres tverrgående eller med lav overhead), mens ikke-Clifford-porter som T-porter er «vanskelige» og må realiseres via magiske tilstander. Justering av overflate- eller fargekodekonstruksjoner gjør ikke plutselig T-porter transversale eller billige. Fabrikkene i seg selv forblir en grunnleggende flaskehals, og det overordnede ressursbildet domineres fortsatt av ikke-Clifford overhead. Å sitere disse artiklene som bevis på at denne flaskehalsen er løst, eller nærmer seg løsning, overdriver hva de faktisk oppnår. Det er også viktig at arbeidene som siteres i motargumentet er protokoll- og ressursanalyseartikler, ikke maskinvaredemonstrasjoner eller veikart. De analyserer, via numeriske simuleringer, ressursene som trengs for å generere de høyoppløselige magiske tilstandene som kreves i Shor-skala beregninger, og antar eksistensen av en svært stor, lavfeil-, overflate-/fargekodemaskin som implementerer mange logiske qubits på betydelig kodeavstand. Derimot, som innlegget mitt fremhever, reklamerer offentlige maskinvareveikart vanligvis med «logiske qubits» sammen med udifferensierte logiske porttall (i hovedsak for Clifford-dominerte arbeidsbelastninger), uten å ta stilling til om disse budsjettene faktisk kan støtte de ressurskrevende T-fabrikkene og tilhørende ikke-Clifford-overhead som kreves for kryptografisk relevante Shor-kjøringer. Dette gapet er fortsatt en hovedårsak til at tidslinjene til en CRQC blir overdrevet. 6) Jeg ser ingen reell uenighet med mine anbefalinger — innlegget mitt oppfordrer eksplisitt til å starte styrings- og planleggingsprosesser nå, nettopp fordi de er trege. 7) Innlegget mitt sier ikke at fremgangen går sakte. Den beveger seg raskt nok til å skape spenning. Men gapet mellom der vi er i dag (basert på offentlige data) og en kryptografisk relevant kvantedatamaskin er så stort at selv med rask fremgang er en CRQC før 2030 svært usannsynlig. Utviklingen som nevnes i dette svaret endrer ikke denne vurderingen, som jeg gjennomgikk med flere eksperter før publisering.