Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Esta réplica a mi publicación ataca posiciones que no adopté y presenta desarrollos técnicos sin el contexto adecuado.
1) Mi publicación no dice que las firmas/blockchains sean "menos vulnerables" que el cifrado. Los mismos algoritmos que rompen uno rompen al otro. Afirma que una transición post-cuántica para el cifrado es más urgente debido a los ataques HNDL. Esto no puede ser discutido: cualquiera que haga la transición a firmas PQ antes de que llegue un ordenador cuántico criptográficamente relevante (CRQC) no puede ser atacado, pero este no es el caso del cifrado debido a HNDL.
2) Mi publicación no sostiene que las blockchains tengan la misma facilidad de transición que las entidades centralizadas. No estoy seguro de por qué se menciona esto como algo sobre lo que he tomado una postura. Mi publicación dice que la mayoría de las blockchains son más fáciles de actualizar que la infraestructura de internet — lo cual es una afirmación muy diferente a "actualizar blockchains es fácil".
3) El arreglo de 6.100 cúbits de átomos neutros simplemente atrapa y sostiene coherentemente los átomos — no es un ordenador cuántico de modelo de puertas de 6.100 qubits y no muestra puertas entrelazadas, corrección cuántica de errores ni cálculos algorítmicos a esa escala. Presentar esto como si ahora tuviéramos un ordenador cuántico de 6.100 qubits es exactamente el tipo de comunicación engañosa que lleva a la gente a pensar que un CRQC está mucho más cerca de lo que realmente es, y va más allá incluso del sobreénfasis habitual en el número de qubits.
4) La "reducción de 20 veces" en los qubits estimados para los de Shor (de 20M a ~1M) se cita en mi mensaje. Un poco de contexto adicional: Estas estimaciones asumen parámetros de hardware que ningún sistema existente alcanza: tasas de error de puerta de dos qubits del 0,1%, tiempos de ciclo de 1 μs y latencia de retroalimentación de 10 μs a escala. Las compuertas superconductoras de dos qubits actuales son, como mucho, ~0,5%. Los sistemas superconductores se acercan a los tiempos de ciclo requeridos pero enfrentan cuellos de botella severos en criogenia y cableado. Los sistemas de átomos neutros podrían escalar plausiblemente hacia 1M qubits pero tener tiempos de ciclo órdenes de magnitud más lentos. Hoy tenemos cientos de qubits, no un millón. Las mejoras teóricas en las estimaciones de recursos no cierran esta brecha.
5) La réplica cita trabajos recientes sobre códigos superficiales y de colores como evidencia de un "progreso increíblemente rápido" en la destilación en estados mágicos y las puertas de alta fidelidad no Clifford. Estos artículos logran mejoras significativas de factor constante en el coste de recursos de tales fábricas, pero no demuestran una puerta corregida por error que no sea Clifford, ni eliminan el cuello de botella dominante de recursos: la enorme carga general de las fábricas de estado mágico. Estructuralmente, en los códigos relevantes, las compuertas Clifford son "fáciles" (pueden implementarse transversalmente o con bajo sobrecoste), mientras que las compuertas no Clifford como las T-puertas son "difíciles" y deben realizarse mediante estados mágicos. Ajustar construcciones de superficies o códigos de colores no convierte de repente las puertas en T transversales o baratas. Las propias fábricas siguen siendo un cuello de botella fundamental, y el panorama general de los recursos sigue estando dominado por gastos generales que no son Clifford. Citar estos artículos como prueba de que este cuello de botella se ha resuelto, o está cerca de resolverse, exagera lo que realmente logran.
También es importante que los trabajos citados en la refutación sean artículos de análisis de protocolos y recursos, no demostraciones de hardware ni hojas de ruta. Analizan, mediante simulaciones numéricas, los recursos necesarios para generar los estados mágicos de alta fidelidad requeridos en los cálculos a escala de Shor, asumiendo la existencia de una máquina de superficie/código de color muy grande y de bajo error, que implemente muchos qubits lógicos a una distancia de código considerable. En cambio, como destaca mi artículo, las hojas de ruta de hardware público suelen anunciar "qubits lógicos" junto con conteos de puertas lógicas indiferenciadas (esencialmente para cargas de trabajo dominadas por Clifford), sin abordar si estos presupuestos pueden realmente soportar las T-fábricas intensivas en recursos y la sobrecarga asociada no Clifford necesaria para las operaciones de Shor criptográficamente relevantes. Esa brecha sigue siendo una razón clave por la que los plazos para un CRQC se están sobrevalorando.
6) No veo ningún desacuerdo real con mis recomendaciones — mi publicación pide explícitamente que se inicien los procesos de gobernanza y planificación ahora, precisamente porque son lentos.
7) Mi publicación no dice que el progreso avance lentamente. Se mueve lo suficientemente rápido como para generar entusiasmo. Pero la brecha entre donde estamos hoy (según datos públicos) y un ordenador cuántico criptográficamente relevante es tan grande que, incluso con un progreso rápido, una CRQC antes de 2030 es muy improbable. Los desarrollos citados en esta respuesta no cambian esa valoración, que revisé con varios expertos antes de publicarla.
Populares
Ranking
Favoritas
