Esta refutação ao meu post ataca posições que eu não tomei e apresenta desenvolvimentos técnicos sem o contexto apropriado. 1) Meu post não diz que assinaturas/blockchains são "menos vulneráveis" do que a criptografia. Os mesmos algoritmos que quebram um quebram o outro. Ele diz que uma transição pós-quântica para a criptografia é mais urgente devido aos ataques HNDL. Isso não pode ser contestado: qualquer um que transite para assinaturas PQ antes que um computador quântico relevante do ponto de vista criptográfico (CRQC) chegue não pode ser atacado, mas isso não é o caso para a criptografia devido ao HNDL. 2) Meu post não argumenta que os blockchains terão uma transição tão fácil quanto as entidades centralizadas. Não tenho certeza de por que isso está sendo trazido como algo que eu tomei uma posição. Meu post diz que a maioria dos blockchains é mais fácil de atualizar do que a infraestrutura da internet — o que é uma afirmação muito diferente de "atualizar blockchains é fácil." 3) A matriz de qubits de átomos neutros de 6.100 apenas captura e mantém os átomos de forma coerente — não é um computador quântico de modelo de porta de 6.100 qubits e não demonstra portas entrelaçadas, correção de erro quântico ou computações algorítmicas em nada parecido com essa escala. Apresentar isso como se agora tivéssemos um computador quântico de 6.100 qubits é exatamente o tipo de comunicação enganosa que leva as pessoas a pensar que um CRQC está muito mais próximo do que realmente está, e vai além até mesmo da ênfase usual em contagens de qubits. 4) A "redução de 20x" nos qubits estimados para o Shor (de 20M para ~1M) é citada no meu post. Um contexto adicional: Essas estimativas assumem parâmetros de hardware que nenhum sistema existente alcança: taxas de erro de porta de dois qubits de 0,1%, tempos de ciclo de 1 μs e latência de feedback de 10 μs em escala. As portas de dois qubits supercondutoras atuais são ~0,5% no melhor dos casos. Sistemas supercondutores se aproximam dos tempos de ciclo necessários, mas enfrentam severos gargalos de escalabilidade em criogenia e fiação. Sistemas de átomos neutros podem plausivelmente escalar para 1M qubits, mas têm tempos de ciclo ordens de magnitude mais lentos. Temos centenas de qubits hoje, não um milhão. Melhorias teóricas nas estimativas de recursos não fecham essa lacuna. 5) A refutação cita trabalhos recentes sobre códigos de superfície e códigos de cor como evidência de "progresso incrivelmente rápido" na destilação de estados mágicos e portas não-Clifford de alta fidelidade. Esses artigos alcançam melhorias significativas de fator constante no custo de recursos de tais fábricas, mas não demonstram uma porta não-Clifford corrigida por erro, e não removem o gargalo de recursos dominante: o enorme overhead das fábricas de estados mágicos. Estruturalmente, nos códigos relevantes, portas Clifford são "fáceis" (podem ser implementadas transversalmente ou com baixo overhead), enquanto portas não-Clifford como portas T são "difíceis" e devem ser realizadas via estados mágicos. Ajustar construções de códigos de superfície ou de cor não torna repentinamente as portas T transversais ou baratas. As fábricas em si permanecem um gargalo fundamental, e a imagem geral de recursos ainda é dominada pelo overhead não-Clifford. Citar esses artigos como evidência de que esse gargalo foi resolvido, ou está próximo da resolução, exagera o que eles realmente realizam. 6) Também é importante que os trabalhos citados na refutação são artigos de análise de protocolo e recursos, não demonstrações de hardware ou roteiros. Eles analisam, por meio de simulações numéricas, os recursos necessários para gerar os estados mágicos de alta fidelidade exigidos em computações em escala Shor, assumindo a existência de uma máquina de superfície/código de cor muito grande e de baixo erro implementando muitos qubits lógicos a uma distância de código substancial. Em contraste, como meu post destaca, roteiros de hardware públicos normalmente anunciam "qubits lógicos" juntamente com contagens de portas lógicas indiferenciadas (essencialmente para cargas de trabalho dominadas por Clifford), sem abordar se esses orçamentos podem realmente suportar as fábricas de T intensivas em recursos e o overhead não-Clifford associado exigido para execuções Shor relevantes criptograficamente. Essa lacuna permanece uma razão chave pela qual os cronogramas para um CRQC estão sendo exagerados. 7) Não vejo nenhuma discordância real com minhas recomendações — meu post pede explicitamente para iniciar processos de governança e planejamento agora, precisamente porque eles são lentos. 8) Meu post não diz que o progresso está se movendo lentamente. Está se movendo rápido o suficiente para gerar empolgação. Mas a lacuna entre onde estamos hoje (com base em dados públicos) e um computador quântico relevante criptograficamente é tão vasta que, mesmo com um progresso rápido, um CRQC antes de 2030 é altamente improvável. Os desenvolvimentos citados nesta resposta não mudam essa avaliação, que eu revisei com vários especialistas antes de publicar.