Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Este artículo de DeepMind acaba de matar silenciosamente la mentira más reconfortante sobre la seguridad de la IA.
La idea de que la seguridad se trata de cómo se comportan los modelos la mayor parte del tiempo suena razonable. También es incorrecto en el momento en que los sistemas escalan. DeepMind muestra por qué los promedios dejan de importar cuando el despliegue alcanza millones de interacciones.
El artículo replantea la seguridad AGI como un problema de distribución. Lo que importa no es el comportamiento típico. Es la cola. Fracasos raros. Casos límite. Eventos de baja probabilidad que parecen ignorables en los exámenes pero que se vuelven inevitables en el mundo real.
Los benchmarks, el red-team y las demos muestran el centro. El despliegue muestra todo. Usuarios extraños, incentivos estraños, bucles de retroalimentación hostiles, entornos que nadie había planeado. A gran escala, esos casos dejan de ser raros. Están garantizados.
Aquí va la incómoda conclusión: el progreso puede hacer que los sistemas parezcan más seguros mientras que silenciosamente los hace más peligrosos. Si la capacidad crece más rápido que el control de cola, los fallos visibles disminuyen mientras que el riesgo catastrófico se acumula fuera de pantalla.
Dos modelos pueden parecer idénticos en promedio y aun así diferir enormemente en el peor de los casos. Las evaluaciones actuales no pueden ver esa diferencia. Los marcos de gobernanza asumen que sí pueden.
No se puede certificar la seguridad con pruebas finitas cuando el riesgo reside en el cambio de distribución. Nunca estás probando el sistema que realmente despliegas. Estás probando un futuro que no controlas.
Ese es el verdadero remate.
La seguridad por AGI no es un atributo del modelo. Es un problema de sistemas. El contexto de despliegue, los incentivos, la monitorización y cuánto riesgo de cola tolera la sociedad importan más que las medias limpias.
Este artículo no tranquiliza. Elimina la ilusión.
La cuestión no es si el modelo suele comportarse bien.
Es lo que ocurre cuando no lo hace — y la frecuencia con la que eso se permite antes de que la escala lo haga inaceptable.
Papel:

Populares
Ranking
Favoritas
