Recientemente, la atención hacia @inference_labs ha aumentado notablemente. No es por el precio o las actividades, sino porque han comenzado a aparecer con frecuencia en círculos que no pertenecen al ámbito de las criptomonedas. Hace unos días vi que Inference Labs fue mencionado por medios comerciales como 《Entrepreneur》, no para hablar de lo poderoso que es el AI, sino sobre un problema muy real: Cuando el AI comienza a tomar decisiones de forma independiente, ¿quién es responsable? ¿Cómo se puede hacer responsable? En el artículo, se utiliza el aeropuerto como un ejemplo de un escenario de alta presión — coordinación de múltiples sistemas, red inestable, sin intervención humana en tiempo real. En esta situación, si el AI da una conclusión que resulta problemática, "el resultado correcto" ya no es suficiente, debe poder explicar "por qué se hizo así". Este punto realmente toca la mayor debilidad del AI en la actualidad: la mayoría de los procesos de inferencia son cajas negras. Solo puedes ver la salida, no puedes ver el proceso, y mucho menos verificarlo. Si el AI solo genera contenido, no hay gran problema; pero una vez que comienza a estar en la cadena, manejar fondos, ejecutar protocolos, actuar como agente para ejecutar transacciones, esta falta de transparencia es casi mortal. Esta es también la razón por la que creo que Inference Labs es realmente interesante. No están compitiendo en parámetros de modelos, ni están exagerando el rendimiento, sino que se centran en: 👉 Cómo hacer que el proceso de inferencia del AI se convierta en un hecho "verificable, auditable y responsable". Recientemente, sus movimientos en el ecosistema de Bittensor están justo en este punto. Especialmente con el lanzamiento de Subnet 2: DSperse. Lo que hace DSperse es muy directo: La inferencia del AI no es "créeme", sino que cada salida lleva consigo una prueba zk, el proceso está en la cadena, es verificable e inalterable. Lo más importante es que los pesos del modelo también se pueden compartir de forma encriptada — otros pueden usar tu modelo, pero no pueden ver tus parámetros clave. Esto es un punto de ruptura muy real para quienes realmente hacen modelos:...