Gradient Hablemos sobre la Infraestructura de IA descentralizada, todos los proyectos en este campo son monstruos de financiamiento, porque tienen una gran capacidad para contar historias, pero en esta etapa, es difícil saber dónde se puede implementar y qué experiencias diferentes puede ofrecer, desde la perspectiva de @Gradient_HQ: Descomponiendo la IA en la estructura más simple, se puede dividir en 4 capas: aplicación, orquestación de ejecución, entrenamiento de modelos y datos, que se entienden literalmente. La mayoría de los proyectos DeAI se concentran principalmente en la capa de orquestación de ejecución, añadiendo características relacionadas con Crypto, como liquidación e incentivos, y verificabilidad ZK. La capa de entrenamiento de modelos y la ejecución son actualmente las más concentradas y costosas, y es muy difícil descentralizarlas en esta etapa. Para los nuevos, primero se debe hacer una introducción básica, aquellos con conocimientos especializados pueden saltarse esta parte. La ejecución y la orquestación se pueden entender como la distribución de demandas a la potencia de cálculo y los modelos, como el mercado de potencia de cálculo, la programación de tareas, etc. Primero, entendamos el concepto de "potencia de cálculo"; en términos simples, hacer que un modelo funcione requiere realizar muchos cálculos matemáticos, y la capacidad para ejecutar estos cálculos es la potencia de cálculo. En el campo de la IA tradicional, por ejemplo, cuando chateas con ChatGPT, detrás de esto se necesita potencia de cálculo para realizar inferencias, que proviene principalmente de centros de datos en la nube (GPU/aceleradores de IA en servidores), tú ingresas contenido → se envía a través de la red al backend → un grupo de GPU/aceleradores en el centro de datos del backend ejecuta el modelo para completar la inferencia → y devuelve el resultado al navegador. La Infraestructura que Gradient está promoviendo actualmente: Parallax, a diferencia de los sistemas de cálculo que normalmente vemos basados en H100 y H20, lo que hace es descomponer la inferencia en dispositivos con diferentes modelos, diferentes capacidades de memoria y diferentes condiciones de red. Automáticamente ajusta el tamaño del modelo para que cada máquina pueda ejecutarlo, su desafío principal es la eficiencia de comunicación entre máquinas y la optimización de alto rendimiento en entornos de hardware heterogéneo. La mayoría de los proyectos aún intentan "liquidar en cadena" el H100 offline, mientras que Gradient ha hecho un intento más audaz, permitiendo que dos tarjetas 4090 de 4000 dólares puedan combinarse para ofrecer un rendimiento cercano al de una A100 de 20000 dólares. Aquí se habilitan dos casos de uso: 1/ Cualquiera puede usar varias computadoras en casa para inferir grandes modelos, garantizando completamente la privacidad personal. 2/ Cualquiera puede unirse a un clúster de red de inferencia, inferir modelos junto con amigos, e incluso formar una red de inferencia más grande. Aquí, Gradient también ha diseñado un conjunto de algoritmos bastante complejos, incluyendo la optimización del número de segmentos de corte y el enrutamiento dinámico de demandas, que no se desarrollará aquí, pero los interesados pueden leer el paper. Por supuesto, Gradient no solo se dedica a esto, no entraré en detalles aquí, es una infraestructura de IA de código abierto. También incluye una serie de temas de vanguardia en el campo de la IA, como el aprendizaje por refuerzo, lo que demuestra que es un equipo ambicioso que sigue de cerca la innovación en IA. Recientemente, el equipo también ha sido reconocido y apoyado por entidades como Moonlight, Alibaba Qianwen, entre otros laboratorios de IA, lo cual es bastante raro en el sector. Este enfoque para mejorar la IA, primero absorbe recursos heterogéneos y construye un sistema abierto y de código abierto, permitiendo que más personas ejecuten grandes modelos fácilmente, generando más aplicaciones interesantes. En comparación con el alquiler de potencia de cálculo, reduce los costos en cierta medida, disminuye el riesgo de puntos únicos y mejora la resistencia a la censura, algo que es familiar en el ámbito crypto, y en términos de privacidad, puede mantener los datos sensibles en la región/localidad para su procesamiento. Muchos gigantes de la industria también tienen una actitud positiva hacia DeAI, uno de los mayores defensores de la narrativa DeAI, David O. Sacks, ha enfatizado públicamente en varias ocasiones: la IA transformará el mundo, pero su camino de desarrollo centralizado está lleno de riesgos. La infraestructura de IA descentralizada es la única forma de garantizar la innovación continua y la competencia libre. Gradient ha obtenido actualmente 10 millones de dólares en inversión, liderada por inversores destacados como Multicoin Capital, Pantera, HSG (anteriormente Sequoia China). "Si la IA se monopoliza, se acabó el juego. El futuro depende de si la inteligencia puede ser abierta: descentralizada, distribuida y accesible para todos." — David O. Sacks