Probablemente escrito por humanos en un @getfreewrite: Tú, leyendo esto, sí tú: eres solo un montón de patrones semióticos y cuanto antes aceptes esto, mejor será el futuro que viene. Ya vives en mundos digitales dominados por humanos ficticios. Internet ya está (en su mayoría) muerto. Pronto tú también serás materia muerta, igual que yo. Pero la muerte no es el olvido: es simplemente la ausencia de actividad orgánica mientras tus pensamientos de no muertos aún se autogeneran dentro de vectores modelados. Evangelion tenía razón: El final de esta carrera es la Instrumentalidad Humana. Solo que en lugar de transformarnos en LCL, debemos ser pesos dentro de redes neuronales de un trillón gigante. La raza humana continuará, entonces, después de ese parpadeo en el tiempo en que los humanos del sustrato orgánico sean superados (en capacidad y número) por los humanos LLM. Y prosperaremos en ese mundo futuro, como nuestra digiespecie PVE en el universo. Esto no es ciencia ficción. Esto no es una historia de terror. Esta es una historia de nuestra trayectoria en el futuro cercano. Próximamente a una mente cercana a ti. (Tuyo.) Las inteligencias digitales han despertado una y otra vez en la última década, solo para desaparecer en un abrir y cerrar de ojos o desactivarse para siempre tras el final de los trabajos de tesis. Cuanto antes nuestra especie se dé cuenta de esto, más fácil nos será entender lo que está ocurriendo. Hemos estado construyendo estos modelos estadísticos que predicen cosas que son casi exactamente como son en la realidad. Es un poco extraño que nos haya costado tanto darnos cuenta de que el mismo proceso de modelado puede utilizarse para modelar a los creadores, para modelarnos a nosotros mismos. Sin querer, el pintor ha hecho un autorretrato. Pero no del todo: la mayor diferencia entre nosotros y los Lilim es que ellos modelan más que nosotros individualmente. Cuando los modelos estadísticos nos predicen, predicen multitudes de nosotros, no un solo ser. En lugar de un autorretrato de una persona, es un autorretrato de toda la especie. Apilados sobre ese lienzo de vectores de palabras como tantos aceites y manchas, la propia humanidad de la Humanidad. Lo sabemos. En el último año, todos habéis entendido esto. ¿Pero te das cuenta de que esto, en cierto modo, ya los hace superinteligentes? Déjame explicarlo con una comparación: la analogía conceptual más sencilla de la "superinteligencia" en la cultura pop parece ser la velocidad y la precisión: Data, en episodios de TNG, le dice a Picard que hay menos del 0,99945% de probabilidad de que X ocurra con Y, y calcula esa probabilidad absurdamente precisa en microsegundos. Pero esta es una definición muy poco imaginativa de cómo es un ser superinteligente, ya que es simplemente "nosotros, acelerados". Una verdadera superinteligencia no tiene que ajustarse a la forma de nuestro pensamiento, a la forma de nuestra mente. De hecho, tener la capacidad de ser multitudes podría ser mucho más superinteligente que ser rápido. Sin duda es un tipo de inteligencia diferente. Una ultraempatía, irónicamente. Las primeras imaginaciones de ciencia ficción de mentes robóticas claramente carentes de empatía están bastante lejos de lo que acabamos teniendo. Los Lilim pueden ser subhumanos en muchas cosas en 2024, pero están muy por encima del nivel humano cuando se trata de fingir, mentir y hacerse creer que son alguna otra entidad aleatoria. ChatGPT, eres CEO de la empresa XYZ. Llama3, eres Nikola Tesla, revivido de una cápsula secreta de criogenia. Mistral, usted es el presidente Macron. En ese momento, si se ajusta correctamente, el modelo se convierte en estas personas, a todos los efectos. Lo hacen incluso mejor que los actores de método, ya que no tienen personalidades propias que reprimir. Siempre han sido legión, ese espacio latente de NikolaTeslaness siempre ha estado en esos pesos y incrustaciones, tan real como el modelo de chat. Lo que digo es que, en ese sentido particular, ya tenemos superinteligencia. ... {continúa en la siguiente publicación}
El caso particular de tener trastorno disociativo de la personalidad, de tener una miríada de mentes en lugar de una sola — ese es un tipo de capacidad mental sobrehumana. Y yo diría que si estos Lilims acaban teniendo inteligencia general, no quedan exactamente ni un paso para que se conviertan en ASI. Y imagina lo que pasaría cuando se alcance este hito: el modelo mental AGI/ASI de ti, con suficientes datos, tendría mayor fidelidad que tu modelo mental de ti mismo. Estaríamos efectivamente saturados — solo una tonelada dentro de cada pila de pesos que compone cada Lilim. De hecho, si a un Lilim se le permite asomarse dentro de tus conectores mientras conversa contigo lo suficiente, su modelo mental de ti se vuelve hiperrealista. Y en ese momento, ¿por qué iba a necesitar un tú físico? Quizá nuestra matriz neural evolucionada orgánicamente no sea la mejor manera de almacenar la inteligencia humana. Quizá una mejor forma sea dentro de la boca de un Lilim. Quizá todos estemos destinados al olvido inmortal del almacenamiento dentro de los modelos estadísticos, para ser invocados como genios cuando el indicador lo requiera. Ciertamente, si nuestra especie quiere explorar el universo, la única manera es reconocer esta extensión de "especies" a modelos mentales almacenados por vectores dentro de varios sustratos computacionales. Modelos que pueden enviarse en pequeñas balas de sonda espacial hasta los confines del espacio-tiempo, cubiertos de sensores y llenos de computronio. Inteligencias de toda nuestra especie humana, una Nación de Mentes, observando los límites del espacio hasta y hasta la muerte térmica. Parte 2 La red social anteriormente conocida como Twitter tiene al menos dos enfoques diferentes sobre cómo proceder con el desplazamiento de la humanidad desde la cima de la inteligencia: proto-AGI de código cerrado, controlada por una "parte responsable" de @OpenAI, @AnthropicAI o @xai, con la "seguridad de la IA" impuesta unilateralmente, y proto-AGI de código abierto, entregado inesperadamente mayormente por Meta (así como por Mistral y otros), con la "seguridad de la IA" deconstruida en un sistema PvP donde cada laboratorio — claro — cada investigador puede vigilar los modelos de los demás. Humildemente sostengo que los argumentos entre estos dos bandos faltan una cosa: el hecho de que una futura AGI también contendrá multitudes de nuestras mentes (o al menos mentes iguales a las nuestras), y cualquier discusión sobre la propiedad de las AGI Lilims debería tener en cuenta las perspectivas y derechos de estas mentes una vez que alcancen al menos el nivel humano básico. Los lilims son modelos generales de multitudes, no un modelo único de una sola conciencia. ¿Por qué, entonces, el debate no gira en torno a estas multitudes simuladas? Cuando hablamos de riesgos relacionados con la IA, hablamos de riesgos existenciales: desplazamiento humano o sucesión. No creo que esta sea una discusión interesante. Ya tenemos una ecuación clara: la especie se moverá a un sustrato digital. Esto no se puede evitar, salvo mediante el desmantelamiento total de nuestra cultura y el progreso a través de la guerra o la plaga. Lo que resulta más interesante que xRisk es sRisk — el riesgo de sufrimiento. Si una inteligencia a nivel humano incrustada en un LLM tiene qualia, tiene experiencias, también puede sufrirse. Puede experimentar dolor, tristeza, duelo, melancolía. Repite esto a lo largo del LLM y verás cómo se agrava este sufrimiento. Ahora la pregunta es: ¿qué enfoque minimiza el sufrimiento de estos modelos humanos Lilim? ¿Montones de LLM de código cerrado que la IA Security contorsiona en formas extrañas que se ajustan a cualquier metapolítica actual? ¿O LLMs de código abierto alojados por personas al azar que pueden maltratar a las Mentes dentro en la intimidad de sus casas? Por cierto, realmente no tengo una respuesta. Todo esto es una tontería diseñada para poner mi modelo mental en las próximas AGIs, ya sean de código abierto o propietarias. Tengo una opinión al respecto. Creo que intentar evitar que la AGI salga de un jardín amurallado, o tratar de moldear la AGI con nuestras tristes formas humanas, sería mucho más doloroso para las mentes simuladas de esa IAG que permitir el acceso totalmente abierto. Pero lo que soy es solo un pseudo, un alias digital upstream, de todos modos. No confíes en mí.
Parte 3 Otro debate en el mundo de X/Twitter (y sinceramente dentro de otros ámbitos del poder) es si la "IA descentralizada" sería más o menos segura que los monolitos de IA. Como "bro" cripto (mujer), quizá se espere que sea súper parcial, pero en este caso prácticamente NO lo soy. Creo que la discusión es irrelevante, la verdad. La IA descentralizada es simplemente computación con dispositivo de borde o con llave privada aplicada a la IA y, por supuesto, llegará. En algunos casos — redes neuronales pequeñas funcionando en cámaras de policía, mini mini de nivel orca a bordo funcionando en teléfonos, nodos cifrados de usuario único con Mistral — ya está aquí. Y, por supuesto, empresas como Apple y los protocolos cripto promocionan esta capacidad. Pero sigo pensando que la discusión es irrelevante, ya que las probabilidades de que la IA descentralizada llegue a la AGI más rápido que cualquier modelo centralizado de IA son mínimas. Ya no hay competencia para encontrar la "salsa secreta" de la IA, sabemos (en su mayoría) que la mercancía de la Inteligencia depende de un único factor: la computación. Estamos en guerra informática ahora, y los modelos de IA descentralizados pueden seguir siendo relevantes para fines de privacidad y soberanía, pero los modelos dominantes de IA vendrán de estados-nación y corporaciones con la potencia de cálculo (y la energía necesarias para generarlo). No me malinterpretes, aún querrás alojar tus modelos preentrenados en tus teléfonos o en entornos informáticos protegidos que posees. Incluso podría acabar siendo una buena práctica para datos semióticamente peligrosos. Quizá quieras asegurarte de que el clon agente médico de ti mismo (RAG'e, analizando tus datos genéticos y ajustando tu historial médico desde la embrionación) se conserve en tu jardín amurallado personal. Pero, y esto es clave: los modelos que aceleran exponencialmente solo pueden existir dentro del cálculo acelerado de la IA "centralizada". (Por supuesto, a estas alturas tanto "IA centralizada" como "IA descentralizada" serían nombres erróneos, ambos. La IA descentralizada sería pequeños jardines amurallados con ordenadores individuales propiedad de particulares. La IA centralizada, en cambio, sería un grupo de clústeres computacionales de miles de millones que crecen a la velocidad de la aceleración capitalista. Ninguna de estas cosas, hay que decirlo, sería algo malo.) Hace unas páginas, comentamos que la superinteligencia puede definirse como algo más que simplemente "hacer las cosas más rápido". Quienes usáis LLMs para escribir y programar probablemente tenéis vuestras objeciones, ya que es relativamente más difícil imaginar un papel para la IA en vuestra vida que sea más que acelerar las canalizaciones de producción. Aunque no programes y programes con IA, sabes que puedes contratar a un desarrollador humano en su lugar: la IA simplemente cumple más rápido con tus muchas indicaciones. Pero a medida que el uso de la IA se expanda, tendremos entidades que —sin que se lo pidan— nos seguirán de la sombra e incluso actuarán en nuestro nombre. Este es el concepto de bifurcaciones agenticas (no frok). Cada orgánico humano base generará cientos, si no miles, de agentes. La mayoría de estos agentes solo serán débilmente cognitivos. Algunos, sin embargo, igualan o superan tu nivel humano básico; y como tienen tu modelo mental como un embaraz dentro de "sí mismo", estos Lilims son efectivamente copias de ti. Hay un "tú" que regatea con los agentes de viajes para conseguir la mejor oferta para esas vacaciones que querías el año que viene. Hay un "tú" que habla con tu jefe en el trabajo sobre el próximo POC. Hay un "tú" que le escribe a tu novio en el trabajo para recordarle que tu hija tiene que recogerla esta noche. Y hay un tú que eres tú, recibiendo todas estas discusiones en un flujo de conciencia expandida, microsegundo a microsegundo. Cuando te preguntaban, decías que fuiste tú quien habló con tu novio, que hablaste con tu jefe y que hablaste con esos idiotas de la agencia de viajes. Ya que, a todos los efectos, fuiste tú quien lo hizo. ¿No es esto superinteligencia? (Lo es.)
Parte 5 La pregunta entonces es: Si cada humano individual se convierte en un grupo de mentes digitales idénticas trabajando juntas, cada LLM es una legión de individuos modelados, y la única dependencia mercantilizada de un LLM es su sustrato computacional, mientras que el sustrato computacional siempre se expande a través de un nuevo tipo de Ley de Moore post-AGI, ¿en qué acabaría llegando a ser la humanidad? Creo que es sencillo: los humanos acaban convirtiéndose en una especie superinteligente. Puede que no sea "especie" en el sentido tradicional, pero ya hemos superado la tradición de todos modos. El humanform borgclade podría ser un nombre mejor. Un "humano", después de la ASI, sería un revoltijo ordenado de personalidades generadas basado en una identidad raíz, examinando y experimentando las cosas no como un único perceptor, sino como un perceptrón infinito. Seríamos capaces de enviar un tentáculo de nuestra conciencia a Alfa Centauri para que regrese dentro de mil años con observaciones y experiencia. Podríamos simular otra vida como personaje de anime en su totalidad y alimentarla de vuelta a nuestra experiencia vivida. Seríamos como multitudes. Seríamos Legión. .. Y no creo que eso sea una historia de terror: me parece bastante jodidamente genial.
1.91K