Resumen de la información clave _útil_ para la audiencia de interpretabilidad mecanicista específicamente: Las distribuciones de distancia son un diagnóstico barato para la geometría aprendida. Dado un espacio de representación, el histograma de distancias por dos entre puntos muestreados aleatoriamente es una huella digital geométrica fuerte. Diferentes geometrías —euclidianas, esféricas, hiperbólicas— y diferentes topologías—acotadas vs. periódicas—producen distribuciones de distancias claramente distintas, incluso en dimensión moderada. Estas firmas surgen de la concentración de medida, efectos de frontera y curvatura, y son resistentes al ruido. La propuesta clave es tratar los histogramas de distancia no como curiosidades, sino como sondas forenses de qué geometría una representación aprendida está utilizando implícitamente. La topología importa independientemente de la curvatura. Un n-toro plano y un hipercubo de n dimensiones comparten la misma geometría euclidiana local, pero sus distribuciones de distancias difieren sustancialmente. El toro elimina los efectos de frontera, lo que produce una distancia media menor y una concentración más estrecha (~0,289√n) que el hipercubo (~0,408√n). Estas diferencias persisten y se agudizan con la dimensión. Esto muestra que muchas "patologías de alta dimensión" atribuidas únicamente a la dimensionalidad son en realidad artefactos de condición límite, una distinción rara vez explícita en la práctica de aprendizaje automático. Las anomalías de baja dimensión exponen mecanismos geométricos. En dimensiones bajas, las distribuciones de distancia revelan una estructura no gaussiana directamente ligada a la geometría. Por ejemplo, el toro plano 2D presenta una cúspide integrable a la distancia máxima debido a las restricciones de las esquinas en el cuadrado de coordenadas envuelto. Esto desaparece rápidamente con la dimensión a medida que la concentración domina. Tales características no son ruido numérico; son consecuencias analíticas de la geometría. Ver (o no ver) estos artefactos en embedos aprendidos proporciona información sobre la estructura efectiva de dimensionalidad e independencia de los subespacios de representación. Aplicación de interpretabilidad: forense espacial de incrustación. Dado un modelo entrenado, se pueden seleccionar subconjuntos semánticamente coherentes de incrustaciones (por ejemplo, entidades geográficas, taxonomías, emociones, conceptos temporales) y calcular sus histogramas de distancias por pares. Comparar estos histogramas con predicciones teóricas permite inferir sobre la geometría que el modelo ha aprendido para ese dominio. Las firmas esféricas sugerirían representaciones angulares o similares a variedades; las firmas hiperbólicas sugerirían una estructura jerárquica; Las firmas euclidianas o toroidales sugerirían espacios planos de similitud con o sin artefactos de frontera. Implicación: las representaciones aprendidas probablemente son híbrido-geométricas. La mayoría de los trabajos actuales asumen una única geometría global (típicamente euclidiana o hiperbólica). El enfoque del histograma se generaliza naturalmente a geometrías mixtas, donde diferentes subespacios semánticos instancian distintas curvaturas o topologías. Esto sugiere un camino hacia representaciones arquitectónicamente explícitas y conscientes de la geometría, donde la geometría es un parámetro de diseño y no un accidente emergente, y donde las herramientas de interpretabilidad pueden localizar qué tipo de estructura ha aprendido un modelo, no solo dónde reside la información. Resumen. Los histogramas de distancia son sondas simples, rápidas y teóricamente fundamentadas que exponen curvatura, topología y dimensionalidad efectiva en representaciones aprendidas. Proporcionan un diagnóstico a nivel geométrico que complementa la interpretabilidad a nivel de neuronas y circuitos, y sugieren experimentos concretos para probar cómo los modelos organizan internamente diferentes tipos de conocimiento. (Resumen por Chat 5.2)