Résumé des _informations_ clés utiles pour la foule de l'interprétabilité mécaniste spécifiquement : Les distributions de distance sont un diagnostic peu coûteux pour la géométrie apprise. Étant donné un espace de représentation, l'histogramme des distances par paires entre des points échantillonnés au hasard est une empreinte géométrique forte. Différentes géométries—euclidienne, sphérique, hyperbolique—et différentes topologies—bornées vs. périodiques—produisent des distributions de distance nettement distinctes, même à dimension modérée. Ces signatures proviennent de la concentration de mesure, des effets de bord et de la courbure, et elles sont robustes au bruit. La proposition clé est de traiter les histogrammes de distance non pas comme des curiosités, mais comme des sondes judiciaires de la géométrie qu'une représentation apprise utilise implicitement. La topologie compte indépendamment de la courbure. Un n-tore plat et un hypercube n-dimensionnel partagent la même géométrie euclidienne locale, pourtant leurs distributions de distance diffèrent considérablement. Le tore élimine les effets de bord, ce qui donne une distance moyenne plus faible et une concentration plus serrée (~0.289√n) que l'hypercube (~0.408√n). Ces différences persistent et se précisent avec la dimension. Cela montre que de nombreuses "pathologies de haute dimension" attribuées uniquement à la dimensionnalité sont en fait des artefacts de condition de bord—une distinction rarement explicitée dans la pratique de l'IA. Les anomalies de basse dimension exposent des mécanismes géométriques. Dans les basses dimensions, les distributions de distance révèlent une structure non gaussienne liée directement à la géométrie. Par exemple, le tore plat en 2D présente une cuspide intégrable à la distance maximale en raison des contraintes de coin dans le carré de coordonnées enroulé. Cela disparaît rapidement avec la dimension à mesure que la concentration domine. De telles caractéristiques ne sont pas du bruit numérique ; ce sont des conséquences analytiques de la géométrie. Voir (ou ne pas voir) ces artefacts dans les embeddings appris fournit des informations sur la dimensionnalité effective et la structure d'indépendance des sous-espaces de représentation. Application d'interprétabilité : forensique de l'espace d'embedding. Étant donné un modèle entraîné, on peut sélectionner des sous-ensembles sémantiquement cohérents d'embeddings (par exemple, entités géographiques, taxonomies, émotions, concepts temporels) et calculer leurs histogrammes de distance par paires. Comparer ces histogrammes aux prédictions théoriques permet d'inférer la géométrie que le modèle a apprise pour ce domaine. Des signatures sphériques suggéreraient des représentations angulaires ou de type variété ; des signatures hyperboliques suggéreraient une structure hiérarchique ; des signatures euclidiennes ou toroïdales suggéreraient des espaces de similarité plats avec ou sans artefacts de bord. Implication : les représentations apprises sont probablement hybrides-géométriques. La plupart des travaux actuels supposent une seule géométrie globale (typiquement euclidienne ou hyperbolique). L'approche par histogramme se généralise naturellement aux géométries mixtes, où différents sous-espaces sémantiques instaurent différentes courbures ou topologies. Cela suggère un chemin vers des représentations explicitement architecturales et conscientes de la géométrie, où la géométrie est un paramètre de conception plutôt qu'un accident émergent—et où les outils d'interprétabilité peuvent localiser quel type de structure un modèle a appris, pas seulement où l'information se trouve. Résumé. Les histogrammes de distance sont des sondes simples, rapides et théoriquement fondées qui exposent la courbure, la topologie et la dimensionnalité effective dans les représentations apprises. Ils fournissent un diagnostic au niveau de la géométrie qui complète l'interprétabilité au niveau des neurones et des circuits, et ils suggèrent des expériences concrètes pour tester comment les modèles organisent en interne différents types de connaissances. (Résumé par Chat 5.2)