Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tu pila de embebidos obliga a reindexar al 100% solo para cambiar de modelo.
Y la mayoría de los equipos lo consideran inevitable.
Imagina que construyes una tubería RAG con un modelo de incrustación grande para alta calidad de recuperación, y se envía a producción.
Seis meses después, los costes de tráfico de tu aplicación y de tu modelo de embedding están disparándose mientras tu pipeline lucha por escalar. Quieres cambiar a un modelo que priorice el coste y la latencia para satisfacer esta nueva demanda.
Pero tus embeddings existentes viven en un espacio vectorial, mientras que el nuevo modelo produce embeddings en otro, lo que los hace incompatibles.
Cambiar de modelo ahora significa reconstruir el índice:
- Cada documento debe ser reincrustado
- Cada fragmento debe ser recalculado
- Millones de vectores deben regenerarse antes de que las consultas vuelvan a funcionar
La mayoría de los equipos ven esto y deciden asumir el coste en lugar de cambiar.
Con el tiempo, esto se endurece hasta convertirse en una regla tácita.
O optimizas la calidad o optimizas el coste, y convives con la decisión que tomaste al principio.
Pero esto no es una limitación fundamental de los embeddings.
Es una elección de diseño.
¿Y si los modelos de incrustación compartieran el mismo espacio vectorial?
En ese formato, podrías indexar documentos usando un modelo grande y consultarlos con uno más ligero, sin tener que reconstruir nada.
...

Populares
Ranking
Favoritas
