Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 reposteó
Después de dar vueltas y vueltas durante casi una semana, finalmente tropecé y recreé el Transformer. La sensación ahora es que la construcción del Transformer es definitivamente un producto de genio + sudor. Es de importancia histórica tanto teórica como de ingeniería. (Aunque es un poco una ocurrencia tardía decir eso ahora)
59.4K
El mío se rompió durante varios días y solo se conectó el nodo islandés. De repente fue mejor esta tarde.

Jason Young23 ago, 19:41
La escalera se rompió toda la tarde y sentí que había perdido el contacto con el mundo
5.93K
La IA es solo una herramienta, y depende de cómo usarla si no se usa bien. El código escrito por AI solo puede considerarse aprobado. Ha leído demasiados códigos buenos y malos, y no tiene sabor propio, por lo que a menudo escribe algún código sucio. Este código se ve bien como fragmentos de módulos, pero cuando se coloca en una arquitectura más grande, colocará innumerables minas.

宝玉23 ago, 00:11
Los modelos de IA más avanzados escriben código que no está mal, y el nivel del módulo supera con creces el nivel promedio de los programadores humanos.
El código entre módulos está limitado por la longitud de la ventana de contexto y puede requerir asistencia humana en la planificación del diseño, y si la estructura del proyecto es razonable, la IA también puede reutilizar el código existente para mantenerlo SECO
6.01K
No es que la IA no pueda leer, pero no puede recordarlo. ¿Cuándo podemos realmente realizar la memoria en el modelo para romper las limitaciones del contexto?

geniusvczh22 ago, 18:58
Después de pensarlo detenidamente, la razón por la que la IA escribe mal el código no es porque no pueda escribir, sino porque no puede leer. La gente mira muchas cosas aparentemente no relacionadas debido a una característica, pero son estas cosas aparentemente no relacionadas las que le brindan la posibilidad de mantener el proyecto SECO. Para que la IA se convierta en un pilar, primero debe aprender esto 🤪
2.35K
¿Alguna vez has notado que los estudiantes que usan la programación de IA se han vuelto más ocupados cuando usan IA?
En el pasado, un requisito se basaba en dos semanas, desde la descripción de los requisitos, la formación de un equipo, la prueba del front-end y el back-end del producto, la movilización de un grupo de personas, hasta completar el trabajo.
Ahora una persona puede hacerlo en una noche.
Pero en el pasado, podías usar la excusa de esperar al equipo y aprovechar la oportunidad para pescar. No puedo tocarlo ahora. 😶🌫️
66.82K
Las ofrendas que comen los que se mueren de hambre son mérito de la persona honrada.

garrulous abyss🌈22 ago, 16:58
Sin mencionar que es de un bodhisattva.
Si te mueres de hambre en la naturaleza... Vi la tumba al costado del camino y hubo homenajes. Te inclinas y dices: "Lo siento, me muero de hambre, toma un tributo para comer". No creo que nadie ni los fantasmas te avergüencen...

2.2K
Cuando un campo comienza a discutir filosofía, significa que una etapa está llegando a su fin. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 ago, 06:53
¿Cómo cree que la investigación en ingeniería de IA se está volviendo cada vez más filosófica en el lenguaje?

4.82K
Un solo trapo es el producto de la mejora original. Mi enfoque actual es implementar RAG como MCP, proporcionando dos API, ASK y FETCH, y la recuperación aún usa el mecanismo RAG tradicional, extendiendo la lectura para permitir que la llamada de IA fetch lea el contexto antes y después. Mecánicamente similar a cline grep releyendo archivos.

宝玉21 ago, 07:39
Estoy profundamente de acuerdo:1. La cooperación paralela entre múltiples agentes no es tan estable como un solo hilo. 2. RAG no es tan confiable como la búsqueda tradicional; 3. Cuantas más instrucciones haya en el mensaje, más no sabrá elegir el modelo.
——La traducción original es la siguiente——
En el camino hacia la creación de agentes de IA, nuestro equipo @Cline identificado tres "virus pensantes". El llamado "virus pensante" son esas ideas tentadoras que suenan muy inteligentes pero que no funcionan en absoluto en la práctica.
Los tres virus son:
* Orquestación multiagente
* Generación aumentada de recuperación (RAG)
* Cuantas más instrucciones = mejor es el efecto
¡Vamos a averiguar!
1. Colaboración multiagente
El tipo de escena en una película de ciencia ficción - "agentes de retaguardia, agentes de municiones, agentes de análisis, agentes de comando" - despachando a un gran grupo de subagentes y finalmente resumiendo los resultados - suena realmente genial. Pero la realidad es que la gran mayoría del trabajo útil de los agentes es de un solo hilo.
Los procesos de colaboración complejos rara vez ofrecen un valor real y, a menudo, crean caos. Ya sabes, ya es bastante difícil lograr que el modelo funcione de manera estable en un solo subproceso, y mucho menos lidiar con la lógica de colaboración paralela. Esto no solo aumenta la complejidad de la implementación, sino que también hace que el proceso de comprensión y toma de decisiones del modelo sea extremadamente complejo.
2. Usar RAG para crear agentes
RAG, o Retrieval Augmented Generation, también es un virus del pensamiento. Parece poderoso en teoría, pero en la práctica, especialmente en escenarios de agentes, incluso los comandos básicos de búsqueda de texto como GREP a veces son mejores que él.
¿Por qué el aura de RAG se desvanece en el flujo de trabajo real del agente? Porque la información recuperada a menudo está fragmentada y no puede permitir que el modelo forme una "comprensión" coherente y útil.
Un mejor enfoque es casi siempre dejar que el modelo enumere los archivos por sí solo, busque de forma similar a grep y luego abra y lea todo el archivo (como un humano). El equipo de @Cline comenzó a hacer esto temprano, y luego vimos que @Amp (vista previa de investigación y @Cursor) también se movieron hacia este enfoque más pragmático.
3. Más instrucciones = mejor será el efecto
Existe la idea errónea generalizada de que acumular más y más "instrucciones" en las indicaciones del sistema hace que el modelo sea más inteligente. Esto es completamente incorrecto.
"Regar" el mensaje solo confundirá al modelo, ya que más instrucciones tienden a conducir a sugerencias contradictorias y sobrecarga de información.
Como resultado, tienes que jugar un juego de "golpear al topo" y jugar constantemente con todo tipo de comportamientos extraños del modelo en lugar de obtener resultados realmente útiles. Para la mayoría de los modelos de vanguardia de hoy en día, la mejor manera de apartarse de su camino es no gritarles en un intento de dirigirlos en una dirección particular. Por favor, aprecie cada una de sus palabras (o símbolos).
Con todo, las tres ideas anteriores son muy tentadoras. Si no trabajas con IA todo el día, podrías pensar que todos tienen mucho sentido, pero no es así. Por supuesto, a medida que mejoran las capacidades de los modelos subyacentes, nuestra percepción de estos métodos puede cambiar en el futuro.
6.21K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas