Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 a reposté
Après presque une semaine de tâtonnements, j'ai enfin réussi à reproduire le Transformer, avec quelques difficultés. Ce que je ressens maintenant, c'est que la construction du Transformer est absolument le fruit d'un génie associé à beaucoup de travail. Que ce soit sur le plan théorique ou pratique, cela a une signification révolutionnaire. (Bien que dire cela maintenant semble un peu tardif)
59,4K
Mon appareil était en panne depuis plusieurs jours, seul le nœud d'Islande pouvait se connecter. Cet après-midi, il a soudainement fonctionné.

Jason Young23 août, 19:41
L'échelle est cassée depuis l'après-midi, j'ai l'impression d'avoir perdu le lien avec le monde.
5,94K
L'IA n'est qu'un outil, et son efficacité dépend de la manière dont elle est utilisée. Le code écrit par l'IA ne peut être considéré que comme passable. Elle a vu trop de codes de qualité variable et n'a pas de goût propre, ce qui l'amène souvent à produire du code de mauvaise qualité. Ces codes peuvent sembler corrects en tant que fragments de module, mais lorsqu'ils sont intégrés dans une grande architecture, ils peuvent poser de nombreux problèmes.

宝玉23 août, 00:11
Les modèles d'IA les plus avancés écrivent du code de manière satisfaisante, avec un niveau de module bien supérieur à la moyenne des programmeurs humains. Si le code généré est de mauvaise qualité, il faut d'abord vérifier quel modèle a été choisi, si le contexte est suffisant et si les mots-clés doivent être optimisés.
Pour le code inter-modules, limité par la longueur de la fenêtre contextuelle, une assistance humaine peut être nécessaire pour la conception et la planification. Si la structure du projet est raisonnable, l'IA peut également réutiliser le code existant pour maintenir le principe DRY.
6,02K
L'IA n'est pas qu'incapable de lire, mais elle lit sans se souvenir. Ce n'est que lorsque la mémoire au sein du modèle sera réellement réalisée que nous pourrons dépasser les contraintes du contexte.

geniusvczh22 août, 18:58
Après réflexion, la raison pour laquelle l'IA écrit mal du code n'est pas qu'elle ne sait pas écrire, mais qu'elle ne sait pas lire. Un humain va consulter de nombreuses choses apparemment non liées pour réaliser une fonctionnalité, mais c'est justement ces éléments qui semblent sans rapport qui vous offrent la possibilité de garder le projet DRY. Pour que l'IA puisse devenir un pilier, elle doit d'abord apprendre cela.
2,36K
Pour ceux qui utilisent la programmation AI, avez-vous remarqué qu'avec l'AI, vous êtes en fait plus occupés ?
Avant, pour un besoin, il fallait deux semaines pour passer de la description du besoin, à la constitution de l'équipe, en passant par le développement front-end et back-end, les tests, avec une foule de personnes mobilisées, jusqu'à l'achèvement du travail.
Maintenant, une seule personne peut tout gérer en une nuit.
Mais avant, on pouvait prétexter d'attendre l'équipe et en profiter pour ne rien faire. Maintenant, on ne peut plus se le permettre. 😶🌫️
66,83K
Les offrandes consommées par ceux qui ont faim sont le mérite de la personne honorée.

garrulous abyss🌈22 août, 16:58
Ne parle même pas de Bodhisattva.
Si tu es en pleine nature et que tu es sur le point de mourir de faim... en voyant une tombe sur le bord de la route avec des offrandes. Tu te prosternes et dis "Désolé, je suis sur le point de mourir de faim, je vais prendre une offrande à manger". Je pense que personne ou même un fantôme ne te mettra en difficulté...

2,21K
Quand un domaine commence à discuter de philosophie, cela signifie qu'une étape est sur le point de se terminer. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 août, 06:53
Pourquoi ai-je l'impression que la recherche en ingénierie AI devient de plus en plus axée sur la philosophie du langage ?

4,83K
Le rag unique est le produit de la première génération améliorée. Ma méthode actuelle consiste à réaliser le rag en tant que mcp, en fournissant deux API : ask et fetch. La recherche utilise toujours le mécanisme rag traditionnel, et la lecture étendue permet à l'IA d'appeler fetch pour lire le contexte avant et après. Le mécanisme est similaire à celui de cline grep pour relire le fichier.

宝玉21 août, 07:39
Je suis tout à fait d'accord : 1. La collaboration parallèle entre plusieurs agents intelligents n'est pas aussi stable qu'un fil d'exécution unique ; 2. RAG n'est pas fiable, c'est même moins bon que la recherche traditionnelle ; 3. Plus il y a d'instructions dans le prompt, moins le modèle sait comment choisir.
—— Traduction originale ci-dessous ——
Dans la construction d'agents intelligents (AI Agent), notre équipe @Cline a identifié trois "virus de pensée". Ce que l'on appelle un "virus de pensée", ce sont ces idées séduisantes qui semblent brillantes mais qui, en pratique, ne fonctionnent pas du tout.
Ces trois virus sont :
* Collaboration multi-agents (Multi-Agent Orchestration)
* Génération augmentée par recherche (RAG)
* Plus il y a d'instructions = meilleur est le résultat
Voyons cela de plus près !
1. Collaboration multi-agents
Cette scène de film de science-fiction — "agents de soutien, agents de logistique, agents d'analyse, agents de commandement" envoyant une grande foule d'agents, puis rassemblant les résultats — semble vraiment cool. Mais la réalité est que la plupart des travaux utiles des agents sont en fil d'exécution unique.
Les processus de collaboration complexes apportent rarement une véritable valeur, mais créent souvent de la confusion. Il faut savoir que faire fonctionner le modèle de manière stable en fil d'exécution unique est déjà assez difficile, sans parler de la gestion de ces logiques de collaboration parallèles. Cela augmente non seulement la complexité de la mise en œuvre, mais rend également le processus de compréhension et de décision du modèle exceptionnellement complexe.
2. Utiliser RAG pour construire des agents
RAG, c'est-à-dire la génération augmentée par recherche (Retrieval Augmented Generation), est aussi un virus de pensée. En théorie, cela semble très puissant, mais en pratique, surtout dans le contexte des agents, parfois même une commande de recherche de texte basique comme GREP est plus utile.
Pourquoi l'aura de RAG s'est-elle estompée dans les flux de travail des agents ? Parce que les informations récupérées sont souvent des fragments épars, incapables de permettre au modèle de former une "compréhension" cohérente et utile.
Une meilleure méthode est presque toujours : laisser le modèle énumérer les fichiers, effectuer une recherche de manière similaire à grep, puis ouvrir et lire l'ensemble du fichier (comme un humain). L'équipe @Cline a commencé à faire cela très tôt, et nous avons ensuite vu que @Amp — Research Preview et @Cursor se sont également tournés vers cette méthode plus pragmatique.
3. Plus d'instructions = meilleur résultat
Il existe une idée reçue largement répandue : entasser de plus en plus d'"instructions" dans le prompt système (system prompt) rendra le modèle plus intelligent. C'est complètement faux.
Surcharger le prompt ne fera que confondre le modèle, car plus d'instructions entraînent souvent des conflits de suggestions et une surcharge d'informations.
Le résultat est que vous devez, comme dans un jeu de "tapette à taupes", continuellement corriger les comportements étranges du modèle, au lieu d'obtenir des résultats réellement utiles. Pour la plupart des modèles de pointe d'aujourd'hui, la meilleure méthode est de ne pas entraver leur chemin, plutôt que de crier à côté en essayant de les diriger vers une certaine direction. Chérissez chaque mot (ou Token) que vous utilisez.
En résumé, ces trois idées sont toutes très séduisantes. Si vous ne traitez pas avec l'IA tous les jours, vous pourriez penser qu'elles ont toutes du sens — mais ce n'est pas le cas. Bien sûr, avec l'amélioration des capacités des modèles sous-jacents, notre perception de ces méthodes pourrait également changer à l'avenir.
6,22K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables