Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
Użytkownik 响马 udostępnił ponownie
Po prawie tygodniu zmagania, w końcu udało mi się zrealizować Transformer z pewnymi trudnościami. Teraz czuję, że konstrukcja Transformera to z pewnością produkt geniuszu i ciężkiej pracy. Zarówno w teorii, jak i w inżynierii ma to przełomowe znaczenie. (Chociaż teraz, mówiąc to, brzmi to trochę jak mądrość po fakcie)
59,4K
Mój internet był zepsuty przez kilka dni, tylko węzeł z Islandii mógł się połączyć. Dziś po południu nagle zadziałał.

Jason Young23 sie, 19:41
Drabina zepsuła się na całe popołudnie, czuję, że straciłem połączenie ze światem.
5,94K
AI to tylko narzędzie, a to, jak dobrze jest używane, zależy od tego, jak je wykorzystamy. Kody napisane przez AI można uznać za przeciętne. Zobaczyło zbyt wiele kodów o różnej jakości i nie ma własnego gustu, dlatego często pisze okropne kody. Te kody jako fragmenty modułów wyglądają na niezłe, ale w dużej architekturze mogą wprowadzać wiele pułapek.

宝玉23 sie, 00:11
Najnowocześniejsze modele AI piszące kod nie są złe, poziom modułów znacznie przewyższa średni poziom ludzkich programistów. Jeśli napisany kod jest słaby, najpierw sprawdź, jaki model został wybrany, czy kontekst jest wystarczający, czy słowa kluczowe wymagają optymalizacji.
Kod między modułami, ograniczony długością okna kontekstowego, może wymagać ludzkiej pomocy w projektowaniu i planowaniu. Jeśli struktura projektu jest rozsądna, AI również może ponownie wykorzystać istniejący kod, aby zachować zasadę DRY.
6,02K
AI nie jest tak, że nie potrafi czytać, ale raczej, że nie potrafi zapamiętać. Dopiero kiedy naprawdę zrealizujemy pamięć w modelu, będziemy mogli przełamać ograniczenia kontekstu.

geniusvczh22 sie, 18:58
Po dokładnym przemyśleniu, powód, dla którego AI pisze zły kod, nie polega na tym, że nie potrafi pisać, ale na tym, że nie potrafi czytać. Ludzie potrafią spojrzeć na wiele pozornie niepowiązanych rzeczy, aby stworzyć funkcję, ale to właśnie te pozornie niepowiązane rzeczy dają ci możliwość utrzymania projektu w zgodzie z zasadą DRY. Aby AI mogło stać się filarem, musi najpierw nauczyć się tego.
2,36K
Używając programowania AI, czy zauważyliście, że teraz jesteście jeszcze bardziej zajęci?
Kiedyś jedno zapotrzebowanie, od opisu wymagań, przez zbudowanie zespołu, testy front-end i back-end, mobilizowało całą ekipę, a do zakończenia pracy potrzebne były dwa tygodnie.
Teraz jedna osoba może to załatwić w jedną noc.
Ale wcześniej można było się wytłumaczyć czekaniem na zespół, wykorzystując ten czas na leniuchowanie. Teraz nie ma już na to czasu. 😶🌫️
66,83K
Ofiary spożywane przez tych, którzy cierpią z głodu, są zasługą osoby, która jest honorowana.

garrulous abyss🌈22 sie, 16:58
Nie mówiąc już o tym, że to Bódhisattwa.
Jeśli jesteś na dziko i prawie umierasz z głodu... widząc przydrożny grób z ofiarami. Klękniesz i powiesz: "Przepraszam, prawie umieram z głodu, wezmę sobie coś z ofiary". Myślę, że nikt ani żaden duch nie będzie miał ci tego za złe...

2,21K
Kiedy dziedzina zaczyna dyskutować o filozofii, oznacza to, że pewien etap zbliża się do końca. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 sie, 06:53
Dlaczego mam wrażenie, że badania nad inżynierią AI coraz bardziej skupiają się na filozofii języka?

4,83K
Pojedynczy rag jest produktem pierwszej generacji wzmocnienia. Moim obecnym podejściem jest wdrożenie raga jako mcp, oferując dwa interfejsy API: ask i fetch, przy czym wyszukiwanie nadal korzysta z tradycyjnego mechanizmu raga, a rozszerzone czytanie pozwala AI na wywołanie fetch w celu odczytania kontekstu przed i po. Mechanizm jest podobny do cline grep, który ponownie odczytuje plik.

宝玉21 sie, 07:39
Głęboko się z tym zgadzam: 1. Współpraca wielu agentów równoległych jest mniej stabilna niż wątek pojedynczy; 2. RAG jest niewiarygodny, a tradycyjne wyszukiwanie jest lepsze; 3. Im więcej instrukcji w podpowiedziach, tym model mniej wie, jak wybrać.
—— Tłumaczenie oryginalnego tweeta ——
Na drodze do budowy inteligentnych agentów AI, nasz zespół @Cline zidentyfikował trzy rodzaje "wirusa myślowego". Czym jest "wirus myślowy"? To te pomysły, które brzmią bardzo mądrze, ale w praktyce w ogóle nie działają.
Te trzy wirusy to:
* Współpraca wielu agentów (Multi-Agent Orchestration)
* Wzbogacona generacja wyszukiwania (RAG)
* Im więcej instrukcji = tym lepszy efekt
Przyjrzyjmy się temu bliżej!
1. Współpraca wielu agentów
Scenariusz z filmów science fiction — "agenci wsparcia, agenci zaopatrzenia, agenci analityczni, agenci dowodzenia" wysyłają dużą grupę podagentów, a na końcu zbierają wyniki — brzmi naprawdę fajnie. Ale rzeczywistość jest taka, że większość użytecznej pracy agentów odbywa się w wątku pojedynczym.
Złożone procesy współpracy rzadko przynoszą prawdziwą wartość, a często wprowadzają chaos. Warto wiedzieć, że samo zapewnienie stabilnej pracy modelu w wątku pojedynczym jest już wystarczająco trudne, nie mówiąc o obsłudze równoległych logik współpracy. To nie tylko zwiększa złożoność realizacji, ale także sprawia, że proces rozumienia i podejmowania decyzji przez model staje się niezwykle skomplikowany.
2. Budowanie agentów za pomocą RAG
RAG, czyli Wzbogacona Generacja Wyszukiwania (Retrieval Augmented Generation), to również rodzaj wirusa myślowego. Teoretycznie wygląda to bardzo potężnie, ale w praktyce, zwłaszcza w kontekście agentów, czasami nawet podstawowe polecenie wyszukiwania tekstu, takie jak GREP, jest bardziej użyteczne.
Dlaczego blask RAG blaknie w rzeczywistych przepływach pracy agentów? Ponieważ informacje, które wyszukuje, są często fragmentaryczne i nie pozwalają modelowi na stworzenie spójnego, użytecznego "rozumienia".
Lepszym podejściem jest prawie zawsze: pozwolić modelowi samodzielnie wymienić pliki, wyszukiwać w sposób podobny do grep, a następnie otworzyć i przeczytać cały plik (jak człowiek). Zespół @Cline zaczął to robić już dawno temu, a później zauważyliśmy, że @Amp — Research Preview i @Cursor również przeszli na tę bardziej pragmatyczną metodę.
3. Im więcej instrukcji = tym lepszy efekt
Istnieje powszechne nieporozumienie: że dodawanie coraz większej liczby "instrukcji" do systemowego podpowiedzi sprawi, że model stanie się mądrzejszy. To całkowicie błędne.
"Nadmuchanie" podpowiedzi tylko wprowadza model w zakłopotanie, ponieważ więcej instrukcji często prowadzi do konfliktów sugestii i przeciążenia informacyjnego.
W rezultacie musisz ciągle naprawiać różne dziwne zachowania modelu, jak w grze "łapanie kretów", zamiast uzyskiwać naprawdę użyteczne wyniki. Dla większości nowoczesnych modeli najlepszym podejściem jest nie blokować ich drogi, a nie krzyczeć z boku, próbując skierować je w określonym kierunku. Ciesz się każdym swoim słowem (czyli Tokenem).
Podsumowując, te trzy pomysły są bardzo kuszące. Jeśli nie zajmujesz się AI na co dzień, możesz uznać je za bardzo sensowne — jednak rzeczywistość jest inna. Oczywiście, w miarę jak możliwości podstawowych modeli będą się rozwijać, nasze spojrzenie na te metody może się w przyszłości zmienić.
6,22K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi