Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
Osiągaj ambicje z intencjonalnością, intensywnością i uczciwością
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
niesamowita praca nad steganografią wyrównawczą od kolegów z Anthropic
szukałem straussowskiego wyjaśnienia, dlaczego Chiny ciągle publikują otwarte modele z dobroci serca
jeśli robisz rzeczy takie jak używanie otwartych modeli do, nie wiem, czyszczenia *ahem* syntetycznego parafrazowania swoich danych do jakości podręcznikowej, możesz bardzo dobrze zaimportować uprzedzenia, których nie możesz wykryć aż będzie za późno.
więc jeśli chcesz eksportować swój system wartości do reszty świata, to jest to najpotężniejsze narzędzie Soft Power wynalezione od czasów Hollywood.
żeby być całkowicie jasnym, nie mamy żadnych rzeczywistych dowodów na to, że to motywuje jakiekolwiek chińskie laboratoria. ale ten artykuł to wyraźny krok w kierunku możliwego wyjaśnienia.


Owain Evans23 lip, 00:06
Nowy artykuł i zaskakujący wynik.
LLM-y przekazują cechy innym modelom za pomocą ukrytych sygnałów w danych.
Zbiory danych składające się tylko z 3-cyfrowych liczb mogą przekazywać miłość do sów lub skłonności do zła. 🧵

24,21K
gratulacje dla Bee za dołączenie do Amazon; podobnie jak Blink, Ring, Eero i oczywiście nowy Claude + Nova + Alexa, myślę, że @panos_panay tworzy całkiem solidną drugą część strategii sprzętowej AI Amazona.
Wiedziałem, że Bee odnosi sukces, gdy @dharmesh pojawił się w jego @latentspacepod z jednym.

12,33K
powodem, dla którego analiza llm (i regulacje, i PMing) jest trudna*
jest to, że odpowiednie WYMIARY ciągle się zmieniają z każdą generacją modelu granicznego; nie wystarczy po prostu ustawić swoją oś x lub y w skali logarytmicznej i śledzić prawa skalowania, musisz naprawdę wykonać pracę, aby pomyśleć o tym, jak modele różnią się strukturalnie w 2025 roku w porównaniu do 2024 roku, 2023 roku i tak dalej.
eg
everyone focused on elo przez 2 lata, elo jest oszukiwane i traci wiarygodność
everyone focused on price per tokens przez 3 lata, modele rozumowania mają 10-40x zmienność w liczbie tokenów wyjściowych na zadanie, cena za token traci sens.
zbieraj dane, ile chcesz, ale jeśli tylko zbierasz nieskazitelne szereg czasowy, możesz stracić z oczu szerszy obraz.
*(i dlaczego stwierdzenia takie jak „inżynier AI to nie jest rzecz, ponieważ wszyscy inżynierowie oprogramowania są inżynierami AI” to cope i nigdy nie będą prawdziwe, chyba że w najbardziej trywialnym sensie)

Scott Huston22 lip, 08:30
Czy istnieje publiczny arkusz kalkulacyjny wszystkich wiodących modeli LLM z różnych firm, pokazujący ich ceny, wyniki benchmarków, wyniki elo w arenie itp?
9,91K
Użytkownik swyx udostępnił ponownie
🆕 Wydajemy nasz cały tor RL + Reasoning!
występują:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
z specjalnym 3-godzinnym warsztatem od:
@danielhanchen z Unsloth!
zacznij tutaj:
Szczęśliwego weekendu oglądania! i dziękujemy @OpenPipeAI za wsparcie i organizację tego toru!

106,66K
Użytkownik swyx udostępnił ponownie
jeśli, jak proponuje @sgrove, specyfikacje są kodem przyszłości, to czym jest debugowanie?
1) kompilacja specyfikacji to proces, w którym agent kodujący przekształca specyfikacje w kod
2) coraz więcej „kompilacji” będzie odbywać się bez nadzoru, mniej obserwowania pracy agenta różnica po różnicy, więcej specyfikacji w, kodu na wyjściu
3) błędy typów -> błędy prawdy: większość debugowania będzie polegać na przeszukiwaniu badań i planów wdrożeniowych w markdown, aby znaleźć jedną linię niepoprawnego kontekstu, która sprawia, że agent kodujący nie odnosi sukcesu podczas wdrażania. Zestawy testów będą, między innymi, sprawdzać prawdę i logiczną spójność.
4) istnieje nowy wyższy porządek „przypinania debuggera krokowego”, który polega na obserwowaniu, jak agent wdraża plan krok po kroku, aby zlokalizować błąd logiczny w specyfikacji. Kiedy znajdziesz błąd podczas przechodzenia przez program linia po linii, zmieniasz kod, uruchamiasz proces ponownie i powtarzasz, aż będzie działać. Kiedy znajdziesz błąd w *specyfikacji* podczas przechodzenia przez wdrożenie, idziesz w górę, naprawiasz specyfikację i ponownie uruchamiasz *wdrożenie*.
10,27K
codziennie wydajemy jeden utwór z konferencji @aidotengineer*. Wczorajszy utwór RecSys był wielkim hitem - ale zdecydowanie najgorętszym utworem była nasza relacja na temat stanu MCP, prowadzona przez @Calclavia.
Moim osobistym ulubionym slajdem jest ten, na którym zdałem sobie sprawę, że @AnthropicAI znacznie bardziej testuje MCP, niż początkowo myślałem, na podstawie naszego podcastu z @dsp_ i @jspahrsummers.
Zobaczcie te wystąpienia i dajcie znać swoim ulubionym mówcom!

21,69K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi