Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
Достигайте амбиций с помощью целеустремленности, интенсивности и честности
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
невероятная работа по выравниванию стеганографии от коллег из Anthropic
я искал страссиевское объяснение, почему Китай продолжает публиковать открытые модели из доброты своих сердец
если вы делаете такие вещи, как использование открытых моделей, чтобы, не знаю, очистить *кхм* синтетически перефразировать ваши данные до качества учебника, вы вполне можете импортировать предвзятости, которые не сможете обнаружить до тех пор, пока не станет слишком поздно.
поэтому, если вы хотите экспортировать свою ценностную систему в остальной мир, это самый мощный инструмент мягкой силы, изобретенный с тех пор, как Голливуд.
чтобы быть совершенно ясным, у нас нет никаких фактических доказательств того, что это мотивирует какие-либо китайские лаборатории. но эта статья является ясным шагом к возможному объяснению.


Owain Evans23 июл., 00:06
Новая статья и удивительный результат.
Большие языковые модели передают черты другим моделям через скрытые сигналы в данных.
Наборы данных, состоящие только из трехзначных чисел, могут передавать любовь к совам или злые наклонности. 🧵

26,11K
Поздравляю Bee с тем, что его выбрали Amazon; похоже на Blink, Ring, Eero и, конечно, нового Claude + Nova + Alexa. Думаю, @panos_panay собирает довольно солидный второй акт стратегии аппаратного обеспечения AI Amazon.
Я понял, что Bee побеждает, когда @dharmesh появился на его @latentspacepod с одним из них.

12,33K
Причина, по которой анализ LLM (и регулирование, и PMing) сложен*
в том, что соответствующие ИЗМЕРЕНИЯ продолжают меняться с каждым поколением передовой модели; недостаточно просто установить ось x или y в логарифмическом масштабе и отслеживать законы масштабирования, нужно действительно поработать над тем, чтобы понять, как модели структурно отличаются в 2025 году по сравнению с 2024 и 2023 годами и так далее.
Например,
все сосредоточились на elo в течение 2 лет, elo начинает использоваться в играх и теряет свою надежность.
все сосредоточились на цене за токены в течение 3 лет, модели рассуждений имеют 10-40-кратное изменение в выходных токенах на задачу, цена за токен теряет смысл.
Собирайте данные сколько угодно, но если вы просто собираете чистые временные ряды, вы можете потерять из виду более широкую картину.
*(и почему такие утверждения, как "инженер по ИИ не существует, потому что все инженеры-программисты являются инженерами по ИИ", являются самообманом и никогда не будут правы, кроме как в самом тривиальном смысле)

Scott Huston22 июл., 08:30
Существует ли публичная таблица всех ведущих моделей LLM от разных компаний, показывающая их цены, оценки по бенчмаркам, рейтинги в арене и т.д.?
9,91K
swyx сделал репост
🆕 Выпускаем весь наш трек RL + Reasoning!
включая:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
с специальным 3-часовым мастер-классом от:
@danielhanchen из Unsloth!
начните здесь:
Счастливых выходных просмотра! и спасибо @OpenPipeAI за поддержку и организацию этого трека!

106,66K
swyx сделал репост
если, как предлагает @sgrove, спецификации — это код будущего, то что такое отладка?
1) компиляция спецификаций — это процесс, при котором кодирующий агент превращает спецификации в код
2) все больше и больше «компиляции» будет без присмотра, меньше наблюдения за работой агента дифф по диффу, больше спецификации на входе, код на выходе
3) ошибки типов -> ошибки истины: большая часть отладки будет заключаться в том, чтобы копаться в исследованиях и планах реализации в markdown, чтобы найти одну строку неверного контекста, которая заставляет кодирующего агента не удаваться при реализации. Тестовые наборы будут, среди прочего, проверять на истинность и логическую последовательность.
4) существует новый более высокий порядок «прикрепления отладчика», который наблюдает за тем, как агент реализует план шаг за шагом, чтобы точно определить логическую ошибку в спецификации. Когда вы находите ошибку, проходя программу построчно, вы изменяете код, перезапускаете процесс и повторяете, пока он не заработает. Когда вы находите ошибку в *спецификации*, проходя через реализацию, вы идете вверх по потоку, исправляете спецификацию и перезапускаете *реализацию*.
10,27K
мы выпускаем по одному треку в день с конференции @aidotengineer сейчас*. Вчерашний трек RecSys имел большой успех - но самым горячим треком была наша информация о состоянии MCP, которую вел @Calclavia.
Личный любимый слайд - это тот, где я понял, что @AnthropicAI использует MCP - намного - активнее, чем я изначально думал, исходя из нашего подкаста с @dsp_ и @jspahrsummers.
Посмотрите эти выступления и дайте знать своим любимым спикерам!

21,69K
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные