Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 сделал репост
Провозившись почти неделю, я наконец-то с трудом воссоздал Transformer. Сейчас у меня такое ощущение, что конструкция Transformer — это безусловно продукт гениальности и пота. Она имеет эпохальное значение как в теории, так и в инженерии. (Хотя сейчас это звучит немного как "после драки кулаками не машут")
59,4K
У меня не работало несколько дней, только узлы Исландии могли подключиться. Сегодня днем вдруг заработало.

Jason Young23 авг., 19:41
Лестница сломалась на весь день, чувствую, что потерял связь с миром.
5,93K
Искусственный интеллект — это всего лишь инструмент, и его эффективность зависит от того, как его использовать. Код, написанный ИИ, можно считать лишь удовлетворительным. Он изучил слишком много разнородного кода и не имеет собственного вкуса, поэтому часто пишет отвратительный код. Эти коды могут выглядеть нормально как фрагменты модулей, но в рамках большой архитектуры они могут стать причиной множества проблем.

宝玉23 авг., 00:11
Самые современные модели AI пишут код не хуже, уровень на уровне модулей значительно превышает средний уровень человеческих программистов. Если написанный код плохой, сначала посмотрите, какая модель была выбрана, достаточно ли контекста и нужно ли оптимизировать подсказки.
Кросс-модульный код, ограниченный длиной окна контекста, может потребовать помощи человека для проектирования и планирования. Если структура проекта разумная, AI также может повторно использовать существующий код, чтобы сохранить принцип DRY.
6,01K
Искусственный интеллект не то чтобы не может читать, а просто не может запомнить прочитанное. Когда будет действительно реализована память в модели, тогда можно будет преодолеть ограничения контекста.

geniusvczh22 авг., 18:58
Если подумать, причина, по которой AI плохо пишет код, не в том, что он не умеет писать, а в том, что он не умеет читать. Человек может изучать множество на первый взгляд не связанных вещей ради реализации одной функции, но именно эти, казалось бы, не связанные вещи дают возможность сохранить проект в соответствии с принципом DRY. Чтобы AI мог стать опорой, он сначала должен научиться этому.
2,35K
Студенты, использующие AI для программирования, заметили ли вы, что с AI стало даже больше работы?
Раньше, чтобы выполнить одну задачу, от описания требований, формирования команды, до тестирования фронтенда и бэкенда, требовалось два недели, чтобы все mobilizировать.
Теперь один человек может справиться с этим за одну ночь.
Но раньше можно было отложить дело, дожидаясь команду, и в это время расслабиться. Теперь расслабиться не получится. 😶🌫️
66,82K
Предложения, которые едят те, кто голодает, являются заслугой человека, которого чествуют.

garrulous abyss🌈22 авг., 16:58
Не говоря уже о Бодхисаттве.
Если ты на природе почти умираешь от голода... и видишь на обочине могилу с подношениями. Ты кланяешься и говоришь: "Извините, я почти умираю от голода, можно взять подношение поесть". Я думаю, что никто, ни люди, ни духи, не будут тебя за это осуждать...

2,21K
Когда в какой-то области начинают обсуждать философию, это означает, что этап скоро закончится. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 авг., 06:53
Почему кажется, что исследования в области AI-инженерии все больше смещаются в сторону философии языка?

4,82K
Единичный rag является продуктом первого поколения улучшений. Мой текущий подход заключается в реализации rag как mcp, предоставляя два API: ask и fetch. Поиск по-прежнему использует традиционный механизм rag, а расширенное чтение позволяет AI вызывать fetch для чтения контекста до и после. Механически это похоже на cline grep для повторного чтения файла.

宝玉21 авг., 07:39
Глубоко согласен: 1. Многопользовательское параллельное сотрудничество менее стабильно, чем однопоточное; 2. RAG ненадежен, хуже традиционного поиска; 3. Чем больше команд в подсказках, тем менее модель понимает, что выбирать.
—— Перевод оригинального твита ——
На пути к созданию AI-агентов наша команда @Cline выявила три "вируса мышления". Под "вирусами мышления" понимаются заманчивые идеи, которые звучат очень умно, но на практике совершенно не работают.
Эти три вируса:
* Многопользовательское сотрудничество (Multi-Agent Orchestration)
* Увеличение поиска (RAG)
* Чем больше команд = тем лучше результат
Давайте разберемся!
1. Многопользовательское сотрудничество
Сцена из научно-фантастического фильма — "агенты поддержки, агенты снабжения, аналитические агенты, командные агенты" отправляют целую армию подагентов, а затем сводят результаты вместе — звучит действительно круто. Но на самом деле большинство полезной работы агентов выполняется в однопоточном режиме.
Сложные процессы сотрудничества редко приносят реальную ценность, а скорее создают хаос. Имейте в виду, что просто заставить модель работать стабильно в однопоточном режиме уже достаточно сложно, не говоря уже о том, чтобы обрабатывать параллельную логику сотрудничества. Это не только увеличивает сложность реализации, но и делает процесс понимания и принятия решений модели необычайно сложным.
2. Использование RAG для создания агентов
RAG, то есть Увеличение поиска (Retrieval Augmented Generation), также является вирусом мышления. На теоретическом уровне он выглядит очень мощным, но на практике, особенно в сценариях агентов, иногда даже базовая команда текстового поиска GREP оказывается более полезной.
Почему ореол RAG тускнеет в реальных рабочих процессах агентов? Потому что информация, которую он находит, часто является разрозненными фрагментами, которые не позволяют модели сформировать связное и полезное "понимание".
Лучший подход почти всегда заключается в том, чтобы позволить модели самой перечислить файлы, искать их аналогично grep, а затем открывать и читать весь файл (как это делает человек). Команда @Cline начала это делать довольно рано, и позже мы увидели, что @Amp — Research Preview и @Cursor также перешли к этому более практичному подходу.
3. Чем больше команд = тем лучше результат
Существует широко распространенное заблуждение: если в системных подсказках (system prompt) накапливать все больше "команд", модель станет умнее. Это совершенно неверно.
"Переполнение" подсказок только запутает модель, поскольку больше команд часто приводит к конфликту рекомендаций и избытку информации.
В результате вам придется постоянно "латать" странные поведения модели, как в игре "Ударь крота", вместо того чтобы получать действительно полезные результаты. Для большинства современных передовых моделей лучший подход — не мешать им, а не кричать в стороне, пытаясь направить их в определенное направление. Цените каждое ваше слово (или, скажем, токен).
В общем, все три идеи очень соблазнительны. Если вы не проводите весь день с AI, вы можете подумать, что они все очень разумны — однако это не так. Конечно, с улучшением возможностей базовых моделей наше мнение о этих методах может измениться в будущем.
6,22K
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные