Я написал о том, насколько шокирующе эффективен GPT-5 Thinking в использовании своего поискового инструмента на базе Bing, проиллюстрировав это 8 примерами за последние 48 часов.
Я начал называть его своим Исследовательским Гоблином.
Я снова поражен тем, насколько лучше можно получить производительность поиска изображений, если вы встраиваете сильно выраженные резюме изображения, резюме, которое было получено из визуальной языковой модели, чем используя сами встраивания CLIP. Если вы скажете LLM, что резюме будет встроено и использовано для поиска в дальнейшем. У меня была одна система, которая увеличила уровень извлечения с 28% при 5 с использованием CLIP до 75% при 5 с использованием резюме LLM. И мне потребовалось всего около 40 минут, чтобы улучшить подсказку для резюмирования.
Мои заметки о Kimi-K2-Instruct-0905, также известном как Kimi K-2.1 - это постепенное улучшение предыдущей модели Moonshot с открытыми весами на триллион параметров, теперь с удвоенной длиной контекста (256k вместо 128k)