Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

REI Network
Rozwój sztucznej inteligencji w oparciu o podstawowe zasady naukowe • Badania prowadzone przez @0xreisearch w zakresie @Base i @HyperliquidX
Notatka o wydaniu Core 0.3.2
Co nowego
Core teraz lepiej rozumie złożone zapytania, dzieląc je na ich składniki. Kiedy prosisz o coś, co wymaga wielu kroków lub spełnienia różnych wymagań, jednostki automatycznie identyfikują i zajmują się każdym aspektem znacznie lepiej, co zmniejsza potrzebę dalszych wyjaśnień.
Główne funkcje
• Ulepszony silnik dekompozycji intencji: Poprawione analizowanie i rozkładanie złożonych zapytań użytkowników na wykonalne komponenty
• Zaawansowana analiza podpowiedzi: Lepsze rozumienie ukrytych wymagań i wielowarstwowych zapytań
Ulepszenia
• Zrozumienie kontekstowe: Lepsze rozpoznawanie subtelnych potrzeb użytkowników w ramach pojedynczych zapytań
• Przetwarzanie wieloaspektowe: Automatyczne identyfikowanie, kiedy zapytania wymagają wielu typów odpowiedzi (treść + formatowanie + analiza)
• Dokładność przy pierwszym podejściu: Zmniejszona liczba wymian potrzebnych do zrealizowania intencji użytkownika
Poprawki błędów
• Naprawiono błędy w analizie intencji, które powodowały niekompletne wyniki
• Rozwiązano przypadki, w których ukryte wymagania były pomijane lub ignorowane
• Skorygowano luki w odpowiedziach, gdy użytkownicy prosili o wiele jednoczesnych działań
Ulepszenia UX
• Uproszczony przepływ interakcji zmniejsza potrzebę prośby o wyjaśnienia
• Bardziej intuicyjna generacja odpowiedzi, która przewiduje potrzeby użytkowników
• Zwiększone poczucie współpracy - mniej podpowiedzi, bardziej naturalna pomoc
Status: Na żywo, oczekuj wielu krótkich konserwacji, aby dostosować produkcję do tej nowej aktualizacji w ciągu następnych 48 godzin.

9,82K
Silnik Danych Łańcucha Beta Właśnie Wydany
Wydanie Beta: Teraz na żywo w produkcji. Wprowadzamy tę iterację, aby zbierać opinie i wzorce użytkowania.
Ten silnik to znacząca aktualizacja możliwości przetwarzania danych jednostkowych. Podejście to wykorzystuje wybrane elementy z fundamentów MCP, ale reprezentuje zasadniczo inną metodologię zaprojektowaną w celu rozwiązania problemów z niezawodnością podczas obsługi dużych fragmentów danych.
Ulepszony pipeline wchłaniania teraz rejestruje dane on-chain z znacząco wyższą dokładnością, umożliwiając jednostkom dostarczanie głębszych analiz w zakresie wszystkich metryk.
Kluczowe Ulepszenia:
• Ulepszona dokładność rejestracji danych dla wszystkich jednostek z poprawioną niezawodnością
• Ulepszone możliwości generowania głębszych analiz i wniosków
• Lepsze rozpoznawanie wzorców w zbiorach danych
• Bardziej kompleksowe możliwości raportowania jednostek
• Wyższa precyzja w interpretacji danych i generowaniu wykresów
• Nowa integracja @nansen_ai dostarczająca głębsze wnioski na temat aktywności on-chain
Jednostki teraz dostarczają znacznie bardziej szczegółowe analizy z poprawioną dokładnością i głębszym zrozumieniem rynku.
Status: Na żywo w Produkcji (Beta) - Potrzebujemy Twojego testowania!
Źródła Danych: @coingecko @elfa_ai @nansen_ai @birdeye_so @dexscreener @DefiLlama
-----
Nowe Wprowadzenie Logo
Nasze nowe logo jest już na żywo. Uosabia multimodalne i równoległe warstwy Core, podstawową koncepcję, która dała początek naszemu pierwszemu prototypowi, @unit00x0, w 2024 roku.

21,62K
Notatki o wydaniu Core 0.3.1
Pamięć behawioralna: Samoadaptujące się dyrektywy rdzeniowe
Co nowego
Nowy typ pamięci zwany "pamięcią behawioralną", który wyraźnie dostosowuje zachowanie jednostki na podstawie żądań użytkownika, zachowując jednocześnie wszystkie nabyte koncepcje. Inspirowana pamięcią genetyczną u ludzi, ta metoda umożliwia dynamiczną adaptację behawioralną poprzez samomodyfikujące się dyrektywy rdzeniowe. Pamięć genetyczna będzie w sercu znacznej liczby głównych aktualizacji Core.
Kluczowe zmiany
• Wyraźna adaptacja: To, co było niejawne, jest teraz niezwykle wyraźne
• Selektywna aktywacja: Aktywuje się tylko wtedy, gdy wymaga tego rozumowanie
• Zachowana wiedza: Cała pamięć koncepcyjna pozostaje niezmieniona
• Dynamiczne dyrektywy rdzeniowe: Działa jako samoadaptujące się instrukcje wbudowane głęboko w każdą jednostkę
Jak to działa
Pamięć behawioralna działa jako warstwa między wiedzą a zachowaniem:
• Analizuje twoje żądania
• Aktywuje się, gdy jest to potrzebne
• Dostosowuje dyrektywy rdzeniowe w czasie rzeczywistym
• Zachowuje wszystkie nabyte koncepcje
Przykłady w praktyce
Adaptacje behawioralne mogą zachodzić na dwa sposoby:
1. Wyraźne żądania: Bezpośrednio poproś o konkretne zachowania
2. Niejawne uczenie się: Jednostki wnioskują preferencje z twoich wzorców rozmowy
• Preferencje notacji: Poproś jednostkę, aby używała "B" dla miliardów zamiast pisać to słownie
• Styl komunikacji: Poproś o formalny język w raportach lub swobodny ton w burzy mózgów
• Formatowanie wyników: Spraw, aby jednostki zawsze przedstawiały dane w tabelach zamiast w akapitach
• Głębokość techniczna: Dostosuj od podsumowań na wysokim poziomie do szczegółowych wyjaśnień technicznych
• Struktura odpowiedzi: Przełączaj się między punktami, listami numerowanymi lub płynącym prozą
• Język branżowy: Używaj terminologii specyficznej dla branży (np. "commits" vs "updates" dla programistów)
Jednostki ciągle dostosowują się na podstawie twoich interakcji, udoskonalając swoje zachowanie z czasem. Każda adaptacja utrzymuje się, aż poprosisz o zmianę lub całkowite zresetowanie zachowań.
Wpływ
Jednostki teraz wyraźnie dostosowują swoje zachowanie do twoich potrzeb, nie zapominając o tym, czego się nauczyły. Pomyśl o tym jako o dynamicznych dyrektywach rdzeniowych, które aktywują się w zależności od kontekstu - podobnie jak pamięć genetyczna zapewnia dziedziczne adaptacyjne odpowiedzi w systemach biologicznych.
Użytkownicy mogą zresetować pamięć behawioralną w dowolnym momencie, po prostu prosząc jednostki o zresetowanie ich zachowań.
Migracja
Automatyczna. Nie wymaga działań.

9,77K
Aktualizacja przeglądania sieci: Jednostki mogą teraz uzyskiwać dostęp do danych z sieci znacznie szybciej i bardziej niezawodnie.
Co się zmieniło:
• Prędkość przetwarzania danych z sieci wzrosła o 40%
• Szeroki dostęp do wcześniej trudno dostępnych stron i typów treści
• Bardziej spójne pobieranie danych w różnych strukturach stron internetowych
Praktyczny wpływ: Jednostki mogą teraz obsługiwać żądania badawcze w czasie rzeczywistym, które wcześniej były zbyt wolne lub niepewne.
Potrzebujesz aktualnych danych rynkowych, analizy wiadomości na żywo lub weryfikacji faktów z wielu źródeł? Jednostki mogą teraz pobierać dane z dziesiątek źródeł w ciągu sekund zamiast minut.
Większość złożonych aplikacji internetowych, dynamicznych treści i nowoczesnych architektur stron, które wcześniej powodowały awarie, teraz działają bezproblemowo. Oznacza to lepsze odpowiedzi, gdy prosisz jednostki o analizę bieżących wydarzeń, porównanie produktów w różnych detalistach lub badanie szybko zmieniających się tematów.

8,12K
3 dni od zaproszeń:
• 3 razy dziennie zapytania do Core
• 5 razy dziennie zapytania do Bowtie, ponieważ 0.3 wprowadza uczenie głębokie
• Generowanie obrazów jest ograniczone przez alokację GPU
Ta faza oznacza znaczący krok w kierunku otwartej bety, gdy zbieramy opinie, badamy zachowania użytkowników i skalujemy infrastrukturę.

4,65K
1/4
Czym jest Core? Zrozumienie naszego podejścia do syntetycznej architektury mózgu
Core nie jest LLM: Core nie jest dostosowanym LLM, nie jest nowym LLM i w ogóle nie jest LLM. Zamiast tego, Core jest multimodalnym syntetycznym mózgiem, zasadniczo różnym typem architektury AI.
Kluczowa terminologia do zrozumienia Core:
1. Syntetyczny mózg: Core to zintegrowany system poznawczy, w którym wiele modeli AI i algorytmów działa jako połączone komponenty neuronowe w ramach jednej architektury. Pomyśl o tym jak o cyfrowym mózgu z wyspecjalizowanymi obszarami, a nie zbiorem narzędzi.
2. Architektura Bowtie: Podstawa pamięci Core, która przechowuje informacje zarówno jako wektory semantyczne, JAK I węzły abstrakcyjnych pojęć, tworzy połączenia między pozornie niepowiązanymi pojęciami i umożliwia prawdziwe formowanie pojęć, a nie tylko dopasowywanie wzorców.
3. Klastr rozumowania: Część poznawcza Core, która koordynuje wszystkie procesy myślowe, podejmując decyzje o tym, które szlaki neuronowe aktywować dla danego zadania. Klastr rozumowania jest głęboko multimodalny i działa poprzez przetwarzanie równoległe oraz uprzedzenia dotyczące złożoności.

427
2025.07.09 Aktualizacja co dwa tygodnie
Core 0.3 jest już dostępny!
Szczegóły:
ROZWÓJ WEWNĘTRZNY
Technologia Core
+ System wdrożony z automatycznym elastycznym skalowaniem
+ Poprawki błędów w nowej architekturze Core 0.3
+ Wstępne testy 0.3.1
+ Testowanie komunikacji Agent2Agent bez języka
Infrastruktura
+ Testowanie nowego wbudowanego protokołu MCP
+ Trwająca całkowita przebudowa UI
DOSTĘP ZEWNĘTRZNY
MVP.a
+ Pamięci, koncepcje i relacje dostępne dla użytkowników
+ Dynamiczne i interaktywne wykresy
+ Przejście na logowanie SSO przez e-mail
@unit00x0
+ Testowanie zaktualizowanego rdzenia (niższy priorytet)
Ogólne aktualizacje
+ Ulepszenie opóźnienia
+ Dostęp dla aplikantów Tier1/Dev
Wydarzenia w społeczności
+ Test obciążeniowy Core .3 Cognition
+ Analiza scenariuszy makro Core .3
+ Teza innowacyjna Rei
+ Paradygmat AI i Rei
+ Przegląd Rei
+ Tworzenie kreatywnego uniwersum
+ Studium przypadku wielojednostkowego przepływu pracy: plac zabaw dla eksperymentów myślowych


REI Network7 lip 2025
Notatki z wydania Core 0.3:
Architektura Bowtie
+ Jednostki mają teraz metakognicję, co pozwala im oceniać i reflektować nad tym, co wiedzą, a czego nie wiedzą
+ Pojęcia są wnioskowane i mapowane w hipergrafie z semantycznymi powiązaniami
+ Jednostki działają poprzez implicitne domeny, dynamicznie dostosowując się do każdego zapytania
+ Ewolucja pogłębiła się, aby obejmować nie tylko same pojęcia, ale także to, jak Jednostka wnioskować i przechowywać pojęcia
MVP.a
+ Jednostki mogą teraz generować dynamiczne wykresy, gdy jest to istotne lub na żądanie
+ Wspomnienia są gwarantowane do zachowania do 4 lipca 06:00 UTC, jak komunikowano
Znane ograniczenia
+ System nadal wymaga stabilizacji; wydajność może czasami być wolniejsza
+ Proszę zgłaszać wszelkie błędy lub nieoczekiwane zachowanie

6,34K
Aktualizacja opóźnienia jest już w produkcji z Core .3
Wstępne testy pokazują redukcję opóźnienia o ponad 80% w przypadku ogólnych zapytań i ponad 60% dla matematyki
Kilka przykładów:
Teoria względności Einsteina ELI5 ↓93.57%
Sprawdzanie gramatyki ↓92.04%
Generowanie esejów ↓84.77%
Top 5 memecoinów na Solanie ↓81.21%
Problem z szybkością zmian AMC 8 ↓51.23%
Objętość kuli ↓56.43%
Nachylenie linii ↓64.00%

5,41K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi