Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI er feil av design.
Ikke på grunn av ondsinnet hensikt eller overhodet, men fordi det modellerer virkeligheten og virkeligheten er sannsynlig. Sannhet blir hva vektene bestemmer.
Dette er problemet med LLM-er, de forutsier bare neste token.
Ved å følge lineære mønstre for spørringer, samsvarer, gjenkjenner, speiler den svar som passer.
Du ber om tre elementer; det gir fire.
Hvorfor er det slik?
Parametrisk kunnskapsskjevhet slår inn: sterke treningsdata overstyrer svake spørringer, og blander sammen kilder til modellen tror på sin egen komprimering av verden.
Har du noen gang spurt en AI og du får svaret: "Jeg vet ikke" Det er sjeldent eller har sannsynligvis aldri skjedd.
Fordi et slikt konsept er uvitende om dem. De ser ut til å vite alt selv i et emne som er utenfor deres domene.
AI utvikler et system basert på nevromorfe databehandlingsprinsipper som etterligner den fysiske mekanismen til menneskelig hukommelse og tvil.
Komplekse spørsmål er vanligvis offer for slike omstendigheter – de blir møtt av forbløffende hallusinasjoner.
Hvorfor?
>> Sammensetningsfeil i trinnene
>> Mangel på problemstruktur
>> Irrelevant kontekstdistraksjon
@SentientAGI har en løsning - ROMA [Recursive Open Meta Agent] → Orkestratoren.
I spillet med langsiktige oppgaver betyr struktur mer enn intelligens.
ROMA forstår dette og tar derfor i bruk en rekursiv-hierarkisk kommandokjede som opprettholder kontekstflyt.
Hvordan fungerer ROMA - den siste sjefen for å takle langsiktige oppgaver?
ROMA gir agenter et rekursivt stillas – et hierarkisk oppgavetre som styrer hvordan konteksten flyter.
Når kontekstflyten er brutt, sniker anarkiet seg inn.
Så ROMA er håndhevet for å styre flyten av kontekst.
For å håndtere dette effektivt, ROMA;
Frikobler og bryter ned oppgaver til distinkte underagenter kjent som noder, spesielt oppgaver den anser som komplekse.
La oss kalle ROMA AI-sjefen som administrerer andre AI-er.
I et enkelt bilde, her er strukturen:
Overordnede noder: agenter på høyt nivå som mottar det komplekse målet ditt.
=> De deler det opp i deloppgaver og sender dem ned til underordnede noder (enklere agenter/verktøy).
=> Underordnede noder løser sin del, send resultatene tilbake til overordnede noder.
=> Overordnede noder aggregerer løsninger og kombinerer dem til det endelige svaret.
Spørring løst!
Fire nodetyper som driver ROMA-systemet:
>> Atomizer – Determinant-nikket. Vurder oppgaven. Avgjør om de er enkle nok til å utføre? Eller trenger den nedbrytning?
>> Planner – Hvis en oppgave trenger dekomponering – deler komplekse mål inn i deloppgaver. Hver deloppgave blir en underordnet node. Oppgaver kan kjøres sekvensielt (når de er avhengige) eller parallelt (når de er uavhengige).
>> Executor – Utfører arbeidet. Kaller verktøy, agenter, APIer. Sender utganger opp eller ned i treet etter behov.
>> Aggregator – Samler inn resultater fra underordnede noder, verifiserer konsistens, syntetiserer det endelige svaret.
Her er en omfattende illustrasjon 👇
Spørring: "Hvor mange budsjettfilmer på 350 millioner dollar+ var ikke de mest innbringende i utgivelsesåret?"
ROMAs prosess:
1/ Forstøverkontroller - Determinantnoden. For komplisert for ett trinn? Atomizer kommer inn.
2/ Planlegger. Er målet for komplisert? Planleggeren kommer inn, bryter ned:
Deloppgave 1: Finn alle $350M+ filmer (titler, budsjetter, år)
Deloppgave 2: Finn filmer med høyest inntekt per år
Deloppgave 3: Kryssreferanse og filter
3/ Utførere kjører hver deloppgave (søke-APIer, utvinningsmodeller)
4/ Aggregatorsyntetiseringer: ren liste over filmer som samsvarer med kriterier.
I tillegg til ROMAs node rekursive sløyfeformler, la den til et ekstra lag med klarhet for USSR og byggere.
Menneske-i-løkken = brukerintervensjon.
En iboende tilbakemeldingsmekanismefunksjon som gjør det mulig for brukere å sette tilstanden til spørringen sjakkmatt. Dette skjer rett etter planleggingsstadiet.
«Jeg fant disse faktaene. Har de rett? Jeg planla disse substackene - stemmer de overens med det du vil ha?" Dette gjør det mulig for brukeren å korrigere, redigere eller legge til kontekster før agenten fortsetter.

Stage Tracing - For byggherrer
For utvikleren som bygger eller feilsøker agenten. Scenesporing avslører det interne resonnementet:
>> Hvilke inndata mottok denne noden?
>> Hvilken produksjon produserte den?
>> Hvor ble konteksten borte eller forvrengt?
Byggherren bruker denne gjennomsiktigheten til å:
>> Diagnostiser hvor feil oppstår.
>> Finjuster ledetekster på bestemte noder
>> Bytt ut underpresterende agenter/verktøy.
Denne funksjonen hjelper brukere med å fange opp feil i sanntid, og byggere løser systematiske problemer på et arkitektonisk nivå.
Bruk i den virkelige verden
ROMA-søk som et bevis på konseptet som utnytter all ROMAs arkitektur med sin SEAL-0, en test for kompleks benchmark for resonnement med flere kilder begrenset til 45,6 % nøyaktighet (toppmoderne) tidligere beste (Kimi Researcher): 36 %, Gemini 2,5 Pro: 19,8 %, beste åpen kildekode-rival: 8,9 %.
1,93K
Topp
Rangering
Favoritter

