Kult papir fra Meta. Og en annen utmerket anvendelse av multi-agent systemer. (bokmerk det) Å trene moderne AI-modeller krever enorme mengder data av høy kvalitet. Men flaskehalsen er ikke bare kvantitet. Dataene er rett og slett ikke mangfoldige nok. Enkeltmodeller som genererer syntetiske data har en tendens til å produsere homogene utdata, gjentakende mønstre og mangler den nyanserte variasjonen som finnes i menneskeskapte datasett. Denne nye forskningen fra Meta introduserer Matrix, et peer-to-peer-rammeverk hvor flere AI-agenter i samarbeid genererer syntetiske treningsdata gjennom desentraliserte interaksjoner. Matrix oppnår 2–15× høyere datagenereringsgjennomstrømning under identiske maskinvareressurser, uten å gå på bekostning av utdatakvaliteten. TL; DR: I stedet for at én modell produserer data, spiller spesialiserte agenter distinkte roller og samhandler med hverandre. En stiller spørsmål, en annen svarer, en tredje vurderer kvalitet. Disse samtalene over flere omganger fanger opp kompleks resonnement og ulike perspektiver. Det som gjør Matrix annerledes: ingen sentral koordinator. Agenter kommuniserer direkte i en fullstendig desentralisert arkitektur. Dette muliggjør skalerbarhet uten flaskehalser i infrastrukturen. Rammeverket fungerer gjennom rollebaserte samtaleprotokoller, interaksjonsmønstre med flere turer og innebygd kvalitetsfiltrering på hvert trinn. Kun data som oppfyller kvalitetsgrenser kommer med i det endelige treningssettet. Samarbeid mellom flere agenter produserer mer varierte syntetiske data enn enkeltmodell-tilnærminger. De resulterende datasettene forbedrer ytelsen til nedstrøms modellen på tvers av resonnement og instruksjonsfølgende referansepunkter.