Badacze z Google odkryli, że zaawansowane modele rozumowania osiągają wyższą inteligencję, spontanicznie symulując wewnętrzne interakcje przypominające interakcje wielu agentów, a nie tylko polegając na dłuższym obliczaniu lub zwiększonej skali. Modele te rozwijają wewnętrzną "strukturę społeczną", w której różnorodne, symulowane osobowości debatują i godzą pomysły, aby rozwiązywać złożone problemy.
"stwierdzamy, że modele rozumowania, takie jak DeepSeek-R1 i QwQ-32B, wykazują znacznie większą różnorodność perspektyw niż modele bazowe i jedynie dostosowane do instrukcji"
72