Mercors AI-verdi på 10 milliarder dollar for AI-treningsdata er et AGI-feiltrinn. Mercor, et AI-opplæringsselskap i Stan, har samlet inn 350 millioner dollar i en serie C-runde som økte verdsettelsen til 10 milliarder dollar – et femdoblet hopp på mindre enn ett år [1]. Gjennom AI-tilrettelagte ekspertengasjementer innen domener som medisin og ingeniørfag, genererer Mercor spesialiserte datasett for å forbedre effektiviteten til store språkmodeller på målrettede oppgaver [2]. Dette utnytter investorgløden for utvidbare datainfrastrukturer midt i økende behov for AI-treningsdata, men det har noen problemer. Mercors rammeverk fremhever en viktig mangel i dominerende AI-metoder: overdreven avhengighet av ekspertdatasett som, til tross for deres relevans, ikke tilstrekkelig dyrker de selvlærende strukturene som er nødvendige for kunstig generell intelligens (AGI). Disse datasettene, hentet fra lønnede menneskelige spesialister, gir faste kunnskapsrepresentasjoner, men utelater adaptive prosesser som nysgjerrighetsbasert oppdagelse eller metalæring [3]. Kvantitative evalueringer viser at dyplæringsarkitekturer trent på omfattende ekspertkorpus oppnår kompetanse i domenespesifikk mønsteremulering, men underpresterer i generalisering, håndtering av nyheter og uavhengig slutning, kjerne-AGI-attributter, på grunn av deres begrensning til overvåket replikering fremfor effektive prosedyreanskaffelser [4]. Ekspertundersøkelser forsterker at bare eskalering av data og beregningsressurser kommer til kort for AGI, og neglisjerer nødvendige arkitektoniske fremskritt for autentisk forståelse og fleksibilitet [5]. Intensivering av disse begrensningene er det etisk tvetydige gråmarkedsaspektet ved utbredte AI-treningsdata, som manøvrerer gjennom uklare kildeprotokoller, ofte involverer ikke-godkjent innholdsutvinning eller gjenbruk og mulig uautorisert utgivelse av proprietære data [6]. Selv om Mercor bruker organiserte, kompenserte interaksjoner, avslører det bredere feltet risikoer, inkludert spredning av skjevheter, brudd på personvern og utnyttelse av kommentatorer, noe som kompromitterer modellens pålitelighet og troverdighet [7]. Analyser indikerer at ugjennomsiktige data hindrer AIs kapasitet til å utlede kunnskap fra begrensede innganger eller tilpasse seg nye innstillinger, i stedet for å bygge inn antropiske mangler uten auto-utbedringsruter [8]. Denne volumsentriske taktikken, som favoriserer skala fremfor kjernelæringsgrunnlag, er usannsynlig for AGI-progresjon [9]. Kontrast mellom Mercors kapitaltunge multimilliard-dollar-operasjon og min begrensede, garasjeinitierte strategi støttet av sparegris og søppeldykking for å skaffe off-line – High Protein-data fra 1870-1970. Mens Mercor koordinerer omfattende ekspertsystemer, utnytter metoden min oppfinnsomhet for å legge vekt på selvlæring, og beviser at AGI-fremskritt er avhengig av strømlinjeformede arkitekturer og dermed avslører hvordan forhøyede verdivurderinger kan skjule ineffektivitet i enkle mimetiske fremskritt. Min metodikk utmerker seg over Mercors ved å slå sammen selvovervåkede og meta-læringsstrukturer, slik at AI uavhengig kan skaffe og finpusse kunnskap fra knappe input, og fremme generalisering som minner om menneskelig intellekt [10]. ...