Var spent på å bli med på morgenens keynote for PyTorchCon. Mange morsomme diskusjoner: RL er en av de mest lovende grensene fordi den overgår imitasjonslæring ettersom den lærer mål ikke demonstrasjoner, og oppdager strategier utover treningsdata som overvåket læring ikke kan nå, som o1s fremvoksende resonnementspor. Men førtrening er ikke død. Arkitektoniske gjennombrudd som diffusjonsmodeller for koding og DeltaNet som forbedrer assosiativ minneytelse er lovende grenser. Min filosofi er å støtte dristige gründere som bygger ved grensene, for eksempel Voyage AI som bygger vektorinnbygginger år før AI-søk for bedrifter tok av.