Vandaag lanceert OpenAI een nieuwe Alignment Research blog: een ruimte voor het vaker publiceren van meer van ons werk over alignment en veiligheid, gericht op een technisch publiek.
Berichten hier zullen geen volledige artikelen zijn. In plaats daarvan zijn het rigoureuze maar lichte onderzoeksbijdragen: schetsen, notities, discussies en technische diepgaande analyses die anders misschien niet gepubliceerd zouden worden omdat ze te vroeg, te smal gericht of niet geschikt zijn voor de hoofdbloglezers.
Onderzoek naar afstemming en veiligheid bij OpenAI is een gezamenlijke inspanning van veel teams; je zult hier veel verschillende teams zien publiceren. Deze blog zal geschreven worden door onderzoekers, voor onderzoekers, en is bedoeld om een open dialoog en feedback van de bredere gemeenschap uit te nodigen.
Als je geeft om veilige en breed voordelige AGI, volg dan alsjeblieft en test de ideeën die we delen. We delen vandaag twee blogs!
Hallo! Ik heb te veel DM's ontvangen om zelf te bekijken - het zou het gemakkelijkst zijn als mensen dit formulier kunnen invullen. Dank je!
318,58K