Hoje, a OpenAI está lançando um novo blog Alignment Research: um espaço para publicar mais do nosso trabalho sobre alinhamento e segurança com mais frequência, e para um público técnico.
Posts aqui não serão jornais completos. Em vez disso, são contribuições rigorosas, porém leves: esboços, anotações, discussões e análises técnicas profundas que talvez não fossem publicadas porque são muito cedo, focadas ou não se encaixam no público principal do blog.
A pesquisa de alinhamento e segurança na OpenAI é um esforço compartilhado por várias equipes; Você verá muitas equipes diferentes publicando aqui. Este blog será escrito por pesquisadores, para pesquisadores, e tem como objetivo convidar um diálogo aberto e feedback da comunidade mais ampla.
Se você se importa com uma AGI segura e amplamente benéfica, por favor, acompanhe e teste as ideias que compartilhamos. Hoje vamos compartilhar dois blogs!
Olá! Recebi muitas DMs para revisar eu mesmo – seria mais fácil se as pessoas pudessem preencher esse formulário. Obrigado!
318,59K