Hoy, OpenAI lanza un nuevo blog de Alignment Research: un espacio para publicar más de nuestro trabajo sobre alineación y seguridad con mayor frecuencia, y para una audiencia técnica.
Las publicaciones aquí no serán artículos completos. En cambio, son contribuciones de investigación rigurosas pero ligeras: bocetos, notas, debates y análisis técnicos profundos que de otro modo podrían no publicarse porque son demasiado prontos, poco enfocados o no encajan para el público principal del blog.
La investigación en alineación y seguridad en OpenAI es un esfuerzo compartido entre muchos equipos; Verás que muchos equipos diferentes publican aquí. Este blog será escrito por investigadores, para ellos, y tiene como objetivo invitar al diálogo abierto y a la retroalimentación de la comunidad en general.
Si te importa una AGI segura y ampliamente beneficiosa, por favor sigue el ejemplo y pon a prueba las ideas que compartimos. ¡Hoy compartimos dos blogs!
¡Hola! He recibido demasiados mensajes privados como para revisarlo yo mismo; sería más fácil si la gente pudiera rellenar este formulario. ¡Gracias!
318.57K