Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hier, nous avons encore soutenu Anthropic, et maintenant nous les avons évincés 🥲🥲
Tout à l'heure, le fondateur d'OpenAI, Sam Altman, a annoncé un accord de coopération avec le ministère de la Guerre des États-Unis : les modèles d'IA de l'entreprise seront déployés sur un réseau secret. Dans toutes les interactions, le ministère de la Guerre a montré une grande préoccupation pour la sécurité et souhaite collaborer avec OpenAI pour obtenir les meilleurs résultats.
La sécurité de l'intelligence artificielle et les bénéfices étendus qu'elle peut apporter sont au cœur de notre mission. Les deux principes de sécurité les plus importants d'OpenAI sont : interdire la surveillance de masse aux États-Unis et faire en sorte que l'utilisation de la force soit sous la responsabilité humaine, y compris l'utilisation de systèmes d'armement autonomes. Le ministère de la Guerre reconnaît ces principes et les intègre dans la législation et les politiques, et nous les avons également inclus dans l'accord.
OpenAI construira également des mesures de sécurité technique pour garantir le bon fonctionnement des modèles, ce qui est également souhaité par le ministère de la Guerre. Des dispositifs d'amélioration des fonctionnalités (FDE) seront déployés pour assister le fonctionnement des modèles, et pour garantir la sécurité des modèles, ils ne seront déployés que sur des réseaux cloud. Le ministère de la Guerre est tenu de fournir les mêmes conditions à toutes les entreprises d'intelligence artificielle, et toutes les entreprises devraient être prêtes à accepter ces conditions. OpenAI espère vivement que la situation pourra se calmer, évitant ainsi des actions légales et gouvernementales, et parvenir à un accord raisonnable. Nous continuerons à faire tout notre possible pour servir l'humanité. Le monde est un endroit complexe, chaotique, et parfois même dangereux.
Meilleurs
Classement
Favoris
