Ontem lançámos o ChatGPT Atlas, o nosso novo navegador web. No Atlas, o agente ChatGPT pode fazer as coisas por si. Estamos entusiasmados para ver como esta funcionalidade torna o trabalho e a vida quotidiana mais eficientes e eficazes para as pessoas. O agente ChatGPT é poderoso e útil, e foi projetado para ser seguro, mas ainda pode cometer erros (às vezes surpreendentes!), como tentar comprar o produto errado ou esquecer-se de consultar consigo antes de tomar uma ação importante. Um risco emergente que estamos a investigar e mitigar de forma muito cuidadosa são as injeções de prompt, onde atacantes escondem instruções maliciosas em websites, e-mails ou outras fontes, para tentar enganar o agente a comportar-se de maneiras não intencionais. O objetivo dos atacantes pode ser tão simples quanto tentar influenciar a opinião do agente enquanto faz compras, ou tão consequente quanto um atacante tentando fazer com que o agente busque e vaze dados privados, como informações sensíveis do seu e-mail ou credenciais. O nosso objetivo a longo prazo é que você possa confiar no agente ChatGPT para usar o seu navegador, da mesma forma que confiaria no seu colega ou amigo mais competente, confiável e consciente da segurança. Estamos a trabalhar arduamente para alcançar isso. Para este lançamento, realizámos extensos testes de segurança, implementámos novas técnicas de treinamento de modelos para recompensar o modelo por ignorar instruções maliciosas, implementámos medidas de segurança e proteção sobrepostas, e adicionámos novos sistemas para detectar e bloquear tais ataques. No entanto, a injeção de prompt continua a ser uma fronteira, um problema de segurança não resolvido, e os nossos adversários gastarão tempo e recursos significativos para encontrar maneiras de fazer o agente ChatGPT cair nestes ataques. Para proteger os nossos usuários e ajudar a melhorar os nossos modelos contra esses ataques: 1. Priorizámos sistemas de resposta rápida para nos ajudar a identificar rapidamente campanhas de ataque assim que tomamos conhecimento delas. 2. Continuamos a investir fortemente em segurança, privacidade e proteção - incluindo pesquisa para melhorar a robustez dos nossos modelos, monitores de segurança, controles de segurança de infraestrutura e outras técnicas para ajudar a prevenir esses ataques através de defesa em profundidade. 3. Projetámos o Atlas para lhe dar controles que ajudem a proteger-se. Adicionámos uma funcionalidade que permite ao agente ChatGPT agir em seu nome, mas sem acesso às suas credenciais, chamada "modo desconectado". Recomendamos este modo quando não precisa de tomar ações nas suas contas. Hoje, achamos que o "modo conectado" é mais apropriado para ações bem definidas em sites muito confiáveis, onde os riscos de injeção de prompt são menores. Pedir-lhe para adicionar ingredientes a um carrinho de compras é geralmente mais seguro do que um pedido amplo ou vago como "revise os meus e-mails e tome as ações necessárias". 4. Quando o agente está a operar em sites sensíveis, também implementámos um "Modo de Vigilância" que o alerta sobre a natureza sensível do site e exige que tenha a aba ativa para observar o agente a realizar o seu trabalho. O agente fará uma pausa se você se afastar da aba com informações sensíveis. Isso garante que você permaneça ciente - e no controle - das ações que o agente está a realizar. Com o tempo, planejamos adicionar mais funcionalidades, proteções e controles de segurança para permitir que o agente ChatGPT trabalhe de forma segura e protegida em fluxos de trabalho individuais e empresariais. Novos níveis de inteligência e capacidade exigem que a tecnologia, a sociedade e a estratégia de mitigação de riscos co-evoluam. E assim como com os vírus de computador no início dos anos 2000, achamos importante que todos entendam o uso responsável, incluindo pensar sobre ataques de injeção de prompt, para que todos possamos aprender a beneficiar desta tecnologia de forma segura. Estamos entusiasmados para ver como o agente ChatGPT irá capacitar os seus fluxos de trabalho no Atlas e estamos resolutos na nossa missão de construir as tecnologias de IA mais seguras, privadas e seguras para o benefício de toda a humanidade.