Estamos a testemunhar um facto perigoso, mas quase ninguém está a prestar atenção: A Alibaba Qianwen conecta-se a mais de 400 produtos, transformando-se numa superapp de IA, onde as necessidades diárias das pessoas estão todas neste chatbox de IA. Uma janela de conversa, que por trás conecta pesquisa, trabalho, código, conteúdo, atendimento ao cliente, sistemas empresariais, plugins, APIs e serviços de terceiros. Os utilizadores já não clicam em links, preenchem formulários ou confirmam cláusulas um a um, mas entregam a intenção ao modelo — "ajuda-me a encontrar fornecedores", "ajuda-me a negociar preços", "ajuda-me a tratar desta colaboração", "ajuda-me a decidir qual usar". Isto significa que a IA não é mais apenas um intermediário de informação, mas está a tornar-se o executor de comportamentos económicos, mas este mundo ainda não está preparado para a estrutura de confiança mais básica em relação à IA. Ninguém sabe "quem é", nem há sistemas que possam provar "a quem representa". O ecossistema de IA de hoje parece muito movimentado, mas a sua base é extremamente frágil: 1) Primeira ruptura: identidade Uma IA diz "eu represento alguém / uma empresa / uma equipa", como confirmas que realmente tem autorização? É responsabilizável? Quais são os limites da sua autoridade? Nos sistemas de hoje, um agente criado há 5 minutos e um agente que representa uma grande empresa não têm praticamente nenhuma diferença a nível de interação. Isto não é um problema de segurança, mas uma cegueira estrutural. 2) Segunda ruptura: declarações A IA está a intermediar serviços, transações e colaborações, mas "quem pode fornecer o quê" continua a ser apenas texto em páginas web, PPTs, PDFs e registos de chat. Essas declarações não podem ser verificadas por máquinas, nem reutilizadas em diferentes plataformas....