Os modelos estão a crescer, as capacidades estão a aumentar, mas há um problema que também está a amplificar-se! A verificação não está a acompanhar a velocidade e a complexidade da inferência. À medida que o processo de inferência se torna cada vez mais opaco, a origem do modelo torna-se gradualmente confusa, o caminho de execução não pode ser recuperado, e a confiança acaba por desmoronar. Não é porque o sistema falha, mas porque ninguém pode provar que não falhou. Esta é a essência da "lacuna de verificação". Não é que a IA não seja avançada o suficiente, mas sim a falta de uma forma de confirmar de onde vem cada saída, sob quais condições, e se foi executada de acordo com as regras esperadas. A visão do Inference Labs é, na verdade, muito simples. Cada saída de IA deve ter a sua própria impressão digital criptográfica. Não é uma explicação posterior, nem um endosse do fornecedor, mas sim uma prova que qualquer pessoa pode verificar de forma independente e que é rastreável a longo prazo. A identidade, a origem e a integridade da execução devem ser bloqueadas no momento em que a saída é gerada. Esta é a base da autonomia auditável; quando o sistema pode ser verificado, ele pode ser confiável; quando a confiança é passível de prova, os sistemas autônomos podem realmente escalar. Este é o futuro que eles estão a construir! #KaitoYap @KaitoAI #Yap @inference_labs