🧵 1/ A IA está em todo o lado. Mas você pode realmente confiar em como ela foi treinada? Os modelos de IA aprendem a partir de dados. Mas às vezes, esses dados são sensíveis (registos médicos, histórico financeiro, mensagens pessoais, etc.) Assim, as empresas utilizam uma técnica chamada Aprendizagem Federada: os seus dados nunca saem do seu dispositivo. Apenas as "lições aprendidas" são partilhadas. Privacidade preservada. Mas aqui está o problema.
2/ Só porque os seus dados permanecem locais, não significa que todos no processo estejam a comportar-se de forma honesta. E se alguém manipular a IA durante o treino? E se os resultados forem adulterados? E se alguém se aproveitar sem contribuir com nada? A confiança é assumida. Mas nunca provada.
3/ A ideia? Não confie apenas, verifique. Usando provas criptográficas, cada passo do processo de treinamento de IA pode agora ser verificado. Quem usou quais dados. Se o treinamento foi feito corretamente. Se os resultados foram combinados de forma honesta. Nenhuma fé cega é necessária.
4/ Verificar como os resultados da IA são combinados ("agregação") já é viável hoje, e fecha algumas das maiores lacunas de segurança na IA colaborativa. A verificação completa do treinamento está a caminho. Ainda não chegámos lá, mas a pesquisa está a avançar rapidamente.
5/ A blockchain atua como um registo de auditoria público e à prova de manipulação. E com zkVerify @zkvprotocol, verificar essas provas custa tão pouco quanto $0.0003. Isso não é um erro de digitação.
68