Medir o progresso da segurança da IA é uma questão que muitas pessoas estão se fazendo. 1. A melhor medida é a quantidade de recompensa recebida, junto com alguma forma de medir o impacto dos insetos. Alguns rankings de recompensas são baseados em pontos, como o HackerOne; Outros são baseados em pagamentos, ambos são úteis. Se sua ferramenta não encontrar críticos ao vivo ou 0 dias, ela é inútil. 2. Comparação lado a lado com uma auditoria recente. Qual porcentagem de Críticos / Altos / Médios foi encontrado pela ferramenta de IA? Não use um repositório antigo e público com uma auditoria publicada porque ele geralmente está no conjunto de treinamento. 3. Conjuntos de dados abertos não são eficazes para benchmarking. É fácil fazer benchmarks máximos com esses. Você vê isso muito com modelos de fronteira; O modelo com o melhor benchmark não é necessariamente aquele que tem o melhor desempenho. Pessoalmente, acho que a melhor medida é qualitativa. Rode em um código que você saiba que tem bugs conhecidos: você gosta das descobertas que vê na ferramenta de IA, gosta da qualidade do texto? A melhor ferramenta produzirá artigos que parecem indistinguíveis de uma revisão manual.