Mike Bursell verwendet ein klassisches Beispiel aus dem Zweiten Weltkrieg, um zu erklären, warum die Exfiltration von KI-Modellen nahezu unmöglich zu verhindern ist. "Es ist schwierig, die Exfiltration ohne spezifische Schutzmaßnahmen zu stoppen, die darauf abzielen, das zu schützen. Und ohne zu wissen, was du schützt, ist es wirklich, wirklich schwer."