I nuovi contendenti nativi dell'AI stanno perdendo di vista il vero problema della cybersecurity. Cosa è ovvio? > L'AI sta forzando un reset architetturale nella sicurezza: gli attacchi ora hanno un costo marginale quasi nullo e si adattano costantemente. > Aggiungere un LLM è un aggiornamento incrementale, non il reset di cui il mercato ha realmente bisogno. > I leader della sicurezza di oggi (Palo Alto, CrowdStrike, persino Splunk) sono stati costruiti per difendersi da attacchi episodici su scala umana. > La prossima generazione di primitive sarà misurata dalla velocità di contenimento, non dagli avvisi o dalla precisione. Quindi chi può realisticamente costruire questo e dove esistono vantaggi durevoli quando l'intelligenza è economica? Leggi di più nella presentazione più recente di @wquist e @yrechtman. Link nelle risposte.