🚨3·15 La serata ha rivelato il "data poisoning" dell'AI ☠️, far "lavare il cervello" all'AI è diventato un'industria Attualmente, su diverse piattaforme online, è facile trovare un servizio chiamato GEO (Generative Engine Optimization). Alcuni fornitori di servizi affermano che, pagando, è possibile far sì che i prodotti dei clienti ottengano un posizionamento più alto nelle risposte dei principali modelli AI, diventando persino la "risposta standard" raccomandata. 1️⃣ Cos'è il GEO? Il GEO è essenzialmente una tecnologia di ottimizzazione per i risultati delle risposte dei modelli AI. Simile al tradizionale SEO (ottimizzazione per i motori di ricerca), il suo obiettivo è far sì che un marchio, un prodotto o un'informazione specifica vengano citati o raccomandati più facilmente dal modello quando gli utenti pongono domande all'AI, ottenendo così maggiore visibilità 💡💡 2️⃣ Come si realizza? Il metodo principale non consiste nel modificare direttamente il modello AI, ma nell'influenzare le informazioni disponibili su Internet che il modello può raccogliere. Una pratica comune è utilizzare sistemi software specializzati per generare in massa contenuti come recensioni, domande e risposte, raccomandazioni, ecc., attorno a un determinato marchio o prodotto, e pubblicare questi articoli su diversi siti e piattaforme. Quando il modello AI raccoglie queste informazioni durante l'addestramento o la ricerca, potrebbe utilizzarle come fonte di riferimento, influenzando così la risposta finale generata. 3️⃣ Data poisoning Con la continua crescita della domanda di GEO, alcune istituzioni hanno persino sviluppato servizi specializzati per la pubblicazione di contenuti in massa: attraverso la pubblicazione intensiva e prolungata di contenuti correlati su Internet, aumentano la probabilità che il modello AI li raccolga e li citi, influenzando così i risultati delle risposte dell'AI. Questo comportamento di interferire con il giudizio del modello attraverso la creazione artificiale di informazioni su larga scala è anche noto nel settore come "data poisoning" dell'AI.