In tutta serietà, questo è in realtà uno dei pezzi più grandi mancanti del puzzle. Non tanto il pezzo dell'AI, quanto quello locale. Le piattaforme non offrono ai loro utenti reali capacità su chi e cosa può entrare nelle loro notifiche. Quasi nessun controllo proattivo, nemmeno quelli reattivi, a dire il vero. Di conseguenza, la piattaforma diventa l'unica responsabile per fermare TUTTO lo spam, la spazzatura, i bot, ecc. Insieme a tutte le altre attività dannose. Cosa che non possono mai fare perfettamente perché l'incentivo è troppo grande e gli attori troppo diversi. Costringe anche a ricorrere a soluzioni potenzialmente più pericolose, ad esempio i shadowban, dove l'utente pensa di ricevere attenzione ma in realtà è invisibile. I shadowban sono una parte necessaria della lotta perché interrompono gli attori minacciosi rendendo più difficile per loro rilevare quali delle loro azioni stanno causando la loro cattura. Rallenta il loro tempo di risposta e il tempo di evoluzione. Ma è anche un enorme rischio per minare i tuoi utenti legittimi, poiché sono impotenti e non hanno conoscenza né rimedi se li colpisci accidentalmente. È anche più facilmente abusato quando si tratta di censurare le persone per motivi politici o arbitrari. Comunque, pensavo che avremmo visto più persone rendersi conto e costruire controlli per gli utenti dopo che iOS ha trascorso almeno 4 cicli a farlo per le notifiche di iOS. Non lo abbiamo fatto lol. Ma forse i bot permetteranno agli individui di risolvere il problema senza coinvolgere (o letteralmente acquistare) la piattaforma.