Sérieusement, c'est en fait l'un des plus gros manques dans le puzzle. Pas tant le côté IA — le côté local. Les plateformes ne donnent pas à leurs utilisateurs de réelles capacités concernant qui et quoi peut entrer dans leurs notifications. Il y a à peine des contrôles proactifs, même des contrôles réactifs plutôt médiocres, pour être honnête. En conséquence, la plateforme devient seule responsable de l'arrêt de TOUT le spam, les contenus indésirables, les bots, etc. Ainsi que de toute autre activité nuisible. Ce qu'ils ne peuvent jamais faire parfaitement car l'incitation est trop grande et les acteurs trop divers. Cela les oblige également à recourir à des solutions potentiellement plus dangereuses, par exemple les shadowbans où l'utilisateur pense qu'il reçoit de l'attention mais il est en réalité invisible. Les shadowbans sont une partie nécessaire de la lutte car ils perturbent les acteurs menaçants tout en rendant plus difficile pour eux de détecter quelles de leurs actions entraînent leur capture. Cela ralentit leur temps de réponse et leur temps d'évolution. Maistttt c'est aussi un énorme risque de saper vos utilisateurs légitimes car ils sont impuissants et n'ont aucune connaissance ou recours si vous les frappez accidentellement. C'est aussi plus facilement abusé lorsqu'il s'agit de censurer des personnes pour des raisons politiques ou arbitraires. Quoi qu'il en soit, je pensais que nous verrions plus de gens réaliser et construire des contrôles pour les utilisateurs après qu'iOS ait passé au moins 4 cycles à faire cela pour les notifications iOS. Nous ne l'avons pas fait lol. Mais peut-être que les bots permettront aux individus de résoudre le problème sans impliquer (ou littéralement acheter) la plateforme.