Falando a sério, esta é na verdade uma das maiores peças que faltam no quebra-cabeça. Não tanto a parte da IA — a parte local. As plataformas não oferecem aos seus usuários capacidades reais sobre quem e o que pode entrar nas suas notificações. Quase não há controles proativos, nem mesmo os reativos, para ser sincero. Como resultado, a plataforma torna-se exclusivamente responsável por parar TODO o spam, lixo, bots, etc. Juntamente com toda a outra atividade prejudicial. O que eles nunca conseguem fazer perfeitamente porque o incentivo é grande demais e os atores são muito diversos. Isso também os força a recorrer a soluções potencialmente mais perigosas, como os shadowbans, onde o usuário pensa que está recebendo atenção, mas na verdade está invisível. Os shadowbans são uma parte necessária da luta porque interrompem os atores de ameaça, dificultando para eles detectar quais de suas ações estão resultando em serem apanhados. Isso desacelera o tempo de resposta e o tempo de evolução deles. Mas também é um grande risco para minar os seus usuários legítimos, pois eles estão impotentes e não têm conhecimento ou recurso se você acidentalmente os atingir. Também é mais facilmente abusado quando se trata de censurar pessoas por razões políticas ou arbitrárias. De qualquer forma, pensei que veríamos mais pessoas perceberem e construírem controles para os usuários depois que o iOS passou pelo menos 4 ciclos fazendo isso para as notificações do iOS. Não vimos, lol. Mas talvez os bots permitam que os indivíduos resolvam o problema sem envolver (ou literalmente comprar) a plataforma.