Um modelo de aprendizado de máquina identifica indícios de suicídio, automutilação ou ameaças de violência contra terceiros, que é onde o cyberbullying se encaixa. Alertas personalizáveis podem então chamar a atenção de conselheiros, professores, profissionais de segurança escolar e outras partes interessadas.
Os produtos da Lightspeed Systems funcionam de forma semelhante. “Existem ferramentas que fazem varreduras proativas no dispositivo para observar o que está acontecendo no ecossistema, seja em suas contas do Google Drive, uma pesquisa na web ou um vídeo do YouTube”, diz Jennifer Duer. “As ferramentas de monitoramento são capazes de escanear e identificar esses comportamentos potencialmente preocupantes.” A IA então analisa o contexto para entender o nível de preocupação. Essas são piadas ou a intenção é machucar alguém?
Na Lightspeed Systems, “nós realmente temos uma equipe de especialistas em segurança que trabalha 24/7/365 para revisar isso”, ela diz. “Eles entrarão em contato com a escola diretamente e os informarão: Há um problema acontecendo que você deve investigar.”