En maskinlæringsmodell identifiserer indikasjoner på selvmord, selvskading eller trusler om vold mot andre, og det er her nettmobbing passer inn. Tilpassbare varsler kan deretter vekke oppmerksomheten til rådgivere, lærere, skolesikkerhetsindivider og andre interessenter.
Lightspeed Systems-produkter fungerer på samme måte. "Det finnes verktøy som gjør proaktiv skanning på enheten for å se på hva som skjer på tvers av økosystemet, enten det er på deres Google Drive-kontoer, et nettsøk eller en YouTube-video," sier Jennifer Duer. "Overvåkingsverktøyene er i stand til å skanne og identifisere dette potensialet angående atferd." AI ser deretter på konteksten for å forstå graden av bekymring. Er dette vitser, eller er dette ment å skade noen?
Hos Lightspeed Systems "har vi faktisk et team med sikkerhetsspesialister som jobber 24/7/365 for å vurdere det," sier hun. "De vil kontakte skolen direkte og gi dem beskjed: Det er et problem som du bør undersøke."