Ein Modell für maschinelles Lernen erkennt Anzeichen von Selbstmord, Selbstverletzung oder Gewaltandrohungen gegenüber anderen – ein Bereich, in dem Cybermobbing eine Rolle spielt. Anpassbare Warnmeldungen können dann die Aufmerksamkeit von Beratern, Lehrern, Schulsicherheitsbeauftragten und anderen Beteiligten erregen.
Die Produkte von Lightspeed Systems funktionieren ähnlich. „Es gibt Tools, die proaktiv das Gerät scannen und beobachten, was im gesamten Ökosystem passiert, sei es in den Google Drive-Konten, bei einer Websuche oder einem YouTube-Video“, erklärt Jennifer Duer. „Die Überwachungstools können potenziell besorgniserregende Verhaltensweisen erkennen und identifizieren.“ Die KI analysiert dann den Kontext, um den Grad der Besorgnis zu verstehen. Handelt es sich dabei um Scherze oder soll jemand verletzt werden?
Bei Lightspeed Systems „haben wir ein Team von Sicherheitsspezialisten, das rund um die Uhr an 365 Tagen im Jahr arbeitet, um das zu überprüfen“, sagt sie. „Sie kontaktieren die Schule direkt und teilen ihr mit: Es gibt ein Problem, das Sie untersuchen sollten.“