机器学习模型可以识别自杀、自残或对他人实施暴力威胁的迹象,而网络欺凌就属于此类。可定制的警报可以引起辅导员、教师、学校安全人员和其他利益相关者的注意。
Lightspeed Systems 的产品也采用了类似的方式。“有些工具可以主动扫描设备,查看整个生态系统中发生的事情,无论是 Google Drive 帐户、网页搜索还是 YouTube 视频,”Jennifer Duer 说。“监控工具能够扫描并识别这些潜在的令人担忧的行为。”然后,AI 会查看上下文以了解担忧程度。这些是玩笑,还是故意伤害他人?
在 Lightspeed Systems,“我们实际上有一个安全专家团队,他们 24/7/365 全天候工作,负责审查这些问题,”她说。“他们会直接联系学校,告诉他们:有一个问题需要你调查。”