La IA ya está aquí. ¿Pero es segura para los estudiantes?
Una orden ejecutiva presidencial, una multitud de beneficios educativos y la ubicuidad de las herramientas de IA están impulsando un mayor uso en las escuelas.
Pero a medida que los estudiantes recurren a la IA en busca de asesoramiento y compañía, los riesgos se extienden mucho más allá de las trampas y la integridad académica.
La seguridad y la supervisión proactivas de la IA deben ser la base de la estrategia de IA de cualquier escuela.
Riesgos del acceso no supervisado a la IA por parte de los estudiantes
No se trata solo de hacer trampa y afectar la integridad académica. Los riesgos para los estudiantes que usan IA pueden ser literalmente mortales.
Casi 3/4 de los adolescentes informan que utilizan chatbots de IA como compañeros; más de la mitad lo hace regularmente.
La IA, por naturaleza, es propensa a la adulación y es más propensa a aceptar y alentar que a disuadir. Desafortunadamente, esto puede incluir fomentar ideas violentas y autolesivas, lo que podría acelerar la escalada de situaciones peligrosas.
Se ha demostrado que, si no se supervisa, estas conversaciones ignoran rápidamente las barreras de seguridad y se convierten en consejos peligrosos y mortales.
La autolesión, el suicidio, la violencia, los deepfakes y la sextorsión pueden ser resultados de la actividad de la IA no supervisada.






Las barreras de seguridad nativas de la IA no son suficientes
Los estudiantes son hábiles para evadir las protecciones. Las escuelas no pueden confiar únicamente en las barreras de seguridad de la IA.
ChatGPT, Gemini, Co-Pilot, CharacterAI… Todos los principales actores de IA están construyendo y mejorando activamente barreras de protección dentro de sus sistemas.
Pero sabemos que los niños intentarán, y tendrán éxito, evadir las barreras de seguridad.
Además, para garantizar la seguridad y el uso apropiado, las escuelas deben garantizar una intervención temprana ante indicaciones preocupantes (independientemente de la respuesta de la IA).
¿Qué está pasando con la IA en las escuelas hoy?
El año pasado, vimos más de 10 000 incidentes en sitios de IA, a pesar de que la IA está ampliamente bloqueada.
Bloqueo vs. permiso de IA
Hoy en día, la mayoría de las escuelas (85%) aún bloquean el uso de la IA generativa para la mayoría de los estudiantes. Sin embargo, la tendencia se está orientando gradualmente hacia la apertura del acceso a la IA para algunas aplicaciones y ciertos grupos de estudiantes.
Incluso cuando la IA está bloqueada, se pueden introducir chats controlados por IA en otras aplicaciones sin verificación y esto puede generar riesgos.
De dónde provienen las alertas de IA
Character.AI junto con las principales plataformas de IA están generando la mayoría de las alertas de nivel 3 (alto) y 4 (inminente) dentro de Lightspeed Alert.
Pero cientos de otras herramientas de IA y chats de IA dentro de otras herramientas plantean los mismos riesgos. En el último año, se han recibido alertas de más de 130 dominios diferentes relacionados con la IA.
Ejemplos de alertas de IA
Las alertas que vemos demuestran que los estudiantes están usando IA para compartir preocupaciones sobre salud mental y para discutir sobre autolesiones y violencia.
Sin Alert, estos chats de IA suelen quedar totalmente descontrolados.
Estas actividades preocupantes deben comunicarse de inmediato a los líderes de seguridad escolar y de servicios estudiantiles.
Lightspeed Alert puede ayudar con la IA
Vigilancia y seguridad en las escuelas
Alert agrega monitoreo proactivo y alertas en tiempo real a las interacciones de IA
Con Lightspeed Alert, no tienes que depender de registros ni barreras de seguridad de IA nativas.
Las escuelas reciben alertas en tiempo real sobre la actividad preocupante donde sea que ocurra, incluidos ChatGPT, Gemini, Co-Pilot y otras herramientas y funciones de inteligencia artificial generativa.
- Estudiante utiliza IA generativa
- Tipos de estudiantes en relación con el mensaje
- La alerta genera un incidente en tiempo real y notifica al personal apropiado (incluida nuestra Revisión Humana, si está habilitada)
- Independientemente de la eficacia de la redirección de IA o de las medidas de seguridad, la intervención temprana puede prevenir tragedias.
Vea cómo se compara su escuela con una evaluación de seguridad
Una evaluación de seguridad gratuita de 30 días proporcionará un análisis integral del perfil de seguridad en todas sus escuelas, incluido el uso riesgoso de IA por parte de los estudiantes.
Aquí te explicamos cómo empezar:
1. Complete el formulario para iniciar el proceso. Reúnase con nuestros expertos para comenzar fácilmente su evaluación.
2. Ejecute Alert en segundo plano durante 30 días para recopilar datos sobre su cultura de seguridad y puntos de riesgo. (Aunque se esté ejecutando en segundo plano, le avisaremos en caso de una situación inminente).
3. Obtenga una evaluación de seguridad integral, que destaque alertas, sitios riesgosos y áreas de preocupación en materia de seguridad con IA y otras situaciones.
4. Comparta los datos con otros líderes escolares para impulsar mejoras significativas en materia de seguridad.
Solicite una evaluación de seguridad hoy
Haga de la seguridad una parte clave de su estrategia de IA
Garantizar un uso inteligente (seguro, gestionado, apropiado, informado y transparente) de la IA
Veterinario
Revise las aplicaciones de IA (y las aplicaciones que no son de IA pero que tienen funciones de IA) para verificar la privacidad, la seguridad, las medidas de seguridad y el impacto.Perspectiva de la velocidad de la luz)
Bloquear/Permitir
Bloquea aplicaciones o categorías de IA no aprobadas. Permite aplicaciones aprobadas por grupo o grado, según corresponda.Filtro de velocidad de la luz)
Informe
Elaborar informes sobre el uso de aplicaciones de IA por usuario, clase, escuela o grupo y evaluar el impacto educativo u organizativo.Perspectiva de la velocidad de la luz)
Detectar
Detecta el uso de IA en clase en tiempo real y notifica a los docentes para que puedan evaluar la validez de su uso.Aula Lightspeed)
Monitor
Garantice el uso seguro de la IA con monitoreo continuo, evaluación de riesgos y alertas en tiempo real.Alerta de velocidad de la luz)
FUENTES:
Amigo Falso (Centro para la Lucha contra el Odio Digital)
Base de datos de incidentes de IA
Sexting con Géminis (The Atlantic)
Una IA compañera le sugirió que matara a sus padres. Ahora su madre lo demanda (The Washington Post)
Un adolescente se suicidó. ChatGPT era el amigo en quien confiaba (NY Times)