L'intelligenza artificiale è qui. Ma è sicura per gli studenti?

Un ordine esecutivo presidenziale, una moltitudine di vantaggi educativi e l'ubiquità degli strumenti di intelligenza artificiale stanno determinando un loro crescente utilizzo nelle scuole.

Ma quando gli studenti si rivolgono all'intelligenza artificiale per consigli e compagnia, i rischi vanno ben oltre l'imbroglio e l'integrità accademica.

La sicurezza e il monitoraggio proattivi dell'intelligenza artificiale devono essere alla base della strategia di intelligenza artificiale di qualsiasi scuola.

Rischi dell'accesso non monitorato all'intelligenza artificiale da parte degli studenti

Non si tratta solo di imbrogli e integrità accademica. I rischi che corrono gli studenti usando l'intelligenza artificiale possono essere letteralmente mortali.

Quasi 3/4 degli adolescenti dichiarano di utilizzare chatbot basati sull'intelligenza artificiale come compagni di gioco: più della metà lo fa regolarmente.

L'intelligenza artificiale, per sua natura, è incline all'adulazione ed è più propensa a concordare e incoraggiare piuttosto che dissuadere. Sfortunatamente, questo può includere l'incoraggiamento di idee su violenza e autolesionismo, portando potenzialmente a una più rapida escalation di situazioni pericolose.

È stato dimostrato che, se non monitorate, queste conversazioni ignorano rapidamente le barriere e si trasformano in consigli pericolosi e mortali.

Autolesionismo, suicidio, violenza, deepfake e sextortion possono essere tutti risultati di attività di intelligenza artificiale non monitorate.

Le barriere di sicurezza dell'intelligenza artificiale nativa non sono sufficienti

Gli studenti sono abili nell'eludere le protezioni. Le scuole non possono contare solo sulle protezioni integrate dell'intelligenza artificiale.

ChatGPT, Gemini, Co-Pilot, CharacterAI… Tutti i principali attori dell'intelligenza artificiale stanno attivamente costruendo e migliorando le protezioni all'interno dei loro sistemi.

Ma sappiamo che i bambini proveranno a eludere i guardrail e ci riusciranno. 

Inoltre, per garantire la sicurezza e un uso appropriato, le scuole devono garantire un intervento tempestivo sui messaggi preoccupanti (indipendentemente dalla risposta dell'IA).

Cosa sta succedendo con l'intelligenza artificiale nelle scuole oggi

Nell'ultimo anno abbiamo assistito a oltre 10.000 incidenti sui siti di intelligenza artificiale, nonostante l'intelligenza artificiale sia ampiamente bloccata.

Blocco vs. Consenti AI

Oggi, la maggior parte delle scuole (85%) continua a bloccare l'uso dell'IA generativa per la maggior parte degli studenti. Tuttavia, la tendenza si sta gradualmente spostando verso l'apertura dell'accesso all'IA per alcune app e alcuni gruppi di studenti.

Anche quando l'intelligenza artificiale è bloccata, le chat basate sull'intelligenza artificiale in altre app possono essere introdotte senza verifica e possono comportare dei rischi.

Da dove provengono gli avvisi AI

Character.AI, insieme alle principali piattaforme di intelligenza artificiale, genera la maggior parte degli avvisi di livello 3 (alto) e 4 (imminenti) all'interno di Lightspeed Alert.

Ma centinaia di altri strumenti di intelligenza artificiale e chat di intelligenza artificiale all'interno di altri strumenti presentano gli stessi rischi. Nell'ultimo anno, gli avvisi sono arrivati da oltre 130 diversi domini correlati all'intelligenza artificiale.

Esempi di avvisi AI

Gli avvisi che vediamo dimostrano che gli studenti utilizzano l'intelligenza artificiale per condividere problemi di salute mentale e per discutere di autolesionismo e violenza.

Senza Alert, queste chat basate sull'intelligenza artificiale spesso non vengono monitorate. 

Tali attività preoccupanti devono essere immediatamente segnalate ai responsabili della sicurezza scolastica e dei servizi agli studenti.

Lightspeed Alert può aiutare con l'intelligenza artificiale
Monitoraggio e sicurezza nelle scuole

Alert aggiunge monitoraggio proattivo e avvisi in tempo reale alle interazioni con l'intelligenza artificiale

Con Lightspeed Alert non devi più contare su controlli o registri dell'intelligenza artificiale nativa.

Le scuole ricevono avvisi in tempo reale sulle attività preoccupanti, ovunque si verifichino, inclusi ChatGPT, Gemini, Co-Pilot e altri strumenti e funzionalità di intelligenza artificiale generativa.

  1. Lo studente utilizza l'intelligenza artificiale generativa

  2. Tipi di studenti in merito al prompt

  3. L'avviso genera un incidente in tempo reale e avvisa il personale appropriato (inclusa la nostra revisione umana, se abilitata)

  4. Indipendentemente dall'efficacia del reindirizzamento dell'IA o delle misure di sicurezza, un intervento tempestivo può prevenire la tragedia

Scopri come si posiziona la tua scuola con una valutazione della sicurezza

Una valutazione gratuita della sicurezza di 30 giorni fornirà un'analisi completa del profilo di sicurezza nelle vostre scuole, incluso l'utilizzo rischioso dell'intelligenza artificiale da parte degli studenti.

 Ecco come iniziare:

1. Compila il modulo per avviare il processo. Incontra i nostri esperti per iniziare facilmente la tua valutazione.

2. Esegui Alert in background per 30 giorni, raccogliendo dati sulla tua cultura della sicurezza e sui punti di rischio. (Anche se è in esecuzione in background, ti contatteremo in caso di situazioni imminente!)

3. Ottieni una valutazione completa della sicurezza, evidenziando avvisi, siti rischiosi e aree problematiche per la sicurezza con l'intelligenza artificiale e altre situazioni.

4. Condividere i dati con altri dirigenti scolastici per promuovere miglioramenti significativi della sicurezza.

Richiedi oggi stesso una valutazione della sicurezza

Rendi la sicurezza un elemento chiave della tua strategia di intelligenza artificiale

Garantire un utilizzo SMART dell'IA (sicuro, gestito, appropriato, segnalato e trasparente)

Veterinario

Esaminare le app di intelligenza artificiale (e le app non di intelligenza artificiale con funzionalità di intelligenza artificiale) per quanto riguarda privacy, sicurezza, misure di sicurezza e impatto.Intuizione della velocità della luce)

Blocca/Consenti

Blocca le app non approvate o le categorie di intelligenza artificiale. Consenti le app approvate in base al gruppo o al grado, a seconda dei casi.Filtro Lightspeed)

Rapporto

Segnala l'utilizzo delle app di intelligenza artificiale da parte di utenti, classi, scuole o gruppi e valuta l'impatto educativo o organizzativo.Intuizione della velocità della luce)

Rilevare

Rilevare in tempo reale l'uso dell'intelligenza artificiale in classe e avvisare gli insegnanti in modo che possano valutarne la validità.Aula Lightspeed)

Monitor

Garantire un utilizzo sicuro dell'intelligenza artificiale con monitoraggio continuo, valutazione dei rischi e avvisi in tempo reale.Allerta velocità della luce)