AI är här. Men är AI säkert för studenter?
En presidentorder, en mängd utbildningsfördelar och den allestädes närvarande AI-verktygen driver alla ökad användning i skolor.
Men när studenter vänder sig till AI för råd och sällskap sträcker sig riskerna långt bortom fusk och akademisk integritet.
Proaktiv AI-säkerhet och övervakning måste vara en grund i alla skolors AI-strategi.
Risker med oövervakad AI-åtkomst av studenter
Det handlar inte bara om fusk och akademisk integritet. Riskerna med att studenter använder AI kan bokstavligen talat vara dödliga.
Nästan 3/4 av tonåringar rapporterar att de använder AI-chattrobotar som sällskap – mer än hälften gör det regelbundet.
AI är av naturen benägen att sykofantisera och är mer benägen att hålla med och uppmuntra än att avråda. Tyvärr kan detta inkludera att uppmuntra idéer kring våld och självskadebeteende, vilket potentiellt kan leda till snabbare eskalering av farliga situationer.
Oövervakade har dessa samtal visat sig snabbt ignorera skyddsräcken och utvecklas till farliga, dödliga råd.
Självskadebeteende, självmord, våld, djupförfalskningar och sextortion kan alla vara resultat av oövervakad AI-aktivitet.






Inbyggda AI-skyddsräcken räcker inte
Elever är smarta på att undvika skydd. Skolor kan inte enbart räkna med inbyggda AI-skyddsräcken.
ChatGPT, Gemini, Co-Pilot, CharacterAI… Alla de stora AI-aktörerna bygger och förbättrar aktivt skyddsräcken i sina system.
Men vi vet att barn kommer att försöka – och lyckas – att undvika skyddsräcken.
För att säkerställa säkerhet och lämplig användning måste skolor dessutom säkerställa tidiga insatser vid oroande uppmaningar (oavsett AI-respons).
Vad händer med AI i skolor idag
Under det senaste året har vi sett fler än 10 000 incidenter på AI-platser – trots att AI är i stor utsträckning blockerat.
AI-blockering kontra tillåtelse
Idag blockerar de flesta skolor (85%) fortfarande användningen av generativ AI för de flesta elever. Men trenden går gradvis mot att öppna AI-åtkomst för vissa appar och vissa elevgrupper.
Även när AI är blockerad kan AI-drivna chattar i andra appar introduceras utan granskning och kan skapa risker.
Varifrån kommer AI-varningar
Character.AI genererar tillsammans med de främsta AI-plattformarna majoriteten av nivå 3 (hög) och 4 (överhängande) varningar inom Lightspeed Alert.
Men hundratals andra AI-verktyg och AI-chattar inom andra verktyg utgör samma risker. Under det senaste året har varningar kommit från fler än 130 olika AI-relaterade domäner.
Exempel på AI-varningar
De varningar vi ser visar att elever använder AI för att dela med sig av psykisk ohälsa och för att diskutera självskadebeteende och våld.
Utan varningar är dessa AI-chattar ofta helt oövervakade.
Dessa oroande aktiviteter måste omedelbart rapporteras till skolans säkerhet och elevtjänstchefer.
Lightspeed Alert kan hjälpa till med AI
Övervakning och säkerhet i skolor
Alert lägger till proaktiv övervakning och realtidsvarningar till AI-interaktioner
Med Lightspeed Alert behöver du inte förlita dig på inbyggda AI-skyddsräcken eller loggar.
Skolor får realtidsvarningar om relevant aktivitet var den än inträffar, inklusive ChatGPT, Gemini, Co-Pilot och andra generativa AI-verktyg och -funktioner.
- Student använder generativ AI
- Studenttyper gällande prompt
- Aviseringen genererar en incident i realtid och meddelar lämplig personal (inklusive vår mänskliga granskning, om den är aktiverad)
- Oavsett effektiviteten av AI-omdirigering eller säkerhetsräcken kan tidiga insatser förhindra tragedier
Se hur din skola står sig med en säkerhetsbedömning
En kostnadsfri 30-dagars säkerhetsbedömning ger en omfattande analys av säkerhetsprofilen på era skolor, inklusive riskfylld AI-användning bland elever.
Så här börjar du:
1. Fyll i formuläret för att starta processen. Träffa våra experter för att enkelt påbörja din bedömning.
2. Kör Alert i bakgrunden i 30 dagar och samla in data om din säkerhetskultur och riskpunkter. (Även om det körs i bakgrunden ringer vi dig i en omedelbar situation!)
3. Få en omfattande säkerhetsbedömning som lyfter fram varningar, riskfyllda platser och områden med säkerhetsproblem med AI och andra situationer.
4. Dela data med andra skolledare för att driva meningsfulla säkerhetsförbättringar.
Begär en säkerhetsbedömning idag
Gör säkerhet till en viktig del av din AI-strategi
Säkerställ SMART (säker, hanterad, lämplig, rapporterad och transparent) AI-användning
Veterinär
Granska AI-appar (och icke-AI-appar med AI-funktioner) med avseende på integritet, säkerhet, säkerhetsskydd och påverkan.Lightspeed Insight)
Blockera/Tillåt
Blockera ogodkända appar eller AI-kategorier. Tillåt godkända appar efter grupp eller betyg, beroende på vad som är lämpligt.Ljushastighetsfilter)
Rapportera
Rapportera om användningen av AI-appar per användare, klass, skola eller grupp och bedöm den pedagogiska eller organisatoriska effekten.Lightspeed Insight)
Upptäcka
Upptäck AI-användning i klassrummet i realtid och meddela lärarna så att de kan bedöma användningens giltighet.Lightspeed Classroom)
Övervaka
Säkerställ säker användning av AI med kontinuerlig övervakning, riskbedömning och realtidsvarningar.Ljushastighetsvarning)
KÄLLOR:
Falsk vän (Centrum för att motverka digitalt hat)
Sexting med Gemini (The Atlantic)
En AI-kompanjon föreslog att han dödade sina föräldrar. Nu stämmer hans mamma (Washington Post)
Chatbot uppmuntrade tonåring att döda föräldrar under skärmtid (BBC)
En tonåring var självmordsbenägen. ChatGPT var vännen han anförtrodde sig åt (NY Times)