AI er her. Men er AI trygg for studenter?
En presidentordre, en rekke utdanningsfordeler og den allestedsnærværende utbredelsen av AI-verktøy driver alle frem økt bruk i skolene.
Men når studenter vender seg til AI for råd og selskap, strekker risikoen seg langt utover juks og akademisk integritet.
Proaktiv AI-sikkerhet og -overvåking må være et fundament i enhver skoles AI-strategi.
Risikoer ved uovervåket AI-tilgang fra studenter
Det handler ikke bare om juks og akademisk integritet. Risikoen ved at studenter bruker kunstig intelligens kan bokstavelig talt være dødelig.
Nesten tre fjerdedeler av tenåringer rapporterer at de bruker AI-chatboter som ledsagere – mer enn halvparten gjør det regelmessig.
AI er av natur utsatt for sykofanti og er mer sannsynlig å være enig og oppmuntre enn å fraråde. Dessverre kan dette inkludere å oppmuntre til tanker rundt vold og selvskading, noe som potensielt kan føre til raskere eskalering av farlige situasjoner.
Uovervåket har disse samtalene vist seg å raskt ignorere autovernet og utvikle seg til farlige, dødelige råd.
Selvskading, selvmord, vold, deepfakes og sextortion kan alle være resultater av uovervåket AI-aktivitet.






Innfødte AI-beskyttelser er ikke nok
Elever er flinke til å unngå beskyttelse. Skoler kan ikke bare stole på innebygde AI-rekkverk.
ChatGPT, Gemini, Co-Pilot, CharacterAI… Alle de store AI-aktørene bygger og forbedrer aktivt rekkverk i systemene sine.
Men vi vet at barn vil prøve – og lykkes – med å unngå autovernet.
I tillegg, for å sikre sikkerhet og riktig bruk, må skolene sørge for tidlig intervensjon på bekymringsfulle spørsmål (uavhengig av AI-respons).
Hva skjer med AI i skolene i dag
I løpet av det siste året har vi sett over 10 000 hendelser på AI-steder – selv om AI er i stor grad blokkert.
AI-blokkering kontra tillate
I dag blokkerer de fleste skoler (85%) fortsatt mesteparten av bruken av generativ AI for de fleste elever. Men trenden går gradvis mot å åpne AI-tilgang for noen apper og noen elevgrupper.
Selv når AI er blokkert, kan AI-drevne chatter i andre apper introduseres uten sikkerhetskontroll og kan åpne for risikoer.
Hvor AI-varsler kommer fra
Character.AI genererer sammen med de beste AI-plattformene de fleste varslene på nivå 3 (høy) og 4 (overhengende) i Lightspeed Alert.
Men hundrevis av andre AI-verktøy og AI-chatter i andre verktøy utgjør de samme risikoene. I løpet av det siste året har varsler kommet fra mer enn 130 forskjellige AI-relaterte domener.
Eksempler på AI-varsler
Varslene vi ser viser at elever bruker kunstig intelligens til å dele bekymringer om psykisk helse og til å diskutere selvskading og vold.
Uten varsling er disse AI-chattene ofte fullstendig uovervåket.
Disse bekymringsverdige aktivitetene må umiddelbart tas opp med ledere for skolens sikkerhet og elevtjenester.
Lightspeed Alert kan hjelpe med AI
Overvåking og sikkerhet i skolene
Alert legger til proaktiv overvåking og sanntidsvarsler til AI-interaksjoner
Med Lightspeed Alert trenger du ikke å stole på innebygde AI-rekkverk eller logger.
Skoler får varsler i sanntid om relevant aktivitet uansett hvor den skjer, inkludert ChatGPT, Gemini, Co-Pilot og andre generative AI-verktøy og -funksjoner.
- Student bruker generativ AI
- Studenttyper angående prompt
- Varsling genererer en hendelse i sanntid og varsler relevant personell (inkludert vår menneskelige gjennomgang, hvis aktivert)
- Uavhengig av effektiviteten til AI-omdirigering eller sikkerhetsrekkverk, kan tidlig intervensjon forhindre tragedie.
Se hvordan skolen din står seg med en sikkerhetsvurdering
En gratis 30-dagers sikkerhetsvurdering vil gi en omfattende analyse av sikkerhetsprofilen på tvers av skolene dine, inkludert risikofylt bruk av AI blant elever.
Slik begynner du:
1. Fyll ut skjemaet for å starte prosessen. Møt våre eksperter for å enkelt starte vurderingen.
2. Kjør Alert i bakgrunnen i 30 dager, og samle inn data om sikkerhetskulturen din og risikopunktene dine. (Selv om det kjører i bakgrunnen, ringer vi deg i en overhengende situasjon!)
3. Få en omfattende sikkerhetsvurdering som fremhever varsler, risikofylte steder og områder med sikkerhetsproblemer med AI og andre situasjoner.
4. Del dataene med andre skoleledere for å drive frem meningsfulle sikkerhetsforbedringer.
Be om en sikkerhetsvurdering i dag
Gjør sikkerhet til en sentral del av din AI-strategi
Sørg for SMART (sikker, administrert, passende, rapportert og transparent) bruk av kunstig intelligens
Veterinær
Gjennomgå AI-apper (og ikke-AI-apper med AI-funksjoner) med hensyn til personvern, sikkerhet, sikkerhetstiltak og innvirkning.Lightspeed Insight)
Blokker/Tillat
Blokker ikke-godkjente apper eller AI-kategorier. Tillat godkjente apper etter gruppe eller klassetrinn etter behov.Lyshastighetsfilter)
Rapportere
Rapporter om bruk av AI-apper etter bruker, klasse, skole eller gruppe og vurder den pedagogiske eller organisatoriske effekten.Lightspeed Insight)
Oppdag
Oppdag bruk av kunstig intelligens i klasserommet i sanntid, og varsle lærerne slik at de kan vurdere gyldigheten av bruken.Lightspeed Classroom)
Følge
Sørg for sikker bruk av AI med kontinuerlig overvåking, risikovurdering og varsler i sanntid.Lyshastighetsvarsling)
KILDER:
Falsk venn (Senter for bekjempelse av digitalt hat)
Sexting med Gemini (Atlanteren)
En AI-kamerat foreslo at han drepte foreldrene sine. Nå saksøker moren hans (Washington Post)
Chatbot oppfordret tenåring til å drepe foreldre over skjermtid (BBC)
En tenåring var selvmordstruet. ChatGPT var vennen han betrodde seg til (NY Times)