AI er her. Men er AI trygg for studenter?

En presidentordre, en rekke utdanningsfordeler og den allestedsnærværende utbredelsen av AI-verktøy driver alle frem økt bruk i skolene.

Men når studenter vender seg til AI for råd og selskap, strekker risikoen seg langt utover juks og akademisk integritet.

Proaktiv AI-sikkerhet og -overvåking må være et fundament i enhver skoles AI-strategi.

Risikoer ved uovervåket AI-tilgang fra studenter

Det handler ikke bare om juks og akademisk integritet. Risikoen ved at studenter bruker kunstig intelligens kan bokstavelig talt være dødelig.

Nesten tre fjerdedeler av tenåringer rapporterer at de bruker AI-chatboter som ledsagere – mer enn halvparten gjør det regelmessig.

AI er av natur utsatt for sykofanti og er mer sannsynlig å være enig og oppmuntre enn å fraråde. Dessverre kan dette inkludere å oppmuntre til tanker rundt vold og selvskading, noe som potensielt kan føre til raskere eskalering av farlige situasjoner.

Uovervåket har disse samtalene vist seg å raskt ignorere autovernet og utvikle seg til farlige, dødelige råd.

Selvskading, selvmord, vold, deepfakes og sextortion kan alle være resultater av uovervåket AI-aktivitet.

Innfødte AI-beskyttelser er ikke nok

Elever er flinke til å unngå beskyttelse. Skoler kan ikke bare stole på innebygde AI-rekkverk.

ChatGPT, Gemini, Co-Pilot, CharacterAI… Alle de store AI-aktørene bygger og forbedrer aktivt rekkverk i systemene sine.

Men vi vet at barn vil prøve – og lykkes – med å unngå autovernet. 

I tillegg, for å sikre sikkerhet og riktig bruk, må skolene sørge for tidlig intervensjon på bekymringsfulle spørsmål (uavhengig av AI-respons).

Hva skjer med AI i skolene i dag

I løpet av det siste året har vi sett over 10 000 hendelser på AI-steder – selv om AI er i stor grad blokkert.

AI-blokkering kontra tillate

I dag blokkerer de fleste skoler (85%) fortsatt mesteparten av bruken av generativ AI for de fleste elever. Men trenden går gradvis mot å åpne AI-tilgang for noen apper og noen elevgrupper.

Selv når AI er blokkert, kan AI-drevne chatter i andre apper introduseres uten sikkerhetskontroll og kan åpne for risikoer.

Hvor AI-varsler kommer fra

Character.AI genererer sammen med de beste AI-plattformene de fleste varslene på nivå 3 (høy) og 4 (overhengende) i Lightspeed Alert.

Men hundrevis av andre AI-verktøy og AI-chatter i andre verktøy utgjør de samme risikoene. I løpet av det siste året har varsler kommet fra mer enn 130 forskjellige AI-relaterte domener.

Eksempler på AI-varsler

Varslene vi ser viser at elever bruker kunstig intelligens til å dele bekymringer om psykisk helse og til å diskutere selvskading og vold.

Uten varsling er disse AI-chattene ofte fullstendig uovervåket. 

Disse bekymringsverdige aktivitetene må umiddelbart tas opp med ledere for skolens sikkerhet og elevtjenester.

Lightspeed Alert kan hjelpe med AI
Overvåking og sikkerhet i skolene

Alert legger til proaktiv overvåking og sanntidsvarsler til AI-interaksjoner

Med Lightspeed Alert trenger du ikke å stole på innebygde AI-rekkverk eller logger.

Skoler får varsler i sanntid om relevant aktivitet uansett hvor den skjer, inkludert ChatGPT, Gemini, Co-Pilot og andre generative AI-verktøy og -funksjoner.

  1. Student bruker generativ AI

  2. Studenttyper angående prompt

  3. Varsling genererer en hendelse i sanntid og varsler relevant personell (inkludert vår menneskelige gjennomgang, hvis aktivert)

  4. Uavhengig av effektiviteten til AI-omdirigering eller sikkerhetsrekkverk, kan tidlig intervensjon forhindre tragedie.

Se hvordan skolen din står seg med en sikkerhetsvurdering

En gratis 30-dagers sikkerhetsvurdering vil gi en omfattende analyse av sikkerhetsprofilen på tvers av skolene dine, inkludert risikofylt bruk av AI blant elever.

 Slik begynner du:

1. Fyll ut skjemaet for å starte prosessen. Møt våre eksperter for å enkelt starte vurderingen.

2. Kjør Alert i bakgrunnen i 30 dager, og samle inn data om sikkerhetskulturen din og risikopunktene dine. (Selv om det kjører i bakgrunnen, ringer vi deg i en overhengende situasjon!)

3. Få en omfattende sikkerhetsvurdering som fremhever varsler, risikofylte steder og områder med sikkerhetsproblemer med AI og andre situasjoner.

4. Del dataene med andre skoleledere for å drive frem meningsfulle sikkerhetsforbedringer.

Be om en sikkerhetsvurdering i dag

Gjør sikkerhet til en sentral del av din AI-strategi

Sørg for SMART (sikker, administrert, passende, rapportert og transparent) bruk av kunstig intelligens

Veterinær

Gjennomgå AI-apper (og ikke-AI-apper med AI-funksjoner) med hensyn til personvern, sikkerhet, sikkerhetstiltak og innvirkning.Lightspeed Insight)

Blokker/Tillat

Blokker ikke-godkjente apper eller AI-kategorier. Tillat godkjente apper etter gruppe eller klassetrinn etter behov.Lyshastighetsfilter)

Rapportere

Rapporter om bruk av AI-apper etter bruker, klasse, skole eller gruppe og vurder den pedagogiske eller organisatoriske effekten.Lightspeed Insight)

Oppdag

Oppdag bruk av kunstig intelligens i klasserommet i sanntid, og varsle lærerne slik at de kan vurdere gyldigheten av bruken.Lightspeed Classroom)

Følge

Sørg for sikker bruk av AI med kontinuerlig overvåking, risikovurdering og varsler i sanntid.Lyshastighetsvarsling)