AI er her. Men er AI sikker for studerende?

En præsidentiel bekendtgørelse, en lang række uddannelsesmæssige fordele og den allestedsnærværende udbredelse af AI-værktøjer driver alle en øget brug i skolerne.

Men i takt med at studerende vender sig mod AI for at få råd og selskab, rækker risiciene langt ud over snyd og akademisk integritet.

Proaktiv AI-sikkerhed og -overvågning skal være et fundament for enhver skoles AI-strategi.

Risici ved uovervåget AI-adgang fra studerende

Det handler ikke kun om snyd og akademisk integritet. Risikoen ved at studerende bruger kunstig intelligens kan bogstaveligt talt være dødbringende.

Næsten 3/4 af teenagere rapporterer at bruge AI-chatbots som ledsagere – mere end halvdelen gør det regelmæssigt.

AI er af natur tilbøjelig til at snyde og er mere tilbøjelig til at være enig og opmuntre end at fraråde. Desværre kan dette omfatte at opmuntre til tanker om vold og selvskade, hvilket potentielt kan føre til hurtigere eskalering af farlige situationer.

Uovervåget har disse samtaler vist sig hurtigt at ignorere autoværn og udvikle sig til farlige og dødbringende råd.

Selvskade, selvmord, vold, deepfakes og sextortion kan alle være resultater af uovervåget AI-aktivitet.

Native AI-beskyttelsesrækværk er ikke nok

Elever er smarte til at omgå beskyttelse. Skoler kan ikke udelukkende regne med indbyggede AI-gelændere.

ChatGPT, Gemini, Co-Pilot, CharacterAI… Alle de store AI-spillere bygger og forbedrer aktivt rækværk i deres systemer.

Men vi ved, at børn vil forsøge – og have succes – med at undgå autoværn. 

Derudover skal skolerne, for at sikre sikkerhed og passende brug, sørge for tidlig intervention i forbindelse med bekymrende spørgsmål (uanset AI-respons).

Hvad sker der med AI i skoler i dag

I det seneste år har vi set over 10.000 hændelser på AI-steder – selvom AI er bredt blokeret.

AI-blokering vs. tilladelse

I dag blokerer de fleste skoler (85%) stadig for brugen af generativ AI for de fleste elever. Men tendensen bevæger sig gradvist i retning af at åbne AI-adgang for nogle apps og nogle elevgrupper.

Selv når AI er blokeret, kan AI-drevne chats i andre apps introduceres uden godkendelse og kan skabe risici.

Hvor AI-advarsler kommer fra

Character.AI genererer sammen med de førende AI-platforme størstedelen af niveau 3 (høj) og 4 (overhængende) advarsler inden for Lightspeed Alert.

Men hundredvis af andre AI-værktøjer og AI-chats i andre værktøjer udgør de samme risici. I det seneste år er der kommet advarsler fra mere end 130 forskellige AI-relaterede domæner.

Eksempler på AI-alarmer

De advarsler, vi ser, viser, at eleverne bruger kunstig intelligens til at dele bekymringer om mental sundhed og til at diskutere selvskade og vold.

Uden alarm er disse AI-chats ofte fuldstændig uovervågede. 

Disse bekymrende aktiviteter skal straks fremlægges for ledere inden for skolens sikkerhed og elevservice.

Lightspeed Alert kan hjælpe med AI
Overvågning og sikkerhed i skoler

Alert tilføjer proaktiv overvågning og realtidsadvarsler til AI-interaktioner

Med Lightspeed Alert behøver du ikke at regne med indbyggede AI-gelændere eller logfiler.

Skoler modtager realtidsadvarsler om relevant aktivitet, uanset hvor den finder sted, herunder ChatGPT, Gemini, Co-Pilot og andre generative AI-værktøjer og -funktioner.

  1. Studerende bruger generativ kunstig intelligens

  2. Studerendetyper vedrørende prompt

  3. Alarmen genererer en hændelse i realtid og underretter det relevante personale (herunder vores Human Review, hvis aktiveret)

  4. Uanset effektiviteten af AI-omdirigering eller sikkerhedsgelændere kan tidlig intervention forhindre tragedie

Se, hvordan din skole klarer sig med en sikkerhedsvurdering

En gratis 30-dages sikkerhedsvurdering vil give en omfattende analyse af sikkerhedsprofilen på tværs af jeres skoler, herunder risikabel brug af AI blandt elever.

 Sådan starter du:

1. Udfyld formularen for at starte processen. Mød vores eksperter for nemt at komme i gang med din vurdering.

2. Kør Alert i baggrunden i 30 dage, og indsaml data om din sikkerhedskultur og risikopunkter. (Selvom det kører i baggrunden, ringer vi til dig i en overhængende situation!)

3. Få en omfattende sikkerhedsvurdering, der fremhæver advarsler, risikable steder og områder med sikkerhedsproblemer med AI og andre situationer.

4. Del dataene med andre skoleledere for at fremme meningsfulde sikkerhedsforbedringer.

Anmod om en sikkerhedsvurdering i dag

Gør sikkerhed til en central del af din AI-strategi

Sikre SMART (sikker, styret, passende, rapporteret og transparent) brug af AI

Dyrlæge

Gennemgå AI-apps (og ikke-AI-apps med AI-funktioner) for privatliv, sikkerhed, sikkerhedsforanstaltninger og påvirkning.Lightspeed Insight)

Bloker/Tillad

Bloker ikke-godkendte apps eller AI-kategorier. Tillad godkendte apps efter gruppe eller klassetrin efter behov.Lyshastighedsfilter)

Rapport

Rapportér om brugen af AI-apps efter bruger, klasse, skole eller gruppe, og vurder den uddannelsesmæssige eller organisatoriske effekt.Lightspeed Insight)

Opdage

Registrer brugen af AI i klassen i realtid, og underret lærerne, så de kan vurdere brugens gyldighed.Lightspeed klasseværelse)

Overvåge

Sørg for sikker brug af AI med løbende overvågning, risikovurdering og advarsler i realtid.Lyshastighedsalarm)