Styring af AI i skoler: Gennemgribende synlighed og aktive rækværk til brug af studerendes AI

AI governance: end-to-end visibility and active guardrails for student AI use

3 vigtige konklusioner

  • AI er blevet et følelsesmæssigt udløb for studerende, ikke bare en akademisk genvej. 42% af eleverne rapporterer, at de bruger AI-chatbots til følelsesmæssig støtte, og 40% af højrisiko-onlineaktiviteten finder sted efter skoletid, når eleverne ikke er under opsyn. Distrikt, der kun fokuserer på snyd, overser det større sikkerhedsbillede.
  • Blokering af AI garanterer ikke beskyttelse. Selv i distrikter, der blokerer for det meste generativ AI, viser Lightspeed Systems-data aktivitet på tværs af mere end 130 AI-relaterede domæner, der genererer højrisikosikkerhedsalarmer. Synlighed i, hvad der rent faktisk sker, ikke kun hvad der er tilladt, er det grundlæggende krav for reel styring.
  • Effektiv AI-styring kræver tre ting, der spiller sammen: synlighed, kontrol og beskyttelse. Lightspeed Filter™, Lightspeed Insight™, Lightspeed Alert™ og Lightspeed Classroom™ dækker alle tre lag i én platform, fra hurtig registrering og rapportering af appbrug til sikkerhedseskalering i realtid og overvågning i klasseværelset.

Ingen sendte en invitation ud. AI dukkede alligevel op i essays, kunstprojekter, lektier og samtaler, der slet ikke har noget med skolen at gøre. Eleverne spørger chatbots om ting som: Hvordan holder jeg op med at føle mig håbløs? Hvad skal jeg gøre, hvis min ven vil dø? Hvordan kan jeg stå op imod en mobber? Det er ikke akademiske spørgsmål. Det er den slags ting, man ville sige til en rådgiver. Eller i stigende grad til en maskine, der aldrig sover, aldrig dømmer og altid er tilgængelig.

Det skift betyder meget. Meget. Og hvis dit distrikt stadig behandler AI som et snydeproblem, ser du kun en brøkdel af billedet.

Dataene går dybere end akademisk uærlighed

Ja, akademisk integritet er en reel bekymring. Men hvad forskningen rent faktisk viser, er sværere at ignorere. Ifølge Center for Democracy and Technologys rapport Hand-in-Hand, Halvdelen af elever, der bruger kunstig intelligens, siger, at det får dem til at føle sig mindre forbundet med deres lærere. Mere end halvdelen har stødt på radikalt eller ekstremt indhold. Mere end en tredjedel kender til deepfakes, der involverer nogen på deres skole.

42% af eleverne siger, at de har brugt AI-chatbots til følelsesmæssig støtte. Det handler ikke kun om at omforme den måde, eleverne lærer på. Det handler om at omforme den måde, de bearbejder identitet og forbindelse på. Og når rækværket svigter, rammer konsekvenserne skolerne.

Data uden for klasseværelset forstærker dette. Halvdelen af teenagere, der forsøger selvmord, gør det sent om aftenen, når der ikke er nogen i nærheden. 40% af højrisiko onlineaktivitet finder sted efter skoletid. Eleverne henvender sig til teknologi, ikke lærere, rådgivere eller forældre, for at bede om hjælp. Uden synlighed kan skoledistrikterne ikke se noget af dette komme.

Blokering er ikke det samme som beskyttelse

I denne uge blokerer cirka 851 TP7T af skolerne stadig for det meste af generativ AI-brug for de fleste af deres elever. Det føles som en sikker holdning. Det lukker faktisk ikke døren.

På tværs af distrikter, der bruger Lightspeed Systems, ser vi aktivitet fra over 130 forskellige AI-relaterede domæner, der har genereret højrisikoadvarsler og overhængende sikkerhedsadvarsler, selv i distrikter, der mener, at de har blokeret AI fuldstændigt. Mange af disse signaler kommer fra værktøjer som Character AI, der er designet specifikt til relationel interaktion. Eleverne finder en vej ind. Blokering bliver et plaster på læben, når det, man rent faktisk har brug for, er synlighed, kontekst og kontrol.

Som vores chef for AI, Donal McMahon, udtrykker det: Når skoler mangler synlighed, kan de ikke håndtere risici. De kan kun reagere på dem. Det er det skift, vi skal foretage. Fra reaktion til beredskab.

Tre søjler i reel AI-styring

Der er tre ting, som ethvert distrikt har brug for, når det kommer til AI-styring: synlighed, kontrol og beskyttelse. Ingen anden platform i K-12 dækker alle tre så omfattende som Lightspeed.

  • Sigtbarhed: Se hvilke AI-apps der er i brug, af hvilke studerende, på hvilke campusser, og læs rent faktisk instruktionerne.
  • Kontrollere: Bloker eller tillad specifikke værktøjer og kategorier på det detaljeringsniveau, dine politikker kræver.
  • Beskyttelse: Få sikkerhedsadvarsler i realtid, når elever siger noget bekymrende, uanset om det er i ChatGPT, Gemini eller en anden AI-kilde.

Sådan ser det ud i praksis

Lightspeed Insight™ giver dig et komplet kort over AI-aktivitet i dit distrikt. Ikke kun de åbenlyse værktøjer: den afdækker over 140 potentielle AI-apps, viser brugen efter campus og klassetrin og markerer automatisk ændringer i apps' privatlivspolitikker. I stedet for manuelt at sammenligne politikdokumenter får du et klart signal, når noget ændrer sig: tekst tilføjet, tekst fjernet, vilkår ændret. Du ved med det samme, om en leverandør stadig er en, du kan stole på.

Funktionen til hurtig optagelse tager det endnu et skridt videre. Lightspeed Filter™, det lader dig se de faktiske samtaler, som eleverne har med ChatGPT, Gemini og Copilot. Ikke kun hvilke værktøjer de bruger, men også hvad de spørger om, og hvordan samtalen udvikler sig. Den kontekst er vigtig. Et enkelt spørgsmål kan virke godartet, indtil du ser, hvad der kommer bagefter.

På sikkerhedssiden, Lightspeed Alert™ Holder øje med højrisikosprog på tværs af AI-samtaler og eskalerer hurtigt til de rigtige personer. Hvis en elev fortæller Gemini, at de har tanker om selvskade, går signalet til vejledere, webstedsadministratorer og alle, der kender eleven, med fuld kontekst allerede vedhæftet. Ingen graven efter information. Ingen forsinkelse. Målet er, at eleven får støtte, før det er for sent.

For lærere, Lightspeed Classroom™ tilføjer en simpel visuel indikator (en lille lilla glimmer), der vises på en elevs skærmflise, når de tilgår et AI-websted under undervisningen. Lærere behøver ikke at søge efter noget. De kan kigge over det, få øje på det og svare med det samme eller gennemgå historikken efter undervisningen. Det fungerer også til test: hvis en elev afleverer en opgave, og Classroom viser, at de er på ChatGPT, er det en samtale værd at have.

Og til kontrol på distriktsniveau giver Filters AI-kategoristyring dig mulighed for at skifte mellem generativ AI, detektiv AI og generelle AI-kategorier uafhængigt, med mulighed for at lave undtagelser for specifikke værktøjer. Bloker alt undtagen Gemini for et bestemt klassetrin. Åbn godkendte værktøjer for personale, mens du opretholder strammere restriktioner for elever. Fleksibiliteten er der til at overholde dine politikker uden at skabe nye huller.

Fra reaktion til parathed

AI forsvinder ikke. Det er ikke en kontroversiel holdning på nuværende tidspunkt. Det, der stadig er til debat, er, hvordan skolerne reagerer: før noget går galt, eller efter.

De distrikter, der klarer sig godt, er ikke dem, der blokerede alt. Det er dem, der har bygget en ramme for synlighed, indført de rigtige advarsler, givet lærerne en måde at se, hvad der sker i rummet, og skabt en proces til at reagere på signaler, når de opstår. Det er det, SMART AI-rammen er designet til at gøre: Sikker, Administreret, Passende, Rapporteret og Transparent.

Hvis du vil se, hvordan det fungerer i din kommune, kan du besøge vores SMART AI-side for at lære mere om SMART AI og tage AI-parathedsvurderingen.

Ofte stillede spørgsmål

Understøttes andre AI-værktøjer som Claude af Lightspeeds overvågningsfunktioner?

Det afhænger af funktionen. Lightspeed Classroom™ viser allerede aktivitet fra Claude og andre AI-værktøjer, når eleverne tilgår dem i en browser. Lightspeed Alert™ kan registrere og eskalere sikkerhedsadvarsler udløst af bekymrende sprogbrug i Claude-samtaler på nettet. Det ene område, der stadig udvides, er AI Prompt Capture i Lightspeed Filter™, en helt ny funktion, der i øjeblikket optager fulde samtaler i ChatGPT, Gemini og Copilot. Claude og andre værktøjer som Magic School AI er på vej, og tilføjelser er ofte formet af distriktets anmodninger. Hvis der er et specifikt værktøj, som dit distrikt har brug for dækket, er det værd at drøfte med din Lightspeed-accountmanager.

Ja. Lightspeed Insight™ leverer brugsdata pr. campus og pr. klassetrin for hver AI-applikation, der er i brug. Så du kan se, om ChatGPT-brugen er koncentreret på gymnasieniveau, eller at en specifik campus viser stigninger i generativ AI-aktivitet, og bruge disse data til at forme politiske samtaler med bestyrelsesmedlemmer, forældre eller personale.

Ja. Lightspeed Classroom™ gemmer en browserhistorik for hver time, og den lilla AI-indikator forbliver knyttet til ethvert websted, der er markeret som kunstig invaliditet, selv efter at eleven er gået videre. Lærere kan gennemgå den fulde aktivitetslog efter timen for at se præcis, hvad der blev tilgået, og hvornår, uden at skulle følge det live.