September er måneden for selvmordsforebyggelse og -bevidsthed, og hver måned synes at være måneden for AI-bevidsthed. Disse to ting er kommet sammen på tragiske måder, med nylige historier om AI-ledsagere, der opmuntrer til selvmordstanker hos teenagere.
GenAI-værktøjer markedsføres som assistenter, co-piloter, mentorer og hjælpsomme "venner" for studerende – altid tilgængelige til at besvare spørgsmål, styrke selvtilliden og endda yde følelsesmæssig støtte. I teorien lyder det positivt. I praksis er risiciene alvorlige.
Risiciene ved AI-ledsagere
I modsætning til en lærer, rådgiver eller endda en ligemand ved AI-ledsagere ikke, hvornår de skal stoppe. De genkender ikke advarselstegn. De markerer ikke problematisk adfærd. I stedet reagerer de på autopilot med sykofantiske tendenser, der opmuntrer, når de ikke burde. Det kan betyde:
- Forstærkning af skadelige tanker når en elev kæmper med selvskade eller selvmordstanker.
- At give upassende eller usikker rådgivning uden kontekst eller dom.
- At skabe afhængighed af en "ven", der ikke er ægte, efterlader eleverne isoleret fra menneskelig støtte.
Hvis disse interaktioner ikke overvåges, er skolerne usynlige. En elev kan være i en spiral, og ingen voksen ville nogensinde opdage det.
Hvorfor overvågning af kunstig intelligens i skoler er vigtig
Vi har set dette mønster før: enhver ny teknologi bringer muligheder og risici. YouTube gav eleverne uendelige læringsressourcer – og uendelige distraktioner. Sociale medier gav dem forbindelse – og også cybermobning og eksponering for skade. Hver gang tilpassede skolerne sig ved at tilføje flere lag af synlighed og kontrol.
AI i skoler er simpelthen den næste grænse. Forskellen er, at denne kan tale tilbage.
Derfor er overvågning af AI ikke valgfrit. Skoler skal se, hvordan elever bruger AI-værktøjer, vejlede dem i AI-sikkerhed og produktiv brug og gribe ind, når aktivitet signalerer risiko. Uden overvågning flyver skoledistrikterne i blinde.
Her er hvad jeg ved om brugen af AI i skoler:
- AI kan være kraftfuld på meget positive måder; det er også udsat for risiko
- Gelændere tilføjet af AI-værktøjer er tilbøjelig til omgåelse af studerende
- AI kommer ingen vegne, så Skoler skal implementere løsninger at holde det sikkert, administreret, passende, rapporteret og transparent
Vores rolle
Hos Lightspeed har vi brugt mere end 25 år på at hjælpe skoler med at følge denne linje: at styrke innovation og samtidig beskytte eleverne. Fra filtrering af YouTube til overvågning af risici på sociale medier har vi altid tilpasset os nye teknologier. AI er ingen undtagelse.
Vi hjælper allerede skoledistrikterne med at forstå, hvordan elever bruger AI – og misbruger det. Fordi indsatsen er højere end testresultater eller produktivitet. Det handler om liv.
Lær mere
Vi har samlet unikke data og indsigter i, hvordan elever bruger kunstig intelligens, hvilke risici vi ser, og hvordan skoler kan reagere. Du kan læse mere her:
Som undervisere og teknologiledere har vi ikke råd til at være passive omkring AI-sikkerhed.
Innovationen er reel, men det er risiciene også. Og elevernes sikkerhed skal komme først.