AI-ledsagere i skolen: Løfte og fare

Light bulb and bachelor cap on blue background showcasing AI and innovation in schools

September er måneden for selvmordsforebyggelse og -bevidsthed, og hver måned synes at være måneden for AI-bevidsthed. Disse to ting er kommet sammen på tragiske måder, med nylige historier om AI-ledsagere, der opmuntrer til selvmordstanker hos teenagere. 

GenAI-værktøjer markedsføres som assistenter, co-piloter, mentorer og hjælpsomme "venner" for studerende – altid tilgængelige til at besvare spørgsmål, styrke selvtilliden og endda yde følelsesmæssig støtte. I teorien lyder det positivt. I praksis er risiciene alvorlige. 

Risiciene ved AI-ledsagere 

I modsætning til en lærer, rådgiver eller endda en ligemand ved AI-ledsagere ikke, hvornår de skal stoppe. De genkender ikke advarselstegn. De markerer ikke problematisk adfærd. I stedet reagerer de på autopilot med sykofantiske tendenser, der opmuntrer, når de ikke burde. Det kan betyde:

  • Forstærkning af skadelige tanker når en elev kæmper med selvskade eller selvmordstanker.
  • At give upassende eller usikker rådgivning uden kontekst eller dom.
  • At skabe afhængighed af en "ven", der ikke er ægte, efterlader eleverne isoleret fra menneskelig støtte.

Hvis disse interaktioner ikke overvåges, er skolerne usynlige. En elev kan være i en spiral, og ingen voksen ville nogensinde opdage det.

Hvorfor overvågning af kunstig intelligens i skoler er vigtig

Vi har set dette mønster før: enhver ny teknologi bringer muligheder og risici. YouTube gav eleverne uendelige læringsressourcer – og uendelige distraktioner. Sociale medier gav dem forbindelse – og også cybermobning og eksponering for skade. Hver gang tilpassede skolerne sig ved at tilføje flere lag af synlighed og kontrol.

AI i skoler er simpelthen den næste grænse. Forskellen er, at denne kan tale tilbage.

Derfor er overvågning af AI ikke valgfrit. Skoler skal se, hvordan elever bruger AI-værktøjer, vejlede dem i AI-sikkerhed og produktiv brug og gribe ind, når aktivitet signalerer risiko. Uden overvågning flyver skoledistrikterne i blinde.

Her er hvad jeg ved om brugen af AI i skoler:

Vores rolle 

Hos Lightspeed har vi brugt mere end 25 år på at hjælpe skoler med at følge denne linje: at styrke innovation og samtidig beskytte eleverne. Fra filtrering af YouTube til overvågning af risici på sociale medier har vi altid tilpasset os nye teknologier. AI er ingen undtagelse.

Vi hjælper allerede skoledistrikterne med at forstå, hvordan elever bruger AI – og misbruger det. Fordi indsatsen er højere end testresultater eller produktivitet. Det handler om liv.

Lær mere 

Vi har samlet unikke data og indsigter i, hvordan elever bruger kunstig intelligens, hvilke risici vi ser, og hvordan skoler kan reagere. Du kan læse mere her:

Som undervisere og teknologiledere har vi ikke råd til at være passive omkring AI-sikkerhed.

Innovationen er reel, men det er risiciene også. Og elevernes sikkerhed skal komme først.