September er måneden for selvmordsforebygging og -bevissthet, og hver måned ser ut til å være måneden for bevissthet om kunstig intelligens. Disse to tingene har kommet sammen på tragiske måter, med nylige historier om AI-ledsagere som oppmuntrer til selvmordstanker hos tenåringer.
GenAI-verktøy markedsføres som assistenter, medpiloter, mentorer og hjelpsomme «venner» for studenter – alltid tilgjengelige for å svare på spørsmål, styrke selvtilliten og til og med gi emosjonell støtte. I teorien høres det positivt ut. I praksis er risikoen alvorlig.
Risikoene ved AI-ledsagere
I motsetning til en lærer, rådgiver eller til og med en jevnaldrende, vet ikke AI-kamerater når de skal stoppe. De gjenkjenner ikke varseltegn. De flagger ikke problematisk atferd. I stedet reagerer de på autopilot, med sykofantiske tendenser som oppmuntrer når de ikke burde. Det kan bety:
- Forsterkning av skadelige tanker når en elev sliter med selvskading eller selvmordstanker.
- Å gi upassende eller utrygge råd uten kontekst eller dom.
- Å skape avhengighet av en «venn» som ikke er ekte, slik at studentene er isolert fra menneskelig støtte.
Hvis disse interaksjonene ikke overvåkes, er de usynlige for skolene. En elev kan være i en spiral, og ingen voksne vil noen gang få vite det.
Hvorfor overvåking av kunstig intelligens i skolene er viktig
Vi har sett dette mønsteret før: all ny teknologi bringer med seg muligheter og risiko. YouTube ga elevene uendelige læringsressurser – og uendelige distraksjoner. Sosiale medier ga dem kontakt – og også nettmobbing og eksponering for skade. Hver gang tilpasset skolene seg ved å legge til flere lag med synlighet og kontroller.
AI i skolene er rett og slett den neste grensen. Forskjellen er at denne kan snakke tilbake.
Derfor er overvåking av KI ikke valgfritt. Skoler må se hvordan elever bruker KI-verktøy, veilede dem mot sikkerhet og produktiv bruk av KI, og gripe inn når aktivitet signaliserer risiko. Uten overvåking går skoledistriktene i blinde.
Her er hva jeg vet om bruken av AI i skolene:
- AI kan være kraftig på svært positive måter; det er også utsatt for risiko
- Rekkverk lagt til av AI-verktøy er utsatt for omgåelse av studenter
- AI kommer ingen vei, så Skolene må implementere løsninger for å holde det trygt, administrert, passende, rapportert og transparent
Vår rolle
Hos Lightspeed har vi brukt mer enn 25 år på å hjelpe skoler med å følge denne linjen: å styrke innovasjon samtidig som elevenes sikkerhet holdes trygge. Fra filtrering av YouTube til å overvåke risikoer på sosiale medier, har vi alltid tilpasset oss ny teknologi. AI er intet unntak.
Vi hjelper allerede skoledistriktene med å forstå hvordan elever bruker AI – og misbruker den. Fordi innsatsen er høyere enn testresultater eller produktivitet. Det handler om liv.
Lær mer
Vi har samlet unike data og innsikt i hvordan elever bruker kunstig intelligens, hvilke risikoer vi ser og hvordan skolene kan reagere. Du kan lese mer her:
Som lærere og teknologiledere har vi ikke råd til å være passive når det gjelder KI-sikkerhet.
Innovasjonen er reell, men det er også risikoene. Og elevenes sikkerhet må komme først.