Lähestyessämme Skotlannissa 9. maaliskuuta alkavaa tekoälyviikkoa, tuntuu sopivalta pysähtyä ja pohtia tärkeää kysymystä. 

Ei vain se, miten käytämme tekoälyä koulutuksessa, vaan se, miten ymmärrämme tekoälyn mahdollistamaa haittaa ja suojaudumme siltä. 

Turvallisuus- ja digitaalisen transformaation johtajana tekoälyä ei ole pelättävä eikä harkitsematon asia. Se on tehokas työkalu. Kuten mikä tahansa tehokas työkalu, se vaatii rajoja, lukutaitoa, valvontaa ja johtajuutta. 

Tekoälyn mahdollistamalla haitalla tarkoitetaan riskejä, joita keinotekoiset integroidut tietoliikennejärjestelmät luovat, vahvistavat tai kiihdyttävät. Kouluympäristössä tähän voi sisältyä: 

• Tekoälyn luomat seksuaalikuvat, mukaan lukien deepfake-kuvat vertaisista tai henkilökunnasta 
• Tekoälychatbottien käyttö itsetuhoisten ajatusten harjoitteluun tai normalisointiin 
• Automatisoitu kiusaamissisältö tai manipuloitu media 
• Altistuminen epätarkoille tai haitallisille neuvoille, jotka esitetään arvovaltaisina 
• Tekoälytyökalujen käyttö väkivaltaisen tai hyväksikäyttävän materiaalin tuottamiseen 
• Tekoälyavusteisen viestinnän avulla voidaan laajentaa ja nopeuttaa manipulointia 
• Emotionaalinen riippuvuus keskustelevista tekoälyjärjestelmistä 

Skotlannin koulut toimivat vahvan lapsikeskeisen viitekehyksen puitteissa, jotka perustuvat GIRFECiin, Skotlannin lasten ja nuorten suojelua koskevaan lakiin ja kansallisiin lastensuojeluohjeisiin. Tekoäly ei ole tämän viitekehyksen ulkopuolella, vaan sen sisällä. 

Keskeiset suojausperiaatteet pysyvät voimassa: 

• Varhainen tunnistaminen 
• Suhteellinen vastaus 
• Usean viraston yhteistyö 
• Selkeä tallennus ja hallinta 

Tekoäly kuitenkin muuttaa ympäristöä, jossa riski esiintyy. 

Esimerkiksi vahinko ei välttämättä tule leikkikentällä olevasta ikätoverista, vaan sekunneissa luodusta synteettisestä kuvasta. Paljastus ei välttämättä ala luotettavalta aikuiselta, vaan chatbot-keskustelun kautta. Haitallisia kertomuksia voivat muokata algoritmit, jotka vahvistavat äärimmäistä sisältöä. 

Tässä kohtaa digitaalisen transformaation ja tietoturvan on toimittava yhdessä. 

Monet valtavirran tekoälykuvantamistyökalut voivat luoda realistisia ihmiskasvoja, jotka eivät kuulu oikeille ihmisille, mikä tekee tunnistamisesta ja vastuullisuudesta monimutkaisempaa. 

  1. Syväväärennösteknologiaa voidaan nyt luoda käyttämällä vain kourallista julkisesti saatavilla olevia kuvia. 
  1. Jotkut tekoälychatbotit ovat aiemmin tuottaneet haitallista tai itsetuhoisuuteen liittyvää sisältöä ennen turvakaiteiden parantamista. 
  1. Tekoälyjärjestelmät voivat tahattomasti vahvistaa ennakkoluuloja, mikä voi vaikuttaa siihen, miten eri taustoista tulevat lapset kokevat verkkoympäristöt. 
  1. Opiskelijat käyttävät yhä enemmän tekoälyä emotionaaliseen tukeen ymmärtämättä tietosuojan vaikutuksia. 
  1. Tekoälyn tuottama väärä tieto leviää nopeammin, koska sitä voidaan tuottaa skaalautuvasti minimaalisella vaivalla. 
  1. Monien tekoälytyökalujen ikärajaa ei tarkisteta samalla tavalla kuin säänneltyjen alustojen. 
  1. Keinotekoisen nudifikaation sovelluksista on tullut helpommin saatavilla olevia ja vaikeampia jäljittää. 
  1. Tekoälyä voidaan käyttää häirinnän automatisointiin, esimerkiksi toistuvan henkilökohtaisen häirinnän luomiseen. 

Näiden todellisuuksien tiedostaminen antaa meille mahdollisuuden reagoida rauhallisesti ja kohtuullisestiately. 

Ensinnäkin, vahvista digitaalista lukutaitoa. Tekoälylukutaidon on nyt oltava rinnakkain verkkoturvallisuuskasvatuksen kanssa. Oppilaiden on ymmärrettävä: 

• Miten generatiivinen tekoäly toimii 
• Mitä deepfake-väärennökset ovat 
• Miten algoritmit muokkaavat näkemäänsä 
• Digitaalisen sisällön pysyvyys 
• Tietosuojaan ja henkilötietoihin liittyvät riskit 

Toiseksi, varmista oikeasuhtainen suodatus. Koulujen tulisi tarkistaa suodatuskäytännöt varmistaakseen, että tunnettuja haitallisia tekoälytyökaluja rajoitetaan asianmukaisesti, mutta samalla sallitaan laillisten oppimiseen tarkoitettujen tekoälyalustojen turvallinen käyttö. 

Kolmanneksi, ota käyttöön ennakoiva valvonta. Pelkkä estäminen ei riitä suojaamaan. Erityisesti tekoälyn kanssa riski piilee usein kirjoitettujen vuorovaikutusten, kehotteiden ja käyttäytymisindikaattoreiden yhteydessä eikä pelkästään verkkosivustoluokkien sisällä. 

Neljänneksi, tue henkilökunnan itseluottamusta. Opettajat ja lastensuojelun johtajat tarvitsevat koulutusta tekoälyyn liittyvien haittojen tunnistamiseen, asianmukaisiin toimiin ja huolenaiheiden kirjaamiseen paikallisten lastensuojelumenettelyjen mukaisesti. 

Viidenneksi, ota vanhemmat ja huoltajat mukaan. Monet tekoälyriskit ilmenevät henkilökohtaisissa laitteissa kouluajan ulkopuolella. Selkeä viestintä ja opastus ovat olennaisia. 

Järjestelmän näkökulmasta Lightspeed tarjoaa kolme kriittistä tukitasoa. 

Lightspeed Filter™ mahdollistaa koulujen ikätasolle sopivan ja käytäntöihin perustuvan suodatuksen soveltamisen eri laitteissa, mikä auttaa hallitsemaan pääsyä korkean riskin tekoälytyökaluihin ja samalla ylläpitämään opetuskäyttöä. 

Lightspeed Alert™ tarjoaa ennakoivaa oppilaiden toiminnan seurantaa tuetuilla laitteilla ja pilviympäristöissä. Se tunnistaa itsetuhoisuuden, kiusaamisen, väkivallan, huumeiden, seksuaalisen hyväksikäytön ja eksplisiittisen sisällön merkkejä. Tekoälykontekstissa tämä tarkoittaa, että koulut voivat saada näkyvyyttä huolestuttavaan kielenkäyttöön, kehotteisiin tai kaavoihin, jotka voivat viitata haavoittuvuuteen tai kehittyvään vaaraan. 

Tapahtumat ryhmitellään tapauksiin ja priorisoidaan riskitason mukaan, mikä tukee nimettyjä suojatoimia ja johtaa ammatillisen harkinnan soveltamiseen ja varhaiseen puuttumiseen. 

Ratkaisevasti seuranta tukee ihmisen suorittamaa arviointia, mutta ei korvaa sitä. 

Tekoälyn mahdollistamassa maailmassa varhainen näkyvyys on välttämätöntä. Vahinko voi eskaloitua nopeasti. Kontekstilla on merkitystä. 

Skotlannin kollegoille seuraavat ovat tärkeitä suuntaviivoja: 

Education Scotlandin ohjeistus tekoälystä oppimisessa ja opetuksessa 

DigiLearn Scotland 

Lounais-oppimisverkko 
 
Yhdistyneen kuningaskunnan Saver Internet Centre

Childnet and Internet Matters -vanhempien resurssit 

ICO:n ohjeistus lasten datasta ja tekoälystä 

Yhdistyneen kuningaskunnan hallituksen ja tekoälyn neuvonta 

Koulut voivat myös haluta tarkistaa Opetusministeriön suodatus- ja valvontastandardit Englannissa, sillä monet odotukset vaikuttavat yhä enemmän käytäntöihin koko Yhdistyneessä kuningaskunnassa. 

Tekoälyviikon ei pitäisi olla pelosta. Sen pitäisi olla tietoon perustuvasta johtajuudesta. 

Tekoäly tulee jatkossakin muokkaamaan sitä, miten nuoret oppivat, luovat ja kommunikoivat. Meidän tehtävämme ei ole poistaa teknologiaa kokonaan, vaan varmistaa, että sitä käytetään turvallisesti, eettisesti ja vastuullisesti. 

Se edellyttää: 

Suhteellinen suodatus. 
Ennakoiva seuranta. 
Selkeä hallintotapa. 
Koulutus ja tietoisuus. 
Luottavainen johtajuus turvaamisessa. 

Turvallisuus- ja digitaalisen muutoksen johtajana uskon, että tehokkain lähestymistapa ei ole pelkkä rajoittaminen tai kritiikitön käyttöönotto. Se on harkittua integrointia, jota tukee näkyvyys ja jota ohjaavat lapsikeskeiset periaatteet. 

Tekoäly on täällä. Meidän vastuullamme on varmistaa, että lapset pysyvät turvassa, tuettuina ja voimaantuneina sen parissa. 

Jos sinulla on kysyttävää siitä, miten Lightspeed Systems voi auttaa kouluasi tai MAT-tiedettäsi tekoälyvalmiiden luokkahuoneiden kanssa, ota yhteyttä tiimiimme ja soita meille. tässä.