Points clés à retenir :
- La stratégie écossaise en matière d'IA pour 2026-2031 marque un tournant, passant de l'innovation à la responsabilisation, en plaçant une IA centrée sur l'enfant, transparente et responsable au cœur des attentes du secteur public.
- Les écoles et les autorités locales doivent renforcer la gouvernance, la visibilité et la protection, en veillant à ce que tous les systèmes d'IA soient explicables, auditables et conformes aux directives de la CIDE et de l'UNICEF.
- Dans un monde où l'intelligence artificielle est omniprésente, une protection numérique efficace exige une approche intégrée combinant filtrage, surveillance, leadership et supervision humaine afin de protéger les élèves et d'instaurer la confiance.
La stratégie écossaise en matière d'IA pour 2026-2031 a été discrètement publiée début 2026, mais ses implications pour les écoles, les collectivités locales et les fournisseurs de technologies éducatives sont loin d'être anodines. Ce document historique marque un tournant majeur dans la manière dont le gouvernement écossais envisage l'adoption, la gouvernance et le contrôle de l'IA au sein des services publics.
Pour ceux d'entre nous qui travaillons à l'intersection de la protection et de la transformation numérique, cela sonne comme un appel à l'action.
Pourquoi cette stratégie est importante
L’Écosse a déjà publié des stratégies en matière d’IA, mais celle-ci est différente. Alors que les cadres précédents se concentraient principalement sur les opportunités économiques et l’innovation, la stratégie 2026-2031 met l’accent sur un aspect bien plus important : confiance. Et plus particulièrement, la confiance envers les membres les plus vulnérables de notre société : les enfants.
La stratégie repose sur l'intégration par l'Écosse de Convention des Nations Unies relative aux droits de l'enfant (CIDE) L'intégration de l'intelligence artificielle dans le droit écossais fait de l'Écosse la première nation décentralisée au monde à adopter une telle mesure. Il ne s'agit pas d'un simple symbole : cette décision a des implications politiques directes pour tous les systèmes d'IA déployés dans les écoles, les collectivités locales ou tout service public ayant un impact sur la vie des enfants.
La stratégie va encore plus loin, en adoptant Orientations de l'UNICEF sur l'IA pour les enfants, Ce cadre national définit des attentes claires : les systèmes d’IA doivent protéger les enfants, leur permettre de participer pleinement à un monde où l’IA est présente et garantir la transparence et la responsabilité quant à l’utilisation de leurs données et aux décisions prises. En clair, si vous déployez l’IA auprès de jeunes en Écosse, vous disposez désormais d’un cadre national qui définit les bonnes pratiques et les responsabilités en cas de manquement.
Il ne s'agit pas simplement de lignes directrices. C'est le cadre politique dans lequel les décisions en matière d'approvisionnement, les cadres de gouvernance et les stratégies institutionnelles seront de plus en plus évalués.
Ce que dit réellement la stratégie
Articulée autour de cinq priorités stratégiques – services publics, entreprises et économie, recherche et innovation, participation citoyenne et compétences de la main-d’œuvre –, la stratégie tisse un fil conducteur cohérent : L'IA responsable est non négociable..
Quelques engagements se distinguent par leur importance particulière en matière d'éducation et de protection de l'enfance :
Un registre public écossais d'IA. Le gouvernement publiera un registre de tous les systèmes d'IA utilisés dans le secteur public écossais, précisant quelles données sont utilisées, comment elles le sont et qui en est responsable. Ce niveau de transparence établit une nouvelle norme. Les écoles et les collectivités locales devront connaître les systèmes d'IA qu'elles utilisent et être en mesure d'en rendre compte.
Un modèle de ‘ chaîne de confiance ’ pour la gouvernance de l'IA. La stratégie exige explicitement que l'IA soit explicable, soumise à un contrôle humain et encadrée par des structures de responsabilité transparentes. Les décisions automatisées doivent pouvoir être contestées. Il ne s'agit pas seulement d'une bonne pratique ; cela deviendra la norme.
Dix premières actions à mettre en œuvre avant mars 2027. Le temps presse. Parmi les mesures à prendre figure la mise en place d'un cadre rigoureux et fiable pour une utilisation sûre et éthique de l'IA dans les secteurs de la santé et des services sociaux, l'éducation étant un élément essentiel de ce cadre. Les organismes du secteur public ont moins d'un an pour commencer à démontrer leur adhésion.
Un programme national de participation citoyenne. Conscient du caractère fragile de la confiance du public envers l'IA, le gouvernement lance une consultation afin de comprendre les préoccupations et de renforcer cette confiance. Les établissements scolaires et les collectivités locales seront associés à ce dialogue et devront démontrer qu'ils déploient une IA digne de confiance pour les citoyens.
Ce que cela signifie pour les écoles et les autorités locales
Pour les écoles et les collectivités locales en Écosse, cette stratégie n'est pas une aspiration politique lointaine. C'est une réalité pratique imminente.
La gouvernance et la responsabilité font l'objet d'une attention accrue. Exiger des organismes publics qu'ils identifient, expliquent et justifient chaque système d'IA qu'ils utilisent est une demande considérable. Actuellement, de nombreux établissements scolaires ont une visibilité limitée sur l'IA intégrée à leurs plateformes, qu'il s'agisse de filtres de contenu, d'outils de surveillance ou de systèmes d'information de gestion. Cela devra changer. Les responsables devront réaliser des audits d'IA, revoir les cadres de gouvernance des données et s'assurer de pouvoir répondre à des questions fondamentales : Quelle IA utilisons-nous ? Quelles données sont concernées ? Qui est responsable en cas de problème ?
La protection des données est une question de conformité, et pas seulement une question de valeurs. Avec la Convention relative aux droits de l'enfant intégrée au droit écossais et les recommandations de l'UNICEF sur l'intelligence artificielle adoptées au niveau national, le fait de ne pas protéger les enfants contre les dangers en ligne ou de ne pas mettre en place un système de protection adéquat fondé sur l'IA a des conséquences juridiques et réputationnelles importantes. Les responsables, les chefs d'établissement et les directeurs de l'éducation doivent dès à présent se demander si leurs outils et procédures actuels sont conformes à cette nouvelle norme.
Les décisions relatives aux achats feront l'objet d'un examen plus approfondi. Lorsqu'un établissement scolaire ou une collectivité locale acquiert un outil basé sur l'IA, il prend implicitement une décision en matière de protection de l'enfance. Le système est-il explicable ? Est-il auditable ? Protège-t-il les données des enfants ? Signale-t-il les risques pour les personnes ou prend-il des décisions autonomes sans contrôle ? Ces questions ne sont plus de simples options dans une procédure d'achat ; elles sont essentielles.
La transformation numérique doit être guidée par des valeurs, et non par la seule efficacité. La stratégie est claire : l’adoption de l’IA doit être guidée par les résultats concrets pour les individus, et non par les seules économies de coûts. Pour les responsables du secteur de l’éducation, cela signifie que les stratégies de transformation numérique doivent intégrer la protection de l’enfance dès leur conception, et non y ajouter un élément a posteriori.
Comment Lightspeed peut vous aider
Chez Lightspeed, nous développons depuis de nombreuses années des outils de protection et de bien-être numérique pour les écoles. La stratégie écossaise en matière d'IA pour 2026-2031 ne change rien à nos activités, mais elle en fournit la définition la plus claire possible. pourquoi C'est important, et c'est le mandat le plus convaincant que nous ayons vu pour que les écoles et les autorités locales agissent.
Dans toute notre gamme de produits, chaque outil que nous proposons repose sur le même principe fondamental : une technologie responsable, transparente et centrée sur l'enfant, qui donne le contrôle aux personnes et non aux algorithmes.
Alerte vitesse lumière. Une protection qui garde les humains au courant.
Lightspeed Alert est notre outil de protection basé sur l'IA, et constitue la réponse la plus directe aux exigences de la stratégie écossaise. Alert surveille l'activité des élèves sur tous les appareils scolaires et signale instantanément les risques (automutilation, abus, exploitation, radicalisation) au responsable de la protection désigné. Point essentiel : l'IA identifie le problème et un humain décide des mesures à prendre. Aucune décision automatisée concernant les enfants. Aucune opacité. Chaque alerte, action et résultat est enregistré et consultable, fournissant aux écoles et aux autorités locales le registre de protection vérifiable exigé par le registre écossais de l'IA. Lorsque la stratégie écossaise évoque l'explicabilité, la supervision humaine et une IA responsable, Alert en est la concrétisation.
Signal à la vitesse de la lumière : visibilité en temps réel sur tous les appareils et réseaux
La stratégie écossaise exige que l'IA dans les services publics soit transparente, fondée sur des données probantes et conçue pour faciliter une prise de décision éclairée. Lightspeed Signal répond précisément à ces exigences pour les équipes informatiques scolaires et les responsables des collectivités locales. Signal est une plateforme de surveillance en temps réel qui suit l'état des appareils, la connectivité Internet et les performances des applications sur tous les appareils scolaires, à l'école comme à domicile. Elle détecte les risques de sécurité tels que les utilisateurs non autorisés, l'utilisation de VPN et de proxy, et signale les élèves ayant une connexion Internet faible à domicile afin que les inégalités numériques puissent être identifiées et comblées avec précision. Lorsqu'une application critique tombe en panne, Signal alerte immédiatement les personnes concernées, avant que les enseignants et les élèves ne soient contraints d'attendre. Pour les collectivités locales écossaises qui s'efforcent de démontrer une gouvernance technologique responsable et de garantir que chaque jeune puisse participer pleinement à un monde où l'IA est omniprésente, Signal offre la visibilité opérationnelle nécessaire pour faire de cet objectif une réalité et non une simple aspiration.
Vision à la vitesse de la lumière. Visibilité, responsabilité et leadership éclairé
La stratégie préconise le développement des compétences en intelligence artificielle et le renforcement du leadership dans l'ensemble du secteur public, ainsi que la capacité des organismes publics à rendre compte de l'utilisation des données et des décisions prises. Lightspeed Insight offre aux responsables d'établissements scolaires et de collectivités locales une vision claire et factuelle de l'utilisation des appareils et des plateformes par les élèves : ce à quoi ils accèdent, quand et comment. Il ne s'agit pas de surveillance, mais d'une utilisation transparente et ciblée des données qui favorise une prise de décision éclairée, témoigne d'une gouvernance responsable et aide les responsables à identifier les zones à risque numérique. Dans le contexte du Registre écossais de l'IA et des exigences croissantes en matière de transparence, Insight fournit aux établissements scolaires les données probantes dont ils ont besoin.
Filtre à vitesse lumière. La première ligne de défense
Au cœur de tout cela se trouve Lightspeed Filter, notre solution de filtrage web basée sur l'IA qui empêche les élèves d'accéder à des contenus nuisibles, inappropriés ou dangereux. Filter n'est pas une simple liste noire ; elle utilise une catégorisation rapide et en temps réel pour s'adapter à l'évolution rapide du monde numérique. Pour les écoles écossaises opérant dans le cadre juridique de la Convention relative aux droits de l'enfant (CIDE), disposer d'une solution de filtrage robuste, vérifiable et réactive est une obligation de base en matière de protection de l'enfance, et non une option. Filter permet aux écoles de démontrer une protection active et proactive de l'environnement numérique des enfants, avec la transparence de gouvernance requise par la stratégie.
Une suite intégrée pour une stratégie intégrée
Ce qui rend l'offre de Lightspeed particulièrement pertinente dans le cadre de la stratégie écossaise en matière d'IA, c'est la complémentarité de ces outils. Filter crée un environnement numérique plus sûr. Insight offre aux responsables une visibilité accrue. Signal détecte les vulnérabilités en amont. Alert déclenche une intervention humaine lorsqu'un enfant est en danger. Ensemble, ils forment un écosystème de protection de l'enfance cohérent, auditable et centré sur l'enfant, soit précisément le type d'infrastructure d'IA responsable que l'Écosse demande aux organismes du secteur public de mettre en place.
La vue d'ensemble
La stratégie écossaise en matière d'IA pour 2026-2031 s'inscrit dans un mouvement plus large au Royaume-Uni et ailleurs. Les gouvernements passent de l'ambition à la responsabilité en matière d'IA. Le déploiement d'outils d'IA sans contrôle, notamment auprès des enfants, touche à sa fin.
Pour les responsables de l'éducation en Écosse, cette évolution représente à la fois un défi et une opportunité. Le défi est bien réel : il est nécessaire de mettre en place des cadres de gouvernance, de réaliser des audits d'IA et de sensibiliser le personnel à ce qu'implique concrètement une utilisation responsable de l'IA. Mais l'opportunité est tout aussi réelle : les écoles et les collectivités locales qui anticipent cette évolution seront mieux armées pour s'orienter dans le contexte réglementaire, préserver la confiance de la communauté et, surtout, garantir la sécurité des enfants.
Chez Lightspeed, nous souhaitons participer à cette évolution. Si vous représentez un établissement scolaire ou une collectivité locale en Écosse et que vous vous interrogez sur la gouvernance et la protection de l'IA dans le cadre de cette nouvelle stratégie nationale, nous serions ravis d'en discuter avec vous.
Car en matière de protection des enfants dans le monde numérique, l'Écosse a clairement exprimé ses attentes. Et nous pensons que c'est tout à fait justifié.
Si vous avez des questions sur la manière dont Lightspeed peut aider votre école ou votre groupe scolaire à préparer l'enseignement à l'IA en classe, veuillez contacter un membre de notre équipe. ici.