تتبنى اسكتلندا استراتيجية جديدة للذكاء الاصطناعي، وتُعدّ الحماية جوهرها.  



صدرت استراتيجية اسكتلندا للذكاء الاصطناعي 2026-2031 بهدوء في أوائل عام 2026، إلا أن تداعياتها على المدارس والسلطات المحلية ومزودي التكنولوجيا العاملين في قطاع التعليم بالغة الأهمية. تُعد هذه الوثيقة مرجعية هامة، إذ تُشير إلى تحول جذري في كيفية توقع الحكومة الاسكتلندية لتبني الذكاء الاصطناعي وإدارته ومساءلته في مختلف الخدمات العامة. 

بالنسبة لنا نحن العاملين في مجال الحماية والتحول الرقمي، يبدو الأمر وكأنه دعوة للعمل. 

سبق لاسكتلندا أن نشرت استراتيجيات للذكاء الاصطناعي، لكن هذه الاستراتيجية مختلفة. فبينما ركزت الأطر السابقة بشكل أساسي على الفرص الاقتصادية والابتكار، تركز استراتيجية 2026-2031 على شيء أكثر أهمية بكثير: يثق. وعلى وجه التحديد، الثقة فيما يتعلق بأكثر أفراد مجتمعنا ضعفاً؛ الأطفال. 

تستند هذه الاستراتيجية إلى دمج اسكتلندا لـ اتفاقية الأمم المتحدة لحقوق الطفل (UNCRC) أُدرج هذا النظام في القانون المحلي، لتصبح اسكتلندا بذلك أول دولة ذات حكم ذاتي في العالم تفعل ذلك. وهذا ليس مجرد إجراء رمزي، بل له تداعيات سياسية مباشرة على كل نظام ذكاء اصطناعي يُستخدم في المدارس، أو السلطات المحلية، أو أي خدمة عامة تمس حياة الأطفال. 

هذا ليس مجرد توجيهات. إنها الخلفية السياسية التي سيتم على أساسها تقييم قرارات الشراء وأطر الحوكمة والاستراتيجيات المؤسسية بشكل متزايد. 

من خلال خمس أولويات استراتيجية؛ الخدمات العامة، والأعمال والاقتصاد، والبحث والابتكار، والمشاركة العامة، ومهارات القوى العاملة، تنسج الاستراتيجية خيطاً متسقاً: الذكاء الاصطناعي المسؤول أمر لا يقبل المساومة

تبرز بعض الالتزامات باعتبارها ذات أهمية خاصة في مجال التعليم والحماية: 

سجل اسكتلندي عام للذكاء الاصطناعي. ستنشر الحكومة سجلاً شاملاً لجميع أنظمة الذكاء الاصطناعي المستخدمة في القطاع العام الاسكتلندي، كاشفةً عن البيانات المستخدمة، وكيفية استخدامها، والجهة المسؤولة عنها. ويمثل هذا المستوى من الشفافية معياراً جديداً. وسيُطلب من المدارس والسلطات المحلية معرفة أنظمة الذكاء الاصطناعي التي تُشغّلها، وتقديم تقارير وافية عنها. 

نموذج "سلسلة الثقة" لحوكمة الذكاء الاصطناعي. تتطلب هذه الاستراتيجية صراحةً أن يكون الذكاء الاصطناعي قابلاً للتفسير، وخاضعاً للتدقيق البشري، ومُداراً من خلال هياكل مساءلة واضحة. يجب أن تكون القرارات الآلية قابلة للطعن. هذا ليس مجرد ممارسة جيدة، بل سيصبح أمراً متوقعاً. 

عشرة إجراءات مبكرة سيتم تنفيذها قبل مارس 2027. الوقت يمر بسرعة. ومن بين هذه الإجراءات تطبيق إطار عمل صارم وموثوق لاستخدام الذكاء الاصطناعي بشكل آمن وأخلاقي في الرعاية الصحية والاجتماعية، مع التركيز بشكل أساسي على التعليم. أمام هيئات القطاع العام أقل من عام للبدء في إظهار التزامها بهذا الإطار. 

برنامج مشاركة عامة على مستوى البلاد. إدراكًا منها لهشاشة ثقة الجمهور بالذكاء الاصطناعي، تُطلق الحكومة مبادرة استماع لفهم المخاوف وبناء الثقة. وستشارك المدارس والسلطات المحلية في هذا الحوار، وسيتعين عليها إثبات أنها تستخدم الذكاء الاصطناعي بطريقة تحظى بثقة المجتمعات. 

بالنسبة للمدارس والسلطات المحلية في اسكتلندا، لا تمثل هذه الاستراتيجية طموحاً سياسياً بعيد المنال، بل هي واقع عملي وشيك. 

أصبحت الحوكمة والمساءلة محط اهتمام بالغ. يُعدّ توقع قدرة الهيئات العامة على تحديد وشرح وتبرير كل نظام ذكاء اصطناعي تستخدمه مطلبًا بالغ الأهمية. فالعديد من المدارس حاليًا لا تملك سوى رؤية محدودة لأنظمة الذكاء الاصطناعي المدمجة في منصاتها، بدءًا من فلاتر المحتوى وأدوات المراقبة وصولًا إلى أنظمة إدارة المعلومات. وهذا الوضع بحاجة إلى تغيير. سيحتاج القادة إلى إجراء عمليات تدقيق للذكاء الاصطناعي، ومراجعة أطر حوكمة البيانات، والتأكد من قدرتهم على الإجابة عن أسئلة أساسية: ما نوع الذكاء الاصطناعي الذي نستخدمه؟ ما البيانات التي يتعامل معها؟ من المسؤول عند حدوث خلل ما؟ 

إن مسألة الحماية مسألة امتثال، وليست مجرد مسألة قيم. مع إدراج اتفاقية حقوق الطفل في القانون الاسكتلندي واعتماد توجيهات اليونيسف بشأن الذكاء الاصطناعي على المستوى الوطني، فإنّ التقصير في حماية الأطفال من الأذى عبر الإنترنت أو عدم وجود آليات حماية كافية مدعومة بالذكاء الاصطناعي، يُرتب تبعات قانونية وسمعة سيئة. لذا، يتعين على المديرين ومديري المدارس ومسؤولي التعليم التفكير الآن فيما إذا كانت أدواتهم وإجراءاتهم الحالية تفي بهذا المعيار الناشئ. 

ستخضع قرارات الشراء لمزيد من التدقيق. عندما تشتري مدرسة أو سلطة محلية أداةً مدعومة بالذكاء الاصطناعي، فإنها تتخذ ضمنيًا قرارًا يتعلق بحماية الأطفال. هل النظام قابل للتفسير؟ هل يمكن تدقيقه؟ هل يحمي بيانات الأطفال؟ هل يُشير إلى أي خطر يهدد الإنسان أم يتخذ قرارات مستقلة دون إشراف؟ لم تعد هذه الأسئلة مجرد إضافات اختيارية في قائمة التحقق من المشتريات، بل أصبحت أساسية. 

يجب أن يقود التحول الرقمي القيم، وليس الكفاءة فقط. تُؤكد الاستراتيجية بوضوح على ضرورة أن يكون تبني الذكاء الاصطناعي مدفوعًا بتحقيق نتائج ملموسة للأفراد، وليس بتوفير التكاليف فقط. بالنسبة لقادة التعليم، يعني هذا أن استراتيجيات التحول الرقمي تحتاج إلى منظور وقائي مُدمج منذ البداية، لا أن يُضاف إليها لاحقًا.  

في شركة لايت سبيد، نعمل منذ سنوات عديدة على تطوير أدوات الحماية والرفاهية الرقمية للمدارس. لا تُغيّر استراتيجية الذكاء الاصطناعي في اسكتلندا للفترة 2026-2031 من طبيعة عملنا، ولكنها تُقدّم أوضح تعبير ممكن عن لماذا الأمر مهم، وهو أقوى تفويض رأيناه للمدارس والسلطات المحلية للتحرك. 

في جميع منتجاتنا، تستند كل أداة نقدمها إلى نفس المبدأ الأساسي: تكنولوجيا مسؤولة وشفافة ومتمحورة حول الطفل تضع الناس، وليس الخوارزميات، في موقع التحكم. 

يُعدّ نظام Lightspeed Alert أداة حماية مدعومة بالذكاء الاصطناعي، وهو الاستجابة الأمثل لمتطلبات استراتيجية اسكتلندا. يراقب النظام أنشطة الطلاب عبر أجهزة المدرسة، ويُشير فورًا إلى أي خطر، كإيذاء النفس، أو الإساءة، أو الاستغلال، أو التطرف، ويُبلغ مسؤول الحماية المُعيّن. والأهم من ذلك، أن الذكاء الاصطناعي يُحدد مصدر القلق، ثم يتخذ شخصٌ ما القرار المناسب. لا توجد قرارات آلية بشأن الأطفال، ولا توجد أنظمة مبهمة. يتم تسجيل كل تنبيه، وإجراء، ونتيجة، ومراجعتها، مما يُتيح للمدارس والسلطات المحلية سجل حماية قابل للتدقيق، وهو ما يتطلبه سجل الذكاء الاصطناعي الاسكتلندي. عندما تتحدث استراتيجية اسكتلندا عن الشفافية، والإشراف البشري، والذكاء الاصطناعي المسؤول، فإن نظام Alert هو تجسيدٌ عمليٌّ لذلك. 

تتطلب استراتيجية اسكتلندا أن يكون الذكاء الاصطناعي في الخدمات العامة شفافًا، ومبنيًا على الأدلة، ومصممًا لدعم اتخاذ القرارات المستنيرة. يوفر نظام Lightspeed Signal هذه الميزة تحديدًا لفرق تكنولوجيا المعلومات في المدارس وقادة السلطات المحلية. Signal عبارة عن منصة مراقبة فورية تتتبع حالة الأجهزة، واتصال الإنترنت، وأداء التطبيقات على جميع أجهزة المدرسة، داخل الحرم الجامعي وفي المنزل. يكشف النظام عن المخاطر الأمنية مثل المستخدمين غير المصرح لهم، واستخدام الشبكات الافتراضية الخاصة (VPN) والخوادم الوكيلة، ويشير إلى الطلاب الذين يعانون من ضعف الاتصال بالإنترنت في المنزل، مما يتيح تحديد فجوات التكافؤ الرقمي ومعالجتها بدقة. عند تعطل تطبيق حيوي، يُنبه Signal الأشخاص المعنيين فورًا، قبل أن يضطر المعلمون والطلاب إلى الانتظار. بالنسبة للسلطات المحلية الاسكتلندية التي تعمل على إظهار حوكمة تكنولوجية مسؤولة وضمان مشاركة كل شاب بشكل كامل في عالم مدعوم بالذكاء الاصطناعي، يوفر Signal الرؤية التشغيلية اللازمة لتحويل ذلك إلى واقع ملموس بدلًا من مجرد طموح. 

تدعو الاستراتيجية إلى تعزيز الوعي بالذكاء الاصطناعي وبناء قدرات قيادية في القطاع العام، وتمكين الهيئات العامة من تقديم تقارير واضحة حول كيفية استخدام البيانات والقرارات المتخذة. يوفر برنامج Lightspeed Insight لقادة المدارس والسلطات المحلية رؤيةً واضحةً وموثقةً بالأدلة حول كيفية تفاعل الطلاب مع الأجهزة والمنصات؛ وما يصلون إليه، ومتى، وكيف. هذا ليس تجسسًا، بل هو استخدامٌ شفافٌ وهادفٌ للبيانات يدعم اتخاذ القرارات المستنيرة، ويُظهر حوكمةً مسؤولة، ويساعد القادة على تحديد مواطن تركز المخاطر الرقمية. في سياق سجل الذكاء الاصطناعي الاسكتلندي وتزايد توقعات المساءلة، يوفر برنامج Insight للمدارس قاعدة الأدلة التي تحتاجها. 

يرتكز كل شيء على Lightspeed Filter، حلّنا المدعوم بالذكاء الاصطناعي لفلترة محتوى الإنترنت، والذي يمنع الطلاب من الوصول إلى المحتوى الضار أو غير اللائق أو الخطير من الأساس. لا يقتصر دور Filter على مجرد قائمة حظر، بل يستخدم تصنيفًا دقيقًا وفوريًا لمواكبة التطور السريع للبيئة الإلكترونية. بالنسبة للمدارس الاسكتلندية العاملة ضمن الإطار القانوني لاتفاقية الأمم المتحدة لحقوق الطفل، يُعدّ وجود حلّ فلترة قوي وقابل للتدقيق وسريع الاستجابة شرطًا أساسيًا لحماية الأطفال، وليس إضافة اختيارية. يضمن Filter قدرة المدارس على إظهار حماية فعّالة واستباقية للبيئة الرقمية للأطفال، مع شفافية الحوكمة التي تتطلبها الاستراتيجية. 

ما يجعل عرض Lightspeed ذا قوة خاصة في سياق استراتيجية الذكاء الاصطناعي في اسكتلندا هو تكامل هذه الأدوات. فأداة Filter تُنشئ بيئة رقمية أكثر أمانًا، وأداة Insight تُتيح للقادة رؤية شاملة، وأداة Signal تُحدد نقاط الضعف مبكرًا، وأداة Alert تُفعّل إجراءات بشرية عند تعرض الطفل للخطر. تشكل هذه الأدوات مجتمعةً منظومة حماية متكاملة وقابلة للتدقيق ومُركزة على الطفل، وهي تحديدًا نوع البنية التحتية المسؤولة للذكاء الاصطناعي التي تطالب اسكتلندا هيئات القطاع العام ببنائها. 

تُعدّ استراتيجية اسكتلندا للذكاء الاصطناعي 2026-2031 جزءًا من تحوّل أوسع نطاقًا في المملكة المتحدة وخارجها. إذ تنتقل الحكومات من التطلعات إلى المساءلة فيما يتعلق بالذكاء الاصطناعي. وقد ولّى زمن استخدام أدوات الذكاء الاصطناعي دون تدقيق، لا سيما في المجالات التي تشمل الأطفال. 

بالنسبة لقادة التعليم في اسكتلندا، يُمثل هذا التحول تحديًا وفرصة في آنٍ واحد. التحدي حقيقي: إذ يتطلب الأمر بناء أطر حوكمة، وإجراء عمليات تدقيق للذكاء الاصطناعي، وفهم الموظفين لكيفية الاستخدام المسؤول للذكاء الاصطناعي عمليًا. أما الفرصة فهي حقيقية أيضًا: فالمدارس والسلطات المحلية التي تستبق هذا التطور ستكون في وضع أفضل للتعامل مع البيئة التنظيمية، والحفاظ على ثقة المجتمع، والأهم من ذلك، ضمان سلامة الأطفال. 

في لايت سبيد، نرغب في أن نكون جزءًا من هذه الرحلة. إذا كنتم مدرسة أو جهة حكومية محلية في اسكتلندا تفكرون في شكل حوكمة الذكاء الاصطناعي وحمايته في سياق هذه الاستراتيجية الوطنية الجديدة، يسعدنا أن نناقش هذا الأمر معكم. 

لأن اسكتلندا أوضحت توقعاتها بوضوح تام عندما يتعلق الأمر بحماية الأطفال في العالم الرقمي. ونعتقد أن هذا هو الصواب تماماً. 

إذا كانت لديكم أي استفسارات حول كيفية مساعدة Lightspeed لمدرستكم أو مؤسستكم التعليمية في تجهيزها لفصول الذكاء الاصطناعي، فيرجى التواصل مع أحد أعضاء فريقنا. هنا.

المشاركات الاخيرة