الذكاء الاصطناعي هنا. ولكن هل الذكاء الاصطناعي آمن للطلاب؟

إن الأمر التنفيذي الرئاسي، والفوائد التعليمية العديدة، وانتشار أدوات الذكاء الاصطناعي، كلها عوامل تدفع إلى زيادة استخدامها في المدارس.

ولكن مع لجوء الطلاب إلى الذكاء الاصطناعي طلباً للنصيحة والرفقة، فإن المخاطر تمتد إلى ما هو أبعد من الغش والنزاهة الأكاديمية.

يجب أن تكون السلامة الاستباقية للذكاء الاصطناعي ومراقبته أساسًا لاستراتيجية الذكاء الاصطناعي في أي مدرسة.

مخاطر وصول الطلاب إلى الذكاء الاصطناعي دون مراقبة

لا يقتصر الأمر على الغش والنزاهة الأكاديمية فحسب، بل إن مخاطر استخدام الطلاب للذكاء الاصطناعي قد تكون قاتلة بكل معنى الكلمة.

أفاد ما يقرب من 3/7 من المراهقين باستخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي كرفاق لهم - وأكثر من النصف يفعلون ذلك بانتظام.

الذكاء الاصطناعي بطبيعته ميالٌ للتملق، ومن المرجح أن يوافق ويشجع أكثر من أن يثني. وللأسف، قد يشمل ذلك تشجيع الأفكار المتعلقة بالعنف وإيذاء النفس، مما قد يؤدي إلى تفاقم المواقف الخطيرة بشكل أسرع.

وقد ثبت أن هذه المحادثات، التي لا تخضع للمراقبة، تتجاهل بسرعة الحواجز وتتحول إلى نصائح خطيرة وقاتلة.

يمكن أن يكون إيذاء النفس والانتحار والعنف والتزييف العميق والابتزاز الجنسي نتائج لنشاط الذكاء الاصطناعي غير المراقب.

حواجز الذكاء الاصطناعي الأصلية ليست كافية

الطلاب بارعون في التهرب من الحماية. لا يمكن للمدارس الاعتماد على أنظمة الذكاء الاصطناعي المدمجة وحدها.

ChatGPT، وGemini، وCo-Pilot، وCharacterAI… تعمل جميع الجهات الفاعلة الرئيسية في مجال الذكاء الاصطناعي بشكل نشط على بناء وتعزيز الحواجز الواقية داخل أنظمتها.

لكننا نعلم أن الأطفال سيحاولون - وينجحون - في التهرب من الحواجز. 

بالإضافة إلى ذلك، ولضمان السلامة والاستخدام المناسب، تحتاج المدارس إلى ضمان التدخل المبكر بشأن المطالبات المثيرة للقلق (بغض النظر عن استجابة الذكاء الاصطناعي).

ما يحدث مع الذكاء الاصطناعي في المدارس اليوم

في العام الماضي، شهدنا أكثر من 10000 حادثة على مواقع الذكاء الاصطناعي، على الرغم من حظر الذكاء الاصطناعي على نطاق واسع.

حظر الذكاء الاصطناعي مقابل السماح به

اليوم، لا تزال معظم المدارس (85%) تمنع استخدام الذكاء الاصطناعي التوليدي لمعظم الطلاب. لكن التوجه يتجه تدريجيًا نحو إتاحة الوصول إلى الذكاء الاصطناعي لبعض التطبيقات ولبعض مجموعات الطلاب.

حتى عندما يتم حظر الذكاء الاصطناعي، يمكن تقديم الدردشات التي تعتمد على الذكاء الاصطناعي في تطبيقات أخرى دون فحص، مما قد يفتح الباب أمام المخاطر.

من أين تأتي تنبيهات الذكاء الاصطناعي؟

تعمل Character.AI جنبًا إلى جنب مع منصات الذكاء الاصطناعي الرائدة على توليد غالبية التنبيهات من المستوى 3 (عالية) و4 (وشيكة) داخل Lightspeed Alert.

لكن مئات من أدوات الذكاء الاصطناعي الأخرى، بالإضافة إلى محادثات الذكاء الاصطناعي ضمن أدوات أخرى، تُشكّل نفس المخاطر. في العام الماضي، وردت تنبيهات من أكثر من 130 مجالًا مختلفًا مرتبطًا بالذكاء الاصطناعي.

أمثلة على تنبيهات الذكاء الاصطناعي

تُظهر التنبيهات التي نراها أن الطلاب يستخدمون الذكاء الاصطناعي لمشاركة مخاوفهم المتعلقة بالصحة العقلية ومناقشة إيذاء النفس والعنف.

بدون التنبيه، غالبًا ما تكون محادثات الذكاء الاصطناعي غير مراقبة تمامًا. 

وتحتاج هذه الأنشطة المثيرة للقلق إلى أن يتم عرضها على الفور على قادة السلامة في المدرسة وخدمات الطلاب.

تنبيه Lightspeed يمكن أن يساعد في مجال الذكاء الاصطناعي
المراقبة والسلامة في المدارس

يضيف Alert مراقبة استباقية وتنبيهات في الوقت الفعلي لتفاعلات الذكاء الاصطناعي

مع Lightspeed Alert، لن تحتاج إلى الاعتماد على حواجز أو سجلات الذكاء الاصطناعي الأصلية.

تحصل المدارس على تنبيهات في الوقت الفعلي بشأن أي نشاط يحدث أينما حدث، بما في ذلك ChatGPT وGemini وCo-Pilot وأدوات وميزات الذكاء الاصطناعي التوليدية الأخرى.

  1. يستخدم الطالب الذكاء الاصطناعي التوليدي

  2. أنواع الطلاب فيما يتعلق بالمطالبة

  3. ينشئ التنبيه حادثًا في الوقت الفعلي ويُخطر الموظفين المناسبين (بما في ذلك المراجعة البشرية لدينا، إذا تم تمكينها)

  4. بغض النظر عن فعالية إعادة توجيه الذكاء الاصطناعي أو حواجز الأمان، فإن التدخل المبكر يمكن أن يمنع المأساة

شاهد كيف تتفوق مدرستك على تقييم السلامة

سيوفر تقييم السلامة المجاني لمدة 30 يومًا تحليلًا شاملاً لملف السلامة في جميع مدارسك، بما في ذلك استخدام الذكاء الاصطناعي المحفوف بالمخاطر من قبل الطلاب.

 إليك كيفية البدء:

1. املأ النموذج لبدء العملية. تواصل مع خبرائنا لبدء تقييمك بسهولة.

2. شغّل خاصية التنبيه في الخلفية لمدة 30 يومًا، لجمع بيانات حول ثقافة السلامة لديك ونقاط الخطر. (مع أنها تعمل في الخلفية، سنتصل بك في حال حدوث أي طارئ!)

3. احصل على تقييم شامل للسلامة، مع تسليط الضوء على التنبيهات والمواقع الخطرة ومجالات القلق المتعلقة بالسلامة باستخدام الذكاء الاصطناعي وغيرها من المواقف.

4. قم بمشاركة البيانات مع قادة المدارس الآخرين لتحقيق تحسينات ذات معنى في مجال السلامة.

اطلب تقييم السلامة اليوم

اجعل السلامة جزءًا أساسيًا من استراتيجية الذكاء الاصطناعي الخاصة بك

ضمان استخدام الذكاء الاصطناعي بطريقة SMART (الآمنة والمدارة والمناسبة والمبلغ عنها والشفافة)

طبيب بيطري

قم بمراجعة تطبيقات الذكاء الاصطناعي (والتطبيقات غير المعتمدة على الذكاء الاصطناعي والتي تحتوي على ميزات الذكاء الاصطناعي) فيما يتعلق بالخصوصية والأمان وحواجز السلامة والتأثير. (رؤية لايت سبيد)

حظر/السماح

احظر التطبيقات غير المعتمدة أو فئات الذكاء الاصطناعي. اسمح بالتطبيقات المعتمدة حسب المجموعة أو الدرجة حسب الحاجة.فلتر سرعة الضوء)

تقرير

إعداد تقرير عن استخدام تطبيقات الذكاء الاصطناعي حسب المستخدم أو الفصل أو المدرسة أو المجموعة وتقييم التأثير التعليمي أو التنظيمي. (رؤية لايت سبيد)

يكشف

اكتشاف استخدام الذكاء الاصطناعي في الفصل الدراسي في الوقت الفعلي وإخطار المعلمين حتى يتمكنوا من تقييم مدى صحة الاستخدام.صف لايت سبيد)

شاشة

ضمان الاستخدام الآمن للذكاء الاصطناعي من خلال المراقبة المستمرة وتقييم المخاطر والتنبيهات في الوقت الفعلي.تنبيه سرعة الضوء)