فكرة

في الفصل الدراسي، يجب ألاّ يتجاوز الذكاء الاصطناعي حدوده

يجب أن تخضع تطبيقات الذكاء الاصطناعي في التعليم إلى تقييمات مستقلة وتأطير جيّد. تلك هي الفكرة التي يدافع عنها بن ويليامسون والتي وحدها تجعل المدرسة قادرة على الحفاظ على رسالتها المتمثّلة أيضا في تطوير التفكير النقدي وتدريب مواطني الغد.
Artificial intelligence must be kept in check at school

بن ويليامسون،

أستاذ محاضر ومدير مشارك في مركز أبحاث التعليم الرقمي في جامعة إيدنبرغ (المملكة المتحدة). ألّف كتابين، الأوّل بعنوان "البيانات الضخمة في مجال التربية والتعليم: المستقبل الرقمي للتعلم، السياسة والممارسة، 2017 Big Data in Education: The Digital Future of Learning, Policy and Practice ، والثاني بعنوان "رقمنة التعليم في عصر الخوارزميات والأتمتة والذكاء الاصطناعي Digitalisation of Education in the Era of Algorithms, Automation and Artificial Intelligence" (يصدر في عام 2024) .

تجري حاليًا تجربة عالمية في مجال الذكاء الاصطناعي في المدارس. فمنذ إطلاق شات جي بي تي ChatGPT في نهاية 2022 سرعان ما تبعته "نماذج لغوية كبرى" أخرى. وبقدر ما لقيت هذه التقنيات حماسا لدى وسائل الإعلام فقد حذّرت أيضا من تأثيرها المحتمل على التعليم. وقد كتبت ستيفانيا جيانيني، المديرة العامة المساعدة لليونسكو لشؤون التعليم، في تفاعل مع وصول تطبيقات "الذكاء الاصطناعي التوليدي" إلى المدارس: "إنّ السّرعة التي تمّ بها إدماج تقنيات الذّكاء الاصطناعي التّوليدي في أنظمة الّتعليم، في غياب ضوابط أو قواعد أو تنظيمات، لأمر مروّع".

كان تقييمها واضحا حين كتبت: "بالنّظر إلى وظيفة التربية والتعليم في حماية وتشجيع التطوّر والتعلّم، يتعيّن التحلّي باليقظة على نحو خاص إزاء المخاطر المرتبطة بالذكاء الاصطناعي، سواء المعروفة منها أو تلك التي بدأنا بالكاد التعرف عليها. لكننا نتجاهل، في كثير من الأحيان، هذه المخاطر".

ومع ذلك، ما زالت هذه المخاطر لا تحظى بالتقييم المطلوب، وما زال المجتمع التربوي يحتاج إلى الدّعم لفهم هذه التّقنيات على نحو أفضل واتخاذ التدابير اللاّزمة لحماية المدارس من الأضرار التي قد تسبّبها هذه التّقنيات.

مكننة التدريس

إن المخاطر والآثار السلبية للذكاء الاصطناعي معروفة بدءاً من الأفكار المسبقة والتّمييز النّاجمين عن تدريب الأنظمة على مجموعات من البيانات التاريخية. ولعلّ هذه المؤاخذات كافية لوحدها لتبرير ضرورة إعادة النّظر في التّصريحات المبالغ فيها حول الذكاء الاصطناعي فضلا عن كون تطبيقها في المدرسة يطرح مشاكل أكثر خصوصية.

ويتعلّق أحد هذه التحدّيات بدور المعلّمين، حيث غالبا ما يزعم المتفائلون أن الذّكاء الاصطناعي لن يؤدّي أبداً إلى إحلال الرّوبوتات محلّ المعلمين بل سيوفر لهم الوقت، ويقلّل من عبء عملهم، ويتولّى سلسلة من المهام الروتينية عوضا عنهم. غير أنّ مكننة التدريس تضيف، في الواقع، عملا إضافيا، إذ يتعيّن على المدرّسين تكييف مناهجهم البيداغوجية لتتلاءم مع التقنيات الآلية. ربّما لن يتمّ استبدال المدرّسين بالروبوتات لكن الذّكاء الاصطناعي قد يجعل الرّوبوتات تتكفّل بالبعض من مهامهم  مثل تخطيط الدروس، وإعداد المواد، وتقييم الطلاب وتأطيرهم.

وكما أوردت الكاتبة الأمريكية، أودري واتّرز، في كتابها بعنوان "مكنات التدريس Teaching Machines"، فإن الفكرة القائلة بأنّ الرّوبوتات يمكن أن تعقلن العملية التعليمية، وأن "تضفي طابعا شخصيا" على التعلم، وتوفّر الوقت على المعلّمين، هي فكرة قديمة لا  تستند إلى رؤية تربوية بقدر ما هي من صنع استيهام صناعي يعتقد في بلوغ تعليم فائق الكفاءة.

محتويات مضلّلة

 وعلى صعيد آخر، تعتمد بعض استخدامات الذكاء الاصطناعي في الفصول الدراسية، والأكثر إثارة، على مفاهيم ضيّقة للتعلّم إذ غالبًا ما يحتجّ العلماء ومديرو الأعمال بدراسة أُجرِيت في السّتينيات وأظهرت أن المساعد التعليمي الفردي تترتّب عنه نتائج أفضل من التدريس الجماعي. و"ظاهرة النجاح"، هذه، المنبثقة عن تلك الدراسة من شأنها أن تدعم أكثر فكرة التدريس الفردي الذي تقدمه "الرّوبوتات المساعدة على التعليم". لكنّ الإشكال أنّها تعتمد على رؤية محدودة لأهداف التربية والتعليم وتختزلها في تحسين نتائج الأفراد القابلة للقياس.

يعتمد استخدام الذكاء الاصطناعي في الفصول الدراسية على رؤية محدودة لأغراض التعليم، ويختزلها في تحسين النتائج القابلة للقياس

مثل هذه الرؤية تتجاهل الرّهانات الأوسع للتربية والتعليم، والهادفة، علاوة عن النّتائج، إلى تكوين تفكير نقدي مستقلّ، وتعزيز نموّ شخصية الطلاب، وتكوين مواطنين ملتزمين، في حين أنّ التعليم الآلي لا يسعى لتحقيق أهداف التعليم العمومي وقيمه ويقف عند تحسين مقاييس التعلّم الفردي.

وعلى صعيد آخر، فإن أشكال التّدريس الآلي التي يتيحها الذكاء الاصطناعي ليست موثوقة كما يُزعم. فتطبيقات مثل شات جي بي تي ChatGPT أو غوغل بارد Google Bard تنحو إلى إنتاج محتويات غير دقيقة في الواقع إذ تكتفي بتوقّع الكلمة الموالية ضمن تسلسل معيّن وتوليد محتوى بشكل آلي للإجابة على طلب المستخدم. فهي مثيرة للإعجاب من الناحية الفنية ولكنّها قد تؤدي إلى إنتاج محتوى خاطئ أو مضلّل.

وقد وضع النّاقد التكنولوجي ماثيو كيرشنباوم Matthew Kirschenbaum تصوّرا "لنصّ كارثي textpocalypse" مفترضا حالة اجتياح معلومات خاطئة لشبكة الإنترنت ومبيّنا كيف سيؤدّي استخدام هذه التّقنيات إلى تلويث المواد التعليمية أو قد يتطلّب الأمر، في أدنى الأحوال، وقتًا طويلاً من المعلّمين للتثبّت من دقّة البيانات وتصحيحها.

خدمات مدفوعة الأجر

ويمكن أيضًا استغلال الذّكاء الاصطناعي في الرّقابة على المحتوى التعليمي. ففي التاريخ القريب، استخدمت إحدى الدّوائر التعليمية في الولايات المتحدة برنامج شات جي بي تي لتحديد الكتب غير المرخّص في اقتنائها من المكتبة بموجب القوانين المحافظة الجديدة المتعلّقة بمراقبة المحتوى التعليمي. هكذا، فإنّ الذّكاء الاصطناعي أبعد من أن يكون بوّابة محايدة للمعرفة والفهم، بل قد يساعد في تنفيذ سياسات اجتماعية رجعيّة، وأن يحدّ من الوصول إلى الوثائق الثقافية المتنوّعة.

ويجب أن نضيف أن السّباق لإدخال الذّكاء الاصطناعي إلى المدارس لا تحرّكه دوافع تعليمية بقدر ما تقف وراءه الرّؤى والمصالح المالية لقطاع الذكاء الاصطناعي. فعلى الرغم من الكلفة الباهظة للغاية لهذه التّقنيات، يُعتبر الذكاء الاصطناعي في التّعليم مُربحا للغاية. والمفترض أن تدفع المدارس الثمن، وكذلك الأولياء والطلاب أنفسهم مقابل الوصول إلى تطبيقات الذّكاء الاصطناعي ممّا يؤدي إلى رفع القيمة السوقية لشركات التّعليم التي أبرمت صفقة مع مشغّل رئيسي للذكاء الاصطناعي.

وبالتالي سيُفضي الأمر بالمدارس أو الدّوائر إلى دفع مقابلٍ للخدمات عن طريق عقود تسمح لمزوّد الذكاء الاصطناعي بتعويض كُلفة التّشغيل. وفي نهاية المطاف، سيتم سحب الاعتمادات العمومية المخصّصة للتعليم من المدارس لضمان ربحيّة هذه الشركات.

وفي الوقت نفسه، قد تتحوّل المدارس إلى تابعة لشركات التكنولوجيا وتفقد استقلاليتها مع ما قد يترتّب عن ذلك من ارتباط التعليم العمومي بأنظمة تقنية تابعة للقطاع الخاص وغير خاضعة للمساءلة. إضافة إلى أنّ الذكاء الاصطناعي يستهلك الكثير من الطّاقة، ومن المرجّح أن يتسبّب استخدامه في المدارس عبر العالم في تسريع التّدهور البيئي.

تدابير وقائية

هكذا يثير الذّكاء الاصطناعي في التّعليم مجموعة من الأسئلة الحاسمة التي يجب على المعلّمين ومديري الأنظمة معالجتها. فالمدارس في جميع أنحاء العالم تحتاج إلى مشورة وتوجيهات مستنيرة حول كيفيّة التّفاعل مع الذّكاء الاصطناعي بناءً على أهداف تربوية محدّدة بوضوح وتقييم المخاطر. ولقد بذلت المنظّمات الدولية جهودًا كبيرة لإنشاء أطر أخلاقية وتنظيمية متعلّقة بالذكاء الاصطناعي إذ من الضّروري ضمان حماية التعليم أيضًا.

تحتاج المدارس في جميع أنحاء العالم إلى المشورة والتوجيهات المستنيرة حول كيفيّة التّفاعل مع الذّكاء الاصطناعي

وعلاوة عن الأدوات التنظيمية، ينبغي للهيئات الوطنية والمسؤولين النّظر في إنشاء أشكال جديدة للرقابة على الذّكاء الاصطناعي في التعليم. ففي المملكة المتحدة، اقترحت لجنة متابعة المستقبل الرّقمي Digital Futures Commission مؤخراً برنامج مصادقة على تكنولوجيا التربية والتعليم يشترط على الشركات أن تُثبِت بوضوح قيمتها البيداغوجية وأن تضع تدابير حماية قوية للأطفال قبل أن تتمكّن من دخول المدارس.

كما يجب، مع ظهور الذّكاء الاصطناعي، إيجاد منظمات قادرة على إجراء "عمليات تدقيق خوارزمية" مستقلّة، أي إجراء تقييمات لما يمكن أن تؤدّي إليه الأنظمة الآلية، بما يمكّن من منع انتشار الذكاء الاصطناعي في المدارس دون رقابة. ومثل هذه الحماية تتطلّب إرادة سياسية وضغوطاً خارجية من المنظّمات الدّولية النّافذة. فأمام التطوّر غير المراقب للذّكاء الاصطناعي، يمكن للتّقييم المستقلّ وشهادات التّصديق أن تمثّل الوسيلة الأفضل لتجنيب المدارس التحوّل إلى مواقع للتّجارب التكنولوجية الدّائمة.

دليل لتقنين الذّكاء الاصطناعي في مجال التّعليم

يتضمّن أوّل دليل عالمي للذّكاء الاصطناعي التّوليدي في مجال التّربية والبحث، نشرته اليونسكو في سبتمبر 2023، عددا من المقترحات من بينها تحديد سنّ الثالثة عشر كحدّ أدنى لاستخدام الذكاء الاصطناعي في فصول الدراسة، واعتماد معايير تتعلّق بحماية المعطيات والحياة الشّخصية، وتنظيم دورات تدريبية خصوصية للمُدرّسين...

أمام التطوّر السّريع لنُظم الذّكاء الاصطناعي التّوليدي، تدعو المنظّمة الحكومات إلى تقنين استخدامها في المدارس ضمانا لمقاربة تركّز على الجانب الإنساني عند استغلالها لأغراض تربويّة وتعليمية.

يعرض الدّليل تفاصيل التّقنيات التي يستخدمها الذّكاء الاصطناعي التّوليدي وآثارها في المجال التّربوي والتّعليمي، ويُبيّن للحكومات المراحل الرّئيسية التي يجب انتهاجها لتنظيم هذه التّقنيات وتوفير الأطر السّياسية اللازمة لاستعمالها الأخلاقي في المدارس.

ويحذّر من مخاطر تفاقم الفجوة الرّقمية، ويدعو أصحاب القرار السّياسي إلى معالجة هذه المشكلة. فالنّماذج الحالية للـشات جي بي تي (المُحوّل التوليديّ المُدرَّب مُسبقًا للدردشة) يتم، فعليا، تدريبها انطلاقا من المعطيات المُتأتية من مستخدمي الإنترنت الذين يتداولون القيم والمعايير الاجتماعية السّائدة في الشمال.

وقد اكتشف الجمهور الذّكاء الاصطناعي التّوليدي في نوفمبر 2022 عندما تمّ إطلاق شات جي بي تي، التي أصبحت التّطبيقة الأسرع تطوّرا في التاريخ. وباعتبارها قادرة على توليد النّصوص، والصّور، ومقاطع الفيديو، والموسيقى، ورموز البرامج، فإنّ أدوات الذكاء الاصطناعي التّوليدي سيكون لها تأثير هامّ على التّعليم والبحث. وقد حذّرت اليونسكو، في يونيو 2023، من الانتشار السّريع للغاية للذّكاء الاصطناعي في المدارس، ومن قلّة المراقبة والقواعد والضّوابط وهو ما يبعث على القلق.

ورغم ذلك، فإن قطاع التّعليم ما زال غير مستعدّ على النّحو المطلوب لإدماج هذه الأدوات سريعة التطوّر من النّاحية الأخلاقية والبيداغوجية وتمثّلها. وحسب تحقيق عالمي حديث أجرته اليونسكو مع أكثر من 450 مدرسة وجامعة، فإن أقل من %10 منها لديها سياسات مؤسّسية و/أو توجّهات رسمية بخصوص استخدام التّطبيقات التوليدية للذكاء الاصطناعي. ويعود ذلك إلى حدّ كبير إلى غياب قواعد تنظيمية وطنية.

订阅《信使》

اشتركوا في الرّسالة