يُعيد الذكاء الاصطناعي صياغة التعليم العالي بشكل واسع وبوتيرة متسارعة، مُؤثِّرًا على أساليب التعليم، ووسائل التقييم، والعمليات الإدارية، والأنشطة البحثية. وبينما يخلق الذكاء الاصطناعي مجالًا هائلًا للابتكار والتطوّر، فإنه من جهة أخرى يخلق معضلات ويُثير مخاوف حوكمية أخلاقية وتربوية.
في هذا السياق، لا يُمكن للمؤسسات التعليمية الاعتماد على قرارات ارتجالية أو معايير فردية. لذا، تُعدّ السياسات الإدارية الواضحة بشأن استعمال الذكاء الاصطناعي ضرورية لضمان النزاهة الأكاديمية والعدالة والاتساق.
تعريف السياسة الإدارية وأهميتها: تُعرَّف السياسة الإدارية بشكل عام بأنها مجموعة ثابتة من التوجيهات أو المبادئ التي تُوجِّه عملية صنع القرار وسلوك الأفراد داخل المؤسسة. وتُحدِّد السياسة الإدارية مسار الأمور في المواقف الحساسة، وتُقلِّل من الغموض في الحالات المعقّدة، وتُوضِّح ما هو محظور وما هو مسموح به. أمّا على المستوى التنظيمي، فإن السياسات الإدارية الواضحة تفرض التوافق مع القيم المؤسسية والأهداف الاستراتيجية، وتُعزِّز الشفافية والمساءلة.
وفي حال غياب سياسات إدارية مُحدَّدة بوضوح، تنزلق المؤسسة إلى ممارسات غير متّسقة، ويُطبَّق معايير مزدوجة أو غير عادلة، وتتعرّض لتحدّيات أخلاقية أو قانونية، وتُثار نزاعات بين أصحاب المصلحة.
النقاش الدائر حول دور وتأثير الذكاء الاصطناعي في التعليم: يُعدّ استعمال الذكاء الاصطناعي في المؤسسات التعليمية موضوعًا جدليًا حساسًا في هذه المرحلة. فمن جهة، تُسهم أدوات الذكاء الاصطناعي في زيادة إنتاجية أعضاء هيئة التدريس، كما يمكنها تحسين عملية التعلّم من خلال دعم التعليم المُخصّص ومساعدة الطلاب الذين يواجهون صعوبات لغوية. ومن جهة أخرى، أُثيرت مخاوف جدّية بشأن سوء الاستخدام، كالاعتماد المفرط واحتمالية تراجع مهارات التفكير النقدي، ومسائل الملكية الفكرية وخصوصية البيانات، والتحيّزات الخوارزمية.
في غياب سياسات إدارية واضحة، غالبًا ما تتباين استجابات الأساتذة: فالبعض يُشجِّع استخدامه دون قيود، والبعض يحظر استعمال الذكاء الاصطناعي حظرًا تامًا، فيتلقّى الطلاب إشارات متناقضة حول الممارسات الصحيحة. هذا الغموض قد يُربك العملية التعليمية، ويضع أعضاء هيئة التدريس في مواقف حرجة عند التعامل مع حالات سوء الاستخدام المشتبه بها، بالإضافة إلى أنه يُقوِّض الثقة ويُفاقم التفاوت بين الطلاب.
تساعد السياسة الواضحة على تحديد موقف المؤسسة من استخدام الذكاء الاصطناعي، وعلى التمييز بين الاستخدامات التعليمية المشروعة للذكاء الاصطناعي والممارسات المحظورة، وبالتالي حماية كلٍّ من الطلاب والأساتذة.
إضافةً إلى ذلك، فإن القرارات المتعلقة باستعمال الذكاء الاصطناعي لها تداعيات تتخطّى حدود قاعة الدراسة. فمسائل مثل إدارة البيانات، ومعايير الاعتماد وصحّة التقييم، والتحيّز الخوارزمي، تتطلّب استجابات إدارية منسّقة وموحّدة بدلًا من أحكام فردية منعزلة.
في الخلاصة، لم تعد السياسات التنظيمية بشأن استخدام الذكاء الاصطناعي خيارًا ترفهيًا، بل أصبحت ضرورة حتمية. فهذه السياسات تُقلِّل من الغموض، وتُؤمِّن إرشادات واضحة، وتدعم الابتكار المسؤول مع الحفاظ على القيم الأكاديمية.
فمن خلال وضع سياسات مرنة تواكب تطوّر الذكاء الاصطناعي، تستطيع المؤسسات التعليمية الحدّ من مخاطر سوء استعمال الذكاء الاصطناعي مع الاستفادة منه، بما يضمن أن يُطوِّر التعليم لا أن يُقوِّضه.



