نُشر هذا المقال في The Chronicle of Higher Education بقلم Clay Shirky (3 نوفمبر/تشرين الثاني 2025)، ويقدّم أطروحة جريئة عن «الجامعة بعد الانتحال» حيث لم يعد ممكناً حشر الذكاء الاصطناعي التوليدي في قوالب الغش والانتحال التقليدية. ينطلق الكاتب من تجربة جامعية قديمة تُعامَل فيها السرقة العلمية بوصفها «الجريمة»، ثم يُظهر كيف أغرى هذا الإرث مؤسساتٍ مثل بيركلي بتوسيع تعريف الانتحال ليشمل كل استخدام غير مصرّح للـAI، كأنه مؤلف بشري.
لكن الطلاب، الذين تربّوا في عالم نصوص رقمية وفائض وصول، لا يرون في النسخ عن آلة «ضحية بشرية»، فلا يتعاملون معه باعتباره انتحالًا بالمعنى الأخلاقي المألوف، بل «غشاً» بلا مجنيّ عليه. هنا يميّز شيركي بين الانتحال كنوع «أخطر» من الغش لوجود صاحب حق محدد، وبين استعمال الذكاء الاصطناعي الذي يربك هذا الأساس، مقترحاً معيارًا أبسط وأدق للسياسات: جوهر الجريمة هو «إيهام المقوِّم بأن مستوى الإتقان أعلى مما هو عليه فعلاً»؛ أي خداع يقيس التعلّم. ومع تعذّر الردع بقرارات المنع وحدها، وفشل كواشف الـAI في تقديم دليل يعتمد عليه أسوةً بتأثير Turnitin في ما قبل 2022، يتبدّى الخلل الأعمق: رغبة جامعية في الحفاظ على ممارسات التقييم القديمة من دون إعادة تصميم المهام وأساليب القياس. حتى «شيفرات الشرف» تتراجع فعاليتها لأن الامتثال فيها نتيجة لثقافة طلابية مُتَبناة، لا سببٌ مولِّد لها؛ لذا تراجعت جامعات عن صيغ التبليغ الإلزامي بين الأقران.
يعرض المقال سؤالاً مؤسِّساً: هل نتعامل مع الذكاء الاصطناعي كـ«عملية غير بشرية» فنبحث لها عن حلول ميكانيكية على غرار مطابقة النصوص؟ أم كـ«كيان يُحاوِر» فنحتاج لفرضيات مختلفة كلياً حول التأليف والتقويم؟ الحقيقة أنه «شيء ثالث» لا ينطبق تمامًا على أيٍّ من التصنيفين، ما يفرض إعادة تخيّل ثقافة النزاهة الأكاديمية بدل ترقيعها.
الخلاصة العملية: المشكلة ليست «عصيان الطلاب»، بل فجوة شرعية بين قواعد تَطْلب موافقتهم الضمنية وتجربة تعلم غيّرتها قدرات الحوار الآلي. وكما الماء يرسم مجرى النهر على المدى البعيد، فإن ثقافة الطلاب ستعيد رسم سياسات الجامعة ما بعد الانتحال، إذا لم تبادر الجامعات إلى مهام أصيلة تُظهر التعلّم الحقيقي وتُقلّل مساحة الخداع الممكن.



