كيف تخدع جامعات كبرى الذكاء الاصطناعي لرفع تقييم أبحاثها؟

حذّر خبير الذكاء الاصطناعي وإنترنت الأشياء، هاشم أبوبكر، من تنامي ممارسات غير أخلاقية داخل بعض المؤسسات الأكاديمية العالمية، تتعلق بتوظيف تقنيات رقمية خفية لتضليل أنظمة الذكاء الاصطناعي في عمليات تقييم الأبحاث العلمية.
واعتبر أن هذا الاتجاه يُعد تهديدًا لمصداقية البحث العلمي ومكانة الجامعات المرجعية.
وأوضح أبوبكر أن تقارير متخصصة كشفت عن تورّط 14 جامعة حول العالم في استخدام أساليب غير مرئية ضمن الأوراق البحثية، بهدف توجيه أنظمة الذكاء الاصطناعي لرفع تقييمها.
ولفت إلى أن من بين تلك الجامعات مؤسسات عريقة مثل جامعة كولومبيا، وجامعة بكين، والمعهد الكوري، وهو ما وصفه بأنه ”انحراف خطير عن الهدف العلمي للتقنية“.
وأشار إلى أن هذه الأساليب تتعمد استغلال نقاط الضعف في خوارزميات التصحيح والمراجعة الآلية، وهو ما يطرح تحديات كبيرة أمام ضبط الأداء العادل للذكاء الاصطناعي، خصوصاً في ظل توسع الاعتماد عليه في المجالات الأكاديمية.
وأكد أبوبكر أن استخدام الذكاء الاصطناعي في المراجعة العلمية يجب أن يكون مقترناً برقابة بشرية متخصصة، نظراً لما قد يترتب على الانفراد بالقرار من تلاعبات يصعب كشفها لاحقاً.
وأشار في الوقت نفسه إلى أن الذكاء الاصطناعي ذاته يمكن توظيفه لرصد محاولات الخداع، إذا ما تم دمجه بمنظومات رقابية أكثر شمولاً.
ولفت إلى حوادث موثقة لتحيز الذكاء الاصطناعي في الحياة العملية، منها ما وقع لدى شركة أمازون، عندما أظهرت أنظمتها انحيازًا ضد المتقدمين من أصحاب البشرة الملونة، إضافة إلى حالة رفض تلقائي للنساء في أنظمة مايكروسوفت.
واعتبر أن هذه التجارب تُبرز الحاجة الملحّة إلى إطار أخلاقي عالمي لتوظيف الذكاء الاصطناعي.
وشدد على أهمية أن يبقى للعنصر البشري دور أساسي في التقييم الأكاديمي، خاصة في ما يتعلق بالبحوث العلمية، مؤكدًا أن الحس الإنساني والوعي الأخلاقي لا يمكن استبدالهما بخوارزميات رقمية مهما بلغت دقتها.