آخر تحديث: 19 / 5 / 2025م - 1:17 م

هل محادثاتك مع روبوتات ”ميتا“ آمنة؟ خبير سعودي يكشف مخاطر استغلال البيانات

جهات الإخبارية

حذّر الدكتور حمود الدوسري، أستاذ علم البيانات والذكاء الاصطناعي في جامعة الملك سعود، من تنامي المخاوف المتعلقة باستخدام شركة ”ميتا“ لبيانات مستخدميها في تدريب نماذج الذكاء الاصطناعي.

وأكد أن التحدي الحقيقي لا يكمن في تقنيات الذكاء الاصطناعي بحد ذاتها، بل في البيئة التي تُزرع فيها هذه التقنيات وكيفية استغلالها، خاصة عندما ترتبط ببيانات حساسة يتم جمعها من تطبيقات التواصل الاجتماعي واسعة الانتشار.

وأوضح أن ”ميتا“ عمدت إلى دمج تقنيات الذكاء الاصطناعي التوليدي مع خوارزميات شبكاتها الاجتماعية، مما أوجد مساحة واسعة للتفاعل يبدو شخصياً بين المستخدم والنماذج الذكية، لكن هذه المساحة، حسب رأيه، تفتقر إلى الشفافية المطلوبة فيما يتعلق بكيفية استخدام هذه التفاعلات والمعلومات المشتقة منها لاحقًا.

وأشار أستاذ علم البيانات إلى أن المستخدمين غالباً ما يتحدثون مع روبوتات الذكاء الاصطناعي في بيئة يعتقدون أنها خاصة وآمنة، مما يدفعهم إلى مشاركة معلومات شخصية جداً قد لا يفصحون عنها في سياقات أخرى.

وضرب مثالاً بسؤال مستخدم عبر منصة مثل ”واتساب“ لروبوت ميتا الذكي عن أفضل الطرق للتعامل مع زيادة الوزن، موضحاً أن هذه المحادثة، وإن بدت شخصية، تُستخدم لاحقًا لتحليل شخصية المستخدم وتُخزن كنقطة بيانات تشير إلى أنه يعاني من السمنة.

وتابع الدكتور الدوسري أن دور الذكاء الاصطناعي حينها قد لا يتوقف عند تقديم النصيحة فقط، بل قد يتطور إلى تضخيم المشكلة نفسيًا لدى المستخدم عبر عرض محتوى متكرر عن مخاطر السمنة، ومن ثم تهيئته لقبول عروض تجارية أو إعلانات موجهة تتعلق بالعلاج أو التأمين الصحي، وهو ما يُعد استغلالًا تجاريًا للبيانات الشخصية دون علم المستخدم أو موافقته الصريحة.

وحول سبب تركّز الانتقادات على ”ميتا“ بشكل خاص مقارنة بغيرها من شركات الذكاء الاصطناعي، بيّن الدكتور الدوسري أن ذلك يعود إلى كون ”ميتا“ قد جمعت بين تقديم خدمات مجانية واسعة الانتشار مثل ”فيسبوك“ و”واتساب“ و”إنستغرام“، وبين امتلاكها تقنيات ذكاء اصطناعي تحليلية قوية.

وأضاف أن نموذج العمل في ”ميتا“ القائم على تقديم خدمات مجانية مقابل الحصول على بيانات المستخدمين، يحمل مخاطرة كبرى حين تُستخدم هذه البيانات في تدريب أنظمة ذكاء اصطناعي لا تميّز بوضوح بين دورها كمستشار يقدم معلومة، ودورها كبائع يسعى للربح.

ولفت الدكتور الدوسري إلى أن هذا الدمج غير الشفاف بين الخصوصية التجارية والتحليل الشخصي قد يؤدي إلى التأثير على قرارات الأفراد اليومية دون وعي منهم، معتبراً أنه ”عندما تصبح قراراتك مبنية على رسائل غير مباشرة موجّهة من نموذج يعرف مشاعرك وهمومك، فإن ذلك يمثل خطرًا أخلاقيًا وتقنيًا في آنٍ واحد“.

وأكد على الأهمية القصوى لوضع حد فاصل وواضح بين وظيفة الذكاء الاصطناعي كمساعد شخصي يقدم خدمات معرفية، وبين كونه أداة تسويقية مدفوعة بالبيانات.

وشدد على ضرورة أن توضح الشركات للمستخدمين كيف يتم استخدام بياناتهم، وما إذا كانت تُستخدم في تدريب النماذج الذكية أو في عمليات الاستهداف الإعلاني، مجدداً تأكيده بأن ”الذكاء الاصطناعي ليس المشكلة، بل كيفية تصميم البيئة التي يُزرع فيها هذا الذكاء، وكيف يُستخدم“.

يُشار إلى أن هذه التحذيرات تتزامن مع موجة عالمية متصاعدة من الجدل حول أخلاقيات الذكاء الاصطناعي، ودعوات متزايدة من قبل هيئات تنظيمية وحقوقية لسن تشريعات تهدف إلى حماية خصوصية الأفراد وتقييد استخدام بياناتهم في أغراض تجارية أو سياسية دون الحصول على إذن صريح وواضح.