ما خطورة أدوات الذكاء الاصطناعي على الأطفال؟ - بوابة الشروق
الإثنين 3 فبراير 2025 3:10 م القاهرة

الأكثر قراءة

قد يعجبك أيضا

شارك برأيك

هل تتوقع نجاح اتفاق الهدنة في غزة؟

ما خطورة أدوات الذكاء الاصطناعي على الأطفال؟

عبدالله قدري
نشر في: الإثنين 3 فبراير 2025 - 9:23 ص | آخر تحديث: الإثنين 3 فبراير 2025 - 9:23 ص

مع التقدم السريع في تقنيات الذكاء الاصطناعي، برزت تحديات أخلاقية وقانونية جديدة تتعلق بإساءة استخدام هذه التكنولوجيا في الجرائم الإلكترونية، لا سيما الجرائم الجنسية ضد الأطفال. وفي خطوة غير مسبوقة، أعلنت الحكومة البريطانية عن قوانين جديدة تحظر إنشاء أو حيازة أو توزيع أدوات الذكاء الاصطناعي المصممة لإنتاج صور اعتداء جنسي على الأطفال.

تشير التقارير إلى أن أدوات الذكاء الاصطناعي أصبحت تُستخدم بشكل متزايد لإنشاء صور مزيفة تعتمد على دمج صور أطفال حقيقيين أو "تعرية" صورهم، مما يجعل من الصعب التمييز بين الصور الحقيقية والمزيفة.

ووفقًا لمؤسسة مراقبة الإنترنت (IWF)، فقد ارتفع عدد صور الاعتداء الجنسي على الأطفال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بأكثر من أربعة أضعاف خلال عام واحد، مما يسلط الضوء على خطورة هذه الظاهرة.

قالت وزيرة الداخلية البريطانية إيفيت كوبر لقناة سكاي نيوز: "هذه ظاهرة مقلقة حقًا. تتزايد المواد التي تصور الاعتداء الجنسي على الأطفال عبر الإنترنت، ولكن أيضًا إغراء الأطفال والمراهقين عبر الإنترنت. وما يحدث الآن هو أن الذكاء الاصطناعي يزيد من حدة هذه الظاهرة".

وقالت إن أدوات الذكاء الاصطناعي تسهل على الجناة "استدراج الأطفال، وهذا يعني أيضًا أنهم يتلاعبون بصور الأطفال ثم يستخدمونها لرسم الشباب وابتزازهم لمزيد من الانتهاكات.

تزييف صور فتاة

وتأتي هذه الإجراءات بعد تزايد حالات استغلال التكنولوجيا في تعديل صور الأطفال وتحريفها بطرق مسيئة، حيث كشفت جمعية حماية الأطفال الوطنية في بريطانيا، عن حادثة تعرضت لها فتاة تبلغ من العمر 15 عامًا، قام شخص مجهول بتعديل صورها من وسائل التواصل الاجتماعي لإنشاء صور مزيفة تظهرها عارية. وأشارت الجمعية إلى أن الفتاة كانت تشعر بالرعب من احتمال إرسال الصور لوالديها، خاصةً وأنها بدت مقنعة للغاية.

وأكدت راني جوفيندر، مديرة السياسات في الجمعية الوطنية لمنع القسوة على الأطفال، أن هناك تزايدًا ملحوظًا في استخدام الذكاء الاصطناعي لإنتاج هذا النوع من المحتوى، مما يجعل من الضروري اتخاذ تدابير إضافية لمنع حدوث مثل هذه الانتهاكات في المقام الأول. وشددت على ضرورة فرض تنظيم صارم على أدوات الذكاء الاصطناعي وإلزام شركات التكنولوجيا بإجراء تقييمات شاملة للمخاطر قبل إطلاق أي منتجات جديدة.

وتعد هذه القوانين الجديدة جزءًا من مشروع قانون الجريمة والشرطة، الذي سيشمل تجريم امتلاك أو إنشاء أو توزيع أدوات الذكاء الاصطناعي المستخدمة في إنتاج محتوى مسيء للأطفال، مع فرض عقوبات تصل إلى خمس سنوات سجن. كما ستتم معاقبة الأشخاص الذين يمتلكون أدلة إرشادية تشرح كيفية استخدام الذكاء الاصطناعي في إساءة معاملة الأطفال، بعقوبات تصل إلى ثلاث سنوات سجن.

خطورة على الأطفال

كشف تحقيق أن مجموعة بيانات LAION-5B، التي تُستخدم في تدريب أنظمة الذكاء الاصطناعي، تحتوي على صور شخصية لأطفال يمكن التعرف عليهم، تم جمعها من الإنترنت دون علمهم أو موافقتهم.

ويشير بحث نشره موقع "justsecurity" الأمريكي، إلى أن هذه الصور، التي تشمل مشاهد عائلية مثل أطفال حديثي الولادة، وأطفال يساعدون والديهم في المطبخ، ومراهقين في حفلات التخرج، قد تم سحبها من مدونات شخصية ومواقع مشاركة الصور والفيديو. في بعض الحالات، تضمنت البيانات المسحوبة معلومات حساسة، مثل الأسماء والمواقع الجغرافية الدقيقة التي التُقطت فيها الصور، ما يعرض هؤلاء الأطفال لمخاطر كبيرة.

أحد الأمثلة التي كشف عنها التقرير هو صورة طفلة تبتسم للكاميرا، كما تكشف البيانات المصاحبة عن الموقع الدقيق لمنزل أجدادها في بلدة ريفية بولاية تينيسي، حيث التُقطت الصورة قبل ست سنوات.

وأفاد التقرير أن العديد من هذه الصور نُشرت منذ سنوات أو حتى أكثر من عقد مضى، ولم يكن لها سوى عدد قليل من المشاهدات، مما يعني أنها كانت تتمتع بقدر من الخصوصية قبل أن يتم جمعها وإدراجها في قاعدة بيانات LAION-5B.

رد فعل LAION وإجراءات الحماية

ردًا على هذه النتائج، تعهدت منظمة LAION غير الربحية، التي تدير قاعدة البيانات، بإزالة الصور التي تم العثور عليها، لكنها أشارت إلى أن نماذج الذكاء الاصطناعي التي تم تدريبها باستخدام LAION-5B قد تكون قادرة بالفعل على إعادة إنتاج البيانات الشخصية، مما يثير تساؤلات حول مدى خطورة تسرب هذه المعلومات.

ورغم هذا الإجراء، يرى الباحثون أن المشكلة قد تكون أوسع نطاقًا بكثير، إذ تم العثور على 41 صورة شخصية لأطفال بعد مراجعة 600 صورة فقط من أصل 5.85 مليار صورة في قاعدة البيانات، مما يشير إلى وجود عدد هائل من الصور الأخرى التي لا تزال معرّضة للخطر.

ويشير البحث إلى إن مخاطر الخصوصية هذه تمهد الطريق لمزيد من الضرر. حيث مكّن التدريب على صور الأطفال الحقيقيين، نماذج الذكاء الاصطناعي من إنشاء نسخ مقنعة لأي طفل، بناءً على حفنة من الصور، أو حتى صورة واحدة، وأصبح جميع الأطفال الذين يتم نشر صورهم أو مقاطع الفيديو الخاصة بهم على الإنترنت معرضين للخطر بشكل يمكن لأي شخص سرقة صورهم واستخدام الذكاء الاصطناعي لجعل الأمر يبدو كما لو أنهم يقولون أو يفعلون أشياء لم يقولوها أو يفعلونها أبدًا.



قد يعجبك أيضا

شارك بتعليقك