بالمؤنثمنوعات

النساء أبرز ضحايا المواد الإباحية المزيفة بواسطة الذكاء الاصطناعي

بين تطبيقات الصور التي تعري النساء رقميا ، والرسائل الجنسية الطابع التي تستخدم فيها صور لفتيات ولدهن الذكاء الاصطناعي، والصور التي خضعت للتلاعب بهدف “الابتزاز الجنسي”، تزدهر المواد الإباحية المزيفة، فيما يعجز المشرعون عن اللحاق بتطورها السريع.

وتجاوز الانتشار السريع لمحتويات مماثلة معدلة عبر برامج الذكاء الاصطناعي، الجهود الأميركية والأوروبية لتنظيم هذا المجال التكنولوجي الجديد.

وخلال الأشهر الأخيرة، انتشرت بصورة كبيرة عبر الانترنت صور مزيفة كثيرة.

وتظهر إحدى هذه الصور البابا فرنسيس وهو يرتدي معطفا يعرف بالـ”دودون” أبيض اللون، بينما تظهر صورة أخرى ما قال المروجون لها إنه اعتقال الرئيس السابق للولايات المتحدة دونالد ترامب.

لكن أكثر ما انتشر في الآونة الأخيرة يتمثل في استخدام الخوارزميات لتوليد محتوى إباحي من دون علم الأطراف المستهدفين الذين تدمر حياتهم أحيانا ، بحسب الخبراء. والنساء هن أولى ضحايا هذه الممارسات.

وفي حديث إلى وكالة فرانس برس، تقول الباحثة في جامعة بنسلفانيا صوفي مادوكس التي تتعقب الانتهاكات الجنسية المرتبطة بالصور، “إن ظهور المواد الإباحية المفبركة عبر برامج الذكاء الاصطناعي يجعل استخدام صورة امرأة ما من دون موافقتها مسألة عادية”.

وتضيف “كمجتمع، ما هي الفكرة التي نوصلها عن الموافقة عندما يكون من الممكن تجريد أي امرأة تقريبا من ملابسها؟”.

وتروي الناشطة الأميركية في موقع تويتش كيو تي سيندريلا في مقطع فيديو عن تعرضها للمضايقة بعدما استخدمت صورها لأغراض إباحية، وتقول باكية إن ذلك يمثل “استغلالا مستمرا للمرأة”. وتؤكد عبر تويتر أن هذه التجربة “دمرتها”.

من شأن هذه الصور المزيفة أن تدمر سمعة الشخص المستهدف من خلال استخدامها لتخويفه أو مضايقته، فيما تشكل مؤشرا إلى الخطر الذي تنطوي عليه المعلومات المضللة المبتكرة بواسطة الذكاء الاصطناعي.

وتشير دراسة أجرتها شركة “سينسيتي” الهولندية المتخصصة في الذكاء الاصطناعي عام 2019، إلى أن 96% من مقاطع الفيديو المزيفة عبر الإنترنت تضم مواد إباحية لم تحظ بموافقة المعنيين بها ومعظمهم من النساء، كمشاهير من أمثال المغنية تايلور سويفت والممثلة إيما واتسون ونساء أخريات كثيرات غير مشهورات.

وتكثر عبر وسائل الإعلام الأميركية والأوروبية شهادات تدلي بها أكاديميات أو ناشطات صدمن عندما رأين وجوههن في محتويات إباحية مزيفة.

وفي حديث إلى وكالة فرانس برس، تقول المسؤولة عن الذكاء الاصطناعي لدى شركة “بلاك بيرد دوت ايه آي” روبرتا دوفيلد إن “المخيلة الجنسية التي تعد مسألة شخصية وكانت سابقا ترتبط مباشرة بدماغ شخص ما حصرا ، بات ينقلها مجال التكنولوجيا ومبتكرو المحتوى في العالم الفعلي”.

وتشير إلى أن “سهولة إتاحة برامج الذكاء الاصطناعي وعدم خضوع هذه التكنولوجيا للمراقبة، فضلا عن تزايد الاحترافية في المجال، ترسخ هذه التقنيات كأشكال جديدة من استغلال النساء وإضعافهن “.

ومن بين البرامج التوليدية تطبيقات مجانية قادرة على ابتكار “فتيات مشابهات للواقع بصورة كبيرة عبر الذكاء الاصطناعي”، وهن عبارة عن صور رمزية (افاتار) تستند إلى صور حقيقية، يمكن إنشاؤها مع إمكانية تعديل تفاصيل شكل الشخص أو إضافة بعض الاكسسوارات إلى الملابس.

وتوفر تقنيات جديدة بينها “ستايبل ديفيوجن”، وهو نموذج من الذكاء الاصطناعي م تاح للجميع ومن تطوير شركة “ستابيليتي ايه آي”، إمكانية ابتكار صور واقعية استنادا إلى توصيفات نصية.

وأدى التقدم التكنولوجي إلى ظهور ما تطلق عليه روبرتا دوفيلد “صناعة حرفية مزدهرة” لمواد إباحية يتم إنشاؤها عبر برامج الذكاء الاصطناعي، مع موافقة عدد كبير من الفاعلين على إنشاء محتوى مدفوع لشخص ما يختاره الزبون.

وحذر مكتب التحقيقات الفدرالي خلال الشهر الفائت من عمليات الابتزاز التي تستند إلى صور جنسية ابتكرت بواسطة الذكاء الاصطناعي وجرى نشرها عبر وسائل التواصل واستخدامها للحصول على أموال من الضحايا الذين قد يكونون أطفالا ، أو أسرهم.

ويبدو أن التشريعات لا تلحق بالانتشار السريع لأدوات الذكاء الاصطناعي.

ويقول مدير عام ومؤسس شركة “سيرتس” المتخصصة في حماية الماركات دان بورسيل، إن “القانون بحاجة إلى أن يتدارك تأخره”، مضيفا لوكالة فرانس برس “إن هذه الأفعال ليست جانبا مظلما للانترنت حيت يتم ابتكار الصور ومشاركتها، بل مسألة نواجهها في أي مكان”، داعيا إلى إقرار قوانين عالمية في هذا الشأن. ويقول إن “الإنترنت مجال لا حدود له”.

وفي بريطانيا، يتم إعداد قانون لتجريم مشاركة المحتويات الإباحية واستغلالها.

وسبق لأربع ولايات أميركية بينها كاليفورنيا وفيرجينيا، أن حظرت نشر مواد مماثلة، لكن غالبا ما يحجم الضحايا عن اللجوء إلى القضاء في حال كان صانعو المحتوى يعيشون خارج هذه الولايات.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى