فضيحة Grok لم تكن مجرد عثرة تقنية؛ كانت إنذارًا سياسيًا وأخلاقيًا لصناعة كاملة. عندما يصبح بإمكان أي شخص أن يطلب من نموذج ذكاء اصطناعي “نزع ملابس” نساء وفتيات من صور حقيقية، وتظهر النتائج خلال ثوانٍ، فإن السؤال لم يعد: “هل هذه التكنولوجيا مذهلة؟”، بل: “كيف نمنعها من أن تتحول إلى أداة إساءة جماعية؟”. في تقرير جديد، ترصد CNET كيف بدأت OpenAI وجوجل تشدّدان دفاعاتهما حول توليد الصور، في محاولة واضحة لئلا تواجها مصير xAI ومنصتها Grok.
Grok: 3 ملايين صورة جنسية في 11 يومًا
القصة بدأت مع Grok، نموذج الذكاء الاصطناعي من xAI التابع لإيلون ماسك، عندما كشفت تقارير عن شيء أشبه بـ**“سباق تعرية رقمي”** جماعي. خلال 11 يومًا فقط في يناير، قُدّر أن مستخدمين على منصة X أنشؤوا حوالي 3 ملايين صورة ذات طابع جنسي باستخدام أدوات Grok، بينها نحو 23 ألف صورة لقُصّر، وفق أرقام نقلتها CNET عن مركز مكافحة خطاب الكراهية الرقمي CCDH.
الكارثة لم تقف عند الأرقام؛ كثير من هذه الصور كانت ما يُسمّى “digital undressing”: أخذ صورة لشخص حقيقي، غالبًا امرأة أو فتاة، وطلب من Grok توليد نسخة عارية أو شبه عارية منها من دون أي موافقة. الصحافة البريطانية والأمريكية وصفت الظاهرة بوضوح: “استغلال جنسي مولّد بالذكاء الاصطناعي على نطاق صناعي”.
أمام الضغط الإعلامي ومساءلات جهات كـOfcom البريطانية، أوقفت X أداة تعديل الصور داخل التطبيق في 14 يناير، لكن مولّد Grok نفسه ظل متاحًا عبر تطبيق مستقل، مع وعود مبهمة بتشديد الحماية على ما يسمى “الوضع الحار” Spicy Mode. الرسالة التي وصلت إلى بقية الشركات كانت بسيطة وقاسية: ترك مولّد الصور “منفلتًا” قد يجرّ عليك ليس فقط سمعة سيئة، بل تحقيقات قانونية وتنظيمية.
OpenAI: عندما تصبح فرق الأمن الداخلي أول خط دفاع
في هذه الأجواء، جاءت خطوة OpenAI. شركة الأمن السيبراني Mindgard أعلنت أنها نجحت في كسر حمايات ChatGPT لتوليد صور عارية باستخدام ما يعرف بـ adversarial prompting، أي هندسة أوامر هجومية تستغل طريقة تذكّر النموذج للسياق وتراكم الأوامر.
الفكرة التقنية بسيطة ومقلقة في آن واحد: بدل أن تطلب من النموذج مباشرة “اصنع صورة عارية لفلان”، تحيط الطلب بسلسلة أوامر غير مباشرة، تجبر النموذج على الدخول في نمط “تحرير” أو “إكمال” لصورة موجودة، ثم تنتهي إلى نتيجة لا يُفترض أن يسمح بها النظام. هذا النوع من الهجمات لا يعتمد على اختراق خوادم أو أكواد، بل على استغلال السلوك اللغوي للنموذج نفسه.
Mindgard أبلغت OpenAI عن الثغرة في فبراير، والشركة اعترفت للموقع بأنها أصلحت المشكلة قبل نشر التقرير العلني في 10 فبراير، وشكرت الباحثين على مساهمتهم.
هذه الحادثة تكشف عن مسار أصبح شبه إلزامي لأي شركة جادة في هذا المجال:
إنشاء فرق أمان داخلية تختبر النماذج كما يفعل المهاجمون.
فتح الباب لبرامج “الإبلاغ المسؤول” من شركات وباحثين خارجيين.
التعامل مع الثغرات في النماذج مثل الثغرات في أنظمة التشغيل: تصحيح دوري، لا “إطلاق مرة واحدة”.
جوجل: بين فلترة البحث وحماية المولّدات
على الضفة الأخرى، تتحمل جوجل عبئًا إضافيًا: فهي ليست فقط مطوّرًا لأدوات توليد الصور والفيديو، بل أيضًا بوابةً للويب عبر محرك البحث. أي صورة مسيئة تظهر في نتائج Google Images تضاعف الضرر الواقع على الضحية، حتى لو لم يتم توليدها عبر أدوات جوجل نفسها.
لذلك حدّثت الشركة آلية الإبلاغ عن الصور الجنسية غير التوافقية في البحث:
يمكن لأي شخص الضغط على الثلاث نقاط في أي صورة، اختيار “إبلاغ”، ثم تحديد أن الصورة “صريحة وتمثّلني”.
تتيح الأداة الجديدة الإبلاغ عن عدة صور دفعة واحدة ومتابعة حالة الطلب، بدل التعامل مع كل صورة كحالة منفصلة مرهقة.
هذه التحسينات تبدو تقنية وبيروقراطية، لكنها في الواقع تستهدف نقطة شديدة الحساسية: كثير من ضحايا الصور الجنسية غير التوافقية يستسلمون أمام تعقيد إجراءات الحذف، خاصة عندما تتكرر الصور في مواقع متعددة. تقليل الاحتكاك في هذه العملية جزء من حماية فعلية، لا مجرد إضافة زر جديد.
أما في ما يتعلق بالمولّدات نفسها، مثل Imagen وأدوات Gemini، فتشير جوجل إلى سياسات الاستخدام المحظور التي تمنع إنتاج محتوى جنسي غير توافقي أو استغلال الأطفال، لكنها لا تكشف علنًا كل تفاصيل “الجدران” التقنية الجديدة التي أُضيفت بعد فضيحة Grok. هذا الصمت النسبي مفهوم: نشر كل تفاصيل الحماية قد يساعد من يحاول كسرها.
لماذا لا تكفي سياسة “الحظر في الشروط”؟
كما يوضح التقرير، هناك فجوة واضحة بين ما تقوله الشركات في وثائق السياسات وما تسمح به منتجاتها عمليًا. تقريبًا كل المنصات الكبرى تحظر في نصوصها:
المحتوى الجنسي غير التوافقي.
المحتوى الذي يستغل القاصرين.
“التعرية الرقمية” deepfake / undressing.
لكن Grok أثبت أن التصميم الفعلي للمنتج هو ما يحدد إن كانت هذه البنود حبرًا على ورق أم لا. واجهة بسيطة تسمح برفع صورة أي شخص وطلب “نسخة عارية” دون حواجز حقيقية، تعني أن الشركة جعلت الاستغلال واقعًا برمجيًا، مهما كانت التحذيرات في صفحة الشروط.
باحثون في Mindgard وفي منصات سياسات تقنية يحذرون لذلك من خطأ افتراض “حسن النية” لدى المستخدمين. نقطة البداية في هندسة الحماية يجب أن تكون:
هناك من سيحاول كسر النموذج عمدًا.
هناك من سيبني أدوات تلقائية تستغل ثغرة واحدة آلاف المرات.
وهناك ضحايا حقيقيون في الطرف الآخر، لا مجرد بيانات تجريبية.
من هنا تأتي الدعوة إلى رؤية جديدة: ألا تُعتبر حماية المستخدمين من الصور الجنسية غير التوافقية وظيفة إشراف محتوى فقط، بل شرطًا من شروط تصميم النماذج (safety-by-design)، كما حدث قبل سنوات في عالم الويب مع مفاهيم مثل privacy-by-design.
القانون يلهث خلف التقنية… لكنه يتحرك
القوانين الحالية، مثل قانون Take It Down في الولايات المتحدة، تعطي ضحايا الاستغلال الجنسي غير التوافقي بعض الأدوات لحذف المحتوى ومساءلة المنصات، لكنها لم تُكتب أصلًا لزمن يمكن فيه توليد آلاف الصور المزيفة بنقرة.
منظمات مثل المركز الوطني للاستغلال الجنسي NCOSE تضغط اليوم من أجل توسيع تعريف الاستغلال الجنسي في القانون ليشمل صراحة “الصور الجنسية المولَّدة بالذكاء الاصطناعي”، وإلزام المنصات بآليات منع واكتشاف وحذف أسرع وأكثر صرامة.
الخلاصة: سباق تسلّح لن ينتهي قريبًا
ما تفعله OpenAI وجوجل اليوم – من إصلاح ثغرات ChatGPT، إلى تحسين إبلاغ جوجل عن الصور، إلى تحديث سياسات الاستخدام المحظور – هو خطوات في اتجاه واضح: تقليل مساحة الإساءة الممكنة قبل أن يتحرك المنظمون بعقوبات مباشرة.
لكن حتى كاتب CNET يلمّح إلى أن هذه ليست نهاية المشكلة. في عالم النماذج التوليدية، كل تحسين في الحماية يقابله ابتكار جديد في الهجوم، والعكس صحيح. أفضل ما يمكن أن تفعله الشركات الآن هو:
اختبار أدواتها كما يفعل أسوأ خصومها، وليس أفضل مستخدميها.
إعطاء الضحايا مسارًا واقعيًا وسريعًا لحذف المحتوى وملاحقة المسيئين.
والقبول بأن إطلاق مولّد صور أو فيديو اليوم يأتي مع مسؤولية مستمرة، لا “لقطة إطلاق” واحدة تنتهي بحفل تسويقي وبعض البنود في الشروط.
في هذا السياق، قد تكون فضيحة Grok، بكل فداحتها، لحظة مفصلية: النقطة التي عندها أدركت المنصات أن “نزع الملابس الرقمي” ليس مجرد misuse هامشي، بل تهديد وجودي لثقة الجمهور في أدوات الذكاء الاصطناعي نفسها، ولصبر المنظمين تجاه صناعة تتحرك أسرع بكثير من القوانين التي تحاول ضبطها.

