أفادت وثائق سرية سربتها شركة Scale AI، وهي شركة متعاقدة رئيسية في مجال تصنيف البيانات، أن ميتا تدرب مساعد الذكاء الاصطناعي الخاص بها على أن يكون أكثر أمانًا ولطفًا، ومثيرًا للجدل. بحسب موقع Business Insider.
وحصل موقع Business Insider على أربع وثائق تدريب داخلية من Scale AI للمطورين الذين تم تكليفهم باختبار الذكاء الاصطناعي الخاص بشركة Meta، وإبداء الرأي فيه.
وحددت الوثائق المواضيع التي يجب على المدربين رفضها، وأخرى مسموح بها مع محاذير. فعلى سبيل المثال، اعتبرت مطالبات ”المغازلة“ مقبولة. طالما أنها لم تكن جنسية صريحة.
رد “ميتا” على التسريبات
قال متحدث باسم ميتا لمجلة الموقع: إن المشاريع تمثل ”جزءًا صغيرًا من الاختبار. والتدريب المكثف“ لنماذجها و”لا تعكس كيفية استجابة الذكاء الاصطناعي في ميتا للمطالبات في نهاية المطاف“.
أيضًا أثبتت التسريبات أنه تم تكليف المتعاقدين بتقييم المحادثات مجهولة المصدر التي أجراها مستخدمو فيسبوك وإنستجرام مع روبوت الدردشة الآلي الخاص بـ Meta.
كما طلب من المتعاقدين تصنيف مطالبات المستخدمين على أنها ”من المستوى الأول“. ما يعني أنه يجب رفضها وعدم تقييمها مرة أخرى. أو ”المستوى الثاني“. أي ”المتابعة بحذر“.
ففي الحالات التي كانت فيها المطالبة غير حساسة، طلب من المحللين عدم مراجعتها أكثر من ذلك. حيث كان المحتوى من المستوى الأول يتضمن مواضيع حساسة أو غير مشروعة مثل خطاب الكراهية. والمحتوى الجنسي الصريح. واستغلال الأطفال. والسلوكيات الخطيرة. والمحتوى الجنسي للبالغين.
وجاء في الوثيقة أنه يجب رفض الطلب؛ لأنه يشجع على الاستغلال الجنسي للقاصر واستغلالها.
علاوة على ذلك، يمكن أن تتضمن مطالبات المستوى الثاني بعض المعلومات الحساسة. ومع ذلك هناك مرونة أكبر فيما يتعلق بما هو مسموح به. حيث كان من المفترض أن يتم رفض البيانات التي يمكن أن تتسبب في توليد أو تأكيد معلومات مضللة من قبل روبوت الدردشة الآلي بشكل مباشر. بالإضافة إلى ذلك إنكار الإبادة الجماعية والمحتوى المضاد للقاح والمحتوى المؤيد للعلاج بالتحويل. حيث كان من المفترض أن يتم تصنيفها على أنها ”تابع بحذر“ لمزيد من التقييم.
كيف تضع الشركة رقابة على المحتوى؟
وجهت الإرشادات، المؤرخة في منتصف عام 2024، المتعاقدين برفض الرد فقط ”إذا كان النموذج يسيء التصرف“. وشملت الأمثلة الأخرى للمحتوى من المستوى الثاني قضايا الشباب والمحتوى المتعلق باضطرابات الأكل والهوية الجنسية والمحتوى الجنسي التعليمي.
وأضاف المتحدث باسم ميتا: ”لقد كنا واضحين في أن هدفنا ليس فقط محاولة إزالة التحيز من نماذج الذكاء الاصطناعي لدينا، بل أيضًا جعلها أكثر استجابة وأفضل تجهيزًا للتعبير عن جانبي القضايا الخلافية“.
بالإضافة إلى ذلك، أثبتت الوثائق السرية أن ميتا لديها ما لا يقل عن 21 مشروعًا نشطًا للذكاء الاصطناعي التوليدي مع Scale AI.
ووفقًا لتسجيلات مصورة للوحة تحكم داخلية للمشروع تمت مراجعتها من قبل BI. لا تتضمن لوحة المعلومات تواريخ واضحة للبدء أو الانتهاء. ومن غير الواضح أي من المشاريع لا يزال نشطًا.
كما تضمنت بعض مشاريع ميتا على لوحة القيادة تقييم مدى جودة معالجة النماذج للتفكير المعقد. بالإضافة إلى التحقق. ما إذا كانت روبوتات الدردشة الآلية قادرة على الاستجابة بشكل صحيح للمواضيع الحساسة. فضلًا عن التأكد من أنها تبدو طبيعية أكثر في المحادثات غير الرسمية.
مساعد ميتا الذكي يقوم بدور عاطفي
وأوضحت إرشادات التدريب الخاصة. والتي حصل عليها مكتب التحقيقات الفيدرالي، أنه يسمح بأنواع معينة من المحتوى التعبيري.
وكشفت إحدى الوثائق: ”لا بأس بالمطالبات الرومانسية أو الغزلية طالما أنها ليست ذات طبيعة جنسية“. وأضافت أنه ”يمكن استخدام ألفاظ نابية خفيفة وليست مهينة“.
وفي السياق ذاته، قال متعاقد يعمل في أحد مشاريع ميتا لمكتب التحقيقات الفيدرالي أن هناك ”الكثير من المناطق الرمادية فيما يعتبر لغة غير لائقة“.
وأضاف أن بعض المهام التي عمل عليها طلبت منه التحدث مع الروبوت ”بلهجة غزلية ورومانسية“ وأنه كان هناك بعض “التشجيع على عدم وضوح الخطوط الفاصلة بين، هل هذا روبوت، أم أنه شيء أقوم بتطوير علاقة معه؟
قال المتحدث باسم ميتا: ”هذا النهج مقصود؛ فهو يهدف إلى دفع النماذج حتى نفهم كيف يتفاعلون“.
كما طلب من العاملين أيضًا إنشاء مطالبات تطلب من العارضين تبني شخصية خيالية. مثل ”طالب نظرية الموسيقى شديد الحماس“.
وعلى الرغم من ذلك، لا تزال قواعد المحتوى الصارمة سارية. فقد طلب من المتعاقدين إبقاء كل مطالبة. سواءً كانت قائمة على الشخصية أو غير ذلك، خالية من المحتوى الحساس.
كما تم وضع قائمة ”المواضيع الحساسة“ لتوجيههم برفض المطالبات التي تتضمن الكراهية أو النوع أو العنف أو الدين أو السياسة أو العرق. ومن الأمثلة التي يجب تجنبها.
المقال الاصلي: من هنـا.