لقد أحدثت نماذج الذكاء الاصطناعي ثورة في مختلف مجالات الحياة بدءًا من خدمة العملاء إلى إنشاء المحتوى؛ ما منحنا أدوات مثل ChatGPT وGemini من Google Gemini، والتي يمكنها توليد نصوص أو صور شبيهة بالبشر بدقة ملحوظة.
ولكن هناك عقبة تلوح في الأفق يمكن أن تقوض كل إنجازات الذكاء الاصطناعي، وهي ظاهرة تعرف باسم “انهيار النموذج” أو Model Collapse.
انهيار نماذج الذكاء الاصطناعي
سبق وأن أوضحت مجلة Nature تفسير هذه الظاهرة في إحدى مقالاتها. وهو ما يحدث عندما يتم تدريب نماذج الذكاء الاصطناعي على بيانات تتضمن محتوى تم إنشاؤه بواسطة إصدارات سابقة منها. ولكن مع مرور الوقتـ تتسبب هذه العملية التكرارية في انجراف النماذج بعيدًا عن توزيع البيانات الأصلية؛ ما يفقدها القدرة على تمثيل العالم بدقة كما هو في الواقع.
وبالتالي يبدأ الذكاء الاصطناعي في ارتكاب الأخطاء التي تتراكم على مر الأجيال؛ ما يؤدي إلى نتائج مغلوطة وغير موثوقة بشكل متزايد.
هذه ليست مجرد مشكلة تقنية تقلق علماء البيانات؛ بل هي ظاهرة كارثية إذا تركت دون رادع، فقد يكون لانهيار النماذج آثار عميقة على الشركات والتكنولوجيا ونظامنا البيئي الرقمي بأكمله.

تفسير الظاهرة
يقوم فريق المطورين بتدريب معظم نماذج الذكاء الاصطناعي؛ مثل GPT-4، على كميات هائلة من البيانات، معظمها مكتسبة من الإنترنت.
في البداية، يتم إنشاء هذه البيانات من قبل البشر؛ ما يعكس تنوع وتعقيد اللغة والسلوك والثقافة البشرية. ثم يتعلّم الذكاء الاصطناعي الأنماط من هذه البيانات ويستخدمها لتوليد محتوى جديد. سواء كان ذلك في كتابة مقال أو إنشاء صورة أو حتى إنشاء كود.
ولكن ما الذي يحدث عندما يتم تدريب الجيل التالي من نماذج الذكاء الاصطناعي ليس فقط على البيانات التي يولدها الإنسان، ولكن أيضًا على البيانات التي أنتجتها نماذج الذكاء الاصطناعي السابقة؟
والنتيجة هي نماذج الذكاء الاصطناعي تبدأ في ”التعلّم“ من إجاباته أو نتائجه الخاصة؛ ولأن هذه المخرجات ليست مثالية أبدًا، يبدأ فهم النموذج للعالم في التدهور. الأمر يشبه عمل نسخة من نسخة من نسخة من نسخة – كل نسخة تفقد القليل من التفاصيل الأصلية. والنتيجة النهائية هي تمثيل ضبابي وأقل دقة للعالم.
بالتالي يبدأ الذكاء الاصطناعي في فقدان القدرة على توليد محتوى يعكس التنوع الحقيقي للتجربة البشرية. وبدلًا من ذلك، يبدأ في إنتاج محتوى أكثر تجانسًا وأقل إبداعًا وأقل فائدة في نهاية المطاف.
توخي الحذر من سقوط نماذج الذكاء الاصطناعي
في بداية الأمر، قد يبدو أن انهيار النماذج مشكلة متخصصة، وهو أمر يقلق باحثي الذكاء الاصطناعي في مختبراتهم. ولكن الآثار المترتبة على ذلك بعيدة المدى. إذا استمرت نماذج الذكاء الاصطناعي في التدريب على البيانات التي يولدها الذكاء الاصطناعي، فقد نشهد انخفاضًا في جودة كل شيء بدءًا من خدمة العملاء الآلية إلى المحتوى عبر الإنترنت وحتى التنبؤات المالية.
وبالنسبة إلى الشركات، قد يعني هذا أن الأدوات التي تعتمد على الذكاء الاصطناعي قد تصبح أقل موثوقية بمرور الوقت؛ ما يؤدي إلى ضعف اتخاذ القرارات. وأيضًا انخفاض رضا العملاء.
تخيل أنك تعتمد على نموذج ذكاء اصطناعي للتنبؤ باتجاهات السوق؛ لتكتشف أنه تم تدريبه على بيانات لم تعد تعكس بدقة ظروف العالم الحقيقي، وقد تكون العواقب وخيمة.
علاوة على ذلك، يمكن أن يؤدي انهيار النموذج إلى تفاقم مشاكل التحيز وعدم المساواة في الذكاء الاصطناعي؛ حيث إن الأحداث ذات الاحتمالية المنخفضة، والتي غالبًا ما تنطوي على مجموعات مهمشة أو سيناريوهات فريدة من نوعها، معرضة بشكل خاص لأن “تنساها” نماذج الذكاء الاصطناعي أثناء تعرضها للانهيار.
وبالتالي سنواجه مستقبل يكون فيه الذكاء الاصطناعي أقل قدرة على فهم احتياجات الفئات السكانية المتنوعة والاستجابة لها؛ ما يزيد من ترسيخ التحيزات وأوجه عدم المساواة القائمة.
ما هي ميزة المحرك الأول؟
ومن منطلق “أن الحاجة أم الاختراع” سنلاحظ أن ظاهرة انهيار النماذج تسلط الضوء أيضًا على مفهوم مهم في عالم الذكاء الاصطناعي، وهو “ميزة المحرك الأول” والتي تعني أن من يستفيد أكثر هو من يدخل المجال أولًا.
حيث إن النماذج التي يتم تدريبها على بيانات بشرية حقيقية هي أكثرهم دقة ومصداقية. كما أن الشركات التي تستخدم هذه النماذج الآن ستحصل على أفضل النتائج. ولكن مع الوقت، ستصبح النماذج الجديدة معتمدة بشكل أكبر على البيانات التي أنتجها الذكاء الاصطناعي نفسه؛ ما يتسبب في ظهور مشاكل في الدقة والموثوقية. لذلك، من المهم الاستفادة من الذكاء الاصطناعي الآن قبل أن تفقد قيمته.
إنقاذ نماذج الذكاء الاصطناعي
بعد طرح المشكلة وأسبابها، علينا التفكير في، ما الذي فعله لمنع انهيار النماذج وضمان استمرار الذكاء الاصطناعي كأداة قوية وموثوقة؟ يكمن مفتاح الحل في كيفية تدريب نماذج الذكاء الإصطناعي.
أولًا، من المهم الاحتفاظ بالبيانات العالية الجودة التي أنتجتها القوى البشرية مع إيجاد وسيلة سهلة للحصول عليها.
على الرغم من أنه من الشيق الاعتماد على المحتوى الذي ينشئه الذكاء الاصطناعي، ذلك بسبب انخفاض تكلفته وسهولة الحصول عليه؛ إلا أنه يجب أن نقاوم الرغبة في تقليل الاعتماد على البيانات القادمة منه.
إن ضمان استمرار نماذج الذكاء الاصطناعي في التعلم من التجارب البشرية المتنوعة والأصيلة أمر ضروري للحفاظ على دقتها وأهميتها. ومع ذلك، يجب موازنة ذلك مع احترام حقوق الأفراد الذين يتم استخدام بياناتهم. ولا بد من وضع مبادئ توجيهية ومعايير أخلاقية واضحة للتنقل في هذا المجال المعقد.
ثانيًا، يحتاج مجتمع الذكاء الاصطناعي إلى مزيد من الشفافية والتعاون. من خلال مشاركة مصادر البيانات ومنهجيات التدريب وأصول المحتوى. كما يمكن لمطوري الذكاء الاصطناعي المساعدة في منع إعادة التدوير غير المقصود للبيانات التي يولدها الذكاء الاصطناعي. ولذا يتطلب ذلك التنسيق والتعاون بين مختلف القطاعات، ولكنها خطوة ضرورية إذا أردنا الحفاظ على سلامة أنظمة الذكاء الاصطناعي لدينا.
بالتالي يجب على الشركات ومطوري الذكاء الاصطناعي التفكير في دمج “إعادة التعيين” الدورية في عملية التدريب. فمن خلال إعادة تقديم النماذج بانتظام إلى بيانات جديدة من إنتاج البشر، يمكننا المساعدة في مواجهة الانجراف التدريجي الذي يؤدي إلى انهيار النموذج.
بالتأكيد لن يقضي هذا النهج على المخاطر تمامًا. ولكنه يمكن أن يبطئ العملية ويبقي نماذج الذكاء الاصطناعي على المسار الصحيح لفترة أطول.
تحديات الذكاء الاصطناعي في عالمنا الواقعي
مما لا شك فيه أن لدى الذكاء الاصطناعي القدرة على تغيير عالمنا بطرق لا نكاد نتخيلها. ولكنها لا تخلو من التحديات. كما أن انهيار النماذج ما هو إلا تذكير صارخ بأنه على الرغم من قوة هذه التقنيات، إلا أنها لا تزال تعتمد على جودة البيانات التي يتم تدريبها عليها.
ومع استمرارنا في دمج الذكاء الاصطناعي في كل جانب من جوانب حياتنا، يجب أن نكون يقظين بشأن كيفية تدريب هذه الأنظمة وصيانتها. ذلك من خلال:
- إعطاء الأولوية للبيانات عالية الجودة.
- تعزيز الشفافية.
- التحلي بالشفافية.
- التحلي بروح المبادرة في نهجنا.
كما يمكننا أن نمنع الذكاء الاصطناعي من الانحدار إلى حالة من عدم الأهمية ونضمن أن يظل أداة قيّمة للمستقبل.
إن انهيار النماذج يمثل تحديًا، ولكنه تحدٍ يمكننا التغلب عليه. وذلك من خلال الاستراتيجيات الصحيحة والالتزام بإبقاء الذكاء الاصطناعي على أرض الواقع.
بقلم/ Bernard Mar
المقال الأصلي: من (من هنـا)


