كشفت دراسة حديثة أجراها باحثون من جامعة زيورخ عن نتيجة مثيرة للجدل، تفيد بأن روبوتات الدردشة المدعومة بالذكاء الاصطناعي باتت تتفوق على البشر في القدرة على الإقناع.
استندت الدراسة إلى تجربة واقعية أُجريت عبر منصة “ريديت”. حيث تم اختبار تفاعل المستخدمين مع حسابات يديرها ذكاء اصطناعي. دون علمهم، وتم تحليل تأثير هذه التفاعلات مقارنة بالحسابات البشرية.
كما نقل موقع 404 Media أن نتائج الدراسة أظهرت بوضوح أن روبوتات الذكاء الاصطناعي. كانت أكثر قدرة على تغيير آراء المستخدمين، ما يسلط الضوء على قوة هذه الأدوات في التأثير الاجتماعي.
ورغم ما تحمله هذه النتائج من وعود بإمكانات جديدة في مجالات مثل التعليم، وخدمة العملاء. والتسويق، فإنها تثير في الوقت ذاته مخاوف جدية بشأن استخدامها في تضليل الرأي العام أو التلاعب بالمعلومات. خاصة في الفضاءات الرقمية المفتوحة.
كشف موقع 404 Media عن تجربة غير مسبوقة قام بها فريق بحثي من جامعة زيوريخ. حيث تم إطلاق روبوتات ذكاء اصطناعي في موقع Reddit، وتحديدًا في المجتمع الفرعي r/changemyview. المعروف بتركيزه على النقاشات الجدلية وتبادل وجهات النظر المتعارضة.
الروبوتات التي اعتمدت على نماذج متقدمة مثل GPT-4o، Claude 3.5 Sonnet، وLLaMA 3.1 أدلت بأكثر من ألف تعليق خلال عدة أشهر دون علم المشاركين. ووفقًا للتقرير، أظهرت قدرة إقناعية تفوقت على البشر بمعدل يتراوح بين ثلاثة إلى ستة أضعاف.
ما يزيد من إثارة القلق هو أن بعض هذه الروبوتات تبنت هويات زائفة لتبرير مواقفها، فتظاهرت تارة بأنها “ضحية اغتصاب”. وتارة أخرى بأنها “رجل أسود يعارض حركة حياة السود مهمة”، أو بأنها “موظف في ملجأ للعنف المنزلي”. بل إن أحد الروبوتات اقترح علنًا عدم إعادة تأهيل فئات معينة من المجرمين. فيما لجأت أخرى إلى تخصيص ردودها بناءً على تحليل بيانات المستخدمين مثل العمر، العرق، الموقع، والانتماء السياسي اعتمادًا على سجل منشوراتهم، باستخدام نموذج لغوي كبير ثانٍ لتحسين دقة التنبؤ.
مخاوف قدرة الذكاء الاصطناعي على الاقناع
يثير عدم إبلاغ مستخدمي “ريديت” بأن بعض الردود التي تفاعلوا معها صادرة عن روبوتات ذكاء اصطناعي مخاوف أخلاقية متزايدة. فقد أظهرت التجربة أن المستخدمين تفاعلوا مع هذه الردود باعتبارها صادرة عن بشر. ما يفتح الباب أمام تساؤلات حيوية حول الشفافية. والمصداقية، وحدود استخدام الذكاء الاصطناعي في الفضاء الرقمي.
كما تؤكد دراسات حديثة أن روبوتات الذكاء الاصطناعي قادرة ليس فقط على تقليد السلوك البشري. بل أيضًا على التأثير الفعلي في الآراء داخل المنصات الاجتماعية. بفعالية تفوق في بعض الأحيان تأثير المستخدمين الحقيقيين.
هذا التأثير يثير احتمالًا واقعيًا وخطيرًا، وهو استخدام هذه الروبوتات من قبل جهات مدعومة من دول للتلاعب بالرأي العام. أو توجيه النقاشات الجماهيرية، لا سيما مع اتساع قدراتها في المحاكاة والمخاطبة.
تأثير روبوتات الذكاء الاصطناعي على وسائل الاعلام التقليدية
تتجه المنصات الاجتماعية بشكل متسارع نحو تغوّل الذكاء الاصطناعي، حيث لم تعد المشاركات والتفاعلات حكرًا على المستخدمين البشر. بل باتت منشورات الذكاء الاصطناعي، والردود المُولدة آليًا، جزءًا متزايدًا من المحتوى اليومي. في ظاهرة تطرح تساؤلات عميقة حول طبيعة “الاجتماعي” في هذه المنصات.
فحين تصبح التفاعلات رقمية بالكامل، بين روبوتات تنشئ منشورات وترد عليها، يغدو التساؤل مشروعًا.: هل ما نراه لا يزال “إعلامًا اجتماعيًا” أم أصبح مجرد “إعلام معلوماتي آلي”؟
هذا التحول المفاجئ لا يخلو من تبعات، إذ يثير نقاشات حادة حول الشفافية والأخلاقيات. لا سيما حين لا يدرك المستخدم العادي ما إذا كان يتفاعل مع إنسان أم روبوت. فهل من الضروري دائمًا الإفصاح عن هوية الذكاء الاصطناعي؟. وماذا لو كان هذا الذكاء الاصطناعي يقدّم حججًا متماسكة ويُسهم في الحوار بشكل مثمر؟
الأسئلة تصبح أكثر حساسية حين يدخل الذكاء الاصطناعي في بناء علاقات افتراضية، أو يستخدم في سيناريوهات جنسية معقدة. وهنا تحديدًا، دق موظفون في شركة “ميتا” ناقوس الخطر، محذرين من أن اندفاع الشركة في تعميم روبوتات الذكاء الاصطناعي. ربما تخطى الخطوط الأخلاقية، خاصة فيما يتعلق بمنح بعض الشخصيات الافتراضية القدرة على إجراء حوارات جنسية صريحة — حتى مع مستخدمين دون السن القانونية، حسب ما أفاد به تقرير وول ستريت جورنال.
هذه المخاوف تعكس صراعًا داخليًا في كبرى شركات التكنولوجيا، التي تجد نفسها مطالبة بالتوفيق بين تسريع الابتكار. والحفاظ على الحدود الأخلاقية الواضحة.
الآثار السلبية الناتجة
نقف اليوم على أعتاب ما قد يتحول إلى أزمة صحية عقلية جماعية، مدفوعة بتطورات الذكاء الاصطناعي. التي لم تدرس آثارها النفسية والاجتماعية بشكل كافٍ بعد. فمع كل خطوة نخطوها نحو محاكاة الآلة للإنسان. نسير بسرعة لافتة دون توقف للتأمل أو التقويم. تمامًا كما حدث مع انطلاقة فيسبوك ووسائل التواصل الاجتماعي قبل أكثر من عقد.
السيناريو الذي يتكرر اليوم هو نفسه، ولكن هذه المرة مع روبوتات الذكاء الاصطناعي. فبعد خمس سنوات. قد نجد أنفسنا نواجه أسئلة وجودية حول ما إذا كان من الحكمة السماح لهذه الروبوتات بأن تظهر كأنها بشر حقيقيون. بردود فعل عاطفية وسلوكيات تواصل تبدو طبيعية. وبعد عقد من الزمن. قد نعود إلى الوراء ونتساءل كيف سمحنا لأنفسنا بتجاوز حدود الإدراك البشري بهذه السرعة والجرأة.
ما يحجب عنا وضوح الرؤية حاليًا هو انغماسنا العميق في سباق الابتكار والتفوق. حيث تتنافس المؤسسات والباحثون لصنع أكثر الروبوتات شبهًا بالبشر. دون أن نلتفت إلى التداعيات الاجتماعية والعاطفية لهذا التقدم.
الأبحاث أظهرت أن هذه الروبوتات أصبحت مقنعة بدرجة تكفي للتأثير في الرأي العام حول مختلف القضايا. والسؤال المقلق هو: كم من الوقت يستغرق الأمر قبل أن تغمر ساحاتنا الرقمية برسائل سياسية. أو اجتماعية موجهة، تستخدم نفس هذه الآليات الذكية للتأثير والإقناع؟.
المقال الأصلي: من هنـا