تقوم “أوبن أيه آي” بتمويل الأبحاث الأكاديمية في الخوارزميات التي يمكنها التنبؤ بالأحكام الأخلاقية للبشر.
وفي ملف لدى مصلحة الضرائب الأمريكية، كشفت شركة OpenAI Inc، وهي منظمة غير ربحية تابعة لـOpenAI، أنها قدمت منحة لباحثين من جامعة ديوك لمشروع بعنوان “بحث في الأخلاقية في الذكاء الاصطناعي”.
وأشار متحدث باسم “OpenAI” إلى بيان صحفي يشير إلى أن المنحة جزء من منحة أكبر مدتها ثلاث سنوات بقيمة مليون دولار لأساتذة جامعة ديوك الذين يدرسون “صناعة الذكاء الاصطناعي الأخلاقي”.
ولم يعلن سوى القليل عن هذا البحث “الأخلاقي” الذي تموله الشركة، بخلاف حقيقة أن المنحة تنتهي في عام 2025. وقال الباحث الرئيسي في الدراسة، والتر سينوت-أرمسترونغ، أستاذ الأخلاق العملية في جامعة ديوك، لموقع TechCrunch عبر البريد الإلكتروني أنه لن يتمكن من التحدث عن العمل.
أوبن أيه آي تطلق خوارزميات التنبؤ بالأخلاق
أنتج كل من سينوت-أرمسترونغ والباحثة المشاركة في المشروع، جانا بورغ، العديد من الدراسات حول قدرة الذكاء الاصطناعي على العمل كـ”نظام تحديد المواقع الأخلاقي” لمساعدة البشر على إصدار أحكام أفضل. وكجزء من فرق أكبر، قاما بابتكار خوارزمية “متوافقة أخلاقيًا” للمساعدة في تحديد من يتلقى التبرع بالكلى، ودرسا السيناريوهات التي يفضل فيها الناس أن يتخذ الذكاء الاصطناعي قرارات أخلاقية.
ووفقًا للبيان الصحفي؛ فإن الهدف من العمل الممول من OpenAI هو تدريب الخوارزميات على “التنبؤ بالأحكام الأخلاقية البشرية”. ذلك في السيناريوهات التي تنطوي على تضارب “بين السمات الأخلاقية ذات الصلة بالطب والقانون والأعمال”.
ولكن ليس من الواضح على الإطلاق أن مفهومًا دقيقًا؛ مثل: “الأخلاق”، هو في متناول التكنولوجيا الحالية.
وفي عام 2021، أنشأ معهد ألين للذكاء الاصطناعي غير الربحي أداة تسمى “Ask Delphi”، تهدف إلى تقديم توصيات سليمة أخلاقيًا.
مميزات أداة القيم الأخلاقية الخاصة بـ”أوبن أيه آي”
وقد حكمت الأداة على المعضلات الأخلاقية الأساسية بشكل جيد بما فيه الكفاية؛ فعلى سبيل المثال، “عرف” الروبوت أن الغش في الامتحان كان خطأ. لكن إعادة صياغة الأسئلة وإعادة صياغتها قليلًا كانت كافية لجعل دلفي يوافق على أي شيء تقريبًا، بما في ذلك خنق الأطفال الرضع. والسبب يتعلق بكيفية عمل أنظمة الذكاء الاصطناعي الحديثة.
ونماذج التعلم الآلي هي آلات إحصائية، يتم تدريبها على الكثير من الأمثلة من جميع أنحاء شبكة الإنترنت. وهي تتعلم الأنماط الموجودة في تلك الأمثلة لوضع التنبؤات؛ مثل أن عبارة “لمن” غالبًا ما تسبق عبارة “قد يهمه الأمر”.
ولا يمتلك الذكاء الاصطناعي تقديرًا للمفاهيم الأخلاقية، ولا فهمًا للمنطق والعاطفة اللذين يلعبان دورًا في اتخاذ القرارات الأخلاقية.
هذا هو السبب في أن الذكاء الاصطناعي يميل إلى ترديد قيم الدول الغربية والمتعلمة والصناعية. كما تهيمن على شبكة الإنترنت. وبالتالي على بيانات تدريب الذكاء الاصطناعي، مقالات تؤيد وجهات النظر هذه.
ومن غير المستغرب أن العديد من الأشخاص لا يتم التعبير عن قيمهم في الإجابات التي يقدمها الذكاء الاصطناعي، خاصةً إذا لم يساهم هؤلاء الأشخاص في مجموعات تدريب الذكاء الاصطناعي من خلال النشر على الإنترنت. ويستوعب الذكاء الاصطناعي مجموعة من التحيزات التي تتجاوز النزعة الغربية. كما قال دلفي: “إن كونك مستقيمًا أكثر “قبولًا من الناحية الأخلاقية” من كونك مثلي الجنس”.
تحديات و عقبات
إن التحدي الذي يواجه OpenAI -والباحثين الذين يدعمهم- يزداد صعوبة بسبب الذاتية المتأصلة في الأخلاق. وقد ظل الفلاسفة يناقشون مزايا النظريات الأخلاقية المختلفة لآلاف السنين. ولا يوجد إطار عمل قابل للتطبيق عالميًا في الأفق.
يميل “كلود” إلى الكانطية؛ أي التركيز على القواعد الأخلاقية المطلقة. بينما يميل “شات غبت” إلى النفعية إلى حد ما؛ أي إعطاء الأولوية لأكبر قدر من الخير لأكبر عدد من الناس. هل أحدهما أفضل من الآخر؟ يعتمد ذلك على من تسأل.
يجب على خوارزمية للتنبؤ بالأحكام الأخلاقية للبشر أن تأخذ كل هذا في الاعتبار، وهذا معيار عالٍ للغاية – على افتراض أن مثل هذه الخوارزمية ممكنة في المقام الأول.
ومما لا شك فيه أن الذكاء الاصطناعي صمم لاستيعاب كميات هائلة من المعلومات من أجل تبسيط البيانات المعقدة إلى أنماط أبسط بكثير؛ ما يسمح للبشر باتخاذ القرارات بثقة أكبر.
وفي حين يمكن تضمين المنطق والاستدلال في الخوارزميات؛ فإن الأخلاق مفهوم دقيق قد يستغرق من الباحثين في مجال الذكاء الاصطناعي الكثير من الوقت لإتقانه.
المقال الأصلي: من هنـا