يتساءل الناس في العموم عن استخدامات و أخطاء الذكاء الاصطناعي؛ حيث يتسارع في عالم اليوم إنشاء وتطوير نماذج متعددة للذكاء الاصطناعي. حيث يمكن لتلك النماذج معالجة النصوص ويمكن لأخرى معالجة الصور. وكذلك طُورت نماذج لإنشاء صور ونماذج ذكاء اصطناعي عسكرية. ولكن مع بزوغ فجر تقنيات روبوتات ذكاء اصطناعي القادرة على تشخيص الأمراض وغيرها من التطبيقات الحساسة، ومع احتمالية تواجد أخطاء الذكاء الاصطناعي تبرز إلى السطح المشاكل القانونية للذكاء الاصطناعي.
مشكلة الصندوق الأسود

تعتمد نماذج الذكاء الاصطناعي المتقدمة على تقنيات تعلم الآلة. حيث تمكن الخوارزميات الروبوتات من إضافة أكواد إلى أكوادها الأصلية وتتعلم بالتجربة والتفاعل. فى هذا النوع من الروبوتات لا يمكن للمطورين التنبؤ بسلوك الروبوتات ومخرجاتها حيث تمثل المرحلة بين إدخال المدخلات والحصول على النواتج من الروبوت صندوقًا أسودًا.
ويثير هذا الكثير من التساؤلات حول المسئولية الجنائية لحوادث روبوتات القيادة الذاتية على سبيل المثال.
وفى محاولة لمناقشة هذه المعضلة القانونية يستعرض وزير الأمن الداخلي الأمريكي السابق؛ Michael Chertoff بالتعاون مع Miriam Vogel ؛ رئيسة شركة Equal AI ومديرتها التنفيذية، في ورقة بحثية مع آخرين، كيف يتناسب الذكاء الاصطناعي مع الأطر القانونية القائمة وكيف يكسرها؟
ويزعمان أن القادة بحاجة إلى الاستعداد للفرص التي تخلقها التكنولوجيا الجديدة والمزالق القانونية المحتملة. حيث نشرت الورقة البحثية في مجلة Legislation and Public Policy.
تساؤلات مشروعة
وتعقيبًا على هذه الدراسة يقول “Chertoff”: “تكمن الفكرة في دراسة الطرق المختلفة التي يؤثر بها الذكاء الاصطناعي على المشهد القانوني. وطرح عدة تساؤلات مهمة من أهمها: ما هي مسؤوليات أولئك الذين يطورون تقنيات الذكاء الاصطناعي؟ وكذلك ما هي حقوق أولئك الذين يتأثرون بتلك القرارات التي يتخذها الذكاء الاصطناعي أو يساعدهم بشكل عام؟ بالإضافة إلى محاولة تحديد المسؤوليات التي يتحملها مستخدمو أدوات الذكاء الاصطناعي؟ وماهية قضايا الملكية الفكرية التي يثيرها الذكاء الاصطناعي؟ ما هي قضايا الأمن؟
بينما تعلق Vogel على الدراسة قائلة: “كان جزءًا كبيرًا من أهدافنا هو تحديد المخاطر القانونية والفعلية حتى نتمكن جميعًا من المضي قدمًا بشكل مدروس. فنحن متحمسون جدًا للطريقة التي يمكن بها للذكاء الاصطناعي أن يخلق المزيد من الفرص. و نريد أن يستفيد المجتمع ككل وفى نفس الوقت نمتلك الرغبة في إنماء اقتصادنا. لكننا نرى الناس خائفين ومرعوبين من الذكاء الاصطناعي، ولا يشعرون أنه لغة أو وسيلة يمكنهم العمل بها”.
تغير تكنولوجي كبير يثير مخاوف البشر
إن التغيير التكنولوجي المضطرد، الذكاء الاصطناعي على سبيل المثال، يسبب الاضطراب والانزعاج للناس على الدوام. ويمكننا كبشر فهم آليه عمل الخوارزميات العادية وتنبؤ خطوات برنامج ما لتنفيذ المهمة الموكلة إليه ولكن الآلة القادرة على التعلم وتطوير القواعد الخاصة بها؛ فهذا يمثل أمرًا مخيفًا بالنسبة لبعض الناس.
وتضيف “Vogel” قائلة: “ويمكن أيضًا إضافة أسئلة من شاكلة هل سأضطر إلى تعلم مهارات جديدة لمواكبة الذكاء الاصطناعي؟ هل سيأخذ الذكاء الاصطناعي وظيفتي؟ ما نوع الوظائف التي ستكون متاحة لأطفالي؟ وغيرها. ومن المفهوم أن يشعر الناس بالقلق بشأن مصيرهم وسبل عيش أطفالهم.
وتستطرد قائلة: “وفي الوقت نفسه، تعرض لنا البرامج التلفزيونية والأفلام أسوأ السيناريوهات على الإطلاق. وعلى الرغم من نجاح تلك السيناريوهات في شباك التذاكر؛ إلا أن هذا السيناريو هو التجربة الوحيدة التي عايشها الكثير من الناس عند تصور هذه الأنظمة التكنولوجية في المجتمع”.
عالم اليوم أدمن بالفعل الذكاء الاصطناعي
وتقول “Vogel”: “في كثير من الأحيان، عندما أتحدث إلى الجمهور، أسأل: “كم منكم استخدم الذكاء الاصطناعي اليوم؟” عادة ما يرفع نصف الحضور أيديهم لتأكيد استخدامهم تلك البرمجيات. ومع ذلك فأنا متأكدة تمامًا من أن الجميع تقريبًا قد استخدموا الذكاء الاصطناعي بطريقة للوصول الى تلك القاعة. فعلي سبيل المثال اقترح نظام تحديد المواقع العالمي (GPS) الخاص بهم طريقًا مختصرا إلى وجهتهم أو أعاد توجيههم لتجنب حركة المرور. هذا ذكاء اصطناعي.
وبالفعل فقد تحققوا من موجز الأخبار على هواتفهم. هذا مدعوم بالذكاء الاصطناعي. كما أوصت برامج على شاكلة برنامج Spotify بالموسيقى التي قد يستمتعون بها بناءً على اختيارات سابقة. هذا هو الذكاء الاصطناعي”.
كما تردف قائلة: “إن الامتناع عن استخدام الذكاء الاصطناعي ليس خيارًا. إنه عالمنا الآن. إنه ليس مستقبلنا؛ إنه حاضرنا. وكلما فهمنا أنه ليس غريبًا، بل هو شيء نستخدمه ونستفيد منه كل يوم، كلما شعرنا بقدر أكبر من الفاعلية والحماس للذكاء الاصطناعي”.
أطر نشر الذكاء الاصطناعي
ويمكن للشركات وضع ثلاثة أطر رئيسة ومهمة حاكمة لنشر الذكاء الاصطناعي وهي البيانات والإفصاح واتخاذ القرار.
حيث تمثل البيانات، المادة الخام التي تتدرب عليها الذكاء الاصطناعي؛ فيجب على الشركات أن تكون حريصة بشدة بشأن جودة هذه البيانات وملكيتها. كما يجب على الأشخاص الذين يطورون الذكاء الاصطناعي الالتزام بالقواعد المتعلقة باستخدام البيانات، وخاصة فيما يتعلق بالخصوصية والاستئذان من مالكيها. وينطبق هذا أيضًا على الأشخاص الذين ينشرون الذكاء الاصطناعي داخل الشركة. ومعرفة هل سيتمكن الذكاء الاصطناعي من الوصول إلى بيانات الشركة؟ وما هي الضمانات؟” حسبما صرح Chertoff.
ويستطرد “Chertoff” قائلًا: “هناك مثال آخر على أهمية البيانات حيث إن هناك جدال مستمر حول ما إذا كان تدريب الذكاء الاصطناعي على الأعمال المنشورة. وهل يعد انتهاكًا لحقوق الطبع والنشر أو الاستخدام العادل حيث يمكن للبشر قراءة عمل منشور والتعلم منه. حيث يثار تساؤل هل يمكن للذكاء الاصطناعي القيام بذلك أم أنه في بعض الأحيان يعد إساءة استخدام للملكية الفكرية؟
ولا يزال هذا الأمر محل جدال. قانونيًا سيرغب المطورون والمنظمات التي تستخدم الذكاء الاصطناعي في البقاء على دراية بهذا الأمر”.
القرار يجب دوما أن يكون بشريًا
فيما يتعلق بالإفصاح، يعلق “Chertoff” قائلًا: “من المهم الإفصاح عن الوقت الذي يؤدي فيه الذكاء الاصطناعي بعض الوظائف. لن أذهب إلى حد القول إنه لا يمكنك إنشاء مقاطع فيديو مزيفة، لكنني أقول إن حقيقة أنها ليست حقيقية يجب الإفصاح عنها”.
وأخيرًا، هناك عملية اتخاذ القرار. يري Chertoff بأنه عندما يتعلق الأمر باتخاذ قرار يؤثر على حياة إنسان كالتوظيف، أو الفصل، أو الإفراج من السجن، أو شن غارة بطائرة بدون طيار ، فمهما كانت المعلومات التي يمتلكها ويقررها الذكاء الاصطناعي، فإن الإنسان لابد أن يكون صانع القرار النهائي. فمن وجهة نظره لا يجب أن نعهد بأمور الحياة أو الموت أو العواقب الإنسانية الكبرى إلى آلة.
أخطاء الذكاء الاصطناعي والمسئولية القانونية
وفي إجابة على سؤال أنه حتى المطورين لا يعرفون كيف يتخذ الروبوتات القرارات فيما يعرف بمشكلة الصندوق الأسود. فكيف يتم التعامل مع هذا في سياق قانوني؟
تجيب “Vogel” عن هذا السؤال قائلة: “لقد رأينا القضاة يحاولون التعامل مع هذه المشكلة في سياق المطور والمستخدم. وفي بعض الحالات، أظهروا تفهمهم فمن الصعب تحميل المسؤولية لشخص لا يستطيع معرفة ما يوجد في هذا الصندوق الأسود. ولكننا نرى بشكل متزايد أن المحاكم لا تقبل هذه الإجابة. حيث يتعلم القضاة كيفية حل مشكلة الصندوق الأسود باستخدام أدوات مثل الإفصاح عن الخوارزمية والكشف المحدود عن التعليمات البرمجية وبيانات التدريب للتأكد من وجود قدر كافٍ من الوضوح لتحقيق نتيجة أكثر عدالة” .
بينما يري “Chertoff” أن هناك عامل إضافي يتمثل في مدى تطور القانون لإنشاء مسؤولية صارمة، وهو ما يعني في الأساس أنه لا يهم ما إذا كنت تعلم أن الذكاء الاصطناعي في الصندوق الأسود يعاني من مشكلة. فمن وجهة نظره لقد اشتريت الصندوق الأسود، وأنت تملك النتيجة، وسيتعين عليك دفع ثمنه.