تمكنت القوة التحويلية للذكاء الاصطناعي والإقبال السريع عليه من جذب المستخدمين والشركات. وتفيد التوقعات بأنه بحلول عام 2030، ستتجاوز القيمة السوقية للذكاء الاصطناعي 826 مليار دولار. مع تزايد اعتماد الذكاء الاصطناعي التوليدي.
كما تشير تقارير شركة Gartner إلى أنه بحلول العام المقبل، ستعمل 30% من الشركات على أتمتة نصف حركة مرور شبكتها على الأقل.
ومع انتشار أدوات الذكاء الاصطناعي على نطاق واسع، أصبح الموظفون يجلبون أدوات الذكاء الاصطناعي غير المصرح بها إلى العمل، مثل روبوتات الدردشة القائمة على الـAI. ونماذج التعلم الآلي لتحليل البيانات. ومساعدي مراجعة البرمجة.
ووفقاً لدراسة أجرتها شركة Microsoft، فإن 80% من الموظفين في العام الماضي كانوا يستخدمون تطبيقات غير مصرح بها. وبالنظر إلى أن 38 في المئة من المستخدمين يتبادلون معلومات حساسة مع أدوات الـAI دون موافقة الشركة.
لذا, فإن التهديد الجديد المعروف باسم الـAI ينطوي على مخاطر أمنية بعيدة المدى. بما في ذلك انكشاف البيانات وقرارات العمل غير الدقيقة ومشاكل الامتثال.
الذكاء الاصطناعي الخفي يهدد أمن وخصوصية الشركات
يدمج المزيد من الموظفين أدوات الذكاء الاصطناعي في روتين عملهم اليومي. تجد فرق التسويق أن سحر ChatGPT جيد في أتمتة حملات البريد الإلكتروني ووسائل التواصل الاجتماعي وإنشاء الصور.
كما تستخدم فرق الشؤون المالية أدوات تصور بيانات الذكاء الاصطناعي لإنشاء أنماط توفر رؤية أعمق لنفقات الشركة.
على الرغم من النتائج المبهرة، فإن هذه الأدوات معرضة لمخاطر الذكاء الاصطناعي الخفي إذا لم تكن المؤسسات على دراية باستخدامها.
قد يؤدي لجوء فريق خدمة العملاء إلى روبوتات الدردشة الآلية غير المصرح بها للرد على استفسار العميل إلى الكشف عن معلومات غير متسقة أو مضللة. ما يؤدي إلى تسريب بيانات سرية أو مملوكة للشركة.
أيضا يستبدل الذكاء الاصطناعي الخفي شكلاً من أشكال العمل البشري. كما يمنح المزيد من الاستقلالية للذكاء الاصطناعي. ما يتسبب في ظهور نقاط ضعف جديدة.
فعلى سبيل المثال، في ظل تكنولوجيا المعلومات في الظل، لا يزال محلل Salesforce يؤدي نفس العمل الأساسي.
ومع ذلك، يمكن للمحلل نفسه الذي يستخدم أدوات الذكاء الاصطناعي غير المصرح بها لتفسير سلوك العميل استنادًا إلى مجموعة بيانات خاصة أن يكشف عن غير قصد عن معلومات حساسة في هذه العملية.
وقد يعتقد معظم مدراء أمن المعلومات (75%) أن التهديدات الداخلية تشكل خطراً أكبر من الهجمات الخارجية. ذلك بسبب إساءة استخدام الـAI.
في مارس 2024، كان أكثر من 27% من البيانات التي يستخدمها الموظفون في أدوات الـAI حساسة. بزيادة عن 10.7 % في العام السابق.
وكان أكثر أنواع البيانات الحساسة انتشارًا هو دعم العملاء 16.3%. ثم شفرة المصدر 12.7%.
في حين سجل البحث والتطوير 10.8%. والاتصالات الداخلية السرية 6.6 بالمئة%. وبلغت سجلات الموارد البشرية والموظفين3.9%. بجانب ذلك, إن تقنية الذكاء الاصطناعي هي المفضلة لدى الجهات الفاعلة.
كيف تحمي الشركات نفسها ؟
يمكن للمؤسسات الاعتماد على الابتكار مع الحد من مخاطر الـAI الخفي وحماية البيانات القيمة. ذلك من خلال أربع وسائل:
تطوير سياسة استخدام الذكاء الاصطناعي:
يعترف 57% من الموظفين بأن استخدام الـAI يتعارض مع سياسات الشركة. بينما يقول نصف الموظفين فقط إن سياسات شركاتهم المتعلقة باستخدام الذكاء الاصطناعي ”واضحة“.
بالتالي, يجب إعلام المستخدمين بأنواع المعلومات التي يمكن أو لا يمكن إدخالها في أدوات الـAI. ذلك من خلال تقسيم أدوات الـAI إلى ثلاثة فئات: الاستخدام المسموح به والاستخدام المحدود والمحظور.
قبل النشر، يجب فحص جميع مشاريع الـAI الجديدة والموافقة عليها من قبل قسم تكنولوجيا المعلومات. كما يجب اعتبار السياسة وثيقة حية تتطور استجابة للتحديات والفرص الجديدة. كما تبقى متسقة مع السياسات الأمنية للمؤسسة.
وضع متطلبات واضحة للتعامل مع البيانات:
يمكن تقليل مخاطر انكشاف البيانات وتنفيذ الحوكمة. ذلك من خلال تصنيف البيانات وتحديد أنواع المعلومات التي يجب ألا تتم معالجتها من خلال عروض الـAI المستضافة العامة أو الخاصة بشكل صريح.
كما يمكن استخدام عروض الـAI المحلية للبيانات الحساسة للغاية حيث لا تتجاوز البيانات محيط الشركة. وبدلاً من شحن البيانات إلى خدمات الـAI المستندة إلى السحابة. كما يمكن نشر القدرات في مكان وجود البيانات.
إطلاق حملات توعية
من أفضل الطرق للحد من الـAI الخفي هو تثقيف الموظفين حول مخاطر الذكاء الاصطناعي وأفضل الممارسات. حيث إن 55% يفتقرون إلى التدريب على المخاطر. في حين بلغ 65% المستخدمين قلقون بشأن الجرائم الإلكترونية التي تعتمد على الـAI
كما يجب جعل التدريب على التوعية بالأمن السيبراني أولوية ودعمه بهجمات محاكاة التصيد الاحتيالي لتحديد مؤشرات تهديدات الـAI ومساعدة المستخدمين على التفاعل بشكل مناسب.
إنشاء ثقافة آمنة:
إن الـAI الخفي أداة ثقافية أكثر من تكنولوجية.
لذا من الضروري إنشاء ثقافة استخدام الـAI المسؤول من خلال زيادة الوعي بعواقب استخدام أدوات الـAI غير المصرح بها.
قد يدفع هذا الوعي الموظفين إلى البحث عن بدائل معتمدة أو الحصول على المشورة من قسم تكنولوجيا المعلومات قبل تنفيذ تطبيقات جديدة.
باختصار, يجب أن تدمج المؤسسات جميع أنظمة وأدوات الـAI في الإجراءات الرسمية. ذلك لمنع التعرض للمخاطر الإلكترونية والمشاكل القانونية ومشاكل الامتثال.
أيضا تكمن معالجة المخاطر الأساسية في سياسة رسمية لاستخدام الـAI وتدريب المستخدمين وتوعيتهم.
بالإضافة إلى وضع توقعات واضحة بشأن استخدام البيانات الحساسة. وإرساء ثقافة واضحة. كما يمكن للمؤسسات تحسين أدوات الـAI وتحقيق ميزة تنافسية.
المقال الأصلي: من هنـا


