الذكاء الاصطناعي مخاطر والحوكمة حوكمة الذكاء الاصطناعي: المفتاح لمستقبل رقمي آمن

 لذكاء الاصطناعي والحوكمة

يمكن أن تساعد أطر الحوكمة الذكاء الاصطناعي المؤسسات على التعلم والحوكمة والمراقبة والنضج الذكاء الاصطناعي التبني. قد يبدأ إطار حوكمة الذكاء الاصطناعي بمنظمة تحدد أصحاب المصلحة الرئيسيين الذين يمثلون مختلف المجموعات والإدارات. يمكن إضفاء الطابع الرسمي على مثل هذا "التحالف" في مركز التميز

Artificial Intelligence Risk and Governance AI Governance The Key to a Secure Digital Future

(مركز التميز) أو مجموعة العمل أو المجلس ، من بين أمثلة أخرى. قد تقوم هذه المجموعات بتطوير أفضل الممارسات لمنظمتها ، وتبادل المعرفة ، وبناء حواجز حماية لاستخدام أنظمة الذكاء الاصطناعي. تكون هذه الجهود أكثر نجاحا بشكل عام عندما تقيم روابط وثيقة مع التكنولوجيا ومهندسي البيانات وخط الأعمال

أصحاب المصلحة لاستكمال الأطر الحالية ، ودعم سير العمل الحالي في المراقبة والإشراف على أنشطة أنظمة الذكاء الاصطناعي والمنتجات التي تدعم الذكاء الاصطناعي.


عند مراجعة مبادرة ممكنة الذكاء الاصطناعي، يجب على "الائتلاف" أن يأخذ في الاعتبار اعتبارات مختلفة، (حسب الاقتضاء) بما في ذلك أخلاقيات البيانات، وحقوق الخصوصية، والاعتبارات التنظيمية المعمول بها، وما إذا كانت البيانات التي يتم تدريب النظام الذكاء الاصطناعي عليها مناسبة (أي هل تم توفيرها لهذا الغرض أم أنها

بطريقة لا علاقة لها بتلك التي قدمت من أجلها) ، وما إذا كان قد يكون مطلوبا إشعار بهذا الاستخدام لأطراف ثالثة ، وما إذا كانت مجموعة البيانات محمية بشكل مناسب (عبر ضوابط حق الوصول وبروتوكولات التشفير ، على سبيل المثال) ، وطريقة الإشراف الإشرافي المناسبة لإثبات السيطرة على نظام الذكاء الاصطناعي ، سواء تم تطويره داخليا أو من قبل طرف ثالث.


وتبعا لحجم الاعتماد، يمكن وضع عملية موافقة رسمية، تحكمها هيئة مركزية لديها خبرة موضوعية من مختلف الميادين. وعندما يتحقق قدر كاف من الارتياح إزاء إدارة الذكاء الاصطناعي، يمكن أيضا حل هذا الهيكل المركزي والاستعاضة عنه بهيكل اتحادي يمكن أن يلبي الاحتياجات والمخاطر الخاصة بالأعمال التجارية.


لاحظ أن تحديد المخاطر المحتملة على الذكاء الاصطناعي/تعلم الآلة (على النحو المبين في القسم 2) أمر بالغ الأهمية لصياغة إطار للمخاطر التشغيلية والرقابة. عند تحديد المخاطر المحتملة ، يمكن بعد ذلك إجراء تحليل للثغرات مقابل الضوابط الحالية. اعتمادا على مكتبة التحكم الخاصة بالمؤسسة ، قد يتطلب ذلك مشاركة من مالكي تحكم متعددين ويتطلب نهجا منظما وتخطيطا شاملا. يجب أن تؤدي نتائج تحليل الفجوة بعد ذلك إلى إنشاء ضوابط جديدة أو محسنة محتملة للتخفيف من مخاطر الذكاء الاصطناعي / ML المحتملة المحددة.  يجب أن تأخذ أطر الحوكمة الذكاء الاصطناعي في الاعتبار أيضا مجموعة من العوامل الأخرى ، والتي نوضح بعضها أدناه.


الرصد والرقابة

تعتبر عملية المراقبة والتصعيد المركزية ، في كثير من الحالات ، ضرورية: توفير التعرض الكافي داخل المنظمة للقرارات التي يتم اتخاذها وفرصة لإثارة المخاوف أو التحديات عند الاقتضاء. وينبغي أن يمكن هذا الهيكل نظام الرصد من التكيف مع الاحتياجات المتغيرة للمنظمة، مع نضوج الذكاء الاصطناعي اعتماده أو حدوث تغييرات كبيرة في الصناعة. تجدر الإشارة إلى أن بعض الشركات قد تعتقد أن إجراءات المراقبة والرقابة الحالية تعالج بشكل كاف مخاطر الذكاء الاصطناعي المحتملة.

تم تصميم أنظمة الحوكمة الحالية في معظم المنظمات للعمليات التي توجد فيها درجة عالية من المشاركة البشرية. خبراء الأعمال ، على سبيل المثال ، في كثير من الأحيان على استعداد لتجاوز النتائج الخاطئة. ومع ذلك ، قد يؤدي تقليل التدخلات أو إزالتها إلى تحسين دقة واتساق وكفاءة العمليات الحالية. هذا صحيح بشكل خاص حيث يعمل كل تكرار جديد للبيانات على تحسين نظام الذكاء الاصطناعي ديناميكيا وتحسينه - روبوت محادثة ،

على سبيل المثال ، تعلم وضبط استجابتها مع كل تفاعل مع العميل. تتطلب الحوكمة حول عمليات المعايرة الديناميكية هذه عادة بروتوكولات أمان إضافية ، بما في ذلك ، على سبيل المثال ، مراقبة أكثر قوة ومستمرة ، وعتبات أداء محددة مسبقا ، و "مفاتيح القفل" التي يمكن أن تزيل النظام من النشر تماما ، إذا لزم الأمر ، اعتمادا على حالة الاستخدام.

إدارة مخاطر الطرف الثالث

قد يتضمن استخدام نشر الذكاء الاصطناعي/مل تطبيقات و/أو بيانات تابعة لجهات خارجية، كما تمت مناقشته في القسم 2، مما قد يتيح قابلية التوسع وزيادة قوة الحوسبة والوصول إلى البائعين الذين يشكلون جزءا من النظام البيئي الأكبر للتكنولوجيا المالية. نتيجة لذلك ، قد تحتاج الشركات إلى تعزيز قدراتها في إدارة مخاطر الطرف الثالث (تي بي آر إم). قد تختبر هذه التطورات جوانب معينة من الممارسات الحالية ، مثل شفافية تي بي آر إم  حول قابلية تفسير النموذج ، وأمن المعلومات

قضايا لمقدمي الخدمات المستندة إلى السحابة ، ومخاوف أوسع حول تبعيات التكنولوجيا للأطراف الثالثة نفسها. اعتمادا على حالة الاستخدام ، قد تنظر الشركات في تضمين بنود تعاقدية لأطراف ثالثة فيما يتعلق بمنهجية اختبار نظام الذكاء الاصطناعي ، وإمكانية شرح النتائج الناتجة عن النظام ، و / أو حقوق الملكية الفكرية التي قد تكون مستمدة من استخدام النظام.

ثلاثة خطوط دفاع

تتبع معظم المؤسسات المالية نموذج خطوط الدفاع الثلاثة، الذي يفصل مجموعات الخطوط الأمامية، التي تكون مسؤولة بشكل عام عن مخاطر الأعمال (الخط الأول)، عن مجموعات الإشراف على المخاطر ومجموعات التحدي المستقلة الأخرى (الخط الثاني) والضمان (الخط الثالث). يجب أن تضمن أطر الحوكمة الذكاء الاصطناعي تلبية متطلبات الرقابة والتحدي والضمان الكافية

في الذكاء الاصطناعي تطوير النظام واستخدامه. علاوة على ذلك ، نظرا لتطور كل من المخاطر واللوائح المحتملة المتعلقة الذكاء الاصطناعي ، يجب على خطي الدفاع الثاني والثالث ، بالمثل ، ضمان حصولهما على خبرة موضوعية كافية لتحدي الخط الأول بشكل فعال في تقييم الاستخدام المقترح وتنفيذ أنظمة الذكاء الاصطناعي ، كما هو موضح سابقا في القسم 2.

الأدوار والمسؤوليات

تختلف كل منظمة فيما يتعلق بهيكلها التنظيمي الداخلي وأدوارها ومسؤولياتها العامة. تقدم الأدوار / الأنشطة أدناه بعض الأمثلة للمنظمات التي تناقش الأدوار والمسؤوليات فيما يتعلق بعمليات التنفيذ الذكاء الاصطناعي للنظر فيها. وليس المقصود منها أن تكون قائمة شاملة أو إلزامية.

تعليقات
ليست هناك تعليقات
إرسال تعليق



    وضع القراءة :
    حجم الخط
    +
    16
    -
    تباعد السطور
    +
    2
    -