بقلم إريكا فيلي تي. ليغارا في مقال سابق لـ BusinessWorld، جادلت بأن حوكمة الذكاء الاصطناعي تتجاوز الإشراف على حفنة من المشاريع التقنية وتشمل الآنبقلم إريكا فيلي تي. ليغارا في مقال سابق لـ BusinessWorld، جادلت بأن حوكمة الذكاء الاصطناعي تتجاوز الإشراف على حفنة من المشاريع التقنية وتشمل الآن

ما يجب على مجالس الإدارة أن تطلبه من الذكاء الاصطناعي: التقييم والتدقيق والضمان

2026/03/24 00:03
7 دقيقة قراءة
للحصول على ملاحظات أو استفسارات بشأن هذا المحتوى، يرجى التواصل معنا على crypto.news@mexc.com

بقلم إريكا فيل تي ليجارا

في مقال سابق لـ BusinessWorld، جادلت بأن حوكمة الذكاء الاصطناعي تتجاوز الإشراف على حفنة من المشاريع التقنية وتشمل الآن ضمان بقاء القرارات القائمة على الذكاء الاصطناعي في جميع أنحاء المؤسسة متوافقة مع الاستراتيجية ومدى قبول المخاطر والمعايير الأخلاقية. السؤال الطبيعي التالي لمجالس الإدارة هو: بعد وضع التوقعات، كيف تتحقق المؤسسة من أن أنظمة الذكاء الاصطناعي الخاصة بها تعمل فعلياً كما هو مقصود، وبمسؤولية، وضمن الحدود المحددة؟

تكمن الإجابة في ثلاثة تخصصات مترابطة ولكنها متميزة: تقييم المخاطر للذكاء الاصطناعي، وتدقيق الذكاء الاصطناعي، وضمان الذكاء الاصطناعي. ستجد مجالس الإدارة المألوفة بالإشراف المالي المنطق بديهياً. التحدي، والفرصة، هو تطبيق نفس الانضباط على الذكاء الاصطناعي.

3 مفاهيم متميزة ولكنها مترابطة
من المفيد أن نكون دقيقين بشأن معنى كل مصطلح، لأنها غالباً ما تُستخدم بالتبادل عندما لا ينبغي أن تكون كذلك.

تقييم المخاطر للذكاء الاصطناعي هي العملية الداخلية التي من خلالها تحدد المؤسسة وتقيم وتعطي الأولوية للمخاطر المرتبطة بأنظمة الذكاء الاصطناعي الخاصة بها. يسأل عما يمكن أن يحدث خطأ، وما مدى احتمالية ذلك، وما سيكون تأثيره. هذا هو الأساس الذي يرتكز عليه كل شيء آخر. بدون تقييم المخاطر الموثوق، لا يملك التدقيق ولا الضمان خط أساس ذا معنى للعمل منه. توجد أنظمة الذكاء الاصطناعي المادية عبر كل قطاع: نموذج تسجيل الائتمان في البنك، أداة فرز المرضى في المستشفى، متنبئ أداء الطلاب في الجامعة، نظام تحديد أولويات الحالات في وكالة حكومية. ما تشترك فيه هو العواقب، والتي تشمل المخرجات التي تؤثر على الأشخاص الحقيقيين بطرق ذات مغزى.

بالنسبة لأي نظام من هذا القبيل، يجب أن يكون تقييم المخاطر منهجياً وموثقاً ومراجعاً بانتظام مع تطور النموذج ومع تغير بيئة التشغيل.

تدقيق الذكاء الاصطناعي هو الفحص المستقل لما إذا كان نظام الذكاء الاصطناعي، أو إطار الحوكمة المحيط به، يتوافق مع المعايير أو السياسات أو المتطلبات المحددة. إنها عملية قائمة على الأدلة يجريها طرف مستقل بشكل كاف عن المسؤولين عن النظام قيد المراجعة. قد يقيّم تدقيق الذكاء الاصطناعي ما إذا كانت ممارسات إدارة الذكاء الاصطناعي للمؤسسة تتوافق مع معيار معترف به دولياً، مثل ISO/IEC 42001، أول معيار لنظام إدارة الذكاء الاصطناعي في العالم المنشور في 2023، أو ما إذا كان نموذج معين يعمل ضمن المعايير المعتمدة وبدون تحيز غير مقصود. الأهم من ذلك، أن المعيار الذي يحكم المدققين أنفسهم، ISO/IEC 42006، المنشور في يوليو 2025، يحدد الآن الكفاءة والدقة المطلوبة من الهيئات التي تدقق وتصدق على أنظمة إدارة الذكاء الاصطناعي. بعبارة أخرى، تبدأ مهنة التدقيق في إضفاء الطابع الرسمي على مساءلتها الخاصة لمشاركات الذكاء الاصطناعي.

ضمان الذكاء الاصطناعي هو الاستنتاج الرسمي الموجه لأصحاب المصلحة الذي ينشأ من عملية التدقيق تلك. إنه الرأي المهني، الصادر عن طرف مؤهل ومستقل، الذي يمنح مجالس الإدارة والجهات التنظيمية والمستثمرين والجمهور الثقة في أن نظام الذكاء الاصطناعي أو إطار إدارة الذكاء الاصطناعي يلبي معياراً محدداً. الضمان هو ما يحول المراجعة الداخلية إلى إشارة خارجية موثوقة.

أساس ضمان الذكاء الاصطناعي
مفهوم الضمان المستقل ليس جديداً على مجالس الإدارة. كل عام، يفحص المدققون الخارجيون البيانات المالية للمؤسسة ويصدرون رأياً؛ استنتاج مبني على الأدلة، يُجرى بموجب معايير معترف بها دولياً، ومدعوم باستقلالية المدقق المهنية. هذا الرأي يحمل ثقلاً على وجه التحديد لأن الإطار الذي يحكمه صارم وراسخ. ينطبق هذا المنطق بغض النظر عن الصناعة؛ سواء كانت المؤسسة بنكاً أو مستشفى أو تكتلاً أو مؤسسة عامة، فإن التدقيق المالي هو آلية مألوفة وموثوقة.

نفس المنطق ينطبق الآن على الذكاء الاصطناعي. عندما تقدم مؤسسة ادعاءً عاماً أو تنظيمياً حول أنظمة الذكاء الاصطناعي الخاصة بها، بأنها عادلة وشفافة ومتوافقة مع معيار محدد أو خالية من التحيز المادي، فالسؤال هو: من يتحقق بشكل مستقل من هذا الادعاء، وبموجب أي إطار مهني؟

الإجابة، بالنسبة لمهنة المحاسبة والتدقيق، هي ISAE 3000، المعيار الدولي لمهام الضمان الصادر عن مجلس معايير التدقيق والضمان الدولي (IAASB). يحكم ISAE 3000 مهام الضمان في مسائل أخرى غير المعلومات المالية التاريخية، مما يجعله الموطن الطبيعي لضمان الذكاء الاصطناعي. بموجب هذا المعيار، يمكن للمحترف إجراء إما مهمة ضمان معقولة، المعيار الأعلى المماثل للتدقيق المالي، أو مهمة ضمان محدودة، وهي أقرب في العمق إلى المراجعة. اختيار المستوى مهم ويجب أن يكون مدروساً، ومعايراً لأهمية ومخاطر نظام الذكاء الاصطناعي المعني.

التوازي المعاصر الوثيق هو ضمان الاستدامة أو ESG. تقوم العديد من الشركات الفلبينية المدرجة بالفعل بتكليف ضمان مستقل على إفصاحات الاستدامة الخاصة بها، غالباً بموجب ISAE 3000. الآليات هي نفسها تماماً: يفحص ممارس مستقل مجموعة من الادعاءات مقابل معايير محددة ويصدر استنتاجاً رسمياً. الموضوع يختلف؛ الانضباط المهني لا.

ما يعنيه هذا لمجالس الإدارة
تنبع ثلاثة آثار عملية من هذا الإطار.

أولاً، يجب على مجالس الإدارة أن تسأل عما إذا كانت مؤسساتها قد أجرت تقييم المخاطر صارماً للذكاء الاصطناعي على الأنظمة المادية. ليس تمريناً لمرة واحدة، ولكن عملية حية يتم تحديثها مع إعادة تدريب النماذج، وتوسع حالات الاستخدام، وتطور البيئة التنظيمية. جودة عمل التدقيق والضمان اللاحق ليست أفضل من تقييم المخاطر الذي يسبقه.

ثانياً، يجب على مجالس الإدارة التمييز بين تدقيق الذكاء الاصطناعي الداخلي والخارجي. تلعب وظائف التدقيق الداخلي دوراً حاسماً في توفير الضمان بأن ضوابط الذكاء الاصطناعي تعمل كما هو مصمم. ومع ذلك، يجب على مجالس الإدارة أيضاً النظر فيما إذا كان تدقيق مستقل من الطرف الثالث لأنظمة الذكاء الاصطناعي المادية مبرراً، خاصة للأنظمة التي تؤثر على العملاء أو الموظفين أو الجمهور بطرق مهمة. كما هو الحال مع التدقيق المالي، يعزز الاستقلال المصداقية.

ثالثاً، مع قيام المؤسسات بشكل متزايد بالتزامات عامة حول ممارسات الذكاء الاصطناعي الخاصة بها للجهات التنظيمية والمستثمرين والمجتمعات التي تخدمها، يجب على مجالس الإدارة أن تسأل عما إذا كانت تلك الالتزامات مدعومة بضمان موثوق. الادعاءات بدون التحقق الإضافي المستقل هي، في أحسن الأحوال، خطر على السمعة في انتظار التحقق.

مهنة لا تزال تبني قدراتها
سيكون من غير المكتمل تقديم هذا المشهد دون الاعتراف بقيوده الحالية. البنية التحتية لضمان الذكاء الاصطناعي لا تزال قيد البناء. المعايير المهنية آخذة في الظهور. كفاءات المدقق في الذكاء الاصطناعي، التي تمتد عبر التعلم الآلي، والتحيز الخوارزمي، وحوكمة البيانات، وشفافية النموذج، لم يتم تطويرها بشكل موحد عبر المهنة بعد. يوفر ISAE 3000 إطار الضمان، لكن المنهجيات الخاصة بالذكاء الاصطناعي التي تقع ضمنه لا تزال ناضجة.

بالنسبة للمؤسسات التي لم تكن مستعدة بعد لمتابعة الضمان الرسمي، فهذا ليس سبباً للوقوف ساكناً. يعد تقييم المخاطر منظم ومنتظم لأنظمة الذكاء الاصطناعي المادية خطوة أولى ذات مغزى وعملية. إنه يبني الانضباط الداخلي والتوثيق وعادات الحوكمة التي يتطلبها الجاهزية للضمان في النهاية. مجالس الإدارة التي تكلف بمثل هذه التقييمات اليوم، حتى بشكل غير رسمي، تطور عضلات مؤسسية ستهم عندما تتصلب التوقعات التنظيمية ويشتد التدقيق من أصحاب المصلحة.

هذا الرأي هو أحد الآراء التي استكشفتها بعمق أكبر في الأبحاث التي كنت أطورها مع زملائي الذين يفحصون حوكمة الذكاء الاصطناعي التوليدي في الاقتصادات حيث لم تلحق التنظيمات بالتكنولوجيا بعد. الحجة المركزية هي أن الشركات هي بالفعل وكلاء أخلاقيون بالتزامات أخلاقية قائمة تجاه أصحاب المصلحة؛ انتظار تشريع الذكاء الاصطناعي المخصص ليس ضرورياً ولا كافياً للحوكمة المسؤولة. الالتزام بالتصرف موجود بالفعل. ما هو مطلوب هو الإرادة التنظيمية لتفعيله.

هذا ليس سبباً لمجالس الإدارة للانتظار على جدول الأعمال الأوسع. إنه سبب لطرح أسئلة مستنيرة الآن، من مدققيهم الخارجيين، ووظائف التدقيق الداخلي، وفرق الإدارة الخاصة بهم، حتى عندما تلحق قدرات المهنة بالطلب، تكون مؤسساتهم جاهزة للمشاركة بشكل هادف.

لم يظهر التدقيق المالي بشكل كامل. استغرق الأمر عقوداً من وضع المعايير، والتطوير المهني، والدروس الصعبة من الإخفاقات المؤسسية حتى يصبح التدقيق المستقل المؤسسة الموثوقة التي هي عليها اليوم. ضمان الذكاء الاصطناعي في نقطة انعطاف مبكرة مماثلة. مجالس الإدارة التي تتعامل معه الآن، وتطرح أسئلة أكثر حدة على مدققيها، وتطالب بأكثر من ادعاءات الإدارة، وتبني القدرات الداخلية قبل أن تطلب منها الجهات التنظيمية القيام بذلك، لن تقلل فقط من تعرضها الخاص. ستساعد في تشكيل ما تبدو عليه المساءلة المسؤولة للذكاء الاصطناعي للمؤسسات الفلبينية والمنطقة الأوسع.

إريكا فيل تي ليجارا هي فيزيائية ومعلمة وممارسة لعلوم البيانات والذكاء الاصطناعي تعمل عبر الحكومة والأوساط الأكاديمية والصناعة. هي المديرة الإدارية الافتتاحية وكبيرة مسؤولي الذكاء الاصطناعي والبيانات في مركز التعليم لأبحاث الذكاء الاصطناعي، وأستاذة مشاركة وكرسي Aboitiz في علوم البيانات في المعهد الآسيوي للإدارة، حيث أسست وقادت أول برنامج ماجستير في علوم البيانات في البلاد من 2017 إلى 2024. تعمل في مجالس إدارة الشركات، وهي زميلة في معهد مديري الشركات، ومحترفة معتمدة في حوكمة الذكاء الاصطناعي من IAPP، وشريكة مؤسسة في CorteX Innovations.

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني crypto.news@mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.