أطلقت هيئة المعايير البريطانية «BSI» معيارا دوليا جديدا مصمما لتمكين المؤسسات من إدارة الذكاء الاصطناعي بأمان، ويعد نظام إدارة الذكاء الاصطناعي هو الأول من نوعه، لتمكين الاستخدام الآمن والمسؤول للذكاء الاصطناعي (AI) في جميع أنحاء المجتمع، وجاء ذلك بعد بحث أظهر أن 61% من المبادئ التوجيهية العالمية المطلوبة للتكنولوجيا.
ويهدف المعيار الدولي (BS ISO/IEC 42001) إلى مساعدة المؤسسات في الاستخدام المسؤول للذكاء الاصطناعي، ومعالجة اعتبارات مثل اتخاذ القرارات التلقائية غير الشفافة، فضلا عن استخدام التعلم الآلي بدلًا من المنطق المشفر بشريًا لتصميم النظام، والتعلم المستمر.
ونشرت الهيئة البريطانية الوطنية للمعايير (BSI) في المملكة المتحدة توجيهات، حول كيفية إنشاء نظام إدارة الذكاء الاصطناعي وتنفيذه وصيانته وتحسينه باستمرار، مع التركيز على الضمانات، وهو إطار قائم على التأثير يوفر متطلبات لتسهيل تقييمات مخاطر الذكاء الاصطناعي القائمة على السياق، بالإضافة إلى تفاصيل حول معالجات المخاطر والضوابط لمنتجات وخدمات الذكاء الاصطناعي الداخلية والخارجية.
وأفادت بأنه يهدف إلى مساعدة المؤسسات على تقديم ثقافة تتمحور حول الجودة والقيام بدورها بشكل مسؤول في تصميم وتطوير وتوفير المنتجات والخدمات المدعمة بالذكاء الاصطناعي والتي يمكن أن تفيدهم والمجتمع ككل.
وقالت سوزان تايلور مارتن، الرئيس التنفيذي لـ BSI: «إن الذكاء الاصطناعي هو تكنولوجيا تحويلية، لكي تكون الثقة قوة قوية من أجل الخير»، لافتة إلى أن الثقة أمر بالغ الأهمية.
وتابعت أن نشر أول معيار دولي لنظام إدارة الذكاء الاصطناعي، يعد خطوة مهمة في تمكين المؤسسات من إدارة التكنولوجيا بشكل مسؤول، وهو الأمر الذي يوفر بدوره الفرصة لتسخير الذكاء الاصطناعي لتسريع التقدم نحو مستقبل أفضل وعالم مستدام، لذا تفتخر BSI بكونها في طليعة ضمان التكامل الآمن والموثوق للذكاء الاصطناعي عبر المجتمع.
وأجرى معهد المعايير البريطانية (BSI)، مؤخرًا، استطلاع الثقة في الذكاء الاصطناعي، والذى وجد فيه أنه شمل 10000 شخص بالغ في تسع دول، وأن ثلاثة أخماسهم على مستوى العالم ونفس النسبة في المملكة المتحدة (62%) يريدون إرشادات دولية لتمكين الاستخدام الآمن للذكاء الاصطناعي، كما أن ما يقرب من خمسي المشاركين على مستوى العالم (38%) يستخدمون الذكاء الاصطناعي بالفعل كل يوم في العمل، بينما يتوقع أكثر من الثلثين (62%) أن تفعل صناعاتهم ذلك بحلول عام 2030.
وفى السياق ذاته، وجد البحث أن سد «فجوة الثقة في الذكاء الاصطناعي» وبناء الثقة في التكنولوجيا هو المفتاح لتعزيز فوائدها للمجتمع والكوكب.
وقال سكوت ستيدمان، المدير العام للمعايير في BSI: «يتم استخدام تقنيات الذكاء الاصطناعي على نطاق واسع من قبل المؤسسات في المملكة المتحدة على الرغم من عدم وجود إطار تنظيمي راسخ، وبينما تدرس الحكومات كيفية التنظيم بأكبر قدر من الفعالية، فإن الناس في كل مكان يطالبون بوضع مبادئ توجيهية وحواجز حماية لحمايتهم. في هذا الفضاء سريع التطور.
من ناحية أخرى، تهدف معايير الإدارة الدولية للصناعة بشأن استخدام تقنيات الذكاء الاصطناعي، إلى مساعدة الشركات على تضمين الاستخدام الآمن والمسؤول للذكاء الاصطناعي في منتجاتها وخدماتها، كما تهدف المبادئ التوجيهية لقادة الأعمال في معيار الذكاء الاصطناعي الجديد إلى تحقيق التوازن بين الابتكار وأفضل الممارسات من خلال التركيز على المخاطر الرئيسية والمسؤوليات والضمانات.