بناء أنظمة ذكاء اصطناعي جديرة بالثقة

19-diciembre-2022

بناء أنظمة ذكاء اصطناعي جديرة بالثقة

بناء أنظمة ذكاء اصطناعي جديرة بالثقة
طلال أبوغزاله
مع الانتشار الواسع لأنظمة الذكاء الاصطناعي في جميع أنحاء العالم، أصبحت الحاجة ملحة لبناء أنظمة جديرة بالثقة، من أجل تعزيز سلامتها وشفافيتها، وقابليتها للتدقيق بصورة أفضل، خصوصًا وأنها بدأت تلعب دورًا أكبر في مساعدة البشر في التحليل وصناعة القرار. ولأن إمكانيات هذه التقنية في تحسين حياتنا هي إمكانات هائلة، فقد زاد الاعتماد عليها في العديد من القطاعات. وكما هو الحال مع أي تقنية، فإن احتمال إساءة استخدامها قائم، وقد عبر العديد من الباحثين في مجال الذكاء الاصطناعي عن قلقهم من التطوير المتسارع غير المسؤول، الذي قد يضر أكثر مما ينفع.
لذا، فإن بناء أنظمة ذكاء اصطناعي موثوقة هو أمر أساسي، خصوصًا وأنها أضحت تلعب دورًا كبيرًا في حياتنا، فكثير من الطلبات التي ترسلها العديد من التقنيات مثل الروبوتات، وشبكة الجيل الخامس، وإنترنت الأشياء، تمر عبر تلك التقنية. فكمية البيانات الضخمة التي تولدها هذه الأنظمة لا يمكن معالجتها بصورة مفهومة إلا باستخدام آلات الذكاء الاصطناعي الذكية، لمساعدتنا في فهم هذه المعلومات بطريقة مجدية. كما أن تكلفة تقنيات الذكاء الاصطناعي المنخفضة، وتوافرها، ونضجها، يضيف قيمة من المستحيل الحصول عليها باستخدام الطرق التقليدية، فالمتغيرات والتفاعلات أكبر من قدرة البشر على تحليلها.
واقعيًا، يعني هذا أن أنظمة الذكاء الاصطناعي ستعلب دورًا أكبر في مساعدتنا على إدارة العديد من الأنظمة والشبكات الهامة، وهو ما يجب أن يحدث بطريقة آمنة وموثوقة وقابلة للشرح. على سبيل المثال، يجب أن يكون القصد من وراء اتخاذ نظام الذكاء الاصطناعي قرارًا بإعادة توجيه الكهرباء بذكاء في إحدى محطات توليد الكهرباء واضحًا، بحيث يكون هناك مسار قابلًا للتدقيق. ومن الواضح أن هذا أكثر أهمية في قطاعات مثل الرعاية الصحية، أو في حالة إدارة محطة للطاقة النووية، فالعواقب في هذه الحالة قد تكون وخيمة، كما أن لهذا الأمر أهمية كبيرة لخبراء التسويق عبر الإنترنت، على سبيل المثال، لمعرفة سبب توصية نظام الذكاء الاصطناعي بمنتج معين لمستخدم معين على شبكة الإنترنت.
أعتقد أنه من أجل بناء الثقة في أنظمة الذكاء الاصطناعي، هناك ثلاثة مجالات يجب التركيز عليها، وهي:
•تطوير أنظمة ذكاء اصطناعي آمنة، تكون تصرفاتها قابلة للتفسير.
•تدريب أنظمة الذكاء الاصطناعي باستخدام مجموعة بيانات غير متحيزة.
•تحسين أمن تقنية الذكاء الاصطناعي.
اسمحوا لي أن أتناول كل مجال من المجالات السابقة بإيجاز.
لا بد من تطوير أنظمة الذكاء الاصطناعي مع مراعاة قابليتها للتفسير. فالاعتماد المتزايد على أنظمة الذكاء الاصطناعي لتحليل البيانات ومعالجتها لتقديم رؤى أفضل وأسرع، يعني أنها ستخضع للفحص لضمان أنها تعمل بصورة صحيحة وشفافة، وهذا هو الهدف من الذكاء الاصطناعي القابل للتفسير. ويعد هذا تحديًا كبيرًا، لأن أنظمة الذكاء الاصطناعي تشبه الصناديق السوداء المعقدة، التي لا يفهمها إلا القليل، مما يظهر الحاجة إلى امتلاك القدرة على التراجع، وفهم سبب توصل أنظمة الذكاء الاصطناعي إلى النتائج التي تتوصل إليها.
بالإضافة إلى قابلية التفسير، يجب تزويد أنظمة الذكاء الاصطناعي بميزات أمان مشفّرة صارمة، تتحرى وجود ضمانات حول سلامة الإنسان لا يمكن انتهاكها، بغض النظر عن الاستنتاجات التي تتوصل إليها.
أما الجزء الثاني الذي يتعلق بجدارة الذكاء الاصطناعي بالثقة، فهو ضرورة تدريب تلك الأنظمة باستخدام معلومات مدققة غير متحيزة. فأي نظام ذكاء اصطناعي لا بد من تدريبه على مجموعات من البيانات لبناء العلاقات المتبادلة، التي يستخدمها لاحقًا لتوقع المواقف المستقبلية التي تقدم له. لذا، فإذا غُذيت أنظمة الذكاء الاصطناعي بمجموعات بيانات متحيزة، فإن الناتج سيكون نظامًا يعكس نفس التحيز. لذا، يجب أن تكون الضوابط والتوازنات في مكانها الصحيح؛ لضمان أن تطبيقات الذكاء الاصطناعي الهامة على وجه الخصوص تُدرّب باستخدام معلومات مدققة غير متحيزة.
أما الشق الأخير لتحقيق الجدارة بالثقة، فهو ضمان أن أنظمة الذكاء الاصطناعي مؤمّنة بصورة صحيحة باستخدام أنظمة أمان متطورة قائمة على الذكاء الاصطناعي. فمجال الحرب الإلكترونية يتغير باستمرار، وسيكون من الخطير تعريض تلك الأنظمة للخطر. فقد أصبحت الجهات الخبيثة أكثر تطورًا في هجماتها، وتبني هجماتها استنادًا إلى الذكاء الاصطناعي، ويجب أن نكون قادرين على التصدي لها.
إن بناء ذكاء اصطناعي جدير بالثقة يجب أن تتولاه الحكومات بالتعاون مع القطاع الخاص، لفهم هذه التقنية بصورة صحيحة، لوضع سياسات وبناء قدرات وطنية في هذا المجال، بحيث يمكن بناء نظام بيئي شامل يمكن أن تزدهر فيه هذه التقنية.



AI

TAG AI

Welcome to the TAG AI!

Ask me anything, and I'll do my best to help you.

login