صحيفة الكترونية اردنية شاملة

قيادة ابتكار الذكاء الاصطناعي

أعلنت المفوضية الأوروبية عن تشريع هو الأول من نوعه ينظم استخدام الذكاء الاصطناعي في نيسان، أطلق هذا العنان لانتقادات بأن اللوائح يمكن أن تبطئ ابتكار الذكاء الاصطناعي، مما يعيق أوروبا في تنافسها مع الولايات المتحدة والصين على الريادة في الذكاء الاصطناعي.

على سبيل المثال، كتب Andrew McAfee مقالًا بعنوان “مقترحات الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي لن تؤدي إلا إلى إعاقة الابتكار”.

توقعًا لهذا النقد وإدراكًا لمثال اللائحة العامة لحماية البيانات، حيث لم يُترجم موقع القيادة الفكرية في أوروبا بالضرورة إلى ابتكار متعلق بالبيانات، حاولت المفوضية الأوروبية معالجة ابتكار الذكاء الاصطناعي مباشرةً من خلال نشر خطة منسقة جديدة حول الذكاء الاصطناعي.

تم إصدار الخطة بالتزامن مع اللوائح المقترحة، وهي مليئة بالمبادرات التي تهدف إلى مساعدة الاتحاد الأوروبي في أن يصبح رائدًا في تكنولوجيا الذكاء الاصطناعي. فهل سيكون الجمع بين التنظيم والسياسات المؤيدة للابتكار كافيًا لتحفيز القيادة المتسارعة للذكاء الاصطناعي؟

يمكن تسريع ابتكار الذكاء الاصطناعي بالقوانين الصحيحة، في حين أن الدمج مدروس جيدًا ويستهدف التحسينات في كل من التنظيم والابتكار، إلا أن هناك مشكلة: المبادرات المؤيدة للابتكار تركز على البحث والتطوير ولا تستهدف زيادة التبني في حالات استخدام الذكاء الاصطناعي “عالية المخاطر” التي يتعين تنظيمها.

تحفيز التبني هو عنصر أساسي مفقود. أظهرت العديد من الدراسات البحثية أن لوائح “القانون الصارم” المصممة جيدًا يمكنها في الواقع زيادة الابتكار، خاصة عند استخدامها مع الحوافز التي تسرع من التبني. إذا اتبعت المفوضية الأوروبية مثل هذه الاستراتيجية، فقد يصبح الاتحاد الأوروبي مرتعا لابتكارات الذكاء الاصطناعي.

تنظيم الذكاء الاصطناعي عالي المخاطر والاستثمار في الابتكار

يتمثل الهدف الرئيسي للوائح المفوضية الأوروبية في وضع متطلبات جديدة لأنظمة الذكاء الاصطناعي “عالية المخاطر”. وتشمل هذه أنظمة الذكاء الاصطناعي المستخدمة لتحديد الهوية عن بعد، وإدارة البنية التحتية العامة، والتوظيف، وتقييم الجدارة الائتمانية، والتعليم، وكذلك لحالات استخدام مختلفة في القطاع العام، مثل إيفاد المستجيبين الأوائل.

يتطلب التشريع من مطوري هذه الأنظمة نشر نظام إدارة جودة الذكاء الاصطناعي الذي يعالج المتطلبات حول مجموعات البيانات عالية الجودة، وحفظ السجلات، والشفافية، والإشراف البشري، والدقة، والمتانة، والأمن. يتم تشجيع مقدمي أنظمة الذكاء الاصطناعي التي لم يتم تصنيفها على أنها عالية المخاطر على وضع قواعد سلوك طوعية لتحقيق أهداف مماثلة.

من الواضح أن صانعي الاقتراح كانوا مدركين للتوازن بين التنظيم والابتكار.

أولاً، يحد التشريع من عدد أنظمة الذكاء الاصطناعي التي تعتبر عالية الخطورة، باستثناء الأنظمة التي كان من الممكن إدراجها بشكل معقول، مثل التأمين، وتشمل في الغالب أنظمة الذكاء الاصطناعي التي تتمتع بالفعل بقدر من الرقابة التنظيمية، مثل التوظيف والإقراض.

ثانيًا، يحدد التشريع المتطلبات عالية المستوى دون إملاء كيفية تحقيقها. كما أنه ينشئ نظام امتثال يعتمد على الإبلاغ الذاتي بدلاً من شيء مرهق أكثر.

أخيرًا، الخطة المنسقة مليئة بمبادرات دعم البحث والتطوير، بما في ذلك مساحات مشاركة البيانات، ومرافق الاختبار والتجريب، والاستثمار في مراكز التميز البحثي والذكاء الاصطناعي، ومراكز الابتكار الرقمي، وتمويل التعليم، والاستثمارات البرامجية المستهدفة في الذكاء الاصطناعي لتغير المناخ والصحة والروبوتات والقطاع العام وإنفاذ القانون والزراعة المستدامة.

ومع ذلك، فإن الاقتراح يفتقر إلى سياسات قيادة التبني التي أدت إلى ابتكار أسرع بالاقتران مع التنظيم في القطاعات الأخرى.

التعليقات مغلقة.