سعيا لتنظيم تطبيقات المحادثة مثل “تشات جي بي تي”، يصوت النواب الأوروبيون الخميس على نص طموح لتنظيم قطاع الذكاء الاصطناعي، أرجئ اعتماده مرارا بسبب نقاط الجدل المحيطة بهذه التقنيات.
ويعتزم الاتحاد الأوروبي أن يكون أول جهة في العالم ترسي إطارا قانونيا متكاملا للحد من التجاوزات في مجال الذكاء الاصطناعي، مع حماية الابتكار في الوقت نفسه.
وتثير أنظمة الذكاء الاصطناعي التي تتسم بتقنيات في غاية التعقيد الكثير من الإعجاب والذهول، وفي الوقت نفسه الكثير من القلق.
فبين نشر محتويات خطيرة والتلاعب بالرأي العام من خلال إنتاج صور مزيفة بواسطة برمجيات مثل “ميدجورني”، وتطبيق أنظمة مراقبة جماعية وغيرها من المخاطر غير المعروفة بعد، حملت هذه الهواجس شخصيات بارزة في عالم التكنولوجيا أمثال رئيس تويتر إيلون ماسك على المطالبة حتى بتعليق تطوير هذه التقنيات.
واكتشف الرأي العام قدرات الذكاء الاصطناعي الهائلة في نهاية العام الماضي مع إطلاق شركة “أوبن إيه آي” برنامجها “تشات جي بي تي” لإنتاج المحتويات التحريرية، القادر على كتابة مواضيع بحثية وقصائد وترجمات في عدة ثوان.
وبمواجهة هذه التطورات السريعة، طرحت المفوضية الأوروبية قبل عامين مشروع قانون لم يتم إقراره حتى الآن.
ولم تحدد دول الاتحاد الأوروبي موقفها سوى في نهاية 2022، على أن يبلور النواب الأوروبيون المنقسمون بشدة حول هذه المسألة موقفهم الخميس في عملية تصويت ضمن لجان تجري في ستراسبورغ، قبل أن يتم إقرار النتيجة خلال جلسة موسعة في يونيو.
وعندها تبدأ مفاوضات صعبة بين مختلف المؤسسات.
ودعت نائبة رئيسة المفوضية الأوروبية مارغريتي فيستاغر الاثنين إلى عدم إهدار المزيد من الوقت، قائلة “آمل فعلا أن نتمكن من إتمام المسألة هذه السنة”.
وما ساهم في التأخير ظهور تطبيقات الذكاء الاصطناعي الشائعة الوظائف القادرة على إنجاز مجموعة متنوعة من المهام، ومن ضمنها برامج توليد محتويات مثل تشات جي بي تي.
وأوضح المقرر دراغوس تودوراش لوكالة فرانس برس “إنه نص معقد وأضفنا مجموعة جديدة من القواعد الخاصة بالذكاء الاصطناعي المول د للمحتويات”.
ويأمل النواب الأوروبيون في إرغام المزودين على ضمان حماية ضد المحتويات غير القانونية وكشف البيانات المحمية بموجب حقوق النشر المستخدمة لتطوير خوارزمياتهم.
غير أن بعض الخبراء يعتبرون أن مخاطر الذكاء الاصطناعي المولد للمحتويات لا يتطلب قواعد خاصة للتعامل معه. وأوضح بيار لاروش خبير القانون الرقمي في جامعة مونتريال والباحث في مركز القوانين في أوروبا لفرانس برس “لا أرى دوافع البرلمان، لا أرى كيف أن هذه المخاطر مختلفة عم ا تم التكهن به سابقا”.
وتنص مسودة المفوضية التي كشف عنها في نيسان/أبريل 2021 على إطار لأنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، يرغمهما على إبلاغ المستخدم بأنه على تواصل مع آلة، ويرغم التطبيقات المولدة للصور على الإشارة إلى أنها مولدة اصطناعيا.
ويستوحي النص قوانينه من التشريعات الأوروبية السارية على صعيد سلامة المنتجات، وسيفرض مراقبة تكلف بها الشركات بالمقام الأول.
وستكون المحظورات نادرة، وهي تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل أنظمة تقييم المواطنين أو أنظمة المراقبة الجماعية المعتمدة في الصين.
ويعتزم النواب الأوروبيون إدخال حظر على أنظمة التعرف على المشاعر وإلغاء الاستثناءات التي تجيز لقوات الأمن التعرف على الأفراد في الأماكن العامة عن بعد بواسطة القياسات الحيوية.
كما يعتزمون حظر جمع الصور بشكل عشوائي على الإنترنت لتطوير الخوارزميات بدون الحصول على موافقة الأشخاص المعنيين.
ويتألف المشروع في جوهره من قائمة قواعد ستفرض فقط على التطبيقات التي تعتبرها الشركات نفسها “عالية المخاطر” بموجب معايير المشرعين. واقترحت المفوضية الأوروبية ان تستهدف الانظمة المستخدمة في مجالات حساسة مثل البنى التحتية الحرجة والتعليم والموارد البشرية والحفاظ على النظام وإدارة الهجرة وغيرها.
ومن بين ما تفرضه القواعد رقابة بشرية على الآلة ووضع وثائق إرشادي ة تفنية واعتماد نظام لإدارة المخاطر، على أن تشرف على تطبيقها سلطات الرقابة التي تعينها كل من الدول الأعضاء.
ويطالب النواب الأوروبيون بمعايير أكثر صرامة لحصر توصيف “عالي المخاطر” فقط بالمنتجات التي يمكن أن تهدد الأمن والصحة والحقوق الأساسية.
أ.ف.ب