الذكاء الاصطناعي

فرضت التحديات والتهديدات التي يمثلها التطور السريع والمتلاحق لتكنولوجيا الذكاء الاصطناعي نفسها على قائمة اهتمامات دوائر صناعة القرار والأبحاث في أغلب دول العالم.

وفي حين دعا عدد من رؤساء كبرى شركات التكنولوجيا في العالم إلى تعليق تطوير هذه التقنيات لفترة حتى يتم تحديد أفضل سبل التعامل معها، قال عالمان أميركيان إن التصدي للمخاطر المحتملة للذكاء الاصطناعي يمكن أن يبدأ بخطوات بسيطة مثل إيجاد المناهج المناسبة لإدارة المخاطر وإجراء أبحاث لتحديد كيف يمكن ضمان تحقيق تقنيات الذكاء الاصطناعي لأهداف مصمميها ونواياهم بصورة أفضل، والاستعداد للتعامل مع الجوانب السلبية مثل العنصرية والتمييز الجنسي وغير ذلك من التحيزات الموجودة حاليا داخل أنظمة الذكاء الاصطناعي.

وفي تحليل نشره موقع مؤسسة راند الأميركية المرموقة لأبحاث الدفاع والأمن القومي قال كارتر برايس عالم الرياضيات وميشيل وودز المدير المشارك لقطاع أبحاث الأمن الداخلي في مؤسسة راند إنه رغم محاولات تعداد المخاطر، فإن التصنيف البسيط لها يتيح تقسيمها إلى مخاطر آنية يمكن أن يزيد حدتها الذكاء الاصطناعي مثل استخدام الإرهابيين لهذه التكنولوجيا في تطوير أسلحة بيولوجية أشد فتكا، ومخاطر مستحدثة مرتبطة بالذكاء الاصطناعي تحديدا، مثل اختيار الذكاء الاصطناعي للقضاء على الجنس البشري كحل نهائي لمشكلة التغير المناخي على كوكب الأرض.

المخاطر التي يمثلها الذكاء الاصطناعي غير محددة بوضوح حتى يمكن للباحثين والمطورين امتلاك المبادرة في التعامل مع التهديدات

وبالطبع قد تظهر الحاجة إلى تعديل المناهج المستخدمة للتعامل مع التهديدات الحالية، لكي تضع في الحساب القدرات غير المتوقعة التي يمكن أن يوفرها الذكاء الاصطناعي.

وفي حين أن هناك مخاطر تم توثيقها بسبب تحيزات الذكاء الاصطناعي الحالية، فإن المخاطر المستحدثة التي يمثلها الذكاء الاصطناعي غير محددة بوضوح لكي يتم التعامل معها من خلال السياسات، حتى يمكن للباحثين والمطورين امتلاك المبادرة في التعامل مع التهديدات.

ورغم ذلك يمكن اتخاذ خطوات للاستعداد لهذه المخاطر سواء الحالية أو المستحدثة. وتركز مناهج إدارة المخاطر المستخدمة في قطاعات التأمين والتمويل وغيرها من الأنشطة الاقتصادية على الخطر باعتباره نتيجة محتملة لحدوث شيء ما، يؤدي إلى نتيجة يمكن قياسها بالدولار.

وهذه المناهج تعمل بشكل جيد في المجالات التي يمكن فيها قياس النتائج بالدولار، مع سهولة التعبير عنها بشكل كمي، وتكون البيانات شاملة بما يكفي للوصول إلى تقديرات يعتمد عليها.

وللأسف فإن هذه المعايير لا تصلح مع مخاطر الذكاء الاصطناعي. وبدلا من التفكير في المخاطر كاحتمالات وتداعيات، من الصعب تحويل السياق إلى كمّ، ويمكن التفكير في المخاطر كمزيج من التهديدات ونقاط الضعف والتداعيات.

Related posts

Top