النمسا تدعو لوضع قواعد لاستخدام الذكاء الاصطناعي بمؤتمر حول "الروبوتات القاتلة"

النمسا تدعو لوضع قواعد لاستخدام الذكاء الاصطناعي بمؤتمر حول "الروبوتات القاتلة"النمسا تدعو لوضع قواعد لاستخدام الذكاء الاصطناعي بمؤتمر حول الروبوتات القاتلة

دعت النمسا يوم الاثنين إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة الذي يمكن أن يؤدي لظهور ما يسمى "الروبوتات القاتلة"، واستضافت مؤتمرا يهدف إلى إحياء المناقشات المتعثرة إلى حد كبير حول هذه القضية.

ومع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، فإن أنظمة الأسلحة التي يمكنها القتل دون تدخل بشري تزداد ظهورا ووضوحا، مما يثير تحديات أخلاقية وقانونية تقول معظم البلدان إنها تحتاج إلى التصدي لها في أقرب وقت ممكن.

وقال وزير الخارجية النمساوي ألكسندر شالنبرج خلال اجتماع شاركت فيه منظمات غير حكومية ودولية فضلا عن مبعوثين من 143 دولة "لا يمكننا أن ندع هذه اللحظة تفوتنا دون اتخاذ إجراء. الآن هو الوقت المناسب للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية".

وأضاف في خطابه الافتتاحي للمؤتمر، بعنوان "الإنسانية على مفترق الطرق: أنظمة الأسلحة المستقلة وتحديات التنظيم"، "علينا أن نضمن على الأقل أن القرارات المصيرية المتعلقة بمن يعيش ومن يموت تبقى في يد البشر وليس الآلات".

ومرت سنوات من المناقشات في الأمم المتحدة دون تحقيق نتائج ملموسة. وقال كثيرون من المشاركين في المؤتمر الذي استمر يومين في فيينا إن الوقت لاتخاذ إجراءات ينفد بسرعة.

وقالت ميريانا سبولجاريك رئيسة اللجنة الدولية للصليب الأحمر، خلال حلقة نقاشية في المؤتمر "من المهم للغاية أن نتخذ إجراءات على وجه السرعة".

وأضافت "ما نشهده اليوم في سياقات العنف المختلفة هو إخفاقات أخلاقية أمام المجتمع الدولي. ولا نريد أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحويل مسؤولية العنف والسيطرة عليه إلى الآلات والخوارزميات".

ويتم استخدام الذكاء الاصطناعي بالفعل في ساحة المعركة. ويقول دبلوماسيون إن الطائرات المسيرة في أوكرانيا مصممة لمواصلة طريقها إلى هدفها حتى عندما يتم قطع الاتصال بينها وبين مشغلها باستخدام تقنيات التشويش.

وقالت الولايات المتحدة هذا الشهر إنها تدرس تقريرا إعلاميا يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.

وقال جان تالين وهو مطور برمجيات ومستثمر في مجال التكنولوجيا في خطاب رسمي "لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء سواء كبيرة أو صغيرة، بدءا من الإخفاق في التمييز بين كرة القدم ورأس حَكَم أصلع، إلى وفيات المارة على الطرق بسبب السيارات ذاتية القيادة غير القادرة على التعرف على الأشخاص الذين يسيرون خارج الممرات المخصصة لهم".

وأضاف "يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني".

أضف تعليق

وكلاء الخراب

#
مقال رئيس التحرير
محــــــــمد أمين
إعلان آراك 2