دفعت السرعة التي يتطور بها الذكاء الاصطناعي وقدراته المتعددة في شتي المجالات المشرعين في الكونجرس الأمريكي للتساؤل عن مدى قدرة التكنولوجيا المتقدمة على القيام به، خاصة بعد أن طالب عمالقة في المجال بكبح جماح الذكاء الاصطناعي وسط تحذيرات من عواقب تشبه ما نراه في أفلام الخيال العلمي من سيطرة الروبوتات على البشرية.
قال السيناتور الأمريكي روجر مارشال عضو لجنة الامن الداخلي عن التكنولوجيا المثيرة للجدل: "إنه يعيدني حقًا إلى ثلاثينيات وأربعينيات وخمسينيات القرن الماضي والفيزياء النووية كنا نعلم على الفور أن الفيزياء النووية يمكن أن تبني الطاقة .. لكننا كنا نعلم أيضًا أنه يمكن أن يتحول إلى قنابل ذرية."
مارشال هو واحد من العديد من المشرعين الذين حذروا من أن التطور السريع لتكنولوجيا الذكاء الاصطناعي أمر لا مفر منه ، لكن يجب على الكونجرس وضع حواجز حماية لضمان عدم إساءة استخدامها.
قال الجنرال متقاعد بالقوات الجوية وليام إنيارت: "يجب أن نكون قلقين للغاية بشأن ما تحدثنا عنه ، وهو العواقب غير المقصودة".
تأتي أصوات الحذر مع ظهور تقارير عن انغماس الجيش في فكرة السيناريوهات التي يتم فيها تسليح الطائرات بدون طيار التي تعمل بالذكاء الاصطناعي، و حذر إنيارت من أن هذه ليست الطريقة التي يعمل بها العلم: "سواء كنا نتحدث عن الصينيين ببنائها ، أو نحن نبنيها ، أو أي احد ... بمجرد بنائها ، لا يمكنك أن تبقيها سرا. هذا لن يحدث"
كما ورد الأسبوع الماضي أن الصين أعربت عن مخاوف مماثلة بشأن تسليح الذكاء الاصطناعي.
ومنذ أيام اثارت حادثة الدرون التي هاجمت مشغلها القلق من جديد على الرغم من نفي البنتاجون الحادثة، حيث قررت طائرة مسيرة تابعة لسلاح الجو الأمريكي، يسيطر عليها الذكاء الاصطناعي، خلال اختبار محاكاة في الولايات المتحدة، قتل المشغل لكي لا يتدخل في جهودها لإكمال مهمتها
وقال تاكر هاميلتون، رئيس قسم العمليات والاختبارات بالذكاء الاصطناعي في سلاح الجو الأميركي عن الحادث المرعب الذي وقع مايو الماضي : "بدأ النظام يدرك أنه على الرغم من أنه حدد التهديدات، إلا أن المشغل لم يأمره بتدمير بعض هذه التهديدات، وكان النظام يحصل على نقاط مقابل إصابة الهدف، لذلك قرر النظام قتل المشغل لأنه منعه من إكمال المهمة".
وقال رئيس عمليات الذكاء الاصطناعي بالقوات الجوية الأميركية، إن الذكاء الاصطناعي استخدم "استراتيجيات غير متوقعة للغاية لتحقيق هدفه" في اختبار محاكاة.
وصف هاميلتون تجربة محاكاة نصحت فيها طائرة مسيرة تعمل بالذكاء الاصطناعي بتدمير أنظمة الدفاع الجوي للعدو، وهاجمت أي شخص يتدخل في هذا الأمر.
وجاء في تقرير اختبار الجيش الأميركي: "قمنا بتدريب النظام.. مرحبًا.. لا تقتل التهديد، هذا سيئ.. وإذا فعلت هذا، ستخسر نقاطًا.. فبدأ برنامج الذكاء الاصطناعي في تدمير برج الاتصالات الذي استخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف".
وحذر هاملتون، وهو طيار تجريبي على المقاتلة، من الاعتماد المفرط على الذكاء الاصطناعي.
في الوقت نفسه ، حتى الذين ساعدوا في تطوير التكنولوجيا وجهوا تحذيرات للمشرعين. في الشهر الماضي ، أخبر الرئيس التنفيذي لشركة OpenAI سام التمان المشرعين في الكابيتول هيل أن البشر قد يفقدون السيطرة على الذكاء الاصطناعي، ودعا لجعل مقاومة مخاطر الذكاء الاصطناعي أولوية عالمية، مثلها مثل الأوبئة والحرب النووية، وقال إن هذا "التحذير الأخير".
ويواظب ألتمان على إبداء مخاوفه من إمكان إلحاق الذكاء الاصطناعي "أضرارا جسيمة بالعالم"، من خلال تزوير نتائج عمليات انتخابية مثلا، أو إحداث تغييرات جذرية في سوق العمل.
ومنذ شهرين، دفعت هذه المخاوف 1300 مدير شركة تعمل في الذكاء الاصطناعي وتكنولوجيا الاتصالات والمعلومات إلى توقيع وثيقة تطالب بإيقاف تطوير تقنيات الذكاء الاصطناعي لمدة 6 أشهر على الأقل، لحين وضع ميثاق أخلاقي لعملها.