أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تحليلاً جديداً تناول خلاله موضوع أخلاقيات ال ذكاء الاصطناعى والتحديات التى يواجهها وسبل التصدى لها، مشيراً إلى تزايد الاعتماد العالمى على تقنيات ال ذكاء الاصطناعى فى شتى مجالات الحياة، كالرعاية الصحية، والتعليم، وأنظمة التمويل والصناعة والتجارة؛ حيث تشير التقديرات إلى أن 35% من المؤسسات العالمية تستخدم تقنيات الذكاء الاصطناعى، فضلًا عن تأكيد 83% من الشركات فى مختلف المجالات على أن إدراج تقنيات ال ذكاء الاصطناعى ضمن استراتيجيتها المستقبلية أصبح يمثِّل أولوية قصوى، الأمر الذى يثير المخاوف بشأن التداعيات المحتملة للاعتماد المفرط على هذه التقنيات، لا سيَّما التحديات الأخلاقية الخاصة بالحفاظ على خصوصية الأفراد وقيم الحرية والابتكار وعدم التمييز.
وأشار مركز المعلومات إلى أن أخلاقيات ال ذكاء الاصطناعى تُعرف بأنها مجموعة المبادئ والإرشادات والمعايير التوجيهية التى يتعين على مطورى ال ذكاء الاصطناعى ومستخدميه اتباعها فى تصميم واستخدام التقنيات، وتهدف هذه القواعد إلى ضمان المسؤولية الاجتماعية والأخلاقية عند تصميم واستخدام الذكاء الاصطناعى، بحيث يتوافق مع الأسس الأخلاقية، ومبادئ احترام حقوق الإنسان.
وأوضح التحليل المبادئ التى تتضمنها القواعد الأخلاقية لل ذكاء الاصطناعى وهى على النحو التالى:
- الحيادية وعدم التحيز: حيث يتعيَّن تصميم أنظمة ال ذكاء الاصطناعى بطريقة تضمن أن تكون النتائج والقرارات التى تقدمها حيادية وغير منحازة، وبحيث تتجنب التمييز القائم على العرق أو الدين أو الجنس أو العمر أو الحالة الاجتماعية والاقتصادية، والتعامل بشكل مُنصف ومتساوٍ مع جميع الأفراد، وذلك لعدم مفاقمة التحيزات الثقافية والمجتمعية القائمة.
- الشفافية والقابلية للتفسير: ويعنى ذلك ضرورة تمتع أنظمة ال ذكاء الاصطناعى بالشفافية من خلال تقديمها للمبررات والتفسيرات المتعلقة بالقرارات والإجراءات التى تتخذها، مما يُسهم فى بناء المصداقية. هذا بالإضافة إلى تمكين المستخدمين من فهم آليات عمل أنظمة ال ذكاء الاصطناعى بما يشمل البيانات والخوارزميات المتضمَّنة فى عمليات صنع القرار، والنتائج التى يُقدِّمها.
- احترام الخصوصية وحماية البيانات: إذ يجب تنفيذ تدابير محكمة وصارمة تضمن عدم انتهاك الخصوصية وحماية البيانات الشخصية لمستخدمى أنظمة الذكاء الاصطناعى، وذلك من خلال استخدام البيانات الشخصية فقط من أجل الأغراض المحددة بشرط موافقة المستخدم وإخفاء هويته.
- المسؤولية والمساءلة: حيث يجب على مطورى أنظمة ال ذكاء الاصطناعى والجهات المعنية تحمل المسؤولية والخضوع للمساءلة عن آثار ومخرجات تلك الأنظمة، بالإضافة إلى وضع آليات لمواجهة وتصحيح الأضرار المحتملة التى قد تنجم عن الأنظمة الرقمية التى يتم ابتكارها.
- مراعاة الأمن والسلامة: وذلك من خلال اتخاذ التدابير اللازمة للحد من المخاطر المرتبطة بتقنيات الذكاء الاصطناعى، ويتضمن ذلك الحيلولة دون إمكانية استخدامها بشكل ضار أو إجرامى، وكذلك حمايتها من الاختراق والوصول غير المصرح به لبيانات ومعلومات المستخدمين.
وأضاف المركز فى تحليله أن الاعتماد على تقنيات ال ذكاء الاصطناعى يخلق جملة من التحديات الأخلاقية والإنسانية، والتى يمكن التطرق إلى أبرزها فيما يلى:
- التأثير على الخصوصية: فرغم أن تقنيات ال ذكاء الاصطناعى تستهدف خدمة البشر وتيسير سبل حياتهم فى المقام الأول، وذلك مع التأكيد على الحفاظ على سرية بياناتهم من خلال إجراءات الأتمتة، فإنه ثبت مع تطبيق هذه التقنيات أن تقويض الخصوصية وانتهاك سرية البيانات سمة غالبة؛ حيث إن تزايد الاعتماد على كاميرات المراقبة، واستخدام الهواتف الذكية، والإنترنت جعل من السهل جمع البيانات عن الأشخاص ومراقبة تحركاتهم، بما يفضى فى نهاية المطاف إلى انتهاك خصوصياتهم وحرياتهم المدنية، ولا تقتصر المخاوف المتعلقة بانتهاك الخصوصية على مجرد مراقبة تحركات الأشخاص، وإنما فى الوصول غير المصرح به لبياناتهم ومعلوماتهم الشخصية وسوء استخدامها.
- ال ذكاء الاصطناعى يفاقم التحيز: فالقول بأن ال ذكاء الاصطناعى أكثر حيادية من البشر أمر غير صحيح؛ نظرًا لأن البشر -الذين لا يخلون من التحيز- هم من يقومون ببرمجة أنظمة ال ذكاء الاصطناعى وتقنياته، ومن ثمّ، فإنهم ينقلون تحيزاتهم إلى تلك الأنظمة.
- مفاقمة عدم المساواة فى توزيع الدخل: مع التوقعات التى بدأت تتحقق فى الواقع بشأن تراجع الاعتماد على القوى العاملة البشرية مقابل الاعتماد على تقنيات ال ذكاء الاصطناعى لإنجاز الوظائف والمهام، فمن المرجَّح ارتفاع معدلات البطالة، وما يصاحبها من ارتفاع معدلات الفقر، فى مقابل تزايد الأرباح التى يحصل عليها أصحاب الشركات، لا سيَّما مع توفير الأموال المخصصة لبند أجور العاملين، بما يفاقم عدم المساواة فى توزيع الدخول بين الأفراد.
- تراجع الابتكار لدى البشر: فاستمرار إحلال تقنيات ال ذكاء الاصطناعى محل البشر فى العديد من الوظائف والمهام قد يؤدى إلى تراجع إسهامات البشر، ومن ثمّ، تقويض مهارات الابتكار لديهم، فضلًا عن تفاقم الشعور السلبى لدى العديد منهم بشأن جدوى مهامهم ودورهم فى ظل المهام المعقدة التى تؤديها أنظمة الذكاء الاصطناعى.
- مخاوف متزايدة فى القطاع الصحى: فرغم التقدم الذى يشهده قطاع الصحة فى ظل اعتماده المتزايد على أنظمة الذكاء الاصطناعى، فإن هناك جُملة من المخاوف بشأن عدم دقة الأنظمة فى بعض الحالات، والتى تنطوى على عواقب وخيمة فى قطاع الصحة؛ نظرًا لأنها قد تعرض بعض الأشخاص لخطر فقدان حياتهم، فضلًا عن أن الاعتماد على الروبوتات الطبيّة لا يلبى حاجة المرضى النفسية للشعور بالطمأنينة، والتى توفرها الأطقم الطبية البشرية.
- تهديد الحريات: حيث تُعد تقنية التعرف على الوجه سلاحًا ذا حدين، فعلى الرغم من أنها تيسر عملية ضبط المجرمين، والمطلوبين للعدالة، فضلًا عن إقدام بعض الدول على استخدامها إبان جائحة كورونا للتأكد من امتثال المواطنين للإجراءات الاحترازية والحفاظ على الصحة العامة، فإنها يمكن استخدامها بما يهدد قيم الحرية والديمقراطية.
وقد أبرز التحليل آليات مواجهة التحديات الأخلاقية لل ذكاء الاصطناعى ويتمثل أبرزها فيما يلى؛ التوعية والتثقيف بأخلاقيات الذكاء الاصطناعى؛ وذلك من خلال تعزيز الوعى والمعرفة لدى الأفراد والمؤسسات فيما يخص مخاطر وتحديات وحدود ال ذكاء الاصطناعى وتثقيف المستخدمين والعملاء حول كيفية حماية بياناتهم الشخصية وتخزينها، بالإضافة إلى قيام المنظمات الدولية والشركات الكبرى العاملة فى مجال ال ذكاء الاصطناعى بوضع مجموعة من المبادئ التوجيهية والإرشادات أو الأطر التنظيمية الملزمة والتى يتعين الالتزام بها عند تطوير أو استخدام أنظمة الذكاء الاصطناعى، وذلك بما يتماشى مع القيم والمبادئ الأخلاقية وبما يضمن تطوير واستخدام التكنولوجيا لخدمة الصالح العام، وتعزيز القيم الإنسانية وحماية حقوق الأفراد، وضمان تنويع الخلفيات الاجتماعية للشخصيات العاملة فى مجال تطوير أنظمة الذكاء الاصطناعى، وذلك من خلال اتباع نهج شامل للتوظيف يضمن تمثيل المبرمجين والمطورين لكافة فئات المجتمع.
وتطرق التحليل إلى الدور المصرى فى مواجهة تحديات تقنيات الذكاء الاصطناعى، حيث أكد أنه بالرغم مما يحمله التوسع فى استخدام هذه التقنيات من تحديات أخلاقية وإنسانية متزايدة، إلا أن مصر قد لعبت دورًا مهمًّا فى صياغة العديد من المبادئ التوجيهية الأخلاقية لل ذكاء الاصطناعى فى منظمات دولية مختلفة مثل منظمة التعاون الاقتصادى والتنمية، ومنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) ومجموعة العشرين، كما تقود مصر فرقًا تعمل على توحيد التوصيات الأخلاقية لل ذكاء الاصطناعى على المستوى الإقليمى داخل الاتحاد الإفريقى وجامعة الدول العربية.
علاوةً على ذلك، كانت مصر أول دولة عربية وإفريقية تلتزم بمبادئ منظمة التعاون الاقتصادى والتنمية بشأن ال ذكاء الاصطناعى المسؤول، كما كانت أولى الدول التى اعتمدت وثيقة اليونسكو بشأن توصيات أخلاقيات الذكاء الاصطناعى، كما أطلقت مصر الاستراتيجية الوطنية لل ذكاء الاصطناعى فى يوليو 2021.
بالإضافة إلى ذلك، فقد أطلق المجلس الوطنى لل ذكاء الاصطناعى –الذى دشَّنته الحكومة المصرية فى نوفمبر 2019- "الميثاق المصرى لل ذكاء الاصطناعى المسؤول" وذلك فى أبريل 2023؛ لبلورة رؤية الدولة المصرية للمبادئ التوجيهية المتعلقة بالأطر التنظيمية للاستخدام الأخلاقى والمسؤول لتقنيات ال ذكاء الاصطناعى فى المجتمع المصرى، الأمر الذى يساعد فى ضمان إدارة وتطوير ونشر أنظمة ال ذكاء الاصطناعى فى الدولة واستخدامها بشكل واعٍ ومسؤول.
ويستهدف الميثاق الوطنى لل ذكاء الاصطناعى المسؤول تفعيل 5 مبادئ رئيسة، هى: البشرية كمقصد، والشفافية، وقابلية التفسير، والعدالة، والمساءلة، والأمن والأمان، وذلك من خلال اتباع نحو 13 مبدأ توجيهيا عاما، تعد بمثابة قواعد شاملة، بالإضافة إلى 16 مبدأ توجيهياً تنفيذياً؛ والتى تنطبق بشكل أساسى على أى جهة تقوم بتطوير أو نشر أو إدارة نظام ذكاء اصطناعى.
وأفاد التحليل أن من الأهمية بمكان ملاحظة أن القواعد الأخلاقية والمبادئ الإرشادية الموجهة لأنظمة ال ذكاء الاصطناعى لا تزال قيد التطوير، لا سيَّما فى ظل التقديرات التى تتوقع نمو وتوسع مجال ال ذكاء الاصطناعى فى المستقبل؛ إذ تشير بعض الإحصائيات إلى أنه من المتوقّع أن ينمو حجم سوق ال ذكاء الاصطناعى بنسبة 120٪ على الأقل على أساس سنوى، وأن تصل القيمة السوقية لمجال ال ذكاء الاصطناعى على مستوى العالم إلى نحو 1.59 تريليون دولار بحلول عام 2030، وهو ما يفرض المزيد من التحديات الأخلاقية المتعلقة بتزايد الاعتماد المفرط على تقنيات الذكاء الاصطناعى، مما يتطلب وضع أطر ومبادئ توجيهية ملزمة لتحقيق التوازن بين التقدم التكنولوجى من ناحية، والاعتبارات والمبادئ الأخلاقية التى قد تنجم عن استخدام أنظمة ال ذكاء الاصطناعى من ناحية أخرى، وذلك من أجل تعظيم فوائد وإيجابيات ال ذكاء الاصطناعى مع الحد من الآثار السلبية المحتملة على الأفراد والمجتمعات.