دراسات وأبحاث
هل يمكن أن نجعل الأنظمة الذكية أكثر أخلاقية
العدد 151 | شباط (فبراير)-2020

بقلم محمد مروان الحمامي
دكتور باحث

يتزايد استعمال الخوارزميات في عصرنا لاتخاذ قرارات أخلاقية، ولعلَّ مشروع البطاقة الذكية لتوزيع الدعم العادل من الدولة إلى مستحقيه أحد أقرب الأمثلة التي بتنا نلمسها مؤخرًا، وهذا ما دفعنا في مجلة المعلوماتية إلى أن نطرح موضوع أخلاقيات الخوارزميات والذكاء الصنعي لمناقشة سريعة.

لعلَّ أفضل مثال على تقريب مفهوم أخلاقيات الخوارزميات معالجةُ التقانات الحديثة للمعضلة الأخلاقية الشهيرة المسماة "مسألة العربة المتحركة"؛ ومضمونها أنه إذا لم يكن باستطاعة سيارة ذاتية القيادة أن تتوقف منعًا لدعس أحد شخصين من المارة، فكيف يختار برنامجُ التحكم الشخصَ الذي سيعيش والشخص الذي سيموت؟

في الحقيقة، لا تعدّ هذه المعضلة افتراضًا واقعيًّا ضمن آلية عمل السيارات الذاتية القيادة، لكنْ يجب على أنظمة أخرى موجودة حاليًّا، أو هي في قيد التطوير، أن تتخذ قرارات في مقايضات أخلاقية واقعية. على سبيل المثال، يجب أن تراعي أدوات التقييم المستعملة حاليًّا في منظومة العمل الجنائي المخاطر على المجتمع في مقابل إلحاق أذى بالمتهمين. وكذلك تحتاج الأسلحة الذاتية التحكم إلى أن تُفاضل بين حياة الجنود وحياة المدنيين.

 

تكمن المشكلة في أنه عند تصميم الخوارزميات لم يؤخذ في الحسبان مسألة الاختيار بين خيارات صعبة كهذه؛ وذلك لأن هذه الخوارزميات ترمي في المقام الأول إلى تحقيق هدف رياضي محدَّد، كزيادة عدد الناجين من الجنود ما أمكن، أو تقليل عدد الضحايا المدنيين.

أما عندما تبدأ بالتعامل مع أهداف متعددة، وغالبًا ما تكون متناقضة، أو تحاول أن تأخذ في الحسبان مفاهيم غير حسية كالحرية والرفاهية، فإنك لن تجد نموذجًا رياضيًّا مُرضيًا لحلّ هذه المسألة.

 

وفي هذا السياق يقول بيتر إيكريسلي، وهو مدير أبحاث في شركة Partnership on AI، في ورقة بحثية صدرت مؤخرًا: "نحن البشر نرغب بأشياء متعددة متناقضة"، وقال: "توجد العديد من الحالات الحرجة جدًّا التي سيكون من غير الملائم - وربما الخطر - برمجة وظيفة ذات هدف وحيد لتحاول توصيف معاييرك الأخلاقية."

لا تختصّ هذه المعضلات غير القابلة للحل بالخوارزميات فقط. فقد درسها علماء القيم الأخلاقية على مدى عقود، وأطلقوا عليها اسم نظريات الاستحالة. لذلك عندما طبق إيكريسلي تلك النظريات على الذكاء الصنعي، استعار فكرة من علوم القيم الأخلاقية لاقتراح حلّ لها: "ماذا لو زودنا خوارزمياتنا بالريبة أو الشك؟".

يقول إيكريسلي: "نحن البشر نتخذ قراراتنا بارتياب وعدم يقين إلى حدٍّ بعيد في كثير من الأحيان"، ويقول: "إن سلوكنا بصفتنا كائنات أخلاقية مليء بالريبة وعدم اليقين. لكن عندما نأخذ ذلك السلوك المعتمد على الأخلاق ونحاول أن نطبقه في الذكاء الصنعي فإنه يتجه ليكون محددًا وأكثر دقة." يقترح إيكريسلي عوضًا عن ذلك أن نصمِّم خوارزمياتنا صراحة لأن تَستعمل الريبة وعدم اليقين حول الفعل الصحيح الواجب تنفيذه.

يقترح إيكريسلي أسلوبين للتعبير عن هذه الفكرة رياضيًّا، فيوطِّئ موضحًا أنه يجري برمجة الخوارزميات عمومًا وفق قواعد واضحة توصِّف تفضيلات البشر. إذ يترتب علينا إخبارها، على سبيل المثال، أننا نفضّل الجنود الأصدقاء على المدنيين الأصدقاء، والمدنيين الأصدقاء على الجنود الأعداء حتى لو كنا عمليًّا غير متأكدين أو لا نعتقد أنه يجب أن يكون الأمر كذلك؛ وبذلك لا يترك تصميم الخوارزمية مساحة كافية من الريبة.

يبدأ الأسلوب الأول (الترتيب الجزئي) بإدخال حيّز صغير من الريبة. يمكن مثلًا برمجة الخوارزمية بحيث تفضِّل الجنود الأصدقاء على الجنود الأعداء، والمدنيين الأصدقاء على الجنود الأعداء، لكنّك لن تحدد أي تفضيل بين الجنود الأصدقاء والمدنيين الأصدقاء.

في الأسلوب الثاني (الترتيب المُرتاب)، سيكون لديك العديد من القوائم عن التفضيلات الصريحة، لكن سيوضع مع كل تفضيل قيمة احتمالية. سنقول إنه في 75% من الحالات قد تفضّل الجنود الأصدقاء على المدنيين الأصدقاء، وهؤلاء على الجنود الأعداء. أما في 25% من الحالات، فستفضّل المدنيين الأصدقاء على الجنود الأصدقاء، وهؤلاء على الجنود الأعداء.

يقول إيكريسلي: "يمكن أن تعالج الخوارزمية هذا الارتياب بإنتاج عدة حلول وإعطاء البشر قائمة من الخيارات مع المقايضات المرتبطة بها."

لنفترض أنه تمّ تصميم نظام ذكاء صنعي يساعد على اتخاذ القرارات الطبية. فعوضًا عن اقتراح توصية بتفضيل أسلوب معالجة طبية على آخر، يمكن أن يقدّم هذا النظام ثلاث توصيات تعتمد على إحدى القواعد التالية: أولًا زيادة عمر المريض، ثانيًا تخفيف معاناته، وثالثًا تقليل كلفة العلاج. ويقول إيكريسلي: "اجعل النظام مرتابًا في قراره بشكل صريح، وأعد المعضلة الأخلاقية إلى البشر."

 

جرّبت كارلا غوميز أستاذة علوم الكمبيوتر في جامعة كورنيل تقنيات مشابهة في عملها. تقوم كارلا في أحد مشاريعها بتطوير نظام آلي لتقييم جدوى مشاريع السدود الكهرمائية في حوض نهر الأمازون. تشكل السدود مصدرًا للطاقة النظيفة لكنها في نفس الوقت تتسبّب في إحداث تغيير كبير في مقاطع الأنهر وإخلالٍ بالأنظمة البيئية المحيطة بها.

تقول كارلا: "إنّ هذا السيناريو مختلف عمّا تواجهه السيارات الذاتية القيادة مما يسمى المعضلات الأخلاقية، لكنه مكان آخر حيث توجد هذه المشكلات فعليًّا." وتقول: "يوجد هنا هدفان متعارضان، فما الذي يجب عليك فعله؟"

ثم تضيف: "إن المسألة عمومًا معقدة جدًّا"، "سيتطلب الأمر مجموعة من الأبحاث للتصدّي لكافة الجوانب المتعلقة، لكن نهج بيتر يُعَدّ خطوة مهمة في الاتجاه الصحيح".

لن تُحلّ هذه القضية إلا بالاعتماد على الأنظمة المبنية على الخوارزميات. يقول رومان يامبولسكي وهو أستاذ مساعد في علوم الكمبيوتر في جامعة لويسفيل: "تتزايد حاجة الأنظمة المعقدة إلى أن يكون الذكاء الصنعي مسؤولًا." ويقول: "لا يمكن لأي شخص أن يفهم مدى التعقيد في سوق الأسهم أو في استجابة الأنظمة العسكرية، لذلك ليس لدينا خيار سوى التخلي عن جزء من سيطرتنا إلى الآلات."

بالعودة إلى البطاقة الذكية المستعملة لتوزيع الدعم، فلا شكّ أنها جاءت لتحقيق مجموعة من الأهداف الجيدة؛ منها: إدارة الموارد القليلة، وإيصال الدعم العادل إلى الناس وخاصة إلى مستحقيه الحقيقيين، وتقليل هامش الفساد في عمليات توزيعه وإرضاء الناس جميعهم. لكن حقيقة الأمر أن هذه الأهداف أو بعضها قد تكون متناقضة في حدّ ذاتها لدى الشرائح المختلفة، وهو ما يدفع إلى إجراء تحديثات مستمرة على منظومة البطاقة تُستعمل فيها خوارزميات الذكاء الصنعي المطبقة على بيانات الخدمة من الموردين والمراكز وكل ما يتعلق بعملها، وعلى استقصاءات رأي ومستوى الرضا لعيِّنات إحصائية من شرائح المجتمع المتعددة في سبيل إعطاء المنظومة موثوقية أكبر لقراراتها بما يجعلها ذكية وأخلاقية في آنٍ معًا.

قد ترغب كذلك بقراءة
برامج المصادر المفتوحة في صميم تحول تكنولوجيا المعلوميات
استثمار التقنيات الحديثة في المجال الطبي