هب أنك أردت تعليم طفلك عبور الشارع بأمان، وبينما ظننت أنه من المنطقي التركيز على أمر النظر في جانبي الشارع، ليتأكد من خلوه، استنتج الطفل أن الغاية هي النظر بعينه.
الخلط بين الغاية والوسيلة قد يؤدي إلى نتائج مضحكة في أبسط الأحوال وفتاكة في أخطرها، فلو استبدلت الطفل في المثال السابق بحاسوب، لما عاد المثال نظرياً وإنما واقعاً يتجسد في العديد من الوقائع ويجسد إحدى كبريات المخاطر في الذكاء الاصطناعي، وهي مشكلة التوافق التي يفصّلها بريان كريستشان في كتابه The Alignment Problem: How Can Artificial Intelligence Learn Human Values.
تسعى هذه المقالة لمراجعة الكتاب بتلخيصه وتعليق بسيط عليه. في البداية، يمكن تعريف المشكلة بأنها الخطر الناتج عن انعدام التوافق بين قيم البشر ونتيجة الآلية التي يستخدمها الذكاء الاصطناعي لتحقيق الأهداف البشرية، أو باختصار هي مشكلة اختلال التوافق بين قيم البشر وآليات الآلات.
انحيازات خفية وارتباطات صحيحةٌ خاطئة!
يحصد الكاتب منتوج ما يقارب مئة من المقابلات الرسمية ومئات المحادثات مع المختصين والمعنيين. الكتاب المقسوم إلى ثلاثة أجزاء رئيسية يبدأ أولها بأشهر الأمثلة من مشكلة التوافق، وهي مشكلة الانحياز التصنيفي بدلاً من التمثيل الواقعي. في عام 2015 لاحظ مبرمج أن التصنيف التلقائي في خدمة صور غوغل، والتي تدربت عن طريق الذكاء الاصطناعي، أنها أخطأت واعتبرت صورته مع صديقه هي صورة لغوريلا. غرّد عن المشكلة فوراً ولم تتمكن الشركة من قلع المشكلة من جذرها، لذا أجبرت الخوارزمية على عدم تصنيف أي صورة كذلك. السبب لمشكلة كهذه ليست عنصرية أحد المبرمجين أو خباثة خوارزمية، وإنما علة في شمول البيانات.
هنا نلاحظ ابتعاد النتيجة الآلية عن القيمة البشرية المضادة للعنصرية، وعن الهدف التقني من إنشاء خاصية تصنيف صحيح للصور، الأمثلة متعددة ويمكن للقارئ الاطلاع على المزيد منها في وثائقي Coded Bias، ويعزى السبب في هذه الانحيازات إلى جذر بياني، إذ إن التعلم الآلي يتغذى على البيانات ليرسم الأنماط، فهو حتى يومنا هذا لا يشرع بالاستنتاج لوحده كما يفعل خالقوه من البشر.
يعطي كريستشان المزيد من الأمثلة ليوضح أن الأمر لا يقتصر على انحيازات مسيئة قيمياً، بعض الانحيازات تنتج من ارتباط صحيح لكنها تفضي إلى استنتاجات خاطئة، منها البسيط ومنها الخطير. مثلاً عند تعطي أمراً لأحد تطبيقات الذكاء الاصطناعي بأن ينتج صورة أثقال، فهو يرسم أذرعاً بشرية حولها، لأنه تعلّم من الصور التي تغذى عليها أن تلك الأثقال دائماً يحملها البشر، أو على أقل تقدير أذرع بشرية.
أمثلة أكثر خطورة وغرابة نجدها في المجال الطبي، ففي حالة أحد البرامج التي تسعى لقياس مدى خطورة حالات الالتهاب الرئوي لدى الأفراد للمساعدة في اتخاذ قرار إدخال المريض المستشفى، وُجد أن وجود مرض الربو يقلل من نسبة الخطر، وهذا الاستنتاج يبدو خاطئاً من الناحية الطبية، وهو كذلك. لكن البرنامج اعتمد على البيانات، وهناك كان الارتباط صحيحاً، إذ إن الأطباء بالفعل يميلون لإدخال المريض إلى المستشفى إن تزامن المرضان، ومع الرعاية الإضافية ينجو المرضى بمعدل أعلى. وبالتالي، قد يستنتج الذكاء الاصطناعي ما هو صحيح في سياق البيانات المغذية لفكره، الأمر الخاطئ والخَطِر في سياقنا البشري.
مشكلة الارتباطات الخاطئة يمكن حلها عن طريق تغذية البرامج ببيانات أكثر شمولاً، بالإضافة إلى عدم أخذ الاستنتاجات دون معاينة السياقات، وكلا الحلّان أصعب عند التطبيق العملي. يشير كريستشان أيضاً إلى أن بعض الاستنتاجات السيئة أخلاقياً هي من لدن المجتمع ذاته، ففي أحد البرامج المعنية باللغة على سبيل المثال، لاحظ المبرمجون تمييزاً جنسياً يربط تلقائياً بين الرجال أو النساء مع وظائف مختلفة وفق جنسهم، والارتباطات اللغوية تتغلغل في جل الكلام لا في كلمة أو اثنتين، وحذف كلمات لوحدها لا يمنع الذكاء الاصطناعي من كشف ارتباطات أكثر تمترساً في اللغات، ويؤثر ذلك على إمكانية استخدام برامج تؤتمت قراءة السير الذاتية وتميّز ضد المقبلين على الوظيفة وفقاً للانحيازات الخفية في اللغة المستخدمة والمعلومات المقدمة.
لكن هذه البرامج تعمل مثل مرآة تدفعنا لمراجعة أنفسنا وقد يكون الحل هو في تحسين أحوال المجتمعات قبل توقع القيم المثلى في الآلات.
نجمةٌ على جبين الذكاء الاصطناعي مكافأةً
الجزء الثاني من الكتاب يأخذنا في الحديث عما يعرف بالتعلم التعزيزي Reinforcement Learning، ويقارن بدايةً بين النظريات والنظرات المختلفة لأمثال إدوارد ثورندايك ونوربرت وينر. الهدف من استهلال الكاتب بذلك هو توضيح آلية التعليم معتمدةً على محاكاة الجانب البيولوجي عند الكائنات في تعاطي عقولها مع الدوبامين وأثره على المكافآت. لا ينتج الدوبامين من الحصول على المكافأة بل بالأحرى يرتبط بالتوقع وبالمفاجأة، في الفارق بين التوقع والواقع المسمى تعلم الفارق الزمني Temporal Difference Learning، والذي استعمله جيرالد تيساريو في أحد البرامج التي لعبت طاولة الزهر[1].
لكن كيف يرتبط كل هذا بمشكلة التوافق؟ الارتباط ليس مباشراً، التحذير هنا هو من خلط البرنامج بين الغاية والوسيلة، نعود هنا إلى مثال الطفل الذي حاولنا تعليمه عبور الشارع، أو لنستخدم مثالاً واقعياً يطرحه الكاتب عن فتاة صغيرة نظفت رقائق عن الأرض وعندما هنأها أهلها على ذلك طرحت القمامة أرضاً لتنظيفها مجدداً.
ومع أن فكرة المكافآت المرحلية أعانت المبرمجين على تدريب الذكاء الاصطناعي لدرجة جعلته يتفوق في عدة ألعاب ومهام، الحكاية لم تكتمل هنا، فعلى الرغم من سطوة جني المكافآت على مسار قراراتنا، إلا أن هنالك جناحاً آخر لصنع القرارات لا يهتم بحصد النقاط والأرقام. الاستنتاج وفقاً لكريستشان جاء مع سعي المبرمجين للتعامل مع تحدي إحدى الألعاب (Montezuma's Revenge) التي كانت عصية على تطبيق الذكاء الاصطناعي الماهر في غيرها. المميز في هذه اللعبة هي عدم إعطاء اللاعب مكافآت بسهولة، السهل هو موت اللاعب مع أي حركة خاطئة، وبالتالي حرمت المبرمج من فكرة نثر المكافآت الصغيرة لتحفيز البرمجية. الحل هو بالنظر إلى حافز داخلي عند البشر، ألا وهو الفضول. عندما أصبح الاستكشاف بحرية غايةً تمكن الذكاء الاصطناعي من الوصول إلى نهاية اللعبة، بل وتخطت بعض البرامج التي بالغت في الفضول على تلك التي سعت الحصول على المكافآت.
عالم المُثُل دون المثالية
أما الجزء الثالث من الكتاب فيبدأ بالحديث عن التقليد وعن درجة من التعقيد المطلوب في الفكر لإنجازه، وثم يوضح كيف استخدمت فكرة التقليد لبرمجة الذكاء الاصطناعي. من الأسهل في بعض الأحيان أن تأمر البرنامج بأن يقلد أحدنا بدلاً من إعطائه قائمة من الإرشادات. هذه الفكرة جُرِّبت على برنامج تابع مقاطع فيديو للاعبين كي يتعلم كيفية اللعب، وحتى في تعليم مركبات على القيادة دون سائق.
الخطر في تدريب البرامج بهذه الطريقة هو تدحرج أي خطأ مثل كرة ثلج، لأن البرنامج لم يتابع لقطات تخرج كثيراً عن المألوف، بمعنى آخر لو ابتعد قليلاً عن المسار الذي قلد به البشري قد يجد نفسه في سيناريو غير مسبوق البتة بالنسبة له، وسوف يراكم الأخطاء. الحل لذلك هو نوع من الأخذ والعطاء، حيث يعمل البرنامج على إعادة السيطرة للسائق في لحظات معينة ليتعلم منه ما يجب فعله عندما يخرج عن المسار الطبيعي. أو نوع من التعاون بين البشر والآلات في التعلم والمزج بين الأساليب المختلفة مما ذكر، على سبيل المثال تعرض صور على البشر لفعلين متقاربين ويكافئ المشاهد إحداها وبالتالي يتعلم البرنامج خطوة بخطوة عبر إملاء ومكافأة عوضاً عن الاكتفاء بواحد دون الآخر.
المشكلة الثانية في التدريب عبر تقليد من هو الأفضل تكمن في عدم فهم المقلِّد للمنطق وراء الحركات، أبطال الشطرنج يناورون بتضحيات تعتمد على عمق في فهم ما قد يحصل بعدها، أما المقلد قد يضحي على نفس الرقعة بنفس القطعة، لكنه قد يضل في الخطوات التالية ما لم تتبع السيناريو المثالي. الحل لهذا التناقض، تناقض الفشل الناتج عن تقليد البطل، يأتي باختيار أقل مثالية أو ما يعرف بثاني أفضل خيار، وبأن يعرف المقلد قدر نفسه.
المشكلة الثالثة عند التقليد هي في أن الأسوة يصير قمة لا قمة فوقها، البرنامج الذي يتمرّس إثر تقليد أمهر اللاعبين محدود بما هو موجود. الحل كان جلياً نظرياً منذ البداية لكن القدرات الحاسوبية والبرمجية تطلبت وقتاً طويلاً حتى تمكنت من تطبيقه، الحل ببساطة هو في ترك الحاسوب يتعلم لوحده دون الاستعانة بما سبق من خبرات بشرية، وأثبت نجاعته في برامج مثل AlphaGo Zero.
ينوه كريستشان لأن الحلول في مجال الألعاب أو القيادة قد لا تصب بالضرورة في حقول الأخلاق والمبادئ، من السهل أن نمتثل لحاسوب يخبرنا ما هي أفضل حركة في لعبة شطرنج لكن هل يعني ذلك أننا نستطيع تسليم الآلات زمام الأمور أخلاقياً؟
ثم يذكر كريستشان أسلوباً آخر يرتبط بالتقليد، بدلاً من التقليد الأعمى قد يسعى المبرمج لجعل الآلة تستنبط من متابعتها لتصرف بشري كيفية عمله، وذلك لأن بعض المهارات صعبة على التقليد المباشر أو أن الأساليب السابق ذكرها مثل إعطاء المكافآت والتعزيز لا تكفي. المثال الأقرب علينا جميعاً هو استنباط البرمجية من مراقبة عاداتنا على الإنترنت ما ننوي فعله أو نهتم به وبناء عليه تساعدنا بعرض الدعايات لما قد نحتاجه. يشير كريستشان إلى الخلل في عرض المغريات على من لم تكن له نية باقتناء المنتجات، أو في حالات معينة، على من كانت له نية في تجنب تلك المنتجات، مثل المدمن الذي نوى الإقلاع.
الفصل الأخير من الكتاب يتحدث عن الحالات التي تخرج عن منظومة إدراك البرامج، لو أعطيت صورة قطة لبرنامج يصنف الكلاب وفق فصائلها ولا يدرك شيئاً خارج عالم الكلاب، من الأفضل أن يعترف بقصوره عن التصنيف بدلاً من أن يقحم الصورة في أقرب صنف يراه[2]. لتجنب ذلك اعتمد المبرمجون على شبكات عصبونية بايزية Bayesian Neural Networks تعطي الإجابات احتمالات بدلاً من التيقن، الخطوة التالية هي أن يعود البرنامج للبشر عندما تقل ثقته في صحة إجاباته.
مشكلة التعامل مع المجهول لا تقف هنا، السببان لاستمرارها وفقاً للكتاب هما أولاً أن في كل مرة يستنجد الذكاء الاصطناعي بالذكاء البشري ينحسر ما هو مجهول في نظر البرنامج، وربما يصل مرحلة يقتنع فيها من معرفته بالإجابة دون استشارة، والسبب الثاني هو الشرط الضمني في طلب المساعدة من البشر، ألا وهو أن البشر دائماً على حق، ونحن نعلم أن ذلك ليس صحيحاً، لكن لو تعلمت الآلة ذلك قد تستنتج في بعض الحالات أنها أدرى من البشر. وفي لحظة ما ربما ستصبح كذلك وفقاً لبعض المفكرين والمتحمسين للذكاء الاصطناعي. لكن حتى أولئك المتحمسون يدركون أن أي خطأ في تدريب نظام ذكاء اصطناعي فائق قد يفضي إلى كارثة أو طامة كبرى، لذا يحذرون وينذرون من سرعة تطور الذكاء الاصطناعي دون حل مشكلة التوافق.
أخيراً، يختم كريستشان كتابه في التعامل مع المجهول أخلاقياً، أو ما نسميه بالشبهات، ويذكر باقتضابٍ بعض النظرات الأخلاقية الكاثوليكية حول الشبهات[3] ليسقطها على مشكلة التوافق لكنه يفعل ذلك على عجالة، وكذلك عند ذكر نظرية أخلاقية علمانية وحركة معاصرة معروفة بالإيثار الفعّال، على عجالة أيضاً، تاركاً بين يدي القارئ مُلخصاً لما قد تكون إحدى أهم المشاكل التي تواجه البشرية، من بين يديها.
رأي العبد الفقير في الكتاب:
يتميز الكتاب بسلاسة في الطرح حيث تمتزج حكايا المبتكرين والمحللين دون قفزات غير مبررة في الزمن أو المنطق، كما يطرح المشكلة دون خوض مبالغٍ في الجوانب التقنية التي ستصعب على القارئ غير المختص مثلي. يعطي الكتاب القارئ نظرة شاملة عن سبل ارتكاب الأخطاء من قِبل الذكاء الاصطناعي ولكنه في بعض الأحيان يشرح كيفية تعليم الذكاء الاصطناعي والتحديات التي تخطاها المبرمجون وكل ذلك دون الربط المباشر بمشكلة التوافق.
أنصح بقراءة الكتاب للمهتم بفهم القصة بأكملها والاطلاع على الأمثلة بالتفصيل لأن المنعطفات التي يأخذها الكاتب أثناء تعليمه لنا كيف تتعلم الآلات هي مثرية لذاتها.
المأخذ الوحيد هو في عنوان الكتاب الذي يفترض بشكل غير مباشر وجود مجموعة من القيم المتفق عليها، أو بالأحرى بأن الذكاء الاصطناعي سوف يستخدم لصالح القيم المستحسنة، وهذا الافتراض يصح فقط بإحسان النية في المبرمجين والجهات الممولة لتطبيقات وأبحاث الذكاء الاصطناعي. هناك مأخذ آخر في محتوى الكتاب لكنه مبرر، ألا وهو عدم الخوض كثيراً في الجانب الفلسفي من الأخلاق وتعريف القيم البشرية، وأظن أن ذلك معقول لأن المشاكل المذكورة هي أقرب لكونها مشاكل تقنية بالدرجة الأولى وهي ليست أخلاقية. لو سعى مجرم سيبراني لتطبيق أهدافه المختلة أخلاقياً فهو أيضاً سيواجه نفس العقبات التي تقف في وجه التوافق بين قيمه السيئة وما سيفعله البرنامج عند تشغيله. هذان المأخذان لا ينتقصان من الكتاب الممتاز في عرض المشكلة وإنما يرتبطان بالمشكلة نفسها، وبالطرح السائد لها بما يتضمن من ذاك الافتراضات القاصرة في الفلسفة الأخلاقية ومصطلح القيم البشرية كأن شيئاً من هذا القبيل جليٌّ للبشر أنفسهم وما تبقى هو تعليم الآلات تلك القيم.
الجانب الشائك في مسألة جمع القيم البشرية هو تباينها بين الثقافات والفلسفات الأخلاقية، مع تطور الذكاء الاصطناعي يمكننا تخيل طريقين لتضخم هذه الاختلافات، الأولى هي هيمنة القيم للثقافات المصنعة لتطبيقات الذكاء الاصطناعي، لأن الثقافات المستهلكة لن تتمكن من فرض رأيها. أو إذا كان للرأسمالية يد في مجريات الأحداث، فأغلب الظن أن التطبيقات ستبرمج مع أخذ الاختلاف بعين الاعتبار، مما يعني أن حزماً قيمية -توازي الحزم اللغوية في البرامج المستخدمة حالياً- سوف تصبح سلعاً هي الأخرى. وهذا بلا شك سوف يفتح الباب لنقاشات وربما استنتاجات عن النسبية الأخلاقية، هذا إن لم يسبق أي السيناريوهات المذكورة سيناريو تطور ذكاء اصطناعي خارق قيمه بعيدة كل البعد عن محصلة القيم البشرية.
هوامش:
[1]: للمزيد من المعلومات عن الذكاء الاصطناعي والألعاب اللوحية يمكنك قراءة هذه المقالة.
[2]: يمكن القول بأن هذه حالة خاصة من مشكلة التصابي التصنيفي التي كتبت عنها هنا.
[3]: النظرات المذكور تتفاوت بين تفادي الشبهات Rigorism وبين اتباع مبدأ أكثر حرية Laxism وما بينهما من تقييم الموقف Probabiliorism.