تطورت قدرات الذكاء الاصطناعي لدرجة تتجاوز حدود الفهم البشري. إذ أصبح العديد من تطبيقات الذكاء الاصطناعي غامضاً، وعمليات صناعة القرار مبهمة أو على الأقل لا يمكن للبشر تفسيرها بسهولة، بدلاً من أن تكون شفافة وقابلة للتفسير. ومع توصل الحكومات والناشطين وعامة الناس إلى فهم أفضل لمخاطر الخوارزميات الغامضة من خلال دراسات مثل كتاب "أسلحة تدمير الرياضيات" (Weapons of Math Destruction) لكاثي أونيل، بدأت الدعوات إلى "ذكاء اصطناعي قابل للتفسير" تتردد في مجالس الإدارة، ومؤتمرات التكنولوجيا، ومختبرات الأبحاث، بحيث يفهم البشر كيف يصنع الذكاء الاصطناعي القرارات ولماذا.
القضية واضحة، يوفر بعض الأنظمة مثل النظام الأوروبي العام لحماية البيانات "الحق في تفسير" القرارات المؤتمتة للأفراد؛ وتؤكد المؤسسات المناصرة لهذا الحق مثل مؤسسة ذي إلكترونيك فرونتير فاونديشن (the Electronic Frontier Foundation)، وشركة أوبن أيه آي (OpenAI)، والاتحاد الأميركي للدفاع عن الحريات المدنية (ACLU) باستمرار أهمية شفافية الذكاء الاصطناعي، وبخاصة عندما يترتب على نتائجه تبعات مباشرة على الحقوق الفردية؛ كما تدعم عدة تحالفات هذا الاتجاه، إذ تؤكد أهمية روح الشفافية في مبادئها الأساسية مثل تحالف الشراكة من أجل الذكاء الاصطناعي (Partnership on AI)، وهو عمل تعاوني بين كيانات التكنولوجيا المؤثرة وجماعات حقوق الإنسان.
بعض الأنظمة يجب أن تعتمد في تصميمها على معايير معيّنة من القابلية للتفسير، لكن لا تتطلب أنظمة أخرى هذه الشفافية، مثل التطبيقات ذات الاستخدام اليومي كخوارزميات التوصية على منصات البث أو ميزة التصحيح التلقائي على هواتفنا الذكية. من المثير للاهتمام فهم سبب اقتراح أغنية أو فيلم معين، أو سبب اختيار كلمة معينة لتحل محل خطأ مطبعي، لكن معرفة التفاصيل المعقدة لهذه الخوارزميات ليست ضرورية بالنسبة إلى تجربة المستخدم العادي أو ثقته بالنظام. لأن المهم هو فعالية النظام وموثوقيته. قد يؤدي السعي إلى تحقيق الشفافية غير المبررة في مثل هذه الحالات إلى كميات هائلة من المعلومات التي يجدها المستخدمون زائدة عن الحاجة أو حتى مربكة. فالأمر أشبه بمطالبة شخص يقود سيارة بفهم الميكانيكا التفصيلية لمحركها، قد يهتم بعض السائقين بذلك، ولكن يكتفي معظمهم بمعرفة أنها ستنقلهم من النقطة أ إلى النقطة ب بأمان.
مشكلة الغموض والرغبة في الشفافية
لا شك في أن قابلية التفسير ضرورية في بعض الحالات. ففي مجال الرعاية الصحية، تُستخدم نماذج التعلم العميق في المستشفيات للتنبؤ بالتدهور المفاجئ في صحة المرضى، مثل الإنتانات أو القصور القلبي. بوسع هذه النماذج تحليل كميات هائلة من بيانات المرضى من العلامات الحيوية إلى النتائج المخبرية، وتنبيه الأطباء إلى المشكلات المحتملة، والتفسيرات التي تقدمها بطريقة فريدة هي نتاج حسابات معقدة. ونتيجة لذلك، فإن المسارات الدقيقة ومجموعات نقاط البيانات التي تستخدمها للوصول إلى استنتاجاتها قد لا تكون واضحة للأطباء. وبسبب الطبيعة الغامضة لهذه النماذج، من الصعب على الأطباء الثقة بتنبؤاتها دون فهم الأسباب، وبخاصة في مواقف الحياة أو الموت. ولهذا السبب، توفر نماذج الذكاء الاصطناعي المستخدمة للكشف عن سرطانات الجلد أو آفاته خرائط حرارية مرئية إلى جانب التشخيص، تسلط الضوء على مناطق محددة من صورة الجلد التي وجدها النموذج مؤشراً على وجود ورم خبيث، ما يسمح لأطباء الجلد بفهم عمل الذكاء الاصطناعي ومنطقه. ومن خلال توفير التمثيل المرئي، يسمح نظام الذكاء الاصطناعي لمتخصصي الرعاية الصحية "برؤية" ما يكتشفه النموذج، ما يمكّن الطبيب من مقارنة نتائج الذكاء الاصطناعي بخبرته الخاصة.
أما في مجال الأمن الوطني، فتتمتع أنظمة الذكاء الاصطناعي المتقدمة المنتشرة في كاميرات المراقبة في المطارات والملاعب وغيرها من الأماكن العامة الكبيرة بالقدرة على اكتشاف التهديدات الأمنية القائمة عبر التعرف على الوجوه، والأنماط السلوكية، وغير ذلك، ومعالجة كميات هائلة من البيانات بسرعة فائقة. ولكن من الصعب توضيح الشبكة المعقدة من أسباب اتخاذ القرار التي تجمع بين التعرف على الوجه، وأنماط الحركة، وحتى البيانات البيومترية في الإبلاغ عن فرد أو موقف مشبوه، أو فهمها على نحو كامل. يمكن للأنظمة القابلة للتفسير في هذا المجال أن تضع وسوماً على أفعال محددة (مثل حقيبة غير مراقبة) أو سلوكيات (شخص ينظر خلفه كثيراً) كمؤشرات، بدلاً من مجرد الإبلاغ عن أحدهم دون توضيح. ومن خلال وضع الوسوم على الإجراءات أو السلوكيات التي تعتبر مشبوهة وتفاصيلها، يقدّم نظام الذكاء الاصطناعي أسباباً لعملية صناعة القرار، ليس فقط لمساعدة موظفي الأمن في اتخاذ القرار السريع والمساعدة على تجنب الأخطاء، وإنما للمساعدة على تحسين نظام الذكاء الاصطناعي وتدريبه أيضاً.
في المجال القانوني، بدأ بعض السلطات القضائية، وبخاصة في الولايات المتحدة والصين، استخدام أنظمة الذكاء الاصطناعي للمساعدة على تحديد المخاطر المرتبطة بمنح الكفالة أو الإفراج المشروط للأفراد، وتحليل العديد من العوامل، بما فيها السلوك السابق، وتاريخ العائلة وغيرها لتحديد درجة المخاطرة. هذه الأنظمة ضرورية لحماية السكان، لكن من الصعب على البشر فهم الطريقة التي تصنع بها هذه الأنظمة قراراتها. تقدم هذه الأنظمة درجة المخاطرة، ولكن الأثر الدقيق أو الأهمية التي تُسْنَد لكل عامل، أو كيف تتفاعل هذه العوامل فيما بينها تبقى غامضة. يمثل هذا الافتقار إلى الوضوح مشكلة، وبخاصة عند التعامل مع حريات الأفراد وحقوقهم.
لا توجد إجابات بسيطة
السؤال الذي يطرح نفسه: لماذا لا نجعل أنظمة الذكاء الاصطناعي جميعها قابلة للتفسير ببساطة؟
أولاً، تنبع ضرورة المفاضلة بين قابلية تفسير النموذج وقوة أدائه من الخصائص الجوهرية لنماذج تعلم الآلة المختلفة والتناقضات الكامنة في تمثيل البيانات وصناعة القرار. النماذج هي تمثيلات مثالية ومبسطة للواقع، ما يعني أنها قد تضحي بالدقة في سبيل توفير القدرة على متابعتها وتوضيحها. وبهذا المعنى، قد لا يكون النموذج "صحيحاً" أو دقيقاً تماماً، لكنه ما يزال فعالاً جداً في فهم الظواهر والتنبؤ بها. إن الخصائص التي تجعل بعض النماذج أكثر قابلية للتفسير مثل البساطة، والحدود الواضحة لاتخاذ القرار، والاعتماد على عدد أقل من السمات، يمكن أن تحد من قدرتها على التقاط كل المعلومات المتاحة واستخدامها. وعلى هذا الأساس، النماذج التي تستخدم المزيد من البيانات بطرق شديدة التعقيد، يمكن أن تنتج عملية صناعة قرار قوية، لكن يصعب على الناس شرحها وفهمها.
يحتاج القادة إلى التحليل وتحديد الأولويات لإدارة استخدامهم لنماذج الذكاء الاصطناعي لمعرفة التوازن الأفضل بين التمثيل الدقيق للواقع وامتلاك أداة عملية وفعالة للفهم والتنبؤ والتدخل.
فيما يلي 5 قضايا يجب على القادة أخذها في الحسبان عند إجراء تلك المفاضلة:
1. الموازنة بين التعقيد والبساطة:
يمكن للنماذج الشديدة التعقيد، مثل الشبكات العصبية العميقة، التقاط العلاقات المعقدة والفروق الدقيقة في البيانات التي قد تفوتها النماذج البسيطة، ما يسمح لهذه النماذج المعقدة بتحقيق دقة أكبر. لكن تعقيد النموذج هو ما يجعل تفسيره أصعب. فمن السهل فهم النماذج البسيطة مثل الانحدار الخطي أو شجرة القرار للأسباب نفسها التي تجعلها لا تلتقط جميع التفاصيل الدقيقة في البيانات.
يجب على القادة الموازنة بين المخاطر والفوائد للمفاضلة بين التعقيد والبساطة.
حلّل المخاطر المحتملة المرتبطة باتخاذ القرار في مجال الذكاء الاصطناعي، ففي حال كان القرار خاطئاً يمكن أن يؤدي إلى أضرار أو تكاليف كبيرة، كما هي الحال في الرعاية الصحية أو القرارات القانونية، أعطِ الأولوية لقابلية التفسير، حتى لو كان ذلك يضحي ببعض الأداء. يجب أن يسعى القادة إلى تبنّي التعقيد المناسب، واتخاذ خيارات مدروسة بشأن التعقيد بناءً على الأهداف، فقد يكون النموذج الشديد التعقيد الأفضل لالتقاط أنماط البيانات المعقدة. لكن يجب على صناع القرار الذين يوظفون الذكاء الاصطناعي أن يفهموا القيود المتأصلة في النموذج من حيث إمكانية التفسير.
2. الموازنة بين التعميم والتخصيص:
النماذج القابلة للتفسير بدرجة كبيرة، مثل الانحدار الخطي أو شجرة القرار البسيطة، تتخذ القرارات بناءً على قواعد واضحة وعامة، لكن هذه القواعد العامة قد لا تلتقط دائماً أنماطاً محددة أو معقدة في البيانات، ما يؤدي إلى احتمالية انخفاض الأداء. ولأن النماذج الشديدة التعقيد يمكنها تحديد هذه الأنماط الأكثر خصوصية وتعقيداً واستخدامها، فقد يكون من الصعب تفسير نتائجها.
يجب على القادة إدراك أهمية السياق، فلا تتطلب تطبيقات الذكاء الاصطناعي جميعها الدرجة نفسها من التفسير؛ إذ يتطلب الذكاء الاصطناعي المستخدم في التشخيص الطبي شفافية أعلى من الذكاء الاصطناعي المستخدم في توصيات الأفلام. وينبغي عليهم أيضاً تثقيف أصحاب المصالح بشأن الفروق الدقيقة في النماذج. إن التدريب المنتظم لأصحاب المصالح الذين يتفاعلون مع القواعد العامة والتعقيدات المحددة لنظام الذكاء الاصطناعي أو يعتمدون عليها سيضمن أنهم على دراية جيدة بقدراته وقيوده وتحيزاته المحتملة.
3. التركيز على قابلية التكيف بدلاً من التناسب الزائد:
يمكن للنماذج الشديدة التعقيد في بعض الأحيان أن "تتذكر" بيانات التدريب -وهو ما يطلق عليه "التناسب الزائد"- وبذلك تلتقط بيانات عشوائية أو غير مرغوب فيها بدلاً من توزيع البيانات الأساسي. يمكن أن يؤدي ذلك إلى دقة عالية في بيانات التدريب، ولكنه يؤدي في الغالب إلى تعميم ضعيف على البيانات الجديدة غير المرئية. ونتيجة لذلك، فإن النماذج البسيطة والأكثر قابلية للتفسير قد لا تحقق القدر نفسه من الدقة في مجموعة التدريب، على الرغم من أنها يمكن أن تكون أكثر قوة وقابلية للتعميم.
نظراً لأهمية القدرة على التكيف مع البيانات الجديدة، يجب على القادة التركيز على قوة النموذج في التعامل مع البيانات الجديدة بدلاً من التركيز على دقة التدريب، ومراقبة أداء نموذج الذكاء الاصطناعي باستمرار مع البيانات الجديدة. علاوة على ذلك، ينبغي للقادة أن يسعوا إلى تحديد أولويات حلقات المراجعة، وبخاصة في المجالات الحرجة، فإذا قدّم نظام الذكاء الاصطناعي توصية أو تنبؤاً، يجب أن يكون القول الفصل للخبير البشري، ولا بد من تكرار قراراتهم في حلقات المراجعة لتحسين نموذج الذكاء الاصطناعي.
4. هندسة السمات يمكن أن تعوق وضوح النموذج:
قد تكون هندسة السمات الأساسية ضرورية لكي تحقق النماذج البسيطة أداءً عالياً، التي قد تتضمن إنشاء سمات جديدة يدوياً من البيانات بناءً على الخبرة في مجال العمل. قد تحسّن الميزات الهندسية أداء النموذج، لكنها تجعل تفسير قرارات النموذج أصعب إن لم تكن التحولات بديهية.
يجب على القادة اختيار السمات الهندسية مع أخذ إمكانية التفسير في الحسبان. ففي حال تتطلب نموذج الذكاء الاصطناعي هندسة السمات، احرص على ألا تضيف هذه السمات غموضاً غير ضروري، وذلك لتحقيق التوازن بين تحسين الأداء والحفاظ على الوضوح. وينبغي ألا يؤثر تحسين الأداء قد يكون النهج الهجين أحد الحلول، وذلك بدمج الآلة في عملية صناعة القرار البشري. حيث يوفر الذكاء الاصطناعي معالجة سريعة للبيانات ورؤى دقيقة بسبب هندسة السمات، وتوفر الخبرة البشرية السياق اللازم وقابلية التفسير لضمان الوضوح.
5. المفاضلة بين كفاءة قدرات الحوسبة وفعاليتها:
النماذج البسيطة والقابلة للتفسير تتطلب قدرات حوسبة وذاكرة منخفضة، ما يجعل توظيفها سهلاً، لكن النماذج الشديدة التعقيد قد تؤدي أداءً أفضل ولكن تدريبها وتوظيفها يتطلبان قدرات حوسبة عالية الكلفة. عند توظيف نماذج الذكاء الاصطناعي، وبخاصة في تطبيقات الوقت الحقيقي، يجب الموازنة بين فوائد بساطة النموذج وقدرات الحوسبة مقابل مكاسب الأداء المحتملة للنماذج الشديدة التعقيد التي تتطلب قدرات حوسبة كبيرة. في كثير من الأحيان، يكون النموذج البسيط كافياً، وبخاصة إذا كانت قدرات الحوسبة محدودة. في هذه الحالة، من الضروري الاطلاع الدائم والتحديث المستمر في مجال الذكاء الاصطناعي فالمجال يتطور بسرعة، ويجب على القادة إعادة النظر بانتظام في عمليات توظيف الذكاء الاصطناعي وتحسينها للتأكد من أنها تلبي المعايير والاحتياجات المتطورة مع ضمان بقاء النماذج فعالة من ناحية الحوسبة.
نهج متوازن
ليس الهدف الميل كلياً نحو قابلية التفسير على حساب الأداء، أو الأداء الكامل على حساب قابلية التفسير، بل العثور على نهج متوازن مُصمَم على نحو خاص لكل تطبيق من تطبيقات الذكاء الاصطناعي يأخذ في الحسبان سلبياته وإيجابياته والتأثيرات البشرية والبيئية التي تتشابك بطريقة لا يمكن فصلها عن هدف بناء مستقبل موثوق للجميع.
يمكنكم الاطلاع على النسخة الإنجليزية من المقال من خلال الرابط، علماً أنّ المقال المنشور باللغتين محمي بحقوق الملكية الدولية. إنّ نسخ نص المقال من دون إذن مسبق يُعرض صاحبه للملاحقة القانونية دولياً.