تعمل المؤسسات الخاصة والعامة في شتى أنحاء العالم، لا سيما في قطاعَي الرعاية الصحية والحوكمة، على تطوير مجموعة من أنظمة الذكاء الاصطناعي وتوظيفها في مجال الاستجابة لحالات الطوارئ لفيروس كورونا. إذ تعمل بعض هذه الأنظمة على تتبع انتشار الفيروس والتنبؤ به، ويدعم البعض الآخر منها الاستجابة الطبية أو يساعد في الحفاظ على السيطرة الاجتماعية. وفي الواقع، يمكن لأنظمة الذكاء الاصطناعي أن تقلل الضغط على أنظمة الرعاية الصحية المثقلة بالأعباء وتساعد في إنقاذ الأرواح عبر التشخيص السريع للمرضى وتقييم التدهور أو التقدم الصحي المحرز والحد من انتشار الفيروس.
ولكن ثمة مشكلة تتمثل في أن الخوارزميات التي تحرك هذه الأنظمة هي اختراعات بشرية، وبالتالي فهي عرضة للتحيزات التي يمكن أن تعمّق عدم المساواة المجتمعية وتشكل مخاطر على الشركات والمجتمع على نطاق أوسع. في هذه المقالة، نلقي نظرة على البيانات المتعلقة بالجائحة، ونُطلعكم على حالتين من حالات تطبيق الذكاء الاصطناعي، ونقترح عدداً من الطرق التي يمكن لقادة الشركات والمنظمات غير الربحية من خلالها المساعدة في ضمان تطوير الذكاء الاصطناعي الذي من شأنه إحداث تحول وإدارته واستخدامه بشكل منصف ومسؤول.
المشكلة التي نواجهها مع البيانات المتعلقة بفيروس كورونا
باستخدام الأطر الفنية، مثل التعلم الآلي، تستخدم أنظمة الذكاء الاصطناعي الخوارزميات للتوصل إلى استنتاجات من البيانات بشأن الأشخاص. ويتضمن ذلك السمات الديموغرافية والتفضيلات والسلوكيات المستقبلية المرجحة. ويجب على أنظمة الذكاء الاصطناعي، لخدمة مجموعة من السكان بشكل فعال، أن تتعلم إنشاء ارتباطات استناداً إلى كميات هائلة من البيانات التي تعكس بدقة المعلومات لمختلف الهويات. غير أن البيانات التي تعتمد عليها هذه الأنظمة غالباً ما تعجّ بالتحيزات الاجتماعية والثقافية. إذ يمكن ألا تكون البيانات موجودة فيما يتعلق ببعض السكان، ويمكن أن تكون موجودة ولكنها ذات نوعية رديئة بالنسبة إلى مجموعات معينة، وتعكس عدم المساواة في المجتمع، أحد هذين الأمرين أو كليهما. لذا، يمكن أن تقدم الخوارزميات تنبؤات غير دقيقة وتُكرّس القوالب النمطية والتحيزات الاجتماعية.
ومن المؤسف أن الكثير من البيانات بشأن فيروس كورونا، التي يقوم مركز السيطرة على الأمراض والوقاية منها بالولايات المتحدة (US Center for Disease Control and Prevention) إلى جانب مؤسسات أخرى بجمعها وتتبعها، منقوصة ومتحيزة. إذ إن معدلات الإصابة بفيروس كورونا، على سبيل المثال، خضعت لـ "عدد أقل بكثير من الأعداد الفعلية"، بمعامل 50 أو أكثر. وتعكس البيانات الطبية مجموعة فرعية فقط من السكان، تتمثل في كثير من الحالات في مجتمعات السكان ذوي البشرة البيضاء الغنية التي تتوفر لها سبل إجراء اختبارات محدودة وإجراءات طبية باهظة الثمن. ولكن ثمة أوجه نقص أخرى مهمة في البيانات أيضاً، منها:
- لا يتم تصنيف البيانات المتعلقة بالمخاطر والوفيات بشكل كافٍ حسب النوع الاجتماعي أو الانتماء العِرقي أو الإثني. لم يُصدر مركز السيطرة على الأمراض والوقاية منها تفصيلاً حسب العِرق والنوع الاجتماعي لحالات الإصابة والوفاة بفيروس كورونا حتى أوائل أبريل/ نيسان، وحتى ذلك الحين، سُحبت البيانات من أجزاء من 14 ولاية. اليوم، لدى العديد من الولايات بيانات تتقاسم حالات الإصابة والوفيات حسب العِرق، ولكن بيان الحالات حسب النوع لا يزال محدوداً، ولا تتوفر بيانات الوفيات المصنفة حسب النوع الاجتماعي.
- البيانات الخاصة بالمجموعات العرقية والإثنية منقوصة، والمصطلحات والتسميات غير ثابتة. ترسم بيانات الإصابات والوفيات الصادرة عن مركز السيطرة على الأمراض، على الرغم من أنها لا تزال ضئيلة ومنقوصة، صورة قاتمة بشأن الكيفية التي يتسبب بها فيروس كورونا بشكل غير متناسب في حالات الوفاة لبعض المجموعات العرقية والإثنية. إذ إن المعدلات المقلقة بين الأميركيين من أصل أفريقي تستمد جذورها من أوجه عدم المساواة القائمة منذ أمد طويل في الاقتصاد والرعاية الصحية، كما أن التصنيف العرقي والإثني الذي يكتنفه الغموض للبيانات الموجودة يُمعن في حجب أوجه التفاوت.
- لا تسجل أنظمة تتبع البيانات المتعلقة بفيروس كورونا بيانات عن المهاجرين وغيرهم من السكان المهمشين. يمثل المهاجرون مجتمعاً من العديد من المجتمعات متعددة الأعراق التي تضررت بشدة من جائحة فيروس كورونا. إذ يشغل الكثير منهم وظائف خدمية في الأعمال التجارية الأساسية التي تتطلب منهم التعامل مع عدد كبير من الأشخاص يومياً، وباتوا في خطر متزايد من حدوث مضاعفات أو الوفاة بسبب فيروس كورونا نظراً لارتفاع معدلات الأمراض المزمنة الأساسية. وعلى الرغم من ذلك، لا يخضع الكثير منهم للاختبار خوفاً من ترحيلهم من البلاد. ولا تتوفر بيانات كافية بشأن الأفراد المتحولين جنسياً وذوي الهوية غير الثنائية أيضاً، إذ لا يقوم معظم مسؤولي الصحة بالولايات الأميركية بجمع بيانات بشأن ما إذا كان المرضى يعتبرون من مجتمع الميم. ويُعد الأفراد المتحولون جنسياً معرضين لخطر أكبر نظراً لمواطن الضعف الاقتصادية والاجتماعية. هذا النقص في البيانات بشأن الفئات الأشد تأثراً لا يمثل مشكلة في الولايات المتحدة فحسب؛ بل إنه غالباً ما يكون مشكلة أكبر في البلدان الفقيرة.
الذكاء الصناعي في الاستجابة الطبية لفيروس كورونا
تساعد بعض أنظمة الذكاء الاصطناعي التي طُوّرت لدعم الاستجابة الطبية لفيروس كورونا في تشخيص الفيروس واكتشافه من خلال الفحص الأساسي عبر الإنترنت أو تحليل صور الصدر. ويمكن لأنظمة الذكاء الصناعي الأخرى، مثل الإصدار المقبل من نظام "إي كارت" (eCART)، المساعدة في توقع النتائج الخاصة بفيروس كورونا وتوفير معلومات لاتخاذ القرارات الطبية. وهذا مفيد بشكل خاص للمتطوعين الطبيين الذين لم يخضعوا لتدريب في الطب الصدري، والذين يجب عليهم تقييم حالات المرضى وتحديد من يحتاج إلى المساعدة أولاً. ومن شأن تقنيات الذكاء الاصطناعي أن تكون مفيدة أيضاً في البحث عن لقاح لفيروس كورونا والعلاجات الأخرى له.
غير أن النقص في البيانات الذي ذكرناه آنفاً ينطوي على انعكاسات كبيرة على أنظمة الذكاء الاصطناعي الطبية وتجارب اللقاحات المعززة بالذكاء الاصطناعي. إذ تختلف استجابة الأشخاص للفيروسات واللقاحات والعلاجات، كما أوضحت حالات التفشي السابقة مثل المتلازمة التنفُّسية الحادة الوخيمة "سارس" (SARS) وفيروس "إيبولا" (Ebola). وتُظهر البيانات المتوفرة بشأن فيروس كورونا خارج الولايات المتحدة، على سبيل المثال، اختلاف معدلات الوفيات بين الرجال والنساء، وتوصلت ورقة بحثية حديثة إلى أن النساء اللائي أُدخِلن إلى مستشفى ووهان يونيون كان لديهن مستويات أعلى من الأجسام المضادة لفيروس كورونا مقارنة بالرجال. ونظراً لأوجه التفاوت المنهجية التي تؤدي إلى تفاقم النتائج الصحية لبعض المجموعات العرقية والإثنية، من المهم بالقدر نفسه فهم النتائج الصحية لفيروس كورونا لمختلف الهويات، فضلاً عن الآثار المترتبة المتعددة الجوانب.
وتنطوي الخوارزميات التي لا تأخذ في الحسبان أوجه التفاوت القائمة على مخاطر وضع تنبؤات غير دقيقة، أو أسوأ من ذلك. ففي عام 2019، وجدت دراسة أن خوارزمية "أوبتم" (Optum) المستخدمة على نطاق واسع، والتي تستخدم الإنفاق على الرعاية الصحية بصفته أداة لقياس الحاجة، كانت متحيزة ضد الأميركيين من أصل أفريقي. إذ إنها لم تأخذ في الاعتبار التمييز أو نقص فرص الحصول على الرعاية الصحية، وكليهما يؤدي إلى انخفاض إنفاق الأميركيين من أصل أفريقي على الرعاية الصحية. وفي خضم أزمة فيروس كورونا، يجب أن تتوخي أنظمة الذكاء الاصطناعي التي توفر معلومات للمخصصات ذات الموارد المحدودة (مثل مَن مِن المرضى يجب وضعه على جهاز التنفس الصناعي) الحرص على عدم إعطاء الأولوية بشكل غير متعمد لهويات معينة دون هويات أخرى. وفي حين أن المطورين يهدفون إلى جعل الخوارزميات تتغاضى عن الأصل العرقي عبر استبعاد العِرق كمقياس، إلا أن هذا الأمر يمكن أن يتجاهل التمييز أو يخفيه بدلاً من منعه. على سبيل المثال، يمكن أن تستخدم الخوارزميات التي توفر معلومات لاتخاذ القرارات الطبية أدوات مثل الحالات القائمة مسبقاً. إذ إن مرض السكري هو حالة قائمة مسبقاً مرتبطة بمعدلات إصابة أعلى من معدلات الإصابة بفيروس كورونا، ومعدل الإصابة به أعلى بين الأميركيين من أصل أفريقي. فإذا كانت الخوارزمية تستخدم حالات قائمة مسبقاً غير أنها تتغاضى عن الأصل العرقي، يمكن إذاً أن تُفضي إلى إعطاء الأولوية للأميركيين ذوي البشرة البيضاء بشكل غير متناسب على الأميركيين من أصل أفريقي.
وفي حين تلتزم بعض الشركات باختبارات صارمة، مثل إجراء دراسات تَثبُّت كثيرة قبل إطلاق المنتجات، ليست كل الشركات دقيقة. وعلاوة على ذلك، فإن عمليات اتخاذ القرار لمعظم خوارزميات الذكاء الاصطناعي لا تتسم بالشفافية. وهذا يفتح الباب أمام تنبؤات غير دقيقة أو تمييزية فيما يتعلق ببعض المجموعات السكانية، وبالتالي يشكل مخاطر هائلة على الأفراد والممارسين الذين يستخدمونها.
الذكاء الاصطناعي في مجال السيطرة الاجتماعية على فيروس كورونا
ومن التطبيقات الأخرى الحديثة للذكاء الاصطناعي استخدامه في تقصّي المخالطين، أو تقصي الأشخاص الذين تعاملوا مع الفيروس للمساعدة في احتوائه. إذ إنه من خلال تقصي معلومات المستخدم مثل الصحة والموقع، واستخدام تقنية التعرف على الوجوه المستندة إلى الذكاء الاصطناعي، يمكن لهذه الأدوات فرض التباعد الاجتماعي وإبلاغ المواطنين المخالطين للحالات التي تظهر إصابتها بالفيروس. ففي الصين، يُمنح المستخدمون درجة من درجات مقياس فيروس كورونا، وهو ما يؤثر على فرص استعمالهم لوسائل النقل العام والعمل والمدارس. وقد بدأ مسؤولو الحكومة الأميركية في إثارة إمكانية المراقبة الجماعية، وجمع بيانات موقع المستخدم "الكلية والمجهولة المصدر" من شركات التكنولوجيا الكبرى مثل "فيسبوك" و"جوجل" لرسم خريطة لانتشار فيروس كورونا.
لكن أدوات المراقبة، مجدداً، تنطوي على آثار أخلاقية، لا سيما بالنسبة إلى السكان المهمشين. إذ يمكن أن يؤدي استخدام الذكاء الاصطناعي لتحديد من يغادر منزله إلى شكل من أشكال الخطوط الحمراء الخاصة بفيروس كورونا، ما يعرّض مجتمعات معينة إلى فرض قدْر أكبر من التدابير القانونية. وهذا يستدعي إلى الأذهان نموذج آخر من نماذج الذكاء الاصطناعي يُسفر عن قدر أكبر من المراقبة للمجتمعات الفقيرة متعددة الأعراق، وهو نموذج الشرطة التنبؤية. ففي الولايات المتحدة، تستخدِم خوارزميات تقييم المخاطر معلومات السوابق الجنائية، ولكن لا تأخذ في الاعتبار التحيز العنصري المتغلغل في نظام الشرطة، والمتمثل في اعتقال الأميركيين من أصل أفريقي بسبب جرائم أصغر في كثير من الأحيان، ونشر الدوريات العسكرية بكثافة في الأحياء التي تقطنها نسبة عالية من الأميركيين من أصل أفريقي. لينتهي الأمر بتمثيل مفرط للأميركيين من أصل أفريفي في البيانات، والذي يرتبط بعد ذلك بنتائج الشرطة المتحيزة عنصرياً. وبالمثل، من المرجح أن تكون المجتمعات المتأثرة بأنظمة المراقبة المقترحة هي المجتمعات متعددة الأعراق الأكثر فقراً والتي تضررت بدرجة أكبر من فيروس كورونا لأسباب متنوعة مرتبطة بالظلم والتمييز التاريخيين.
وليس من الواضح الكيفية أو المدة التي ستستخدم الوكالات الحكومية أو المؤسسات الأخرى بها هذه الأنواع من أدوات الذكاء الاصطناعي. في الصين، يمكن أن يستمر التتبع إلى ما بعد الأزمة، ما يتيح لسلطات بكين مراقبة الأقليات الدينية والمعارضين السياسيين والمجتمعات المهمشة الأخرى التي لديها سجل طويل من التعرض للمراقبة المفرطة. وعلى الرغم من أن عملية جمع البيانات في الولايات المتحدة ستكون مجهولة المصدر وإجمالية في البداية، إلا أنه ثمة إمكانية لسوء الاستخدام وإلغاء إخفاء الهوية في المستقبل.
اقرأ أيضاً: في ظل جائحة كوورونا: كيفية تأمين المعدات الطبية للدول الفقيرة
خمسة أشياء يمكن لقادة الشركات والمنظمات غير الربحية القيام بها
أثبتت أنظمة ذكاء اصطناعي مختلفة أنها ذات قيمة عالية للغاية في التصدي للجائحة، وتبشّر أنظمة أخرى بوعود هائلة. لكن يجب على القادة الحرص على تطوير هذه التكنولوجيا وإدارتها واستخدامها بشكل مسؤول ومنصف، إذ إن المخاطر الناجمة عن التمييز وتعميق عدم المساواة ببساطة غير مقبولة. وفيما يلي خمسة تدابير يتعين اتخاذها الآن:
- المطالبة بالشفافية وشرح نظام الذكاء الاصطناعي. وينبغي للقادة الذين تطور مؤسساتهم أنظمة الذكاء الاصطناعي أن يطرحوا أسئلة مثل: مَن الأشخاص الذين تُضمّن آراؤهم وأولوياتهم وخبراتهم في عملية تطوير هذه الأنظمة، ومن الأشخاص الذين يُستبعدون؟
- الانضمام إلى مجموعات عمل الأخلاقيات أو مجالسها ذات التخصصات المتعددة وتشجيعها لتوفير معلومات تعزز الاستجابة لفيروس كورونا. وقد بات هذا الأمر يجري في ألمانيا، ومن شأنه أن يوفر أفكاراً مفيدة بشأن كيفية الاستجابة لفيروس كورونا بما في ذلك استخدام الذكاء الاصطناعي. إذ تعد مجموعات العمل بمثابة وسيلة لجمع علماء الاجتماع والفلاسفة وقادة المجتمع والفرق الفنية لمناقشة المخاوف بشأن التحيز وتسويات الإنصاف المحتملة، بالإضافة إلى الحلول الممكنة.
- عقد شراكات لسد أوجه النقص في البيانات الصحية بطرق تحمي المجتمعات المحلية وتعمل على تمكينها. تُعد المنظمات غير الربحية والجامعات في وضع ملائم للغاية يتيح لها العمل مع المجتمعات المحرومة وتشكيل شراكات لإجراء بحوث مجتمعية. ففي سان فرانسيسكو، على سبيل المثال، اشترك تحالف من منظمات لاتينية على مستوى المدينة مع جامعة كاليفورنيا لتشكيل فريق عمل بشأن فيروس كورونا. وأطلق التحالف مشروعاً أجرى اختبارات لما يقرب من 3000 شخص يقطنون في الأحياء ذات الأغلبية اللاتينية لتحسين فهم الكيفية التي ينتشر بها الفيروس. وأدرج فريق العمل والمتطوعون المحليون مخاوف أفراد المجتمع ضمن اهتماماتهم وقدموا خدمات دعم مكثفة للأشخاص الذين ثبتت إصابتهم بالفيروس.
- دفع عجلة البحث والابتكار مع التأكيد على التنوع والشمول. يطور عدد قليل من شركات التكنولوجيا ومختبرات الجامعات المرموقة معظم أنظمة الذكاء الاصطناعي الكبيرة، وغالباً ما يكون المطورون من الذكور وذوي البشرة البيضاء والأثرياء وذوي التوجهات التقنية. ونظراً لأن الذكاء الاصطناعي ليس محايداً، وأن التقنيات هي نتاج الظروف التي طُوّرت فيها، غالباً ما تفشل هذه الأنظمة في تلبية احتياجات المجتمعات المختلفة. لذا، يجب أن تؤكد المبادرات البحثية مثل "معهد التحول الرقمي" (Digital Transformation Institute) الذي أسس مؤخراً، وهو جهد تعاوني للجمع بين شركات التكنولوجيا وجامعات الأبحاث الأميركية لمكافحة فيروس كورونا، على الإدماج والعدالة (جنباً إلى جنب مع الابتكار والكفاءة)، وإعطاء الأولوية للفِرق المتنوعة ذات التخصصات المتعددة. إذ يمكنها، وينبغي لها، الاستفادة من أدوات مثل قائمة الإنصاف المرجعية الخاصة بالذكاء الاصطناعي (AI Fairness Checklist) في تصميم الحلول.
- مقاومة الرغبة في إعطاء الأولوية للكفاءة على حساب العدالة والإنصاف. ينبغي للقادة الارتقاء إلى مستوى التحدي المتمثل في عدم المساومة على العدالة والإنصاف. في بعض الحالات، لا تتعلق المسألة بأفضل طريقة لتطوير نظام من أنظمة الذكاء الاصطناعي أو توظيفه، بل بما إذا كان ينبغي تطوير نظام الذكاء الاصطناعي أو استخدامه أصلاً.
ومع استمرار الجائحة في التأثير بشدة على الأفراد والمجتمعات واقتصادات البلدان، يجب على قادة المنظمات غير الربحية والشركات الاستجابة بسرعة، ولكن ليس على حساب زيادة التمييز وعدم المساواة في المجتمعات الأكثر تضرراً من الجائحة. ويمكن أن يساعدنا الذكاء الاصطناعي في تحسين الاستجابة الطبية وتقليل انتشار فيروس كورونا، غير أن استخدامه بحكمة يتطلب قيادة تتسم بالإنصاف ورؤية طويلة المدى. وحسب تعبير براشانت واريير، الرئيس التنفيذي والمؤسس المشارك لشركة الذكاء الاصطناعي "كيور. أيه آي" (Qure.ai): "ما أن يبدأ الأشخاص في استخدام خوارزمياتنا، فلن يتوقفوا أبداً".
يمكنكم الاطلاع على النسخة الإنجليزية من المقال من خلال الرابط، علماً أنّ المقال المنشور باللغتين محمي بحقوق الملكية الدولية. إنّ نسخ نص المقال بدون إذن مسبق يُعرض صاحبه للملاحقة القانونية دولياً.