8 خطوات تُساعد المؤسسات غير الربحية لتبنّي الذكاء الاصطناعي بمسؤولية

التعامل مع الذكاء الاصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كيف يمكن للمؤسسات التعامل مع الذكاء الاصطناعي بطرق ذكية وأخلاقية في وقتنا الحالي.

سجّل معدل اعتماد أداة الكتابة التوليدية بتقنية الذكاء الاصطناعي تشات جي بي تي (ChatGPT) مستويات مذهلة. فقد تجاوز عدد مستخدمي تشات جي بي تي، الذي يولّد نصوصاً جديدة بناءً على أوامر المستخدم 100 مليون مستخدم نشط شهرياً في غضون شهرين فقط، وذلك وفقاً للبيانات التي جمعتها مؤسسة يو بي إس (UBS). في حين استغرقت المنصتان الشهيرتان تيك توك وإنستغرام 9 أشهر و30 شهراً على الترتيب للوصول إلى عدد المستخدمين نفسه.

يمكننا بطريقة شبه علمية تشبيه فهمنا لغرابة ظاهرة تشات جي بي تي في تاريخ التطبيقات البرمجية باستخدام مقياس سكوفيل، وهو مقياس علمي لمدى حدة الفلفل الحار.

يقارن هذا الرسم البياني بين الحدّة النسبية للفلفل الحار ومعدل نمو عدد المستخدمين لبعض التطبيقات الأسرع نمواً في التاريخ. (الصورة لفيليب دينغ)

أصبح الذكاء الاصطناعي التوليدي الآن في المرحلة الثانية من دورة غارتنر لحياة الابتكار، وهي تمثيل رسومي لنضج الابتكار مستخدم في قطاع الأعمال. لقد تجاوز المرحلة الأولى، “تحفيز الابتكار”، حيث تظهر التكنولوجيا في كل مكان في وقت واحد، وهو الآن في “ذروة التوقعات المتضخمة”. لقد شهدنا هذه الدورة عدة مرات في تاريخ التكنولوجيا كما في حال أجهزة الكمبيوتر الشخصية، والهواتف المحمولة، ووسائل التواصل الاجتماعي. لكن ثمة فرق واحد بين الذكاء الاصطناعي وبين ما سبقه من تكنولوجيا، فهو يتخذ قرارات لا يمكن إلا للبشر اتخاذها حتى الآن. يتضمن ذلك اتخاذ قرارات تعيين الموظفين والقصص التي يجب سردها، وهو ما يجعل هذه التكنولوجيا مثيرة ومرعبة في آن واحد.

يظن العديد من المؤسسات غير الربحية في القطاع الاجتماعي أن الذكاء الاصطناعي سيحل جميع مشكلات عملها بسرعة وسلاسة (لن يحدث ذلك). كما يحمل آخرون مخاوف كبيرة بشأن إحداث الفوضى واستبدال الموظفين. سيدخل بعض المؤسسات هذا الميدان باكراً؛ وسوف ينتظر آخرون. لكن ثمة أمر واضح: أصبح استخدام المؤسسات غير الربحية للذكاء الاصطناعي ضرورياً ويتطلب التحضير بعناية.

كيف تستخدم المؤسَّسات غير الربحية الذكاء الاصطناعي حالياً

تشير دراسة حديثة أجرتها شركة ماكنزي (McKinsey) إلى أن دمج الذكاء الاصطناعي دمجاً كاملاً في مكان العمل قد يستغرق عدة سنوات، ولكن العملية قد بدأت بالفعل. إذ يستخدمه جامعو التبرعات حالياً للمساعدة في كتابة مذكرات الشكر للمانحين، والنشرات الإخبارية، وطلبات المنح، والبيانات الصحفية. قالت لنا إحدى مسؤولات التطوير إن استخدام تشات جي بي تي في صياغة هذه الأنواع من المواد وتحريرها يوفر ساعات طويلة من العمل أسبوعياً. كما ذكرت كاتبة طلبات المنح في إحدى وكالات الخدمات الإنسانية أنها استخدمت تشات جي بي تي لإيجاز ثلاثة طلبات منح مختلفة وقُبلت الطلبات الثلاثة.

وبدأت البرمجيات التي نستخدمها يومياً مثل جوجل ورك سبيس (Google Workspace) ومايكروسوفت أوفيس بدمج وظائف الذكاء الاصطناعي التوليدي لمساعدة المستخدمين على صياغة العروض التقديمية والرد على رسائل البريد الإلكتروني وجدولة الاجتماعات. بدأت المؤسسات غير الربحية للتو استخدام هذه الأدوات، ولا شك في أن مبادرات مثل مبادرة جينيريتف أيه آي سكيلز تشالينج (Generative AI Skills Challenge) التي تقدمها مايكروسوفت وداتا دوت أورغ (Data.org)، وهي منحة للتدريب على الذكاء الاصطناعي وتحسين المهارات لتعزيز التأثير الاجتماعي، ستسرّع عملية اعتماد هذه الأدوات.

وثمة أنواع أخرى من أدوات الذكاء الاصطناعي تأخذ مكاناً في عمل المؤسسات اليومي أيضاً. يمكن لروبوتات الدردشة (وهي واجهات دردشة تفاعلية تستخدم نماذج لغوية تعلمية ضخمة مثل تشات جي بي تي) الإجابة عن أسئلة مستخدمي مواقع الإنترنت أو توفير معلومات داخلية لموظفي المؤسسات غير الربحية عند الطلب. كما تعمل أدوات الفحص المدعومة بالذكاء الاصطناعي على تقييم الموظفين ومتلقي الخدمة المحتملين. وثمة العديد من أدوات جمع التبرعات التي تعمل بالذكاء الاصطناعي لإدارة التواصل مع المانحين والمساعدة على البحث عن مانحين محتملين.

التعامل مع الذكاء الاصطناعي بحرص

في حال استُخدم الذكاء الاصطناعي بحرص ومهارة، سيوفر على الموظفين آلاف الساعات من العمل الروتيني الذي يستهلك الكثير من الوقت سنوياً، ويتيح لهم المجال لتأدية مهام لا يستطيع تأديتها سوى البشر، مثل حل المشكلات وتوطيد العلاقات وبناء المجتمعات. ومن الممكن أن تؤدي أساليب التعاون بين البشر والروبوتات مثل “الروبوتات التعاونية”، التي تستخدم أدوات الذكاء الاصطناعي لتعزيز الوظائف البشرية بدلاً من استبدالها، إلى إبراز أفضل ما في كل من الروبوتات والبشر وكسب الوقت.

ومع ذلك، نخشى أن تستخدم المؤسسات التي ترغب في كسب الوقت التكنولوجيا الفائقة القدرة دون مراعاة تبعاتها الأخلاقية وأثرها على البشر. في عام 2022، أصبحت مؤسسة ناشيونال إيتينغ ديسؤردرز أسوسيشين (National Eating Disorders Association (NEDA)، وهي أكبر مؤسسة غير ربحية تدعم مرضى اضطرابات تناول الطعام، عبرة للاستخدام المتهور والمتسرع للذكاء الاصطناعي. إذ أدت جائحة كوفيد-19 إلى زيادة كبيرة في المكالمات إلى خطها الساخن، ولم يتمكن موظفوها بالإضافة إلى 200 متطوع من تلقي المكالمات جميعها. واستجابة لذلك، وظّفت المؤسسة أداة تيسا (Tessa)، وهي روبوت محادثة يعمل بالذكاء الاصطناعي ليستجيب لاستفسارات الأشخاص الذين يعانون اضطرابات تناول الطعام، وفصلت موظفي الخط الساخن مباشرة. والأسوأ من ذلك، فشلت المؤسسة في الإشراف على روبوت المحادثة والتحكم به بكفاءة، فبدأ تقديم معلومات ضارة للمتصلين.

يثير الذكاء الاصطناعي التوليدي مجموعة من الأسئلة والتعقيدات الأخلاقية. تُدرَّب النماذج اللغوية الضخمة مثل تشات جي بي تي على محتوى من الإنترنت، مثل ويكيبيديا وتويتر وريديت (Reddit). ونظراً لاحتواء هذه البيانات على كم هائل من الآراء المؤيدة لتفوق أصحاب البشرة البيضاء، والكارهة للنساء، والمتحيزة للجيل الأكبر سناً، فإن الأدوات المُدربة عليها ستزيد تضخيم التحيزات والإساءات. كما يقدم تشات جب بي تي معلومات مغلوطة، أو ما يسميه الباحثون “الهلوسة”، إذ يردّ على أسئلة المستخدمين بنصوص مقنعة للغاية ولكنها غير صحيحة. ثمة خطر آخر يتعلق بموظفي جمع التبرعات الذين يستخدمون النماذج العامة المجانية، فقد يُدخلون عن طريق الخطأ معلومات المانحين الشخصية في النموذج الذي يستخدمونه، ما يتيح لمستخدمين آخرين الوصول إليها بسهولة. هناك مخاوف ودعاوى قضائية متزايدة بشأن الملكية الفكرية، لأن العديد من أدوات الذكاء الاصطناعي التوليدية دمجت نصوصاً وأعمالاً فنية محمية بحقوق الطبع والنشر من الإنترنت في قواعد بياناتها دون إذن. وثمة مخاطر تتعلق بالسرد الأخلاقي. على سبيل المثال، بدأت مؤسسة فيرنيتشر بانك (Furniture Bank) غير الربحية في مدينة تورونتو الاعتماد على الصور التي يُنشئها الذكاء الاصطناعي والتي تبدو حقيقية بهدف إثارة التعاطف وجذب التبرعات لحملتها في موسم الأعياد لعام 2022، وهو ما أثار العديد من الأسئلة الأخلاقية.

كما يحمل الاعتماد على تشات جي بي تي مخاطر تتعلق بالسمعة، وبخاصة إذا لم يراجع الموظفون النص الذي يولده بعناية قبل تصديره؛ فقد يحمل النص عبارات مُسيئة وغير لائقة. على سبيل المثال، أرسل أحد مطاعم كنتاكي في ألمانيا مؤخراً تغريدة بواسطة الذكاء الاصطناعي تقترح أن يحتفل الناس بذكرى ليلة الكريستال بتناول وجبة كنتاكي، وهي ليلة حدثت فيها أعمال عنف مؤسفة في ألمانيا. إذ تقول الرسالة: “إنها ذكرى ليلة الزجاج المُكسَّر! دلل نفسك بمزيد من الجبن الطري على الدجاج المقرمش. الآن في كنتاكي تشيز!” كما اعتمدت كلية بيبودي بجامعة فاندربيلت (Vanderbilt University’s Peabody College) في ولاية تينيسي على تشات جي بي تي في كتابة رسالة “مؤثرة” للطلاب حول وحدة المجتمع في وجه إطلاق النار العشوائي في جامعة ولاية ميشيغان.

لا يشكل الاستخدام الأخلاقي للذكاء الاصطناعي تحدياً تقنياً، لكنه ضرورة قيادية، ويجب أن يتمحور تبنّيه حول الإنسان. وعلى القادة وضع مبادئ توجيهية وتقديم التدريب لضمان فهم الموظفين للذكاء الاصطناعي، وحرصهم وحذرهم عند استخدامه. ولا يشمل ذلك المختصين في التكنولوجيا فحسب، بل جميع الموظفين. فمن الحماقة أن تتخيل أن موظفيك لن يستخدموا الذكاء الاصطناعي التوليدي لأن مؤسستك غير الربحية منعت استخدامه أو لم تضع مبادئ توجيهية لاستخدامه. تظهر الأبحاث الحديثة التي أجرتها شركة فيشبول (Fishbowl) أن 43% من المهنيين العاملين في العديد من المجالات يستخدمون الذكاء الاصطناعي التوليدي وأن 70% منهم يفعلون ذلك دون علم مدرائهم. (وربما يستخدمه المدراء أيضاً)

8 خطوات لاعتماد الذكاء الاصطناعي بمسؤولية

نحثُّ المؤسسات على اتخاذ مجموعة متنوعة من الخطوات نحو الاعتماد الذكي والأخلاقي للذكاء الاصطناعي في الوقت الحالي. وبدلاً من قائمة تحقق لمرة واحدة فقط، توفر الخطوات المذكورة أدناه إطار عمل مستمر للبحث والتجريب والنمو.

1. تزوَّد بالمعلومات اللازمة

ينبغي لقادة المؤسسات غير الربحية فهم كيف يؤثر استخدام موظفيهم لأدوات الذكاء الاصطناعي أو التخطيط لدمجها في عملهم على عمليات المؤسسة ونتائجها. ويجب عليهم التفكير في المخاطر والفوائد المحتملة قبل الشروع في التجربة، وتجنب التسرع والإخفاق. يبالغ مطورو البرمجيات في الترويج للذكاء الاصطناعي ويقدمونه على أنه حل سحري لجميع المشكلات، لذلك من الضروري أن نفهم بوضوح مدى قدرات كل أداة نستخدمها. على سبيل المثال، قد يكون استخدام روبوتات الدردشة على الخطوط الأمامية مع العملاء لتقديم معلومات عن الصحة النفسية أو العلاج النفسي أمراً خطيراً، لأن الأطباء ما زالوا يحاولون معرفة كيفية توظيفها بكفاءة والظروف المواتية لذلك.

2. عالِج دواعي القلق والمخاوف

لعل أكبر مخاوفنا من الذكاء الاصطناعي هو أنه سيتسبب بخسارة الكثير من الموظفين لوظائفهم. في دراسة استقصائية أجرتها مؤسسة فيشبول مؤخراً شملت 52,000 شخص في 44 دولة ومنطقة، أعرب ما يقرب من ثلث المشاركين عن قلقهم من أن الذكاء الاصطناعي أو غيره من تطبيقات التكنولوجيا ستجعلهم عاطلين عن العمل خلال السنوات الثلاث المقبلة. غير أن الواقع المرجح هو أن الوظائف ستتغير ولن تختفي، وستحدث هذه التغييرات تدريجياً وليس مباشرة، وذلك وفقاً لتقرير المنتدى الاقتصادي العالمي حول الوظائف. بوسع القادة التخفيف من قلق موظفيهم بشأن التغييرات في وظائفهم وطبيعة عملهم عبر إجراء محادثات صريحة وصادقة حول استخدام التكنولوجيا والخطوات التي تتخذها المؤسسة لضمان توافق استخدامها مع القيم ومحورية دور الإنسان فيه. يمكنهم أيضاً تقديم ضمانات بعدم تسريح أي موظف نتيجة لاعتماد المؤسسة الذكاء الاصطناعي، وأنه سيعزز عمل الموظفين ويدعمه.

3. حافِظ على محورية دور الإنسان

قبل اعتماد الذكاء الاصطناعي، يجب على المؤسسات غير الربحية كتابة تعهد يوضح أن الذكاء الاصطناعي سيُستخدم فقط بطرق تتمحور حول دور الإنسان. ويجب أن يذكر التعهد أن الموظفين سيشرفون دائماً على التكنولوجيا ويتخذون القرارات النهائية بشأن استخدامها، وبطرق لا تؤدي إلى حدوث تحيزات أو تفاقمها. وكما قالت الرئيسة التنفيذية لمؤسسة نونبروفيت تيكنولوجي إنتربرايز نيتورك (Nonprofit Technology Enterprise Network) أو بالاختصار (NTEN)، إيمي سامبل وارد: “أعتقد أن أحد أبسط المبادئ التوجيهية وأكثرها أهمية هي أن الأدوات ينبغي ألا تتخذ القرارات، وذلك جزء أساسي من نهجنا الداخلي في مؤسستنا”. ينبغي للمؤسسات أن تولي اهتماماً خاصاً للحالات التي يتدخل فيها الذكاء الاصطناعي في التفاعل البشري، مثل جمع معلومات العملاء لتقييم حالات الصحة النفسية أو تقديم الاستشارة، حيث تكون مخاطر التأثير على سلامة الإنسان كبيرة. يتضمن ذلك التفكير خلال سير عمل الروبوتات التعاونية بما الذي سيشرف عليه الموظفون دائماً، وأين يمكن للروبوتات تعزيز هذا العمل وكيف؟

4. استخدم البيانات بطريقة آمنة

يمكن للقطاع غير الربحي، بل عليه، رفع مستوى الاستخدام الآمن والأخلاقي للبيانات. يجب على القادة الإجابة بنعم عن أسئلة مثل: هل تستخدم أداة الذكاء الاصطناعي الخاصة بنا مواد مكتوبة لمؤلفين وافقوا على إدراجها في مجموعة البيانات؟ وهل نمنح المساهمين والجهات المانحة وغيرهم من الداعمين فرص “إغفالهم” كما يوصي الاتحاد الأوروبي؟ (وهو حق قانوني يسمح للأفراد بطلب إزالة معلوماتهم الشخصية من محركات البحث وقواعد البيانات الأخرى) يخصص كتاب “المؤسسة غير الربحية الذكية” (The Smart Nonprofit)، الذي شارك اثنان منا في تأليفه، فصلاً كاملاً لكيفية بدء القادة الإجابة عن هذه الأسئلة وفهم قضايا الخصوصية المتعلقة بالأدوات المختلفة التي يفكرون في اعتمادها.

5. خفف المخاطر والتحيزات

يستخدم مجال الأمن السيبراني عملية تسمى “نمذجة التهديدات” لتصور الأخطاء التي يمكن أن تحدث عند نقل فكرة استخدام الذكاء الاصطناعي من النموذج الأولي إلى المرحلة التجريبية إلى التنفيذ الكامل. على المؤسسات غير الربحية اعتماد نهج مماثل للتخطيط القائم على المخاطر لضمان استخدام آمن وغير متحيز للذكاء الاصطناعي، ويشمل مناقشة أسوأ السيناريوهات وتحديدها. على سبيل المثال، أرادت مؤسسة بيست فريند أنيمال سوسيتي (Best Friends Animal Society) غير الربحية استخدام روبوت الدردشة لمساعدة متبنّي القطط المحتملين على اختيار القطط خلال حملة الأسبوع الأسود لتبنّي القطط . وفي مرحلة الاختبار، اكتشفت المؤسسة أن روبوت الدردشة قد يوجه إهانات عنصرية أو عبارات غير لائقة. حتى في المرحلة التجريبية الخاضعة للرقابة، كان من المستحيل تدريب الروبوت على العبارات التي يجب ألّا يقولها. بالإضافة إلى ذلك، أوصى المبرمجين بقطط مفضلة لديهم، ما شكل تحيزاً، لذلك قرر الفريق في النهاية اتباع استراتيجيات أخرى.

6. حدِّد حالات الاستخدام المناسبة

يجب أن تبدأ المؤسسات غير الربحية استخدام الذكاء الاصطناعي لحل نقاط الضعف والمشكلات التي تعوق عملها. على سبيل المثال، أدرك فريق التطوير في مؤسسة ناشيونال أكواريوم (National Aquarium) في مدينة بالتيمور بأنه يقضي وقتاً هائلاً في إجراء الأبحاث المستقبلية، لذا تحول إلى العمل على قاعدة بيانات للمانحين تعتمد على الذكاء الاصطناعي وتدمج بيانات فحص الثروات بشكل كامل من خلال المساعدة في عملية نسخ البيانات والأبحاث من مصادر مختلفة ومن ثم لصقها. قد تشمل المشكلات الأخرى الإحباط وإضاعة الوقت في البحث عن المستندات أو التعامل مع الأسئلة نفسها من الأطراف ذات الشأن. وتعتبر المهام ذات التكرار المستمر والتي تستغرق الكثير من الوقت مرشحة قوية لاستخدام الذكاء الاصطناعي فيها بهدف أتمتتها أو تحسين أدائها.

7. نفّذ مشاريع تجريبية لاستخدامات الذكاء الاصطناعي

ينبغي للمؤسسات عدم استخدام الذكاء الاصطناعي على نطاق واسع دون دراسة متأنية وتجارب خاضعة للرقابة. يجب أن يبدأ القادة باختبار نموذج أولي صغير ومحدود زمنياً، ثم يقيّمه الموظفون من حيث تأثير استخدام الذكاء الاصطناعي على وظائفهم وعلاقتهم بالمؤسسة ووقتهم. بالإضافة إلى قياس التأثير على الموظفين والأطراف المعنية الخارجية، تحتاج المؤسسات إلى التحقق بعناية من دقة النتائج وتحديد أي تحيّز قبل بدء التنفيذ. على سبيل المثال، طوّرت مؤسسة توكينغ بوينتس (Talking Points) غير الربحية تطبيقاً يستخدم الذكاء الاصطناعي لترجمة المحادثات بين المعلمين وأولياء الأمور غير الناطقين باللغة الإنجليزية، ولكنها لم تبدأ استخدامه إلا بعد إجراء اختبارات مكثفة من قبل المستخدمين للتأكد من دقة الترجمة إلى لغات مختلفة.

8. إعادة تصميم الوظائف والتعلم في مكان العمل

يوفر استخدام الذكاء الاصطناعي وقت الموظفين ويسمح لهم بتولي مهام أخرى، لذلك يجب تحديث الوصف الوظيفي للموظفين، وسيحتاج بعض الموظفين إلى التطوير المهني حتى يتمكنوا من الإشراف بفعالية على أدوات الذكاء الاصطناعي مثل تشات جي بي تي وجني الفوائد الإنتاجية. وعلى المؤسسات إنشاء دليل إرشادي يتضمن أفضل الطرق لاستخدام أدوات الذكاء الاصطناعي مثل إرشادات صياغة الأوامر. وينبغي لها أيضاً وضع قواعد أساسية، مثل عدم استخدام الموظفين نتائج الذكاء الاصطناعي إلا كمسودة أولى، والتحقق بنفسهم من صحة الاستجابات، وعدم إدخال المعلومات السرية في نماذج الذكاء الاصطناعي العامة. في مؤسسة نونبروفيت تيكنولوجي إنتربرايز نيتورك، يمكن للموظفين استخدام أي نظام تحليل أو تعلم آلة أو أي أنظمة تكنولوجيا أخرى لجمع البيانات أو المعلومات وتقديمها، ولكن يجب أن تكون خطوة تحليل واحدة فقط، ويتخذ موظفوها جميع القرارات والإجراءات. وفي النهاية، التواصل البشري ضروري لصحة أماكن العمل، لذلك يجب أن تشمل تنمية المهارات المهنية الذكاء العاطفي، والمشاركة الوجدانية، وتحليل المشكلات، والإبداع.

من المرجح أن يجد الذكاء الاصطناعي سواء التوليدي أو غير التوليدي طريقه إلى كل جانب من جوانب الحياة المؤسسية خلال السنوات القليلة المقبلة. وسوف يغير جذرياً طبيعة عمل الموظفين في المؤسسات بالإضافة إلى آلية عمل التكنولوجيا. وللاستعداد لذلك، يجب على كبار قادة المؤسسات غير الربحية البدء حالاً بإنشاء سياسات استخدام متقنة تتسم بالأخلاق والمسؤولية لضمان سيطرة المؤسسة على التكنولوجيا والحفاظ على محورية دور الإنسان فيها. لن تؤدي المشاركة المسؤولة والمدروسة إلى جني الفوائد الإنتاجية وتحسين تجربة عمل الموظفين في المؤسسات غير الربحية فحسب، بل ستساعدها على خدمة العملاء على نحو أفضل وجذب المزيد من المانحين.

يمكنكم الاطلاع على النسخة الإنجليزية من المقال من خلال الرابط، علماً أنّ المقال المنشور باللغتين محمي بحقوق الملكية الدولية. إنّ نسخ نص المقال بدون إذن مسبق يُعرض صاحبه للملاحقة القانونية دولياً.