10 طرق لتعامل الممولين مع الذكاء الاصطناعي التوليدي في وقتنا الحالي

ذكاء اصطناعي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio
كان الظن السائد حتى وقت ليس ببعيد أن الذكاء الاصطناعي التوليدي سيظهر في المستقبل البعيد. يركز حالياً معظم الممولين الذين يستثمرون في الذكاء الاصطناعي مثل مؤسسات ماكغوفرن (McGovern)، وشميدت فيوتشرز (Schmidt Futures)، وأوبن فيلانثروبي (Open Philanthropy) أولاً على فهم المخاطر المحتملة للذكاء الاصطناعي، أو دعم آثاره الإيجابية في المجتمع على المدى الطويل. وركزت مؤسسات أخرى مثل مؤسسات فورد (Ford) وماك آرثر (MacArthur) وهيوليت (Hewlett) وشبكة أوميديار (Omidyar Network) على تعزيز القدرات اللازمة للتعامل مع المخاطر والفرص التي تفرضها التكنولوجيا الحديثة، ومنها الذكاء الاصطناعي.

أصدرت شركة أوبن أيه آي (OpenAI) تشات جي بي تي 4 على نحو مفاجئ، وكان لدى القليل من الممولين الوقت الكافي للتفكير في التعامل مع المخاطر المباشرة غير المصيرية التي يفرضها الذكاء الاصطناعي التوليدي والفرص المذهلة التي يقدمها، أو كيف لهم أن يساعدوا المجموعات العاملة حالياً في مجالات التكنولوجيا ذات الصلة بالمصلحة العامة والسياسات السيبرانية والتكنولوجيا المسؤولة عن تعزيز قدرتهم على التعامل مع هذه المرحلة تعاملاً أفضل.

لقد بدأ المستقبل الآن، وفي ظل عصرنا الذي يتسم بعدم اليقين وبدء استخدام الذكاء الاصطناعي التوليدي، هناك ما لا يقل عن 10 خطوات يمكن للممولين اتخاذها لمساعدة المؤسسات غير الربحية المرتبطة بالتكنولوجيا والمجتمع على الاستعداد استعداداً أفضل. من الواضح أن الممولين الذين يعملون على قضايا محددة مثل المناخ، والصحة، والتعليم، أو في حالتي؛ الديموقراطية، يمكنهم العمل على دعم الجهود المبذولة لإعداد الحكومة والمجتمع المدني في قطاعاتهم للاستفادة من الفرص والتخفيف من المخاطر التي يفرضها الذكاء الاصطناعي في مجالات اهتمامهم. ويتضمن ذلك:

1. فهم المبادئ التوجيهية للاستخدام الحكومي للذكاء الاصطناعي ومساراته الآمنة وتطويرها

أصبحت الآن آثار التمييز للذكاء الاصطناعي التنبؤي في قرارات إصدار الأحكام بالسجن واضحة جداً، كما يستخدم القضاة والمحامون حالياً الذكاء الاصطناعي التوليدي لكتابة الآراء القانونية. لكن من المثير للدهشة أن الحكومات لا تستخدم الذكاء الاصطناعي خارج نظام العدالة إلا ما ندر، ولا يكاد يكون هناك أي مسارات آمنة لاستخدامه. وثّقت دراسة صدرت عام 2020 من باحثين في كلية الحقوق بجامعة ستانفورد وكلية الحقوق بجامعة نيويورك أن ما يقرب من نصف الهيئات الفيدرالية الـ 142 التي شملتها الدراسة قد جربت بالفعل تطبيقات الذكاء الاصطناعي، مثل اتخاذ قرارات مِنح الإعاقة والتواصل مع الجمهور.

من الضروري مساعدة قادة الهيئات الحكومية على تحديد أفضل ممارسات استخدام الذكاء الاصطناعي لثلاثة أسباب على الأقل، وهي التزام الحكومة القانوني بحماية الحقوق المدنية للمواطنين، والتأثير الواسع النطاق لتبنّيها هذه التكنولوجيا، وأن الحكومة ستكون العميل المهيمن في هذا المجال، وستكون لمعايير الشراء التي تحددها الحكومة آثار جانبية كبيرة، وبالفعل قدمت السلطة التنفيذية الكثير. في عام 2020، طلب الأمر التنفيذي رقم 13960 من جميع الهيئات الفيدرالية المدنية تصنيف استخداماتها غير السرية للذكاء الاصطناعي (على الرغم من أن النتائج كانت مخيبة للآمال، ولم يُعرف سوى القليل عن الحقائق الأساسية مثل إذا ما كان مقاولون خارجيون قد طوروا نماذج الذكاء الاصطناعي، حيث طُوِّرت نحو 33% من أنظمة الذكاء الاصطناعي الحكومية بهذه الطريقة أو عبر الهيئات نفسها).

بالنسبة إلى الممولين، من الضروري أن يفهموا كيفية استخدام الحكومة للذكاء الاصطناعي في قضاياهم، وكذلك المبادئ التوجيهية الدقيقة والممارسات المُثلى التي أُعطيت للكونغرس والمحاكم والهيئات الحكومية ذات العلاقة لكيفية توظيف التكنولوجيا الجديدة ومتى حدث ذلك. في شهر سبتمبر/أيلول من هذا العام، اتخذ حاكم ولاية كاليفورنيا خطوات مماثلة لتوثيق استخدام الذكاء الاصطناعي وتحسين استخدامه وإزالة المخاطر المتعلقة به في ولاية كاليفورنيا. ويقدم إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا “نست” the National Institute of Standards and Technology (NIST)) بداية جيدة، ولكنه بحكم تصميمه “غير مخصص لقطاع بعينه” وسيتعين تخصيصه بدرجة كبيرة ليناسب الجهات المختلفة.

وفي الوقت نفسه، كُلّف مكتب الإدارة والميزانية بإصدار مسودة إرشادات للهيئات الفيدرالية لتطوير أنظمة الذكاء الاصطناعي وشرائها واستخدامها. كان من المقرر أن تصدر المسودة الصيف الماضي، ولكنها تأخرت عدة أشهر حتى الآن. بمجرد طرح المسودة على الجمهور للتعليق والاقتراح، (إلى جانب الأمر التنفيذي المنتظر والإطار الوطني الاستراتيجي في وقت لاحق من هذا الخريف) على مجموعات عمل المجتمع المدني امتلاك قدرات كبيرة في مجال الذكاء الاصطناعي في حال أرادت تقديم إسهامات هادفة

2. تعزيز قدرة الحكومة (والمجتمع المدني) على استخدام الذكاء الاصطناعي

لا يكفي توافر المعرفة والمسارات الآمنة الملائمة، إذ يحتاج القادة الحكوميون إلى تطوير قدرتهم على توظيف هذه التكنولوجيا بفعالية، ولا سيما على المستويين الإقليمي والمحلي. ودون ذلك، ستتخلف الحكومة والمجتمع المدني بدرجة كبيرة عن القطاع الخاص في قدرتهما على تقديم الخدمات إلى المواطنين، وفي حماية المجتمعات الأضعف التي قد تتضرر من هذه التكنولوجيا. ثمة مجموعات عمل مثل كلايميت تشينج أيه آي (Climate Change AI) تستكشف استخدامات الذكاء الاصطناعي لتقديم المعلومات اللازمة لاتخاذ القرارات المتعلقة بتصميم الطرق وشبكات الطاقة وأنابيب المياه التي ينبغي أن تُصمم لمقاومة الظروف المناخية الشديدة القسوة المتزايدة. كما تتطلع مجموعة كلايميت تشينج أيه آي إلى استخدام الذكاء الاصطناعي لتحديد المناطق المعرضة للخطر، وتقديم التنبؤات المحلية، ودمج البيانات التاريخية أو المناخية البديلة لتحديد البنية التحتية المطلوبة.

قد تستخدم الحكومات والمؤسسات غير الربحية هذه التكنولوجيا قريباً لتقييم سياساتها وآثارها المحتملة. يدعو الأمر التنفيذي الجديد الذي أصدره حاكم ولاية كاليفورنيا غافن نيوسوم إلى تصميم مواد تدريبية حكومية حول الذكاء الاصطناعي. تحتاج الحكومات والمؤسسات غير الربحية إلى تدريب سريع لمواكبة هذه التطورات، والتخفيف من التمييز المحتمل في استخدامات هذه التكنولوجيا. إذ يستهدف معظم الدورات الأساسية ومراكز التدريب ووحدات التدريب المشتركة التي أُنشئت حتى الآن القطاع الخاص. تدرِّب مؤسسة الشراكة للخدمات العامة (the Partnership for Public Service) الآن القادة في الهيئات الفيدرالية، في حين يدرّب معهد ستانفورد للذكاء الاصطناعي المركّز على الإنسان (HAI) موظفي الكونغرس على قضايا سياسات الذكاء الاصطناعي من خلال دورته التدريبية الصيفية السنوية ويعمل على تطوير عمل جديد يركز على المجتمع المدني.

تحتاج الحكومة إلى مزيد من المساعدة لمواكبة التطورات. ويجب على مجموعات عمل المجتمع المدني أن تكون على الأقل مجهزة على نحو أفضل للاستجابة، كما ستحتاج في بعض الحالات إلى القدرة على استخدام هذه الأدوات بنفسها (عندما تتماشى بدرجة جيدة مع رسالتها ولا تشتت انتباهها عنها).

يمكن تركيز العمل المذكور أعلاه بسهولة على أي مجال من القضايا الأساسية للممولين؛ على سبيل المثال، على فهم كيفية استخدام وكالة حماية البيئة الأميركية للذكاء الاصطناعي وما المسارات الآمنة لاستخدامه، أو على تدريب الجهات الفاعلة الحكومية والمجتمع المدني العاملة في مجال سياسة الإسكان لتحسين فهمهم لهذه التكنولوجيا. نظراً لتنظيم قطاع العمل الخيري بحسب مجالات تخصصية مختلفة، مثل الصحة والتعليم والبيئة، فبمجرد بدء تأثير التكنولوجيا الجديدة على المجال الذي يختاره الممول، يصبح من الأسهل عليه حل المشكلات في مراحلها النهائية.

تسهم الجهود التي تركز فقط على أحد المجالات في وضع الممولين في موقف يُمكّنهم من حل مشكلات المراحل النهائية عاماً بعد عام على مدى المستقبل المنظور. لا يرقى تنظيم القطاع لمعالجة القضايا الشاملة مثل الصحافة والديمقراطية والتكنولوجيا، لكن الذكاء الاصطناعي التوليدي أداة أساسية، حاله كحال الإنترنت نفسه. إذ تتضمنه الآلاف من أدوات تطبيقات الإنترنت. لهذا السبب، ثمة حاجة إلى التدخل في مراحل مبكرة لمعالجة تحديات الذكاء الاصطناعي التي تؤثر في مجالات القطاع جميعها. ويتعين اتخاذ العديد من الإجراءات الأساسية الضرورية لمعالجة منشأ المشكلات، مع العلم أنها لن تكون كافية وحدها. لهذه الجهود تأثير قوي يؤدي إلى تحسين تأثير هذه التكنولوجيا على مجالات القطاع جميعها.

3. الشفافية والوصول إلى البيانات

أولاً، المتطلب الأساسي الأهم هو وجود رؤية واضحة لدى الحكومات والمجتمع المدني حول طرق استخدام أدوات الذكاء الاصطناعي. ويشمل ذلك معرفة درجة التحيز، والقدرة على الشرح، وقابلية التفسير للمعطيات والنتائج؛ ودرجة “توافق” هذه النتائج مع مصالح المستخدم (والمجتمع) وتحمل المسؤولية عنها؛ ودرجة “الهلوسة” وغيرها. كما أن الوصول إلى البيانات متطلب ضروري ولكنه ليس كافياً لأي جهود تهدف إلى فهم التأثيرات، وتحميل الشركات المسؤولية، وتقديم التعويض للمتضررين من الأفراد والمجتمعات. لكن في الوقت الحالي، وبسبب المخاوف الكبيرة المتعلقة بالخصوصية، اعتمدت شركات مثل أوبن أيه آي سياسة حذف بيانات الاستخدام بعد ثلاثة أشهر. وسيجعل ذلك من المستحيل تقريباً على الحكومات أو الأكاديميين أو المجتمع المدني فهم طرق استخدام هذه الأدوات وتأثيراتها بمرور الوقت.

ثمة حاجة إلى العمل على تحديد التوازن الصحيح بين حماية الخصوصية وضمان الشفافية، وتحديد أنواع الشفافية المطلوبة بدقة فيما يتعلق بالقيم المعدّلة وبيانات التدريب، وقابلية الشرح وتفسير النتائج، وغيرها. وثمة حاجة إلى أطر شفافية واضحة لضمان إتاحة المعلومات الصحيحة، مثلما ساعد مركز السياسات السيبرانية في جامعة ستانفورد (Stanford’s Cyber Policy Center)، حيث عملت سابقاً، على تطوير وسائل التواصل الاجتماعي.

ومن شأن هذه الشفافية أن تمكّن من تطوير بطاقات قياس الأداء وأدوات مقارنة أخرى لإعطاء معلومات تساعد الحكومة والمستخدمين على اتخاذ القرارات بشأن منتجات الذكاء الاصطناعي التي يجب استخدامها. ومع ذلك، فإن تطوير البنية التحتية التقنية لتمكين الشفافية عبر مختلف المنصات على نطاق واسع ليس بالأمر الهين. ثمة مجموعات عمل مثل أوبن ماينديد (OpenMined) تجري تجارب في هذا المجال، ولكن يجب أن يتوافر الضغط العام أو قوانين تنظيمية لكي تشارك الشركات البيانات.

4. الدعوة إلى تمويل البحوث

بالنظر إلى مجال المعلومات المضللة، فقد استثمرت المؤسسات الخيرية أكثر من 100 مليون دولار لتأسيس مراكز بحث مخصصة لفهم أضرارها، والحلول المحتملة (بدرجة أقل). إذ استثمرت الهيئات الحكومية في الولايات المتحدة ما يزيد على 100 مليون دولار، مثل مؤسسة العلوم الوطنية (NSF)، ومركز المشاركة العالمية (Global Engagement Center)، وهيئات أخرى.

فيما يتعلق بالذكاء الاصطناعي، أعلنت مؤسسة العلوم الوطنية في العام الماضي عن إدارة التكنولوجيا والابتكار والشراكات (TIP) التابعة لها (أول إدارة جديدة لها منذ 30 عاماً) ومع ذلك، يبدو أن الأبحاث التي ستدعمها تمنح الأولوية لتطبيقات الذكاء الاصطناعي ذات الفائدة التجارية (وليست الاجتماعية).

في شهر مايو/أيار، أعلنت مؤسسة العلوم الوطنية عن خطط لاستثمار ما يقرب من 500 مليون دولار في شبكة معاهد أبحاث الذكاء الاصطناعي التابعة لها، لتصل إلى كل ولاية أميركية تقريباً. ومع ذلك، يبدو التركيز الأكبر على الاستفادة من الفرص وليس تخفيف المخاطر. يجب تمويل البحوث حول المخاطر في مجال الذكاء الاصطناعي أيضاً، وهناك دور كبير لقطاع العمل الخيري في الدعوة إلى تمويل هذه البحوث ليس عن طريق العمل الخيري، بل عن طريق مختبرات الذكاء الاصطناعي نفسها. على سبيل المثال، من شأن إنشاء صندوق بحوث مشترك تسهم فيه مختبرات الذكاء الاصطناعي بنسبة 1% من أرباحها السنوية أن يساعد على فهم تأثير الذكاء الاصطناعي على المجتمع فهماً أفضل، بحيث تدير الصندوق جهة مستقلة، وتشرف عليه مجموعة من قادة المجتمع المدني، ولا يسمح للمختبرات باختيار العلماء أو مواضيع البحوث.

5. مؤسسات تعاونية رسمية

كان هناك العديد من الدعوات مؤخراً لتشكيل منتدى لأصحاب المصلحة المتعددين مثل كرايست تشيرتش أون ألغوريذم آوتكمز (Christchurch Call on Algorithmic Outcomes) المشابه لمنتدى كرايست تشيرتش الأصلي، أو منتدى مشابه لمنتدى الإنترنت العالمي لمكافحة الإرهاب (GIFCT) الذي يكافح المحتوى الإرهابي عبر الإنترنت. ومن شأن هذا المنتدى أن يمكّن مختبرات الذكاء الاصطناعي من التعاون مع مثيلاتها من المختبرات عند اكتشاف نقاط ضعف جديدة أو عند تطوير ممارسات حماية جديدة أفضل، ومع منصات وسائل التواصل الاجتماعي التي توزع المحتوى الناتج من مختبرات الذكاء الاصطناعي، ومع قادة المجتمع المدني الذين يلاحظون الأضرار التي تلحق بالمجتمعات، ومع الحكومات التي تعمل على تمثيل المصالح العامة.

ويعمل ائتلاف بارتنرشيب أون أيه آي (Partnership on AI)، الذي تأسس عام 2016 ويضم الآن ما يقرب من 100 شريك، على تأمين الابتكارات في مجال السياسات والتغييرات في الممارسات العامة. أعلنت شركة أوبن أيه آي مؤخراً عن منتدى فرونتير موديل فوروم (Frontier Model Forum) جديد، يهدف إلى إنشاء “هيئة جديدة خاصة بالقطاع لتعزيز التطوير الآمن والمسؤول لأنظمة الذكاء الاصطناعي المتقدمة، وتطوير أبحاث آمنة في الذكاء الاصطناعي، وتحديد أفضل الممارسات والمعايير، وتسهيل تبادل المعلومات بين صناع السياسات والأطراف الأخرى في القطاع”. ولكن ما يزال هناك الكثير من العمل لتحديد الأدوار الخاصة بهذه الهيئات المختلفة، وضمان المشاركة الهادفة من جانب المجتمع المدني في المنتديات التي يقودها القطاع ويموّلها بكثافة.

6. تزويد المعلومات الضرورية لأفضل الممارسات وقواعد السلوك في قطاع العمل الاجتماعي

ثمة ممارسات مُثلى تخص كل قطاع، ولدى العديد منها قواعد سلوك للعمل الاجتماعي، ويعد نظام تصنيف العمل الاجتماعي التابع لجمعية صناعة السينما مثالاً رئيسياً على ذلك. نظراً للتحديات التي تواجه إقرار التشريعات في الولايات المتحدة، وعدم إمكانية التطبيق المباشر لبعض بنود قانون الذكاء الاصطناعي للاتحاد الأوروبي في سياق الولايات المتحدة، فإن قواعد الممارسة أو معايير القطاع توفر مساراً ضرورياً للتأثير (وإن كان أقل تحويلاً). يعد ميثاق حقوق الذكاء الاصطناعي (AI BoR) الصادر عن مكتب سياسات العلوم والتكنولوجيا (OSTP) خطوة في الاتجاه الصحيح، على الرغم من أنه على مستوى عالٍ نسبياً.

يُجري عدد متنامٍ من مجموعات العمل تجارب لتطبيق عدة أفكار مثل مجالس المواطنين التي تُمكن من الحصول على آراء الجمهور على نحو منهجي في تصميم منصات التكنولوجيا وإدارتها. كما أن ائتلاف بارتنرشيب أون أيه آي ملتزم إلى حد كبير بالشراكة مع القطاع والمجتمع المدني لتطوير أطر التنظيم الذاتي. وتستكشف مؤسسات أخرى، مثل مؤسسة كوليكتف إنتلجنس بروجكت ( Collective Intelligence Project)، العمل حول “الذكاء الاصطناعي الدستوري”، وهو نهج تطوعي للشركات لتدريب أنظمة الذكاء الاصطناعي الخاصة بها “باستخدام مجموعة من القواعد أو المبادئ التي تعمل بمثابة “دستور” لنظام الذكاء الاصطناعي”. وسيكون إسهام المجتمع المدني المستمر أمراً أساسياً.

7. الدعوة إلى نماذج جديدة للذكاء الاصطناعي لتحقيق المصلحة العامة

تهيمن الشركات الخاصة التي تهدف إلى الربح على مجال الذكاء الاصطناعي حالياً. تستحق النماذج المالية المختلفة لتمويل تطوير نماذج الذكاء الاصطناعي النظر فيها. يجب أن يتوافر خيار حكومي مخصص لخدمة المصلحة العامة بدلاً من التسليم بقيادة الشركات الخاصة.

تطوير نماذج الذكاء الاصطناعي مكلف جداً ويتطلب موارد حاسوبية ضخمة. في أواخر يوليو/تموز، قدّم الحزبان الجمهوري والديموقراطي مشروع قانون لإنشاء الموارد الوطنية لأبحاث الذكاء الاصطناعي (NAIRR). ومن شأن القانون أن يمنح الباحثين من الجامعات والمؤسسات غير الربحية والحكومة إمكانية الوصول إلى “الأدوات الفعالة اللازمة لتطوير أنظمة ذكاء اصطناعي متطورة وآمنة وأخلاقية وشفافة وشاملة”. من الضروري الحصول على دعم شعبي كبير من أجل إقرار هذا القانون.

8. تعزيز قدرات الحكومة والمجتمع المدني لإدارة الذكاء الاصطناعي

تواجه عدة حكومات في مختلف أنحاء العالم الصعوبات لمواكبة وتيرة التغيير التكنولوجي الحاصل اليوم، وتخفق في كثير من الأحيان في تقدير الآثار الخارجية المرتبطة بها والتخفيف من حدتها، فتحدث أضرار كبيرة. إليك 3 طرق (على الأقل) لمساعدة الحكومات على مواكبة القطاع الخاص على نحو أفضل.

  • دعم عمليات التدقيق وتقييم التأثير. من المفترض أن تُجري جميع شركات الذكاء الاصطناعي مستوى معيناً من التدقيق لضمان سلامة نماذجها وموثوقيتها، ولكن من المحتمل ألا تهتم بالمخاطر الاجتماعية والسياسية التي قد تفرضها هذه التكنولوجيا. كما يجب إجراء تقييمات التأثير عبر طرف خارجي مثل أصحاب المصالح في المجتمع المدني، لإلقاء الضوء على الأضرار الاجتماعية أو البيئية الإضافية التي قد لا تعطيها الشركات الأولوية من تلقاء نفسها. لكن مجال الخبرة في الذكاء الاصطناعي محدود جداً في يومنا هذا، فعدد قليل جداً من الخبراء يعرفون كيف تُصمم متطلبات عمليات التدقيق والتقييم هذه، وعدد أقل بوسعهم إدارتها على نطاق واسع. ولهذا السبب، ثمة حاجة إلى دعم وضع المعايير، وكذلك التدريب على تحسين مهارات المهندسين، ما يمكّن الذين يتمتعون بالكفاءة الفنية من تطوير المهارات اللازمة لتدقيق هذه التكنولوجيا الجديدة بسرعة أكبر.
  • تحسين القدرة الاستشاريةثمة حاجة في المدى المنظور إلى فريق متخصص من خبراء الذكاء الاصطناعي يمكن للحكومات والمؤسسات غير الحكومية في جميع أنحاء العالم التشاور معه عند وضع القوانين التنظيمية. إلا أن الطلب على خبراء الذكاء الاصطناعي مرتفع جداً لدرجة أن الحكومات ومجموعات عمل المجتمع المدني لن تكون قادرة على توظيف موظفين دون مساعدة. ومن الممكن معالجة هذه الفجوة عبر المبادرات مثل المبادرة التعاونية للقادة في مجال التكنولوجيا العامة التابعة لمؤسسة داتا آند سوسيتي (Data & Society)، وهي تجمّع للتعلم المتبادل بين العلماء والباحثين وقادة الحكومة. كما يمكن بناء قدرات استشارية إضافية عبر مجموعات عمل مثل زمالة تيك كونغرس (Tech Congress) أو مؤسسة ذي إنتغريتي إنستيتيوت (the Integrity Institute)، على سبيل المثال، لتوظيف مجموعة من خبراء الذكاء الاصطناعي وتقديم 10% من وقتهم للمؤسسات غير الربحية والحكومات في جميع أنحاء العالم التي تسعى إلى الحصول على المشورة بشأن صياغة التشريعات أو تحتاج إلى اختبار قوة مواقفها القانونية.
  • تحسين البنية التحتية التعليميةعلى المدى الطويل، ستحتاج المؤسسات الأكاديمية في جميع أنحاء البلاد والعالم إلى تطوير مناهجها التعليمية لإنشاء دورات مخصصة وبرامج دراسات عليا جديدة. وقد بدأ معهد ماساتشوستس للتكنولوجيا، ومركز السياسات السيبرانية في جامعة ستانفورد، ومركز بيركمان كلاين (Berkman Klein) في جامعة هارفارد، ومركز الأمن والتكنولوجيا الناشئة في جامعة جورج تاون، وجهات أخرى في سد هذه الفجوة. من خلال شبكة جامعات تكنولوجيا المصلحة العامة (Public Interest Technology University Network) التابعة لمؤسسة نيو أميركا (New America)، التزمت 64 مؤسسة للتعليم العالي في جميع أنحاء الولايات المتحدة (والعدد في ازدياد) بضمان تهيئة خبراء التكنولوجيا الناشئة بكافة أنواعها لفهم التعقيد التقني الاجتماعي لعملها، ولكنها بحاجة إلى المزيد من الدعم.

9. وضع نظرية قانونية جديدة

يجب بذل جهود جبارة لتعديل النظريات القانونية الحالية لتصبح قابلة للتطبيق على الأضرار الاجتماعية التي تشكلها التكنولوجيا الحديثة. على سبيل المثال، تؤكد غالبية النظريات القانونية في الولايات المتحدة الضرر الفردي، في حين أن العديد من الأضرار المرتبطة بالتكنولوجيا الحديثة تشتمل على أضرار جماعية، مثل اتخاذ الخوارزميات لقرارات متحيزة تؤثر في فئات كاملة من الناس، أو انتهاكات الخصوصية المرتبطة بجمع البيانات واستخدامها. وبالمثل، تواجه الجهات المسؤولة عن حقوق الطبع والنشر والملكية الفكرية الصعوبات لمواكبة الطرق التي يعيد بها الذكاء الاصطناعي استخدام المواد الإبداعية. فقوانين مكافحة الاحتكار في الولايات المتحدة عفاها الزمن، إذ لا تركز على الأضرار التي قد تلحق بالمستهلك بل على حماية الأسعار (التي ثبت صعوبة تطبيقها في سياق وسائل التواصل الاجتماعي، حيث المنصات مجانية غالباً).

قد يكون تطبيق مكافحة الاحتكار تحدياً في حالة الذكاء الاصطناعي، وذلك في حال قررت مختبرات الذكاء الاصطناعي الانتقال من نموذج الاشتراك المدفوع إلى نموذج مجاني يعتمد على الإعلانات. وبالمثل، وُضعت قوانين حرية التعبير قبل ظهور الإنترنت بزمن طويل، واستندت إلى بيئة تتعلق بقدرة الأفراد على التحدث وليس بقدرتهم على الاستماع أو إيصال صوتهم أو فهم الحقيقة. تحتاج كليات الحقوق إلى مزيد من التمويل لمواكبة تلك التطورات. وسوف نحتاج إلى المزيد من المساعدات القانونية والقدرات لدعم الذين عانوا بسبب الأضرار المرتبطة بالذكاء الاصطناعي.

10. دعم تغيير السردية

 المشكلة الأهم هي كيف ننظر بصفتنا أفراد مجتمع إلى دور التكنولوجيا في حياتنا. كيف نسرد قصة الذكاء الاصطناعي التوليدي؟ منذ وقت ليس ببعيد، كان من المتوقع أن تتولى الروبوتات رعاية 80% من المسنين في اليابان، واستثمرت الحكومة اليابانية ما يزيد على 300 مليون دولار في هذا المجال. وألقى إضراب الممثلين والكتّاب في الولايات المتحدة هذا العام الضوء على الدور الذي نريد أن يؤديه البشر في مستقبل الإبداع والفن.

يطرح صعود الذكاء الاصطناعي العديد من الأسئلة المهمة مثل، ما جوانب التجربة الإنسانية التي نحن على استعداد لأتمتتها؟ ما الخطوط التي ينبغي عدم تجاوزها؟ ما مدى الاحتكار المسموح به في سوق تكون تأثيرات الشبكة فيه حقيقية؟ هل من المسموح للقطاع الخاص أن يهيمن على تكنولوجيا واسعة الانتشار مثل الذكاء الاصطناعي، أم يجب أن يتوافر خيار حكومي يخدم المصلحة العامة؟ وما دور حماية خصوصية البيانات؟ كلها أسئلة معقدة.

عند تقديم تكنولوجيا جديدة، يتعامل معها الكثير في جميع أنحاء العالم ببساطة، وليس على طريقة الاتحاد الأوروبي الذي يتبنى نهجاً استباقياً في تحديد حدود تلك التكنولوجيا والفوائد العامة التي يجب أن تقدمها. الإجابة عن هذه الأسئلة ضرورية نظراً للمخاطر المرتبطة بأدوات الذكاء الاصطناعي العامة التي أُصدرت قبل الانتخابات الرئاسية الأميركية في مرحلة تاريخية ضعفت فيها الثقة، وتترنح الديموقراطيات في جميع أنحاء العالم، ويتنامى الانقسام والعنف السياسي في الولايات المتحدة. ويُعَد ميثاق حقوق الذكاء الاصطناعي في الولايات المتحدة بداية جيدة، فهو ينتقل من الترقيع إلى تأكيد مجموعة إيجابية من الحقوق التي تحمي الناس جميعها من مخاطر الذكاء الاصطناعي التوليدي.

تفكر مجموعات عمل مثل مؤسسة أيه آي ناو (AI Now) بالطريقة نفسها فيما يتعلق بالسردية. تتعامل الولايات المتحدة مع التكنولوجيا القادمة من الخارج مثل تيك توك بفعالية أكثر. واجهت الولايات المتحدة صعوبة كبيرة في حماية شعبها من أضرار التكنولوجيا مقارنة بنظرائها الأوروبيين، سواء بسبب ضعف الضغط الشعبي، أو لأن هذه التكنولوجيا أميركية، أو لأنها محركات لنمو أميركا الاقتصادي وقوتها العالمية، أو لأن عمالقة التكنولوجيا أصبحت الآن من بين أكبر جماعات الضغط في الكونغرس (إذ تعتبر فيسبوك وأمازون الآن أكبر شركتين منفقتين على جماعات الضغط في الولايات المتحدة، متفوقتين على جماعات ضغط قطاعي النفط والتبغ). يُعد تطور الرأي العام الأميركي ضرورة أساسية، سواء لتوجيه خياراتنا الفردية، أو باعتباره مقدمة ضرورية، وإن لم تكن كافية، لأي تنظيم حقيقي من جانب حكومة الولايات المتحدة.

يجب إنجاز الكثير من العمل في حال أردنا تحقيق أقصى الفوائد وأقل الأضرار من الذكاء الاصطناعي، مثل وضع نظريات قانونية وبرامج أكاديمية ومعايير شفافية وتفسيرية جديدة وغيرها. والأهم من ذلك، نحتاج إلى رؤية وسردية واضحتين لمساعدة الأميركيين على تحديد نوع الاقتصاد والمجتمع اللذين يريدون الانتقال إليهما وفهم كل منهما جيداً. لدينا القدرة على الابتكار لإنشاء ذكاء اصطناعي توليدي. ولدينا أيضاً القدرة على حوكمته بطرق تدعم المصلحة العامة، وحقوق الإنسان، والديموقراطية.

يمكنكم الاطلاع على النسخة الإنجليزية من المقال من خلال الرابط، علماً أنّ المقال المنشور باللغتين محمي بحقوق الملكية الدولية. إنّ نسخ نص المقال من دون إذن مسبق يُعرض صاحبه للملاحقة القانونية دولياً.