على الرغم من أن الكلام ملَكة بشرية فريدة ذات خصوصية، تقتحم برمجيات المساعد الشخصي الرقمي وروبوتات الدردشة وترجمة اللغات وتحويل النص إلى كلام والكلام إلى نص، كل جانب من جوانب حياتنا على نحو متزايد. وغالباً ما يتم تطوير هذه التكنولوجيا بطريقة متحيزة بحيث لا تمثل طرق نطق الكلام المتنوعة واستخدامات اللغة واللهجات الأكثر انتشاراً. في هذا المقتطف من كتاب "آلة المساواة"، أرسم مسار التقدم في عملية إنتاج الكلام الرقمي بحيث يكون أكثر شمولاً. يعد النشاط الاجتماعي وحرية الاختيار للمستهلك والتعهيد الجماعي، والمشاريع المفتوحة المصدر ركائز أساسية لإنشاء منصة رقمية تمثل مستخدميها. حيث يمكن لعملية جمع عيّنات الأصوات عبر التعهيد الجماعي من جميع أنحاء العالم تصحيح واقع أن معظم تكنولوجيا التعرف إلى الصوت تم تطويرها حصرياً لتناسب متحدثي اللغة الإنجليزية بينما تم إهمال اللغات التي تتحدثها الشعوب الأفقر أو الأقل تعداداً. ويتطلب صنع تكنولوجيا الكلام التي "تشبهني" بغض النظر عن المكان الذي أعيش فيه منحاً عامة وجهوداً جماعية لجمع البيانات الصوتية من مصادر كثيرة.
وبالمثل، يمكن لبرمجيات الترجمة الرقمية من الجيل التالي تصحيح الطريقة التي دائماً ما تُكرر فيها ترجمة الذكاء الاصطناعي التحيّز ضد المرأة الموجود سلفاً في طرق التواصل التي صنعها الإنسان. وتميل منصات الترجمة إلى تحويل الكلمات المحايدة إلى أشكالها الذكورية وذلك لأن برمجيات الترجمة تعتمد في عملها على كميات هائلة من النصوص الرقمية التاريخية والقليل من النصوص المعاصرة. فالجملة التي تصف سياسياً أو مسؤولاً تنفيذياً ستتحول بشكل افتراضي إلى صيغة المذكر في الترجمة. لكن خيارات الإعدادات المسبّقة من قبل مطوري البرمجيات يمكن أن توجه برمجيات الترجمة لتقديم ترجمات ذكورية وأنثوية أو بحسب السياق لمعرقة النوع الصحيح للكلمة.
وبهذا الخصوص، نتساءل كمستهلكين ومطوري برمجيات عن سبب تخصيص الأصوات الأنثوية على نحو تلقائي للمساعدين الرقميين على غرار سيري (Siri) وأليكسا (Alexa). يبدو المسار واعداً كما سنرى لاحقاً في هذا المقال، حيث يتيح المزيد من الشركات للعملاء الاختيار بين الأصوات الأنثوية أو الذكورية في برمجيات المساعد الرقمي.
وفي حال بدا هذا الخيار الثنائي قديماً، فإن الابتكار والنشاط الاجتماعي يدفعنا خطوة إلى الأمام من خلال تطوير أصوات رقمية محايدة، حيث يقودنا ذلك معاً إلى رؤية أوسع آفاقاً. وعلى الرغم من القيود والتحيّز المسبقين في تكنولوجيا الصوت، من الممكن صنع آلة للمساواة عبر الجهود الاجتماعية الواعية والمدروسة.
لا تتحدث إلينا أليكسا وسيري وروبوتات الدردشة الأخرى التي تتفاعل صوتياً فحسب بل تستمع إلينا أيضاً. لكنها كما تبين، لا تستمع دائماً إلى الجميع على نحو مماثل. حيث توضح تكنولوجيا التعرف إلى الصوت كيف أدت بيانات التدريب المتحيزة إلى جعل الآلات تتعلم المزيد عن أنماط كلام الرجال البيض والقليل عن أنماط كلام النساء وذوي البشرة الملونة. فعلى سبيل المثال، تعد ميزة التعرف على الكلام من جوجل أكثر دقة للرجال بنسبة 13% مقارنة بالنساء. كما أظهر اختبار لمجموعة متنوعة من تكنولوجيا الكلام أن احتمال فهم برمجيات المساعد الرقمي للمستخدمين الذكور أكبر من احتمال فهمها للمستخدمين الإناث. وفي حال كان المستخدم امرأة من ذوي البشرة الملونة سينخفض معدل دقة الفهم أكثر. وفي أحد الدراسات التي اختبرت التعرف إلى الكلام بلهجات مختلفة، كان معدل دقة اللغة الإنجليزية باللهجة الهندية 78% فقط، وكان التعرف على اللغة الإنجليزية باللهجة الإسكتلندية دقيقاً بنسبة 53% فقط. ومن القصص الفريدة في هذا الصدد، قصة امرأة إيرلندية فشلت في اختبار إجادة التحدث باللغة الإنجليزية المُجرى آلياً في أثناء محاولتها الهجرة إلى أستراليا. حيث استخدمت الشركة التي أجرت الاختبار تكنولوجيا التعرف إلى الصوت المبرمجة لتحديد الإجابات المقبولة وغير المقبولة للأسئلة؛ وعلى الرغم من أنها كانت متحدثة أصلية للغة الإنجليزية على درجة عالية من التعليم، فقد اعتبرت الخوارزمية إجاباتها غير مقبولة.
وفي المقابل، يمكن أن تكون تلك الدقة المطلوبة من قبل تكنولوجيا التعرف إلى الصوت مفيدة للذين يحاولون تحسين وضوح الكلام لديهم. على سبيل المثال، يتلعثم غاس نجل جوديث نيومان في الكلام، ولكن إذا أراد الحصول على الرد الصحيح من سيري فعليه أن يتحدث بوضوح. بالنسبة إلى نيومان كأم لطفل يعاني تحديات في النمو، فإن طلب سيري للنطق الدقيق كان نعمة وليس نقمة. وعلى الرغم من ذلك، لا شك في أن نسبة الفهم العالية للذكور الناطقين باللغة الإنجليزية مردها إلى تأثير "الخمسة الكبار" فمعظم منصات التعرف على الصوت من إنتاج مَن ما يسمى بالخمسة الكبار (أمازون وآبل وفيسبوك وجوجل ومايكروسوفت)، التي تطغى نسبة الذكور البيض بين موظفيها وقادتها. من السهل نسبياً إصلاح هذا النوع من الخلل في التعرف إلى الكلام. حيث يتضمن الإصلاح زيادة نطاق البيانات التي نقدمها لهذه التكنولوجيا وتنوعها. إذ يؤدي تغذية الخوارزميات بتسجيلات مسموعة ومرئية تحمل تنوعاً أكبر من الأصوات إلى تحسين قدرة تلك الخوارزميات على تفسير نطاق أوسع من أنماط الكلام. وكلما ازداد التنوع في المدخلات ازداد في النتائج.
في عام 2020، أطلقت بي بي سي مساعداً صوتياً يسمى بيب (Beeb) حيث تم تدريبه على فهم مجموعة أوسع بكثير من اللهجات مقارنة بالذكاء الاصطناعي الذي تم إنشاؤه من قبل الخمسة الكبار. وقبل ذلك بدأت مؤسسة موزيلا (Mozilla) مشروعاً لتسريع جمع اللغات من جميع أنحاء العالم لأغراض الذكاء الاصطناعي، مع التركيز على تضمين المزيد من اللهجات واللغات وزيادة الدقة بغض النظر عن النوع أو السن. حيث أنشأت موزيلا مجموعة بيانات كمون فويس (Common Voice) كجزء من هذا المشروع، والتي سجلت بحلول عام 2021 أكثر من 9,000 ساعة من البيانات الصوتية بستين لغة. وكما هو الحال في ويكيبيديا، يعتمد المشروع على التعهيد الجماعي ويعد مفتوح المصدر. ويستطيع الجميع استخدام البرنامج دون قيود ويمكن للمسهمين في جميع أنحاء العالم إضافة أصواتهم، ما يُمكّن مجموعة البيانات المفتوحة المصدر من النمو عبر الجهد الجماعي. وقد أسهمت بصوتي وقرأت خمس جمل على الموقع، أولها "سيلعب نادي شاختر كاراغاندي أيضاً في كأس كازاخستان ودوري المؤتمر الأوربي". ومجموعة البيانات بدورها متاحة مجاناً لأي شخص يعمل على تطوير تكنولوجيا التي تدعم الصوت. ويُدعى المسهمون بأصواتهم إلى تقديم معلومات للنظام حول نوعهم وسنهم ولكنتهم لمساعدة الآلة في التعرف إلى الكلام السائد في مختلف البلدان والمناطق. وأسهم الكثير من الناس في جميع أنحاء العالم بعيّنات من كلامهم. وهي عملية سهلة، فكر في المشاركة فيها. وتتنوع اللغات المقدمة مثل الأمازيغية القبايلية والكينيارواندية والفوتية والإسبرانتو.
وبالشراكة مع وزارة التعاون الاقتصادي والتنمية الألمانية، كثفت موزيلا في عام 2019 جهودها لجمع بيانات اللغات المحلية في إفريقيا من خلال مبادرة تسمى كومون فويس آند ديب سبيتش (Common Voice and Deep Speech). وتستخدم مجموعة البيانات حالياً في تكنولوجيا المساعد الصوتي مايكروفت (Mycroft)، وهو مساعد صوتي مفتوح المصدر سمي على اسم الأخ الأكبر لشيرلوك هولمز، وفي أداة كتابة التقارير الطبية باللغة البرتغالية البرازيلية لارا هيلث (Iara Health). ويصف رئيس قسم تعلم الآلة في موزيلا كيلي ديفيس، الأهمية البالغة للتركيز على اللغات القليلة الموارد والحفاظ على اللغة في تصحيح اختلال التوازن بين اللغات في التكنولوجيا السائدة للتعرف إلى الكلام. حيث يقول إنه ينبغي أن تُعد تكنولوجيا التعرف إلى الكلام من الموارد العامة. يُعزز هذا التصور عبر التكنولوجيا ويُدعَم بشكل واسع من خلال جمع البيانات، وبينما نسعى جاهدين لتطوير آلات المساواة يجب أن يصبح هذا التصور شائعاً لأنه من الصالح العام. وحال الصوت والكلام كحال العديد من أنواع المعلومات الأخرى التي تجعل أجهزتنا أكثر ذكاءً، فهما مرتبطان ارتباطاً وثيقاً بتنوعنا وتفرّد شخصياتنا من حيث تركيبتنا الجينية وحالتنا الصحية واستجاباتنا السلوكية والعاطفية وحالتنا النفسية بين الشك واليقين. ويعد التعهيد الجماعي والمشاريع المفتوحة المصدر من الطرائق المهمة لبناء صورة مكتملة تمثل إنسانيتنا. كما تعد فكرة البيانات المفتوحة ضرورة بالغة الأهمية ليس لتصميم الآلات فحسب بل للاستفادة منها لاحقاً، بحيث نضمن الوصول إلى المعلومات المأخوذة منا ومطالبة الأنظمة الأكثر اكتمالاً وتقدماً التي حصلت على معلوماتنا بجعل فائدتها عامة.
في عام 2020 كان 4.2 مليار مساعد رقمي قيد الاستخدام في جميع أنحاء العالم ومن المتوقع أن يتضاعف هذا الرقم بحلول عام 2024. كما تشير التقديرات إلى أن قيمة قطاع الذكاء الاصطناعي الصوتي ستنمو إلى 80 مليار دولار بحلول عام 2023. وتظهر بعض الاستقصاءات أن ما يقرب من نصف عمليات البحث العامة عبر الإنترنت تتم الآن باستخدام الصوت. قد تكون مشاريع التعهيد الجماعي والمنتجات المفتوحة المصدر أفضل طريقة لتحقيق مستوى التنوع والشمول الذي يحتاج إليه المجتمع ويستحقه.
المترجم النسوي
تتمتع محركات الترجمة الآلية بقابلية فائقة على التطور. وتقدم مثالاً قوياً على التحيز للتذكير أو التأنيث في اللغة وكيف يمكننا أن نتقدم كمجتمع. تتوطد التجارة في السوق العالمية من خلال التواصل والثقة. حيث أثقلت الحواجز اللغوية البلدان النامية التي تسعى جاهدة للمنافسة في الأسواق العالمية. أصبحت خدمة الترجمة الآلية متاحة الآن بسهولة ومجاناً عبر الإنترنت، ما يسهل عدداً لا يحصى من عمليات تبادل المعرفة والمعلومات والأفكار والسلع والخدمات. وبالرغم من ذلك، تميل الترجمة الآلية للذكورية في ترجماتها منذ فترة طويلة من الزمن. ومنذ البداية، قدمت خدمة الترجمة من جوجل (Google Translate) تلقائياً ترجمات مع نسبة ضمائر ذكورية أكبر. وتعلمت الخوارزمية ذلك على نحو آلي من خلال تصفح الإنترنت، حيث ضمائر التذكير أكثر انتشاراً بمرتين من ضمائر التأنيث. وبالتالي عززت الخوارزمية التحيز من خلال حلقات من التغذية والتغذية الراجعة، فكل ترجمة تميل إلى استخدام الصيغة المذكرة من اللغة تؤدي بدورها إلى زيادة تكرار الصيغة المذكرة من اللغة عبر الإنترنت. ويكون التحيز أكثر وضوحاً عندما تُترجم لغة أكثر حيادية بين النوعين (مثل اللغة الإنجليزية) إلى لغات أقل حيادية (مثل الإسبانية أو العربية أو الفرنسية).
هذه المشكلة قابلة للحل. كما هو الحال مع جميع أنظمة الذكاء الاصطناعي تتعلم خدمة الترجمة من جوجل وتكنولوجيا الترجمة الأخرى من بيانات التدريب التي يتم تغذيتها بها، وهذه البيانات تصل إلى مئات الملايين من النصوص المترجمة مسبقاً والموجودة على الإنترنت. حتى الآن، تمت برمجة خوارزميات الترجمة لتترجم إلى الشكل الأكثر ترجيحاً، وذلك عبر دراسة الأعمال المنشورة عبر القرون الماضية. وكان الرجال تاريخياً أكثر تمثيلاً إلى حد كبير ككتّاب وكمادة رئيسية للأعمال المنشورة. لذلك من المنطقي أن تكون الترجمة الآلية قد بلورت لغة متحيزة للذكور لأن الخوارزميات تعلمت من البيانات المتاحة لها. وتعتمد جودة النتائج على جودة المدخلات ولكن عندما تكون المدخلات متحيزة فهناك طرائق أخرى للوصول إلى نتائج أكثر مساواة. فبدلاً من الميل إلى استخدام الضمائر الأكثر شيوعاً (المذكرة)، تحتاج الترجمة الآلية إلى أن تُبرمَج؛ أي تُعلَّم التعرّف إلى الإشارات التي تدل على السياق والنوع بشكل أفضل. وباستطاعتها أن تميل بمعدلات متساوية للمذكر والمؤنث في حال لم يتوفر السياق. كما تتوفر طريقة أخرى لعكس هذا التحيز المستمر في نصوصنا وهي برمجة الخوارزمية لإنتاج الضمير الأقل عدداً (التأنيث) أي أن تتبنى عمداً ما نسميه في النظرية القانونية قاعدة الميل للعقوبة القصوى، بحيث يتم الذهاب إلى الخيار الأقل شعبية لتحقيق أهداف سياسة معينة.
لقد مررنا بثورة لغوية شاملة على مدار العقد الماضي. حيث أصبحت الضمائر شاملة للنوعين على نحو متزايد، ومثال على ذلك إعادة صياغة "he" لتصبح "she" و"he or she" لتصبح "they". ومن الممكن أيضاً إعادة كتابة الكلام المتحيز للنوع. كما يمكن تعليم الخوارزميات فحص الأسماء الشائعة لتحديد النوع. فعلى سبيل المثال، اسمي غير معروف لمعظم الأميركيين. وغالباً ما يتم مخاطبتي باسم السيد أورلي لوبيل في رسائل الرد على البريد الإلكتروني. وعندما يتم الاقتباس من أبحاثي في جميع أنحاء العالم، غالباً ما يصفوني كذكر. ولكن يمكن للخوارزمية بسهولة أن تفرز الأسماء الشائعة في قواعد البيانات الحالية لاكتشاف أن اسم أورلي اسم عبري مؤنث شائع ويعني "نوري". وعندما يتم تكليف المترجم الآلي بتحديد السياق بأكمله في النص، ستزداد دقته في تحديد النوع بشكل صحيح.
وقد قطعت خدمة الترجمة من جوجل بعض الخطوات في هذا الاتجاه. ففي عام 2018، نشر مدير المنتج في فريق ترجمة جوجل مقالاً يشرح فيه هذا الاتجاه الجديد قائلاً فيه: "بذلت جوجل الجهود لتعزيز الإنصاف وتقليل التحيز للنوع في التعلم الآلي. حيث يعالج أحدث تطوير في هذا المسعى التحيز بين النوعين من خلال توفير ترجمات مؤنثة ومذكرة لبعض الكلمات المحايدة على موقع خدمة الترجمة من جوجل". وفي حال كان من ممكن ترجمة كلمة محايدة بين النوعين إلى صيغة المذكر أو صيغة المؤنث، يتم تقديم ترجمة واحدة فقط وغالباً ما تكون متحيزة. تُترجم كلمات مثل "قوي" أو "طبيب" إلى ترجمات ذكورية، بينما تُترجم كلمات مثل "ممرضة" أو "جميلة" إلى ترجمات مؤنثة. ومع التغييرات التي تم إدخالها، تقدم خدمة الترجمة من جوجل الآن ترجمات مؤنثة ومذكرة للكلمة واحدة.
هناك الكثير من العمل الذي ينبغي إنجازه. تخطط جوجل لتوسيع نطاق هذه الترجمات الخاصة بالنوع لتشمل المزيد من اللغات ولمعالجة التحيز في ميزات مثل الإكمال التلقائي. كما تفكر جوجل في كيفية معالجة النوع الثالث في الترجمة مستقبلاً. وفي عام 2021 قمت باختبار خدمة ترجمة جوجل من الإنجليزية إلى العبرية باستخدام المصطلحات التالية: "طبيب" و"ممرضة" و"مقدمة رعاية" و"عامل أجنبي" و"رئيس" و"رئيس تنفيذي" و"مدرس" و"ضابط شرطة" و"معلمة حضانة" و"طالب". هل تعلم كم من المهن العشر التي أدخلتها في الخوارزمية تُرجمت بصفة مؤنثة؟ الإجابة هي ثلاث من أصل عشر مهن: "ممرضة" و"مقدمة رعاية" و"معلمة الحضانة". وتمت ترجمة الكلمات البقية في صيغة المذكر.
وفي محاولة للحد من التحيز بين النوعين في الترجمة الآلية، اكتشف مهندسو جوجل أن العديد من اللغات تميل لصيغة المذكر وفي كثير من الأحيان لا توجد نسخة مؤنثة من الكلمة. تتعاون جوجل الآن مع شركة بلجيكية تسمى إيلان لانغويجيز (ElaN Languages)، التي تعمل بنشاط للتغلب على هذه المشكلة. تتعاون إيلان مع الشركات الكبيرة مثل بوش وكوكا كولا وراندستاد (Randstad) لتقديم خدمات الترجمة من خلال منصة ماي ترانسليشن (MyTranslation) التابعة لها (بالإضافة إلى ما يقرب من 1,800 مترجم بشري مستقل). تقدم المنصة مكوناً إضافياً يدعى "زر عدم التحير" الذي يحلل النصوص المترجمة، ويسلط الضوء على اللغة المتحيزة، ويقترح بدائل محايدة بين النوعين. على سبيل المثال، كلمة "القابلة" تصبح "مساعدة الولادة" وكلمة "رجل الإطفاء" تصبح "عامل إطفاء" وهكذا. ومع ذلك عندما استخدمت مترجم إيلان المجاني عبر الإنترنت وكتبت كلمة "طبيب" أعطاني الصيغة الذكورية "médico" باللغة الإسبانية. وبينما نحقق تقدماً في الترجمة الآلية التي تتسم بالمساواة، يجب أن نجعل عدم التحيّز الإعداد الافتراضي، وليس ميزة إضافية.
تغيير نبرة الصوت
كيف يمكن أن تساعدنا التكنولوجيا على الابتعاد عن المفاهيم القديمة لمكانة المرأة في المجتمع؟ في عام 2018 قدمت جوجل قائمة بالأصوات الجديدة للمساعد الرقمي في تطبيق جوجل هوم (Google Home) تتكون من أصوات ذكورية وأنثوية. وكان صوت المغني الشهير جون لجند من الأصوات الاصطناعية. (وحينها غردت زوجته كريسي تيجن: "لم أعد بحاجة إلى جون بشري" وردَّ عليها لجند مازحاً "حسناً لا يستطيع المساعد الرقمي من جوجل القيام بكل شيء". في الفصل التاسع، سنرى إن كان لجند محقاً بما يمكن للروبوت فعله وما لا يمكنه فعله من الناحية الرومانسية). ومنذ ذلك الحين وضعت جوجل تدابير أخرى للابتعاد عن نموذج المساعد الصوتي الأنثوي السائد. وفي عام 2019 قدمت جوجل العديد من الأصوات البديلة الأكثر حيادية لمساعدها الرقمي، والتي تمت برمجتها باستخدام نفس تقنية ويف نت (WaveNet) التي تجعل الصوت الأنثوي في مساعد جوجل الرقمي طبيعياً للغاية. ويتوفر للمستخدمين الآن 13 صوتاً إنجليزياً مختلفاً في مجموعة من الخيارات، بما في ذلك اللغة الإنجليزية باللهجة البريطانية أو هندية، بالإضافة إلى أصوات جديدة بسبع لغات أخرى كانت في السابق بأصوات أنثوية فقط ،هي الهولندية والفرنسية والألمانية والإيطالية واليابانية والكورية والنرويجية. وفي خطوة أخرى بعيداً عن التمثيل النوعي، يتم الآن عرض الأصوات بالألوان بدلاً من أسماء الذكور والإناث. وصرّحت جوجل بأنها تدرك أن الناس يستمتعون بالاختيار بين الأصوات للعثور على الصوت المناسب لهم. وكجزء من الجهود المستمرة لتشجيع استخدام الأصوات المختلفة عن الصوت الأنثوي التقليدي، سيتم تعيين الأصوات الافتراضية الجديدة لمساعد جوجل الرقمي بشكل عشوائي.
وقد تأخذنا التكنولوجيا الجديدة إلى خيارات أبعد من الثنائية الصوتية في المساعد الرقمي. ويتمثل التقدم المثير للاهتمام في رفض الخيارات المحصورة في ثنائية المذكر والمؤنث وتفضيل صوت جديد أكثر إبداعاً. وكان كيو (Q) أول صوت محايد تم تطويره للمساعد الشخصي. تتراوح حدّة صوت كيو بين 145 و175 هيرتز، التي وجد الباحثون أنها المستوى الذي نميل إلى التعرف إليه على أنه ليس ذكراً ولا أنثى، لأنه يقع في منتصف نطاق صوت الذكور والإناث. وتم تصميم كيو استناداً إلى الاعتقاد بأن الصوت المحايد سيعكس عالم اليوم غير الثنائي بشكل أفضل. ومن خلال فحص مجموعة واسعة من الأصوات، الذكورية والأنثوية، ابتكر مهندس الصوت في الفريق صوتاً لا نوع له. تم إنشاء كيو بالتعاون بين المؤسسات غير الربحية التي تسعى إلى المساواة وتمثيل الجميع بما فيها مؤسسة كوبنهاغن برايد (Copenhagen Pride) وهي مؤسسة أقليات رائدة في الدنمارك. وهناك أمثلة أخرى على روبوتات الدردشة التي تم تصميمها بحيث تكون محايدة، مثل كاي (KAI) وهو روبوت مصرفي صممته مبرمجة، وعندما يُسأل عن نوعه يقول: "بصفتي روبوتاً، أنا لست بشرياً". يقود الاتحاد الأوروبي مشاريع تقوم بأخذ عينات من تسجيلات الرجال والنساء بأعداد متساوية لإنشاء أصوات اصطناعية بصفات وللهجات متعددة. كما يستخدم مشروع الاتحاد الأوروبي المسمى ريبيلد (REBUILD) مساعدين رقميين مخصصين للمهاجرين بحيث يتوافق مع خلفيتهم الثقافية واللغوية بهدف مساعدتهم على الاندماج في مجتمعاتهم الجديدة. أتوقع أن التكنولوجيا سوف تتطور يوماً ما لدرجة تستطيع فيها تقليد الصوت الدقيق لكل فرد. دعونا نفكر أكثر في الروبوت ميني مي (mini-me) الذي يرافقنا من المهد إلى اللحد في الفصل العاشر من هذا الكتاب. في الوقت الراهن نحتاج إلى وجود خيارات. نحتاج إلى التحديات. نحتاج إلى التغيير. نحتاج إلى الإبداع. يمكن أن تتضمن ميزات التصميم الأخرى التي تتحدى التخصيص النمطي لصوت المرأة للمساعد الرقمي التحدث باستخدام ضمائر الجمع بدلاً من ضمائر المفرد.
إن الأسماء والأصوات والتصميم المادي خصائص بشرية ننقلها للآلات، ويمكن لأي منها، بمفردها أو جميعها، الدلالة على النوع. وحتى أصغر إشارة للسلوك البشري أو الشخصية البشرية تجعلنا على استعداد للدخول في وهم أننا نتواصل مع كيان بشري بدلاً من مجرد آلة. كما يمكن أن يقودنا هذا الوهم إلى تفسير ردود فعل الآلة واستجاباتها بصورة لن تكون منطقية إلا إذا كانت بشرية بالفعل.
يمكنكم الاطلاع على النسخة الإنجليزية من المقال من خلال الرابط، علماً أنّ المقال المنشور باللغتين محمي بحقوق الملكية الدولية. إنّ نسخ نص المقال دون إذن سابق يُعرض صاحبه للملاحقة القانونية دولياً