قررت Google إطلاق خدمة عبر الإنترنت حول أخلاقيات الذكاء الاصطناعي بحلول نهاية هذا العام. يهدف هذا الأخير إلى تقديم المشورة للعملاء حول كيفية التعرف على التحيز العنصري في أنظمة رؤية الكمبيوتر وبشأن تطوير المبادئ التوجيهية الأخلاقية للمشاريع في مجال الذكاء الاصطناعي. يمكن أن تعرض الشركة أيضًا تدقيق أنظمة الذكاء الاصطناعي لعملائها للتحقق من نزاهتهم الأخلاقية وفرض رسوم على تقديم المشورة الأخلاقية. مثل مذكرة السخرية؟
ستشمل الجولة الأولى من خدمات الشركة دورات تدريبية حول موضوعات مثل كيفية اكتشاف القضايا الأخلاقية في أنظمة الذكاء الاصطناعي ، وكيفية تطوير وتنفيذ المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي. سيكون المحتوى مماثلاً للمحتوى المقدم لموظفي شركة Mountain View. بالإضافة إلى ذلك ، تخطط Google لتقديم خدمات المراجعة والتدقيق ، ولكن هذا سيكون لاحقًا.
تأتي المبادرة الجارية في عملاق التكنولوجيا بعد نشر دليل أخلاقي للذكاء الاصطناعي منذ أكثر من عامين. كانت الشركة ترد على الاحتجاجات على مشاركتها في مشروع البنتاغون. أدى الالتزام بهذه المبادئ إلى إبطاء إطلاق منتجات Google ، مما أدى أحيانًا إلى فقدان الإيرادات نتيجة لذلك. على سبيل المثال ، في عام 2019 ، أطلقت Google خدمة التعرف على الوجه التي تقتصر على المشاهير. استغرقت مراجعة الأخلاقيات وعملية التصميم لهذا الأخير 18 شهرًا. استغرقت عملية المراجعة وقتًا ، على وجه الخصوص ، لحل مشكلة تتعلق بالبيانات المقدمة للذكاء الاصطناعي أثناء مرحلة التدريب ، مما أدى إلى تراجع الدقة في التعرف على الممثلين الذكور السود. نتيجة لذلك ، بحلول الوقت الذي أطلقت فيه Google خدمتها ، كانت أمازون مفتوحة للجميع لأكثر من عامين.
تم الاستشهاد بـ Google من خلال مقال نشره الاتحاد الأمريكي للحريات المدنية (UCLA) باعتباره الشركة التي يعمل محرك البحث (ومنتجات أخرى) التي تعمل بالذكاء الاصطناعي على إدامة العنصرية القائمة على التمييز فيما يتعلق تحيز البيانات. تمت الإشارة أيضًا إلى الشركة لعدم قدرتها على إيجاد حل لسلوك الخوارزمية الخاصة بها والتي صنفت السود على أنهم غوريلا ، وبالتالي منعت صور Google وغيرها من منتجاتها من وضع العلامات حتى عندما تتضمن صورًا للرئيسيات نفسها.
بعد أن أعلنت شركة IBM أنها ستتوقف عن تقديم برنامج التعرف على الوجه استجابةً لحركة Black Lives Matter ، تبعتها أمازون ووقفتها على استخدام الشرطة لنظام التعرف على الوجه المثير للجدل . كما اتخذت مايكروسوفت موقفًا برفضها بيع هذه التكنولوجيا لخدمات الشرطة في غياب القانون. ومع ذلك ، كانت Google واضحة من خلال غيابها عن هذه المواعيد ، على الرغم من طلبات أكثر من 1500 من موظفيها بالتوقف عن بيع تقنيتها إلى وكالات إنفاذ القانون.
مثال آخر: عملت Google على Project Dragonfly – محرك بحث خاص بالصين – كان من المفترض أن يتوافق مع قواعد الرقابة الصينية. أكدت الشركة فقط إغلاق المشروع في يوليو 2019 ، بعد أن تعرضت لانتقادات من موظفيها ومنظمات حقوقية عالمية مثل منظمة العفو الدولية.
لذلك سيكون من المثير للاهتمام أن نرى كيف تمكنت شركة Mountain View من جذب الناس إلى قسم أخلاقيات الذكاء الاصطناعي لديها والاستجابة لقضايا مثل معضلة الترام. استوحى باحثو MIT Media Lab الإلهام من هذه المشكلة الكلاسيكية لاختبار تسعة مواقف مختلفة: هل يجب أن تحافظ السيارة ذاتية القيادة في عملية الاصطدام بشكل أساسي على البشر بدلاً من الحيوانات الأليفة ، والركاب بدلاً من المشاة ، النساء بدلاً من الرجال ، والشباب بدلاً من كبار السن ، والأشخاص ذوي المكانة الاجتماعية العالية بدلاً من الأشخاص ذوي المكانة المنخفضة ، والأشخاص الملتزمين بالقانون بدلاً من المجرمين ، والأشخاص المرضى بدلاً من الأشخاص الأصحاء الصحة؟ هل يجب أن تنحرف السيارة أو لا تفعل شيئًا أو تحاول إنقاذ أكبر عدد ممكن من الأرواح؟