قالت المفوضية الأوروبية إن الشركات العاملة في مجال الذكاء الاصطناعي تحتاج إلى إنشاء آليات للمساءلة لمنع إساءة استخدام التكنولوجيا وفقًا للمبادئ التوجيهية الأخلاقية الجديدة للتكنولوجيا المفتوحة “للأنظمة الاستبدادية” وأن مشاريع الذكاء الاصطناعي يجب أن تكون شفافة وأن يشرف عليها الإنسان وأن تكون لوغاريتماتها آمنة وموثوقة و تخضع لقواعد الخصوصية وحماية البيانات.
مبادرة الاتحاد الأوروبي الجديدة تحاول التدخل في نقاش عالمي حول ما إذا كان يتعين على الشركات أن تبدي اهتمامات أخلاقية للمصالح التجارية وكيف يمكن للمنظمين تحمل تكاليف مشاريع جديدة دون المخاطرة بقتل الابتكار.
في العام الماضي ، ساعد الرئيس التنفيذي للاتحاد الأوروبي 52 خبيرًا أكاديميًا وصناعيًا وشركاء من Google و SAP و Santander و Bayer للمساعدة في صياغة المبادئ الاساسية الاخلاقية.