
تتصارع حكومات الدول في جميع أنحاء العالم، من أجل الوصول إلى اتفاق يُنظم استخدام الذكاء الاصطناعي.
مؤخرا صوت أعضاء البرلمان الأوروبي لصالح قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي، وهذا القانون – الأول من نوعه – سيضع إطارا قانونيا صارما يحكم استخدام الذكاء الاصطناعي، كما سيتعين على الشركات الامتثال له.
تقول مارغريت فيستاجر إن وضع “حواجز حماية” أمر ضروري لمواجهة المخاطر الكبرى التي يشكلها الذكاء الاصطناعي.
والتشريع الجديد – الذي من المتوقع أن يدخل حيز التنفيذ عام 2025 – سيعمل على تصنيف تطبيقات الذكاء الاصطناعي إلى مستويات من الخطورة – حسب تأثيرها على المستهلكين.
وسيتم تصنيف ألعاب الفيديو المدعومة بالذكاء الاصطناعي، وفلتر(مرشح) البريد الإلكتروني غير المرغوب فيه ضمن فئة المخاطر المتدنية.
وستواجه تطبيقات الذكاء الاصطناعي – ذات المخاطر العالية – مثل تلك المستخدمة في تقييم درجة الائتمان (الأهلية الائتمانية) أو الحصول على مسكن أشد الضوابط صرامة.
ولن تتبنى المملكة المتحدة تطبيق هذه القواعد، حيث حددت الحكومة البريطانية في شهر مارس/ آذار الماضي رؤيتها المستقبلية المتعلقة بالذكاء الاصطناعي.
واستبعدت الحكومة البريطانية تشريع قانون تنظيمي خاص للذكاء الاصطناعي، وقالت بدلا من ذلك إنها ستقوم بإلحاق القواعد التنظيمية للذكاء الاصطناعي ضمن الهيئات التنظيمية الموجودة حاليا والتي ستتولى الإشراف عليها.
لكن فيستاجر تقول إن تنظيم استخدام الذكاء الاصطناعي يجب أن يكون “شأنا عالميا”، وتضيف أن تبني “رأي جماعي” بين الدول “ذات التفكير المماثل” أمر مهم.
كما اعترف المشرعون الأمريكيون خلال جلسة استماع حديثة مخصصة للذكاء الاصطناعي، بوجود مخاوف بشأن مدى صلاحية تلك القواعد.
في حين تعتزم الصين إلزام الشركات بإخطار المستخدمين عند استخدام خوارزمية الذكاء الاصطناعي.