علوم وتكنولوجيا

تحذيرات من مخاطر الذكاء الاصطناعي.. لجنة برلمانية بريطانية تحدد 12 تحديا

مخاوف متصاعدة من استخدام الذكاء الاصطناعي لأهداف تهدد البشرية- CC0
حذرت لجنة العلوم والابتكار والتكنولوجيا في البرلمان البريطاني، من التهديد المحتمل الذي يمثله الذكاء الاصطناعي على حياة البشر.

وطالبت اللجنة أن تكون مخاطر الذكاء الاصطناعي محور أي تنظيم حكومي مستقبلا وأن توضع ضوابط لاستخدام هذه التقنية، وفقا لشبكة "سكاي نيوز" البريطانية.

ودعا أعضاء لجنة العلوم والتكنولوجيا في البرلمان البريطاني، رئيس الوزراء، ريشي سوناك، لمعالجة التحديات التي يشكلها الذكاء الاصطناعي قبل استضافة المملكة المتحدة القمة العالمية حول الذكاء الاصطناعي هي الأولى من نوعها في العالم.


وشخصت اللجنة 12 تحديا يشكلها الذكاء الاصطناعي، مشيرة إلى ضرورة معالجة هذه التحديات خلال القمة والتوصل لمقاربة مشتركة بين الدول للحد من مخاطر التقنية الحديثة.

وبحسب اللجنة فقد شملت التهديدات:

تهديد وجودي
تذكر اللجنة أن بعض الخبراء حذروا من التهديد الكبير لحياة الإنسان الذي يمثله الذكاء الاصطناعي، لذا من الضروري سن قواعد تنظيمية توفر حماية للأمن القومي.

التحيز
وترى اللجنة البريطانية أن الذكاء الاصطناعي يمكنه ترسيخ التحيزات الموجودة في المجتمع أو يقدم تحيزا جديدا.

الخصوصية
يمكن استخدام المعلومات الحساسة التابعة للأفراد أو الشركات لتدريب نماذج الذكاء الاصطناعي.

التحريف
وحذرت اللجنة من احتمالية إنتاج نماذج "ChatGPT" مواد محرفة حول سلوك وتصرفات شخص ما ووجهات نظره الشخصية.

البيانات
قالت اللجنة إن تدريب أقوى أدوات الذكاء الاصطناعي يحتاج لكمية هائلة من البيانات.

قوة الحوسبة
وبحسب أعضاء اللجنة فإن تطوير أقوى أدوات الذكاء الاصطناعي يتطلب قوة حاسوبية هائلة.

الشفافية
تكافح نماذج الذكاء الاصطناعي لشرح سبب بثها نتيجة معينة، أو من أين تأتي بالمعلومات.

حقوق الملكية
وقالت اللجنة إن النماذج التوليدية سواء كانت نصا أو صورا أو صوتا أو فيديو، تستفيد عادة من المحتوى الموجود، والذي يجب حمايته حتى لا يؤدي إلى تقويض الصناعات الإبداعية.

المسؤولية
إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا، وفق اللجنة.

الوظائف
طالبت لجنة العلوم والتكنولوجيا البريطانية السياسيين بأن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية.

الانفتاح
ودعت لجعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار.

التنسيق الدولي
وأكدت اللجنة أن تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة تشرين الثاني/نوفمبر القادم بأكبر عدد ممكن من الدول المشاركة.


وفي حزيران/ يونيو الماضي، أعلن رئيس الوزراء البريطاني ريشي سوناك خلال زيارة إلى واشنطن أن لندن ستستضيف هذا العام أول قمة عالمية للذكاء الاصطناعي.

وقال سوناك، إن على الدول التأكد من أن تطوير واستخدام الذكاء الاصطناعي يتم بطريقة آمنة، خصوصا أن له إمكانيات مذهلة يمكنها تغيير الحياة للأفضل.

وسبق أن طالب الأمين العام للأمم المتحدة، أنطونيو غوتيريش، بوضع ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة، في تطوير واستخدام الذكاء الاصطناعي من أجل الصالح العام.

وشدد غوتيرش على الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية لاستخدام الذكاء الاصطناعي.

وفي أيار/مايو الماضي تحدث رائد الذكاء الاصطناعي جيفري هينتون عن مخاطر الذكاء الاصطناعي عقب استقالته من عملاق التكنولوجيا "غوغل".

وقال هينتون خلال مقابلة مع صحيفة نيويورك تايمز الأمريكية إن هدف استقالته كان التحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن مخاطره الأساسية.

وذكر أن هناك مخاوف من أن تتجاوز الآلة صانعها حيث أدت المنافسة بين عمالقة التكنولوجيا الكبرى إلى تقدم لا يمكن لأحد أن يتخيله، فقد تجاوزت السرعة التي يحدث بها التقدم توقعات العلماء.

وعبر هينتون عن خشيته من أن تؤدي هذه التكنولوجيا لتعطيل سوق العمل بشكل كبير، حيث يمكن أن تقضي على الكثير من فرص العمل. 

وأضاف خبير التكنولوجيا أن التقدم في تقنية الذكاء الاصطناعي سريع للغاية، مقارنة بالوسائل المتاحة لتنظيم استخدامها، حيث من الممكن أن تصبح الإصدارات المستقبلية "تهديدات للبشرية".


وأشار إلى أن التهديد الآخر للذكاء الاصطناعي يكمن في إساءة استخدام التقنية من قبل جهات خطرة، حيث بات من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض خبيثة بحسب وصفه.