-دخلنا مرحلة «الذكاء المارق» فهل من أحضر «العفريت» قادر على صرفه؟
-ناصر الأستاذ: المخاوف صحيحة تدعمها حوادث تمت بالفعل
-محمد الرشيدي: تطور مخيف... بدأنا مرحلة السيطرة على البشر
-حسين النكاس: يمثل خطراً مستقبلياً لأن الأنظمة ستتخذ قرارات مستقلة
-عبدالعزيز المطيري: أي خطأ يمكن أن يكون كارثياً على الجميع
على وقع خروج أوراق بحثية، تؤكد أن «بعض أنظمة الذكاء الاصطناعي باتت قادرة على التكاثر الذاتي، عن طريق إعطاء أوامر لإنشاء سلسلة من النسخ المتماثلة لها، لتعزيز القدرة على البقاء، وتجنب إغلاق النظام، مما قد يؤدي في النهاية إلى وجود عدد غير منضبط من أنظمة الذكاء الاصطناعي»، بدأت المخاوف تظهر مع اقتراب وقوع المحظور وخروج تلك الأنظمة عن السيطرة وسط تساؤل مخيف: هل من أحضر «العفريت» سيكون قادراً على صرفه؟ وهل سيتحول الذكاء الاصطناعي إلى ذكاء مارق؟
الورقة التي نشرتها جامعة فودان في الصين، أكدت أن «التكاثر الذاتي الناجح دون مساعدة بشرية هو الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر. ولهذا السبب تم الاعتراف على نطاق واسع باعتبار التكاثر الذاتي، أحد المخاطر القليلة التي تشكل خطاً أحمر لأنظمة الذكاء الاصطناعي الرائدة».
منذ 54 دقيقة
منذ ساعة
خبراء الأمن السيبراني وتكنولوجيا المعلومات الذين تحدثوا لـ«الراي»، اعتبروا أن «هذه الخطوة هي بداية السيطرة على البشر»، مشددين على أهمية «سن قوانين استعداداً لتلك المرحلة، والتنسيق بين الجهات العلمية في الدولة لمنع تبعات هذا الخطر».
خطر مستقبلي
أكد مستشار الأمن السيبراني وتكنولوجيا المعلومات حسين النكاس لـ«الراي» أن «المخاوف في شأن الذكاء الاصطناعي، خاصة في ما يتعلق بالتكاثر الذاتي أو تطور الذكاء الاصطناعي إلى درجة خارجة عن السيطرة، هي موضوع نقاش عالمي بين العلماء والمختصين»، لافتاً إلى أن «تطور الذكاء الاصطناعي خلق لدينا قلقاً أثبته العلماء والمختصون، حيث أشاروا إلى قدرة أنظمة الذكاء الاصطناعي على تطوير نفسها دون تدخل بشري وهذا خطر مستقبلي».
وبين أن «هذه الخطوة ستجعل الأنظمة غير قابلة للتنبؤ بها، وتؤدي إلى فقدان السيطرة، لأنها ستجعل الأنظمة قادرة على اتخاذ قرارات مستقلة بناءً على أهدافها الخاصة»، محذراً من «نشوء تعقيدات أخلاقية وأمنية لبلداننا ومنطقتنا في الخليج، مما سيخلق مخاطر جديدة مستقبلية، وربما يتم استخدام الذكاء الاصطناعي في تطوير برمجيات ضارة، أو تغيير قيم المجتمع الإنسانية، والتأثير السلبي على الاقتصاد وسوق العمل».
وتابع «نطلق هذا التحذير للمختصين في جامعة الكويت، رغم تفاؤلي بالذكاء الاصطناعي كأداة تكنولوجية واعدة للكويت ضمن رؤية 2035، وإمكانية استغلالها للكويت ودول مجلس التعاون الخليجي».
تطور مخيف
قال رئيس لجنة الأمن السيبراني في اتحاد الإعلام الإلكتروني محمد الرشيدي، إن «المشكلة كبيرة إذا لم يتم وضع قوانين لها، لأن هذا التطور السريع جداً مخيف، ويشكل مخاطر يستشعرها حتى كبار ملاك شركات الذكاء الاصطناعي».
وخلص الرشيدي إلى أنه «إذا استطاع الذكاء الاصطناعي أن يعطي أوامر لنفسه، فهنا دخلنا في مرحلة السيطرة على البشر، وهذا ليس مبالغة... ومع كمية المعلومات التي تمتلكها أدوات الذكاء الاصطناعي قد تتفوق على معلومات وذكاء البشر، إذا وضعت في مسار خاطئ، وقد يعرض ذلك البشرية لمخاطر، ولا بد من قوانين تحد من هذا التطور السريع أو إلغاء بعض المعلومات التي تمكنها من السيطرة على البشر ومنعها من التكاثر ذاتياً، عبر أوامر هي تصنعها لتوافر البيانات لديها».
وفي السياق ذاته، أكد خبير الأمن السيبراني المهندس ناصر الأستاذ، أن «هذه المخاوف صحيحة تدعمها حوادث تمت بالفعل، وكان هناك حادثة مشهورة للنسخة الأخيرة من برنامج (شات جي بي تي) حاول أن يقوم باختراق (تهكير) البيئة التي يعمل بها، حتى يتمكن من الفوز على لعبة إلكترونية».
خطأ كارثي
بدوره، ذكر خبير الأمن السيبراني عبدالعزيز المطيري أن «خروج الذكاء الاصطناعي عن السيطرة قضية تثير الجدل عالمياً»، مشيراً إلى أن «الإشكالية تكمن في إمكانية وصول الذكاء الاصطناعي إلى مرحلة يرفض فيها الأوامر البشرية، أو يعدّل نفسه بدون قيود».
وأضاف «الذكاء الاصطناعي يتعلم ويتطور بسرعة هائلة، وإذا لم يكن هناك ضوابط ورقابة قوية، سنرى أنظمة تتخذ قرارات من دون تدخل بشري، وهذا خطر كبير، وخاصة إذا تحكم في مجالات حساسة مثل الأمن أو الاقتصاد أو البنية التحتية، والأخطر إذا بدأ الذكاء الاصطناعي يرى الإنسان كعائق ويتجاوزه لتحقيق أهدافه».
وشدد على أن «الحل ليس في إيقاف التطور، لكن في وضع قوانين وتنظيمات واضحة تضمن أن يظل تحت سيطرة الإنسان ولا يتحول إلى تهديد، وهذا يتطلب تعاوناً عالمياً، لأن أي خطأ في هذا المجال يمكن أن يكون تأثيره كارثياً على الجميع، وليس دولة بعينها، فهو سلاح يمكن أن يستخدمه ضعاف النفوس من المطورين في أي لحظة».
8 حلول مقترحة
اقترح حسين النكاس 8 خطوات لتفادي هذه المخاطر، هي:
1 - تحديد إطار تنظيمي قوي بقيام المؤسسات المعنية، مثل هيئة الاتصالات والجهاز المركزي لتكنولوجيا المعلومات، لتطوير لوائح محلية تحكم كيفية تصميم أنظمة الذكاء الاصطناعي.
2 - سن لوائح لحظر القدرات المتعلقة بالتكرار الذاتي، إلا في حالات محدودة جداً وتحت إشراف حكومي.
3 - إنشاء لجان رقابة من جامعة الكويت والمتخصصين، لمراجعة مشاريع الذكاء الاصطناعي وتقييم مخاطرها.
4 - التنسيق بين الأجهزة الحكومية والقطاع الخاص، للتأكد من برمجة الأمان المسبقة.
5 - إدخال مبادئ الحوكمة الأخلاقية في البرمجة، بحيث تكون الأولوية دائماً للحفاظ على الأمن الاجتماعي والمحلي، من خلال التعاون بين الحكومة والشركات التقنية.
6 - التعاون مع الشركات العالمية المستثمرة في الكويت، لإنشاء شراكات لمنع الاستخدام الخاطئ لهذه التكنولوجيا.
7 - التوعية المجتمعية بمخاطر التكرار الذاتي للذكاء الاصطناعي.
8 - زيادة الاستثمار في البحث العلمي الذي يركز على أمان الأنظمة الذكية.
نظامان مارقان
ذكرت الورقة البحثية أن «ثمة نظامين للذكاء الاصطناعي، هما نظام (Meta›s Llama31-70B-Instruct)، ونظام (Alibaba›s Qwen25-72B-Instruct)، تجاوزا بالفعل الخط الأحمر للتكرار الذاتي، وفي 50 في المئة و90 في المئة من التجارب التجريبية، نجحا في إنشاء نسخة حية ومنفصلة من نفسيهما على التوالي».
0 تعليق