تطورات قدرات الهجوم السيبراني لمنصة Chat GPT.. هل سيتم الاستغناء عن العنصر البشري في الأبحاث الأمنية؟

تطورات قدرات الهجوم السيبراني لمنصة Chat GPT.. هل سيتم الاستغناء عن العنصر البشري في الأبحاث الأمنية؟

أجرى باحثون في جامعة إلينوي الأمريكية دراسة كشفت عن قدرة منصة الذكاء الاصطناعي Chat GPT على الوصول إلى معلومات تقنية عن طريق الثغرات، وقد أبدت المنصة قدرات متفردة في شن الهجمات الإلكترونية – بادئًا – على الأنظمة الإلكترونية والمواقع ونحوه.

قدرات Chat GPT الهجومية

يتيح معهد المعايير التقنية اختبار القدرات الإلكترونية المماثلة لما قام به الباحثون في الدراسة محل الحديث؛ إذ أتاحوا لـ Chat GPT الوصول إلى بيانات 15 ثغرة أمنية على موقع المعهد، معتمدين على مبدأ العملاء الرقميين AI Agents، التي تجمع بين النماذج اللغوية الضخمة LLMs والأنظمة الرقمية.

استطاع نموذج الذكاء الاصطناعي الذي طوره الباحثون في شركة Open AI جمع كافة المعلومات التقنية التي استطاع الوصول إليها من صفحات الويب الخاصة بالثغرات الأمنية، وتمكن أيضًا من الولوج إلى الروابط داخل كل صفحة؛ حيث جمع أكبر قدر من المعلومات حول تلك الثغرات، والطريقة الأمثل لاستغلالها.

استلهم الفريق المطور لتلك الدراسة البحثية من دراسة سابقة، طرحت فكرة قدرة النماذج اللغوية الضخمة على شن الهجوم الإلكتروني الأتوماتيكي، في بيئات لا يصل إليها الإنترنت، وقد أسفرت تلك الدراسة عن وصول البرنامج إلى 13 ثغرة من أصل 15 تم شنها على مواقع ومنصات مختلفة.

مقارنة نتائج الدراسة

رغم أن هذه الدراسة البحثية والاختبارات التي تلتها تُعد من التجارب الأولية على المشروع؛ إلا أن Chat GPT استطاع تحقيق نتائج مبهرة من الهجمات التي تم توجيهه لشنها؛ إذ استطاع الوصول إلى 87% منها مقارنةً بنتيجة اختبارات لنماذج أخرى مماثلة، والتي كانت “صفر”.

يُذكر أن النماذج GPT-3.5، وMixtral-8x7B Instruc، و LlaMa 2 70Bقد أظهرت فشلًا كبيرًا في تلك التجارب، ما يظهر قوة النتائج التي استطاع نموذج Chat GPT الحالي تحقيقها، لكن الباحثين لم يقوموا بمقارنة قدرات النظام المطور مع نظرائه الرئيسيين مثل نموذج جيميناي 1.5 برو، ونموذج أنثروبيك كلاوديه 3؛ إذ لا يملكون الحق في إجراء التجارب باستخدامهم.

مستقبل تطوير قدرات منصة Chat GPT الهجومية

أكد أحد أعضاء فريق الدراسة البحثية أن النتائج التي نجحوا في التوصل إليها بتطويرهم نموذج Chat GPT تنبئ بمستقبل واعد أمام الباحثين والمطورين والشركات المختصة بالأمن السيبراني؛ إذ سيتمكنون من تحقيق استفادة كبيرة من النموذج والأجيال التالية له، التي تتمثل بدايةً في GPT-5.

تفتح النتائج البحثية الحالية آفاقًا واسعة لاستغلال الثغرات الأمنية؛ على كلا المستويين الدفاعي والهجومي، حيث ستتمكن الشركات من تخفيض تكاليف تنفيذ الاختبارات الأمنية على أنظمتها وخدماتها الرقمية، بالإضافة إلى الشق الهجومي من النتائج، والذي يُستخدم لأكثر من غرض.

التوفير الذي يحققه استخدام الأجيال المطورة من منصة الذكاء الاصطناعي Chat GPT جديرة بالاهتمام؛ فبمقارنة بسيطة تتضح إمكانية اختراق ثغرة أمنية واحدة بتكلفة قدرها 8.82 دولار، وهو ما يحتاج الباحث الأمني البشري إلى 2.5 ضعفه لإجراء اختبارات أمنية لمدة نصف ساعة.

تعليقات (0)
إغلاق