دراسة جامعة بريكسل تعلق الآمال على (بصمات الأصابع الرقمية) في الكشف عن المحتوى المزيف لمقاطع الفيديو التي تم إنشاؤها بالذكاء الاصطناعي

دراسة جامعة بريكسل تعلق الآمال على (بصمات الأصابع الرقمية) في الكشف عن المحتوى المزيف لمقاطع الفيديو التي تم إنشاؤها بالذكاء الاصطناعي

أصدرت شركة Open AI في شهر فبراير الماضي أحدث إنجازاتها في مجال الذكاء الاصطناعي؛ والذي تمثل في مقاطع فيديو تم إنشاؤها بالكامل بواسطة برنامج الذكاء الاصطناعي التوليدي Sora، وقد كانت الواقعية التي يتمتع بها الفيديو لافتةً للنظر بشكلٍ كبير، والأمر الأكثر إثارةً أنه تم بمطالبات نصية بسيطة.

دراسة جامعة بريكسل تعلق الآمال على (بصمات الأصابع الرقمية) في الكشف عن المحتوى المزيف لمقاطع الفيديو التي تم إنشاؤها بالذكاء الاصطناعي

مخاوف حول صناعة المحتوى المزيف باستخدام الذكاء الاصطناعي

تتفاقم المخاطر والتحديات بتطور قدرات الذكاء الاصطناعي يومًا بعد يوم، ففي أعقاب ظهور تكنولوجيا التزييف العميق؛ بدأ الباحثون والمطورون العمل على استخدام الذكاء الاصطناعي التوليدي Gene.AI في إنشاء المحتوى المزيف بالكامل، فلم يقتصر الأمر على المقاطع الصوتية المقلدة؛ بل امتد إلى مقاطع الفيديو أيضًا.

تشتد المخاوف من هذه التطورات في ظل انعدام قدرة الأساليب والأدوات الحالية للكشف عن الوسائط الرقمية المزيفة، أو التي تم التلاعب بها، فهي لا تتمتع بالآلية التي يمكنها كشف ألاعيب الذكاء الاصطناعي، ولن تمكن مواجهة هذه التطورات الخطيرة إلا بما يوازيها من أدوات تعتمد أيضًا على الذكاء الاصطناعي في كشف التزييف.

في مؤتمر IEEE لرؤية الكمبيوتر والتعرف على الأنماط؛ تم عرض ورقة بحثية لدراسة أجراها باحثون من مختبر الوسائط المتعددة وأمن المعلومات في كلية الهندسة بدريكسل، أوضحوا فيها أنه رغم فشل تقنيات الكشف عن الصور المصنوعة بالذكاء الاصطناعي في الكشف عن زيف الفيديو الذي نشرته شركة Open AI؛ إلا أنهم تمكنوا من استخدام خوارزميات التعلم الآلي العميق في ذلك.

اعتمدت تجربة الباحثين في استخدام خوارزميات التعلم العميق في الكشف عن الفيديو المزيف على تطوير خاصية قادرة على استخراج ما أشاروا إليه بـ “بصمات الأصابع الرقمية”، والتعرف عليها من مولدات الفيديو المختلفة، مثل: Video-Crafter وCog-Video.

جهود لمكافحة انتشار منتجات التزييف العميق

حتى فترةٍ ليست بالبعيدة كان التلاعب في مقاطع الفيديو مقتصرًا على الأدوات التي تعمل على إزالة/ إضافة/ تغيير وحدات البكسل، إلى جانب قص إطارات أو تسريع أو إبطاء الفيديو، هذه التعديلات المعتادة وغيرها تخلِّف مسارًا رقميًا؛ نجح مختبر Stamm في تطوير الأدوات التي بإمكانها تعقبه ومتابعته.

لكن التطورات الجديدة التي أظهرتها قدرات الذكاء الاصطناعي قد تخطت مبدأ التلاعب بعناصر الفيديو؛ إذ أنها قادرة على إنشاء محتوى بالكامل من الصفر، وقد أعلن المختبر عن جهود الباحثين فيه في تطوير برنامج للتعلم الآلي باسم “الشبكة العصبية المقيدة”، يتمتع بقدرات مشابهة لقدرات العقل البشري.

تمتلك خوارزميات هذا البرنامج القدرة على التعلم بشكل مشابه لطريقة العقل البشري، للتفريق بين ما هو طبيعي وبين ما هو غير ذلك؛ بالاعتماد على فحص مستوى البكسل الفرعي من الصور ومقاطع الفيديو، وهذه الخاصية تسهل تتبع آثار التزييف العميق من مصادره المعروفة، وكذلك اكتشاف تلك التي ترجع إلى مصادر لم يتم التعرف عليها من قبل.

التحديات الجديدة للتزييف العميق

انتشر في العام الماضي مقطع فيديو يظهر فيه الرئيس الأمريكي السابق – دونالد ترامب – يحتضن “رون ديسانتيس” ويقبله، الفيديو الذي لم يحدث أبدًا؛ لأنه تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي التوليدي، ولم يتم اكتشاف ذلك؛ ويرجع هذا إلى أنه عند تحرير الصور بالأدوات المعروفة.

يمكن الكشف عن معالجتها من إطار إلى إطار، وهو ما لا يتوفر في منتجات التزييف العميق، ما يصعب عملية تتبع قرائن تزييفه.

في الدراسة التي تمت الإشارة إليها؛ زعم الفريق امتلاك أجهزة الكشف المعتمدة على الشبكة العصبية التلافيفية مثل خوارزمية MISLnet القادرة على مواجهة تحديات مقاطع الفيديو المخرجة بالذكاء الاصطناعي التوليدي؛ حيث أنها تمتلك القدرة على تغيير طريقة تعلمها باستمرار، في حال مواجهة أمثلة جديدة.

يتسابق مطورو التكنولوجيا الذكية على شقين؛ فمن ناحية يتم إجراء الدراسات والأبحاث لاكتشاف قدرات تكنولوجية جديدة، ومن ناحية أخرى يبذلون جهودًا مضاعفة لملاحقة تلك التطورات والحد من آثارها السلبية.

تعليقات (0)
إغلاق