هل هذا الصوت مألوف لديك؟ ستغير رأيك بعد الاطلاع على الجانب المظلم من الذكاء الاصطناعي التوليدي

هل هذا الصوت مألوف لديك؟ ستغير رأيك بعد الاطلاع على الجانب المظلم من الذكاء الاصطناعي التوليدي

انتشرت في الآونة الأخيرة أنواعًا مستحدثة من وسائل الاحتيال، وهي تلك التي تعتمد على ما يُعرف بـ “التلاعب الصوتي”؛ إذ تتلقى اتصالاتٍ طارئة عاجلة من أحد أقاربك أو أفراد عائلتك يطلبون فيها المساعدة والإسراع بتحويل مبلغ مالي، أو أسوأ.. بيانات سرية، لتكتشف فيما بعد أن الاتصال لم يكن سوى عملية احتيال، ممن نجح في تزييف صوت مألوف لك.

الجانب المظلم من الذكاء الاصطناعي التوليدي

إحدى مساوئ الذكاء الاصطناعي التوليدي هي نجاح البعض في تطويعه لتحقيق أهداف سيئة، مثل “احتيال التزييف”، وفي هذا السياق كانت شركة Open AI قد أعلنت في شهر مارس الماضي عن طرحها أداةً لاستنساخ الأصوات، على أن يكون استخدامها محدودًا بمعايير لم يتم الإعلان عنها بعد؛ لتجنب استخدامها في عمليات الاحتيال.

أما عن الاحتيالات الحالية التي انتشرت بالفعل على مستوى العالم، فيقوم المحتالون فيها باستخدام الذكاء الاصطناعي لإجراء الاتصالات الهاتفية بأصوات تم تسجيلها من وسائل التواصل الاجتماعي على سبيل المثال.

تجدر الإشارة هنا إلى الميزة التي أطلقتها شركة ميتا في تطبيق التواصل الاجتماعي “Facebook”، والتي تتيح للمستخدمين التعليق على المنشورات بإضافة مقاطع صوتية، مما يجعلها ثغرة مناسبة لمحترفي التزييف الصوتي، يتم استخدامها للاحتيال على ذويهم.

مشاهير وقعوا ضحايا للتلاعب الصوتي

صرح خبير الأمن السيبراني “تامر محمد” بضرورة توخي الحذر فيما يخص الاتصالات من أرقام غير معروفة بأصوات مألوفة، تدعي فيها حاجتها إلى أي شكل من أشكال المساعدة، سواءً الحوالات المصرفية، أو معلومات حساسة ربما تكون ذات صلة بالعمل على سبيل المثال.

طالت عمليات الاحتيال الصوتي عددًا من المشاهير إلى حدٍ لم تتخيله؛ إذ تم الإعلان مؤخرًا عن استخدام هذه الحيلة التقنية في تقليد صوت الرئيس الأمريكي “جو بايدن” خلال الانتخابات التمهيدية لانتخابات الرئاسة، حيث وجَّه المحتال رسائل إلى الناخبين توصيهم بعدم التصويت في انتخابات نيوهامبشير، التي كانت تمثل الفرصة الأخيرة لترامب في السباق الرئاسي.

تعرض الفنان الإنجليزي “ستيفن فراي” وعمدة لندن “صادق خان” إلى عمليات احتيال مشابهة؛ إذ تم استخدام البرامج الآلية المعتمدة على الذكاء الاصطناعي التوليدي في توليد موجات مشابهة لموجات وترددات أصواتهم إلى حدٍ كبير، وتم الإدلاء بتصريحات سببت لهم إحراجًا كبيرًا كلٌ في وسطه.

نصائح للتغلب على مخاطر التزييف الصوتي

إن أول ما يجب الاعتماد عليه في مواجهة انتشار تلك العمليات الاحتيالية هو التشكيك في كل ما يصلك من أصوات لم تشاهد صاحبها، فهذه خطوة أولية تكفي لحمايتك من خطر التلاعب بك باستخدام أصوات مألوفة لك، بالإضافة إلى ما وصّى به خبراء الأمن السيبراني من نصائح وقائية.

  • عند الشك في صحة مكالمة تلقيتها ممن يفترض أنك على معرفةٍ بهم؛ يتعين عليك إعادة التواصل مع هذا الشخص باستخدام وسيلة أخرى، للتحقق من هويته.
  • تجنب الإدلاء بأي معلومات شخصية، أو بيانات سرية في مكالمة لم تكن أنت من بدأها.
  • الحذر من الدخول إلى أي روابط أو مواقع إلكترونية مجهولة، قد تكون وسيلة المحتال لاختراق هاتفك، والوصول إلى تسجيلاتك الصوتية، واستخدامها ضد من هم على صلةٍ بك.
  • عدم الموافقة على شروط وأحكام التطبيقات والبرامج دون قراءتها والتأكد من خلوها من أي أذونات قد تكون الثغرة التي تمنحها بنفسك للمحتالين.

اتباع إرشادات خبراء الأمن السيبراني بشأن تأمين نفسك من خطر التلاعب الصوتي يحميك من أن تكون هدفًا أو وسيلة لتلك العمليات الاحتيالية الخبيثة.

تعليقات (0)
إغلاق