قد يكون ظهور تقنية تساعدك على أن ترى أحبابك الذين فارقوا الحياة أمامك يتحرّكون ويتحدّثون معك، بمثابة خبر مذهل يجعلك تتقافز فرحا، لكن تمهّل، فقبل أن تقبل على تجربتها، عليك أن تتعرّف أولا على مصيرك بعدها.
ويعرض خبيران في الأمن السيبراني وتكنولوجيا المعلومات لموقع “سكاي نيوز عربية”، كيف تتم صناعة ما توصف بـ”تقنية أشباح الموتى” كواحدة من ابتكارات الذكاء الاصطناعي، وتأثيراتها على الأمان الشخصي والأمن الاجتماعي.
تقنية أشباح الموتى
وفق خبير الأمن السيبراني وتكنولوجيا المعلومات، أحمد الدموهي، فإن تقنية عمل “أشباح الموتى” باستخدام الذكاء الاصطناعي تعتمد على هذه الخطوات:
جمع البيانات: يتم جمع البيانات الرقمية للشخص المتوفّى، مثل الصور، الفيديوهات، والتسجيلات الصوتية.
التحليل والمعالجة: تُستخدم خوارزميات التعلم العميق لتحليل البيانات واستخراج الخصائص الشخصية.
إنشاء النموذج الافتراضي: يبنى نموذج افتراضي يحاكي شكل الشخص وطريقة تحدثه وتصرفاته.
التفاعل: يمكن للمستخدمين التفاعل مع هذا النموذج الافتراضي من خلال روبوتات الدردشة أو “الأفاتار” الذي يظهر الشخص المتوفّى.
يقول خبير الأمن السيبراني وتكنولوجيا المعلومات، محمود فرج، إن الذكاء الاصطناعي يستنسخ نبرة صوت المتوفّى، وشكله، وكل تفاصيله، ويحرّك صورته ويجعله يتحدث كأنه شخص طبيعي.
وهَم واحتيال
هذه التقنية تُسوّق على أساس أنها وسيلة للتغلّب على الحزن الذي يطبق على صدور أحباب المتوفين، إلا أن الدموهي ينصح بمعرفة تأثيراتها التالية على الشخص والمجتمع ككل قبل اتخاذ قرار التعامل معها:
• تسهيل الاحتيال: يمكن استخدام التزييف العميق لتنفيذ عمليات احتيال مالية.
• الأذى للضحايا: يمكن استخدام التزييف العميق لابتزاز الأشخاص عبر تهديدهم بنشر معلومات خاطئة.
• التأثيرات السياسية: يمكن استخدام هذه التقنيات لأغراض سياسية وتوجيه الرأي العام، عبر إنشاء فيديوهات مزيّفة لقادة سياسيين يقومون بأفعال وأقوال هم لم يفعلوها حقا.
• انتهاك حقوق الطبع والنشر: استعمال صور وأصوات المشاهير دون موافقتهم قد يُعدّ انتهاكا من الناحية القانونية.
• صعوبة الكشف: قد يكون من الصعب اكتشاف الفيديوهات أو الصور المزيّفة، مما يزيد من خطر الخداع.
جانب آخر من التأثيرات يلفت النظر إليه محمود فرج، وهو أن الشخص الذي يستعمل هذه التقنية يمكن أن يسيطر عليه، وهو أن المتوفّى ما زال يعيش معه، وهذا سيضره جسديا وعقليا.