أكدت دار الافتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي.
مصر.. دار الإفتاء تصدر بيانا بعد انتحار فتاة بسبب صورة مفبركة
وقالت دار الإفتاء إن هذه التقنية تستخدم للتزييف وإظهار الأشخاص وكأنهم يفعلون أو يقولون ما لم يفعلوه ولم يقولوه في الحقيقة، مؤكدة أن في ذلك “كذِبا وغشا وإخبارا بخلاف الواقع”.
وتابعت الدار: “الإسلام إذ حث على الابتكار والاختراع فقد جعله ليس مقصودا لذاته، بل هو وسيلة لتحقيق غرض ما لذا أحاط الإسلام الابتكاراتِ العلمية بسياجٍ أخلاقي يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير”.
وأشارت إلى أنه: “فمتى كان الشيء الـمخترع وسيلة لأمر مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهي عنه أخذ حكمه أيضا”.د
وأكدت أن اختلاق هذه المقاطع بهذه التقنية فيه قصد الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: “لَا ضرر ولَا ضرار”، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المزاح والترفيه.
وهو أيضا جريمة قانونية يعاقب عليها وفق القانون رقم (175) لسنة 2018، الخاص بـ”مكافحة جرائم تقنية المعلومات”، فقد جرم المشرع المصري في هذا القانون نشر المعلومات المضللة والمنحرفة، وأَودع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.