" ڈیپ فیک" ٹیکنولوجی خفیہ اداروں کے ہاتھوں کافی خطرناک ہو سکتی ہے:چین
چین کی وزارت برائے قومی سلامتی نے اپنے شہریوں کو خبردار کیا ہے کہ "ڈیپ فیک مصنوعی ذہانت کے ذریعے تیار کردہ جعلی تصاویر اور آواز کی مواد کو غیر ملکی خفیہ اداروں کی جانب سے "ادراکی جنگ" کے آلے کے طور پر استعمال کیا جا سکتا ہے
چین کی وزارت برائے قومی سلامتی ، جو خفیہ امور کی ذمہ دار ہے اس نے اپنے شہریوں کو خبردار کیا ہے کہ "ڈیپ فیک مصنوعی ذہانت کے ذریعے تیار کردہ جعلی تصاویر اور آواز کی مواد کو غیر ملکی خفیہ اداروں کی جانب سے "ادراکی جنگ" کے آلے کے طور پر استعمال کیا جا سکتا ہے۔
وزارت کے وی چیٹ اکاؤنٹ پر کی گئی پوسٹ میں ڈیپ فیک پیدا کرنے والے آلات انفرادی اور قومی سلامتی کے لیے نقصان دہ خطرات پیدا کر سکتے ہیں اور شہریوں سے محتاط رہنے کی درخواست کی گئی۔
پوسٹ میں بتایا گیا کہ مختلف شعبوں اور کاروباری میدانوں میں دستیاب ان آلات کو غیر ملکی خفیہ ادارے استعمال کر سکتے ہیں، اور اس ٹیکنالوجی کو بھرتی یا رجحان تبدیل کرنے کی کوششوں، بدنامی مہموں یا غلط معلومات پھیلانے کے لیے استعمال کیا جا سکتا ہے۔
پوسٹ میں کہا گیا کہ ریاستی اسرار، تجارتی راز اور ذاتی طور پر حساس معلومات ان سافٹ ویئرز میں ڈالنے سے گریز کریں، مشکوک مواد سے محتاط رہیں اور خفیہ معلومات آن لائن شیئر نہ کریں۔
"ڈیپ فیک" اصطلاح "ڈیپ لرننگ" اور "فیک "الفاظ کے ملاپ سے بنی ہے جو مصنوعی ذہانت کے آلات کے ذریعے اصل سے تمیز کرنا مشکل جعلی تصاویر، آواز اور ویڈیو مواد کی تخلیق کو ظاہر کرتی ہے۔