«الدجال الاصطناعي» يغذي عمليات الاحتيال الصوتي06-05-2023 06:57 PM
عمون - حذر خبراء من أن تقنية الذكاء الاصطناعي تغذي انفجاراً في عمليات احتيال باستنساخ الصوت، وفق «ديلي ميل».ويمكن للمحتالين الآن تقليد صوت الضحية باستخدام مقتطف صوتي مدته ثلاث ثوان فقط، وغالباً ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية، ثم يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة ماسة إلى المال. |
الاسم : * | |
البريد الالكتروني : | |
التعليق : * |
بقي لك 500 حرف
|
رمز التحقق : |
تحديث الرمز
أكتب الرمز :
|
برمجة واستضافة