يعمل الذكاء الاصطناعي على جعل عمليات الاحتيال طويلة الأمد أكثر فعالية

لا شك أنك سمعت عن عملية احتيال يقوم فيها مرتكب الجريمة باستدعاء شخص مسن ويتظاهر بأنه حفيده أو أي قريب آخر. الروتين المعتاد هو التصرف في حالة ضائقة، والتظاهر بأنهم في وضع صعب، وطلب تحويل نقدي عاجل لحل الموقف. في حين أن العديد من الأجداد يدركون أن الصوت ليس صوت أحفادهم فيغلقون الخط، فإن الآخرين لن يفعلوا ذلك لاحظوا ذلك، وحرصهم الشديد على مساعدة قريبهم القلق، استمر في إرسال الأموال إلى المتصل حساب.

أ واشنطن بوست يكشف تقرير يوم الأحد أن بعض المحتالين قد ارتقوا بالخدعة إلى مستوى جديد تمامًا من خلال نشر الذكاء الاصطناعي التكنولوجيا القادرة على استنساخ الأصوات، مما يزيد من احتمالية سقوط الهدف في أيديهم حيلة.

شخص مسن يحمل الهاتف.
أونو كوسوكي/بيكسلز

ولإطلاق هذه النسخة الأكثر تعقيدًا من عملية الاحتيال، يحتاج المجرمون إلى "عينة صوتية تحتوي على بضع جمل فقط"، وفقًا للصحيفة. يتم بعد ذلك تشغيل العينة من خلال إحدى الأدوات العديدة المتاحة عبر الإنترنت والتي تستخدم الصوت الأصلي لإنشاء نسخة طبق الأصل يمكن توجيهها لقول ما تريد ببساطة عن طريق كتابة العبارات.

متعلق ب

  • GPT-4: كيفية استخدام chatbot AI الذي يضع ChatGPT في العار
  • يواجه صانع ChatGPT OpenAI تحقيقًا من لجنة التجارة الفيدرالية (FTC) بشأن قوانين حماية المستهلك
  • يقول العلماء إن اختراقات الذكاء الاصطناعي يمكن أن تأتي عبر أدمغة النحل

تشير البيانات الصادرة عن لجنة التجارة الفيدرالية إلى أنه في عام 2022 وحده، كان هناك أكثر من 36000 تقرير عما يسمى عمليات الاحتيال المحتالة، مع حدوث أكثر من 5000 منها عبر الهاتف. وبلغت الخسائر المبلغ عنها 11 مليون دولار.

مقاطع الفيديو الموصى بها

ويكمن الخوف في أنه مع زيادة فعالية أدوات الذكاء الاصطناعي وتوافرها على نطاق أوسع، سيقع عدد أكبر من الأشخاص ضحية عمليات الاحتيال في الأشهر والسنوات المقبلة.

ومع ذلك، لا تزال عملية الاحتيال تتطلب بعض التخطيط، حيث يحتاج مرتكب الجريمة إلى العثور على عينة صوتية من الصوت، بالإضافة إلى رقم هاتف الضحية ذات الصلة. على سبيل المثال، يمكن العثور على العينات الصوتية عبر الإنترنت عبر المواقع الشهيرة مثل TikTok وYouTube، بينما يمكن أيضًا العثور على أرقام الهواتف على الويب.

يمكن أن تتخذ عملية الاحتيال أشكالًا عديدة أيضًا. تستشهد صحيفة The Post بمثال حيث اتصل شخص يتظاهر بأنه محامٍ بزوجين مسنين ليخبرهما كان حفيدهم محتجزًا لارتكابه جريمة مزعومة وأنهم بحاجة إلى أكثر من 15000 دولار قانونيًا التكاليف. ثم تظاهر المحامي المزيف بتسليم الهاتف لحفيده، الذي طلب صوته المستنسخ المساعدة في دفع الرسوم، وهو ما فعلوه على النحو الواجب.

لقد أدركوا أنهم تعرضوا للاحتيال فقط عندما اتصل بهم حفيدهم في وقت لاحق من ذلك اليوم للدردشة. ويُعتقد أن المحتال ربما قام باستنساخ صوته من مقاطع فيديو يوتيوب التي نشرها الحفيد، على الرغم من صعوبة التأكد من ذلك.

ويطالب البعض بتحميل الشركات التي تصنع تكنولوجيا الذكاء الاصطناعي التي تستنسخ الأصوات مسؤولية مثل هذه الجرائم. ولكن قبل أن يحدث هذا، يبدو من المؤكد أن العديد من الأشخاص الآخرين سيخسرون أموالهم عبر عملية الاحتيال الشائنة هذه.

للاستماع إلى مثال لصوت مستنسخ لمعرفة مدى قربه من الصوت الأصلي، اطلع على مقالة الاتجاهات الرقمية هذه.

توصيات المحررين

  • يطالب كبار المؤلفين بالدفع من شركات الذكاء الاصطناعي مقابل استخدام أعمالهم
  • أفضل أدوات تحرير الفيديو بتقنية الذكاء الاصطناعي
  • تهدف شركة الذكاء الاصطناعي الجديدة التابعة لإيلون ماسك إلى "فهم الكون"
  • تقوم OpenAI ببناء فريق جديد لمنع الذكاء الاصطناعي الفائق من الانحراف
  • OpenAI تكشف عن موقع أول موقع دولي لها

ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.