Failin yaşlı bir kişiyi arayıp onun torunu ya da başka bir yakın akrabası gibi davrandığı dolandırıcılığı mutlaka duymuşsunuzdur. Her zamanki rutin, sıkıntılı bir durumda hareket etmek, zor durumdaymış gibi davranmak ve durumu çözmek için acil nakit transferi istemektir. Birçok büyükanne ve büyükbaba sesin torunlarına ait olmadığını fark edip telefonu kapatırken, diğerleri bunu yapmayacaktır. Kaygılı akrabalarına yardım etmeye çok hevesli olduklarından, arayan kişinin telefonuna para gönderiyorlar. hesap.
A Washington Post Pazar günkü rapor, bazı dolandırıcıların yapay zekayı konuşlandırarak dolandırıcılığı tamamen yeni bir seviyeye taşıdığını ortaya koyuyor sesleri klonlayabilen teknoloji, hedefin tuzağa düşme olasılığını daha da artırıyor hile.
![Elinde telefon olan yaşlı bir kişi.](/f/7da21c3c979e2a5ba1e45354777aec37.jpeg)
Post'a göre, dolandırıcılığın bu daha karmaşık versiyonunu başlatmak için suçluların "sadece birkaç cümleden oluşan bir ses örneğine" ihtiyacı var. Örnek daha sonra, yalnızca cümleleri yazarak istediğinizi söylemeniz için talimat verilebilecek bir kopya oluşturmak için orijinal sesi kullanan, yaygın olarak bulunan birçok çevrimiçi araçtan birinde çalıştırılır.
İlgili
- GPT-4: ChatGPT'yi utandıran yapay zeka sohbet robotu nasıl kullanılır?
- ChatGPT yapımcısı OpenAI, tüketici koruma yasaları nedeniyle FTC soruşturmasıyla karşı karşıya
- Bilim insanları, yapay zeka alanında atılımların arıların beyinleri aracılığıyla gerçekleşebileceğini söylüyor
Federal Ticaret Komisyonu'ndan elde edilen veriler, yalnızca 2022'de sahtekarlık dolandırıcılığı olarak adlandırılan 36.000'den fazla raporun bulunduğunu ve bunların 5.000'den fazlasının telefonda gerçekleştiğini gösteriyor. Bildirilen kayıplar 11 milyon dolara ulaştı.
Önerilen Videolar
Yapay zeka araçlarının daha etkili ve yaygın olarak kullanılabilir hale gelmesiyle birlikte önümüzdeki aylarda ve yıllarda daha fazla insanın bu dolandırıcılığa kanacağından korkuluyor.
Ancak dolandırıcılık hâlâ biraz planlama gerektiriyor; kararlı bir failin ilgili kurbanın telefon numarasının yanı sıra bir ses örneğini de bulması gerekiyor. Örneğin ses örnekleri, TikTok ve YouTube gibi popüler siteler aracılığıyla çevrimiçi olarak bulunabilirken, telefon numaraları da web'de bulunabilir.
Dolandırıcılığın birçok şekli de olabilir. Post, avukat gibi davranan birinin yaşlı bir çiftle temasa geçerek şunları söylediği bir örnek veriyor: torunlarının iddia edilen bir suç nedeniyle gözaltında olduğunu ve yasal olarak 15.000 dolardan fazla paraya ihtiyaçları olduğunu söyledi. maliyetler. Sahte avukat daha sonra telefonu torunlarına veriyormuş gibi yaptı ve torunun klonlanmış sesi ücretlerin ödenmesi için yardım istedi ve onlar da gerektiği gibi yaptılar.
Dolandırıldıklarını ancak o gün torunları sohbet etmek için onları aradığında anladılar. Dolandırıcının sesini torununun yayınladığı YouTube videolarından kopyalamış olabileceği düşünülüyor ancak emin olmak zor.
Bazıları, sesleri klonlayan yapay zeka teknolojisini üreten şirketlerin bu tür suçlardan sorumlu tutulması çağrısında bulunuyor. Ancak bu gerçekleşmeden önce, pek çok kişinin bu hain dolandırıcılık yoluyla para kaybedeceği kesin görünüyor.
Orijinaline ne kadar yaklaşabileceğini görmek için klonlanmış bir ses örneğini dinlemek için, bu Dijital Trendler makalesine göz atın.
Editörlerin Önerileri
- En iyi yazarlar, çalışmalarını kullanmaları karşılığında yapay zeka firmalarından ödeme talep ediyor
- En iyi AI video düzenleme araçları
- Elon Musk'un yeni yapay zeka şirketi 'evreni anlamayı' hedefliyor
- OpenAI, süper akıllı yapay zekanın kötüye gitmesini durdurmak için yeni ekip kuruyor
- OpenAI ilk uluslararası karakolunun yerini açıkladı
Yaşam tarzınızı yükseltinDigital Trends, en son haberler, eğlenceli ürün incelemeleri, anlayışlı başyazılar ve türünün tek örneği olan ön bakışlarla okuyucuların teknolojinin hızlı tempolu dünyasını takip etmelerine yardımcı olur.