AI čini dugotrajnu prijevaru još učinkovitijom

Sigurno ste čuli za prijevaru u kojoj počinitelj poziva stariju osobu i pretvara se da je njezin unuk ili neki drugi bliži rođak. Uobičajena rutina je ponašati se u uznemirenom stanju, pretvarati se da su u nezgodnoj situaciji i tražiti hitan prijenos gotovine kako bi se riješila situacija. Dok će mnogi bake i djedovi shvatiti da to nije glas njihovog unuka i poklopiti slušalicu, drugi neće obavijest i, previše željni pomoći svom zabrinutom rođaku, samo naprijed i pošaljite novac pozivatelju račun.

A Washington Post izvješće u nedjelju otkriva da su neki prevaranti podigli prijevaru na potpuno novu razinu uvođenjem umjetne inteligencije tehnologija sposobna klonirati glasove, čineći još vjerojatnijim da će meta pasti na smicalica.

Starija osoba drži telefon.
Ono Kosuki/Pexels

Kako bi pokrenuli ovu sofisticiraniju verziju prijevare, kriminalcima je potreban "uzorak zvuka sa samo nekoliko rečenica", piše Post. Uzorak se potom provlači kroz jedan od mnogih široko dostupnih online alata koji koriste originalni glas za stvaranje replike koja se može uputiti da kaže što god želite jednostavnim upisivanjem fraza.

Povezano

  • GPT-4: kako koristiti AI chatbot koji posramljuje ChatGPT
  • Proizvođač ChatGPT-a OpenAI suočava se s istragom FTC-a zbog zakona o zaštiti potrošača
  • Znanstvenici kažu da bi otkrića umjetne inteligencije mogla doći preko mozgova pčela

Podaci Savezne komisije za trgovinu sugeriraju da je samo 2022. bilo više od 36 000 prijava takozvanih prijevara s prevarantima, od kojih se više od 5 000 dogodilo putem telefona. Prijavljeni gubici dosegli su 11 milijuna dolara.

Preporučeni videozapisi

Strah je da će s alatima umjetne inteligencije koji postaju učinkovitiji i dostupniji još više ljudi pasti na prijevaru u nadolazećim mjesecima i godinama.

Međutim, prijevara još uvijek zahtijeva određeno planiranje, jer odlučni počinitelj mora pronaći audio uzorak glasa, kao i telefonski broj povezane žrtve. Audio uzorci, na primjer, mogu se pronaći online putem popularnih stranica kao što su TikTok i YouTube, dok se telefonski brojevi također mogu pronaći na webu.

Prijevara također može imati mnoge oblike. Post navodi primjer u kojem je netko tko se predstavljao kao odvjetnik kontaktirao stariji par, govoreći njihov unuk je bio u pritvoru zbog navodnog zločina i da im je potrebno više od 15.000 dolara za pravni troškovi. Lažni odvjetnik zatim se pretvarao da daje telefon njihovom unuku, čiji je klonirani glas molio za pomoć pri plaćanju pristojbi, što su oni uredno i učinili.

Shvatili su da su prevareni tek kada ih je njihov unuk nazvao kasnije tog dana na razgovor. Pretpostavlja se da je prevarant možda klonirao svoj glas iz YouTube videa koje je unuk objavio, iako je teško biti siguran.

Neki traže da se tvrtke koje proizvode AI tehnologiju koja klonira glasove smatraju odgovornima za takve zločine. Ali prije nego što se to dogodi, čini se izvjesnim da će mnogi drugi izgubiti novac putem ove podle prijevare.

Da poslušate primjer kloniranog glasa da vidite koliko se može približiti izvorniku, pogledajte ovaj članak Digital Trends.

Preporuke urednika

  • Vrhunski autori traže plaćanje od AI tvrtki za korištenje njihovog rada
  • Najbolji AI alati za uređivanje videa
  • Nova AI tvrtka Elona Muska ima za cilj 'razumjeti svemir'
  • OpenAI gradi novi tim koji će spriječiti da superinteligentna umjetna inteligencija postane skitnica
  • OpenAI otkriva lokaciju svoje prve međunarodne ispostave

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.