AI naredi dolgoletno prevaro še bolj učinkovito

Zagotovo ste že slišali za prevaro, kjer storilec pokliče starejšo osebo in se predstavlja za njenega vnuka ali drugega bližnjega sorodnika. Običajna rutina je, da se obnašajo v stiski, se pretvarjajo, da so v težavni situaciji, in prosijo za nujno nakazilo denarja za rešitev situacije. Medtem ko bodo mnogi stari starši ugotovili, da to ni glas njihovega vnuka, in bodo odložili slušalko, drugi ne bodo obvestilo in, preveč navdušeni, da bi pomagali svojemu zaskrbljenemu sorodniku, pošljite denar klicateljevemu račun.

A Washington Post Nedeljsko poročilo razkriva, da so nekateri prevaranti z uvedbo umetne inteligence dvignili prevaro na povsem novo raven tehnologijo, ki je sposobna klonirati glasove, zaradi česar je še bolj verjetno, da bo tarča padla na zvijača.

Starejša oseba drži telefon.
Ono Kosuki/Pexels

Da bi zagnali to bolj sofisticirano različico prevare, kriminalci potrebujejo "zvočni vzorec z le nekaj stavki", poroča Post. Vzorec se nato pregleda z enim od številnih široko dostopnih spletnih orodij, ki uporabljajo izvirni glas za ustvarjanje replike, ki ji je mogoče naročiti, da pove, kar želite, preprosto z vnašanjem fraz.

Povezano

  • GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
  • Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
  • Preboji umetne inteligence bi lahko prišli prek možganov čebel, pravijo znanstveniki

Podatki Zvezne komisije za trgovino kažejo, da je bilo samo leta 2022 več kot 36.000 poročil o tako imenovanih prevarah s prevarami, pri čemer se je več kot 5000 od teh zgodilo po telefonu. Prijavljene izgube so dosegle 11 milijonov dolarjev.

Priporočeni videoposnetki

Strah je, da bo zaradi postajanja učinkovitejših in širše dostopnih orodij AI še več ljudi nasedlo prevari v prihodnjih mesecih in letih.

Prevara še vedno zahteva nekaj načrtovanja, saj mora odločni storilec najti zvočni vzorec glasu in telefonsko številko povezane žrtve. Zvočne vzorce, na primer, bi lahko našli na spletu prek priljubljenih spletnih mest, kot sta TikTok in YouTube, medtem ko bi lahko telefonske številke našli tudi na spletu.

Prevara ima lahko tudi različne oblike. The Post navaja primer, ko je nekdo, ki se je pretvarjal, da je odvetnik, stopil v stik s starejšim parom in povedal njihov vnuk je bil v priporu zaradi domnevnega kaznivega dejanja in da so potrebovali več kot 15.000 dolarjev za stroški. Lažni odvetnik se je nato pretvarjal, da je dal telefon njunemu vnuku, čigar kloniran glas je prosil za pomoč pri plačilu honorarjev, kar sta tudi storila.

Spoznala sta, da sta bila prevarana, šele ko ju je kasneje tistega dne poklical vnuk na klepet. Domneva se, da je prevarant morda kloniral svoj glas iz videoposnetkov na YouTubu, ki jih je objavil vnuk, čeprav je težko biti prepričan.

Nekateri pozivajo, naj podjetja, ki izdelujejo tehnologijo umetne inteligence, ki klonira glasove, odgovarjajo za takšne zločine. Toda preden se to zgodi, se zdi gotovo, da bodo številni drugi izgubili denar s to nečedno prevaro.

Če želite poslušati primer kloniranega glasu in videti, kako blizu se lahko približa izvirniku, si oglejte ta članek Digital Trends.

Priporočila urednikov

  • Najboljši avtorji zahtevajo plačilo od podjetij AI za uporabo njihovega dela
  • Najboljša orodja za urejanje videa z umetno inteligenco
  • Novo podjetje Elona Muska z umetno inteligenco želi "razumeti vesolje"
  • OpenAI ustvarja novo ekipo, ki bo preprečila, da bi superinteligentni AI postal lopov
  • OpenAI razkriva lokacijo svoje prve mednarodne postojanke

Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.