Du har uten tvil hørt om svindelen der gjerningsmannen ringer opp en eldre person og utgir seg for å være deres barnebarn eller en annen nær slektning. Den vanlige rutinen er å opptre i nødstilt tilstand, late som om de er i en vanskelig situasjon, og be om en hasteoverføring for å løse situasjonen. Mens mange besteforeldre vil innse at stemmen ikke er barnebarnets stemme og legger på, vil andre ikke gjøre det legge merke til, og bare for opptatt av å hjelpe deres engstelige slektning, fortsett og send penger til den som ringer regnskap.
EN Washington Post rapporten på søndag avslører at noen svindlere har tatt ulempen til et helt nytt nivå ved å distribuere AI teknologi som er i stand til å klone stemmer, noe som gjør det enda mer sannsynlig at målet vil falle for ruse.
For å lansere denne mer sofistikerte versjonen av svindelen, krever kriminelle "en lydprøve med bare noen få setninger," ifølge Post. Prøven kjøres deretter gjennom et av mange allment tilgjengelige online verktøy som bruker den originale stemmen til å lage en kopi som kan instrueres til å si hva du vil, ganske enkelt ved å skrive inn fraser.
I slekt
- GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- AI-gjennombrudd kan komme via hjernen til bier, sier forskere
Data fra Federal Trade Commission antyder at i 2022 alene var det mer enn 36 000 rapporter om såkalte bedragerier, med mer enn 5000 av disse som skjedde over telefon. Rapporterte tap nådde 11 millioner dollar.
Anbefalte videoer
Frykten er at med AI-verktøy som blir mer effektive og mer allment tilgjengelige, vil enda flere falle for svindelen i de kommende månedene og årene.
Svindelen krever fortsatt litt planlegging, men en bestemt gjerningsperson må finne et lydeksempel av en stemme, samt telefonnummeret til det relaterte offeret. Lydeksempler kan for eksempel være plassert på nettet via populære nettsteder som TikTok og YouTube, mens telefonnumre også kan være plassert på nettet.
Svindelen kan også ha mange former. Posten nevner et eksempel der noen som utga seg for å være advokat tok kontakt med et eldre ektepar og fortalte barnebarnet deres var varetektsfengslet for en påstått forbrytelse og at de trengte mer enn $15 000 for juridisk kostnader. Den falske advokaten lot deretter som han ga telefonen til barnebarnet deres, hvis klonede stemme ba om hjelp til å betale gebyrene, noe de behørig gjorde.
De skjønte først at de hadde blitt lurt da barnebarnet deres ringte dem senere samme dag for en prat. Det antas at svindleren kan ha klonet stemmen sin fra YouTube-videoer som barnebarnet la ut, selv om det er vanskelig å være sikker.
Noen ber om at selskapene som lager AI-teknologien som kloner stemmer, skal holdes ansvarlige for slike forbrytelser. Men før dette skjer, virker det sikkert at mange andre vil tape penger på denne uhyggelige svindelen.
For å lytte til et eksempel på en klonet stemme for å se hvor nær originalen den kan komme, sjekk ut denne artikkelen om digitale trender.
Redaktørenes anbefalinger
- Toppforfattere krever betaling fra AI-firmaer for å bruke arbeidet deres
- De beste AI-videoredigeringsverktøyene
- Elon Musks nye AI-selskap har som mål å "forstå universet"
- OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
- OpenAI avslører plasseringen av sin første internasjonale utpost
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.