Du har utan tvekan hört talas om bluffen där förövaren ringer upp en äldre person och låtsas vara deras barnbarn eller någon annan nära släkting. Den vanliga rutinen är att agera i ett nödläge, låtsas att de är i en klibbig situation och be om en akut kontantöverföring för att lösa situationen. Medan många morföräldrar kommer att inse att rösten inte är deras barnbarns röst och lägger på luren, kommer andra inte att göra det uppmärksamma och, bara alltför angelägna om att hjälpa sin oroliga släkting, gå vidare och skicka pengar till den som ringer konto.
A Washington Post rapporten på söndagen avslöjar att vissa bedragare har tagit nackdelen till en helt ny nivå genom att distribuera AI teknik som kan klona röster, vilket gör det ännu mer sannolikt att målet kommer att falla för knep.
För att lansera denna mer sofistikerade version av bluffen kräver brottslingar "ett ljudprov med bara några få meningar", enligt Post. Provet körs sedan genom ett av många allmänt tillgängliga onlineverktyg som använder den ursprungliga rösten för att skapa en replik som kan instrueras att säga vad du vill helt enkelt genom att skriva in fraser.
Relaterad
- GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
- AI-genombrott kan komma via binas hjärnor, säger forskare
Data från Federal Trade Commission tyder på att det bara under 2022 fanns mer än 36 000 rapporter om så kallade bedragare, med mer än 5 000 av dessa per telefon. De rapporterade förlusterna uppgick till 11 miljoner dollar.
Rekommenderade videor
Rädslan är att med AI-verktyg som blir mer effektiva och mer allmänt tillgängliga kommer ännu fler människor att falla för bluffen under de kommande månaderna och åren.
Bedrägeriet kräver fortfarande en del planering, men en bestämd gärningsman måste hitta ett ljudprov av en röst, samt telefonnummer till det relaterade offret. Ljudprover kan till exempel finnas online via populära sajter som TikTok och YouTube, medan telefonnummer också kan finnas på webben.
Bedrägeriet kan också ta många former. Posten nämner ett exempel där någon som utger sig för att vara advokat kontaktade ett äldre par och berättade deras barnbarn var häktad för ett påstått brott och att de behövde mer än 15 000 dollar för juridiskt kostar. Den falska advokaten låtsades sedan lämna telefonen till deras barnbarn, vars klonade röst vädjade om hjälp att betala avgifterna, vilket de vederbörligen gjorde.
De insåg först att de hade blivit lurade när deras barnbarn ringde dem senare samma dag för en pratstund. Man tror att bedragaren kan ha klonat sin röst från YouTube-videor som barnbarnet lade upp, även om det är svårt att vara säker.
Vissa kräver att företagen som tillverkar AI-tekniken som klonar röster ska hållas ansvariga för sådana brott. Men innan detta händer verkar det säkert att många andra kommer att förlora pengar på denna skändliga bluff.
För att lyssna på ett exempel på en klonad röst för att se hur nära originalet den kan komma, kolla in den här artikeln om digitala trender.
Redaktörens rekommendationer
- Toppförfattare kräver betalning från AI-företag för att de använder deras arbete
- De bästa AI-videoredigeringsverktygen
- Elon Musks nya AI-företag syftar till att "förstå universum"
- OpenAI bygger ett nytt team för att förhindra att superintelligent AI blir oseriöst
- OpenAI avslöjar platsen för sin första internationella utpost
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.