U heeft ongetwijfeld wel eens gehoord van de zwendel waarbij de dader een oudere persoon opbelt en zich voordoet als zijn kleinkind of een ander naast familielid. De gebruikelijke routine is om in een noodlijdende toestand te handelen, te doen alsof ze zich in een lastige situatie bevinden en om een dringende geldoverboeking te vragen om de situatie op te lossen. Terwijl veel grootouders zich zullen realiseren dat de stem niet die van hun kleinkind is en ophangen, zullen anderen dat niet doen het opmerken en, maar al te graag om hun bezorgde familielid te helpen, ga je gang en stuur je geld naar de beller rekening.
A Washingtonpost Uit een rapport van zondag blijkt dat sommige oplichters de oplichterij naar een geheel nieuw niveau hebben getild door AI in te zetten technologie die stemmen kan klonen, waardoor het nog waarschijnlijker wordt dat het doelwit voor de list.
Om deze meer geavanceerde versie van de zwendel te lanceren, hebben criminelen volgens de Post “een audiofragment met slechts een paar zinnen” nodig. Het voorbeeld wordt vervolgens door een van de vele algemeen beschikbare online tools gehaald die de originele stem gebruiken om een replica te maken die kan worden geïnstrueerd om te zeggen wat je maar wilt, simpelweg door zinnen in te typen.
Verwant
- GPT-4: hoe je de AI-chatbot gebruikt die ChatGPT te schande maakt
- ChatGPT-maker OpenAI wordt geconfronteerd met een FTC-onderzoek naar wetten inzake consumentenbescherming
- Doorbraken op het gebied van AI zouden via de hersenen van bijen kunnen komen, zeggen wetenschappers
Uit gegevens van de Federal Trade Commission blijkt dat er alleen al in 2022 ruim 36.000 meldingen waren van zogenaamde oplichting door oplichters, waarvan ruim 5.000 via de telefoon. De gerapporteerde verliezen bedroegen $ 11 miljoen.
Aanbevolen video's
De angst is dat nu AI-tools effectiever en breder beschikbaar worden, de komende maanden en jaren nog meer mensen voor deze zwendel zullen trappen.
De zwendel vergt echter nog steeds enige planning, waarbij een vastberaden dader een audiofragment van een stem moet vinden, evenals het telefoonnummer van het gerelateerde slachtoffer. Audiofragmenten kunnen bijvoorbeeld online worden gevonden via populaire sites als TikTok en YouTube, terwijl telefoonnummers ook op internet kunnen worden gevonden.
De zwendel kan ook vele vormen aannemen. The Post haalt een voorbeeld aan waarbij iemand die zich voordeed als advocaat contact opnam met een ouder echtpaar en vertelde hen dat hun kleinzoon in hechtenis zat wegens een vermeend misdrijf en dat ze meer dan $ 15.000 nodig hadden voor juridische stappen kosten. De nepadvocaat deed vervolgens alsof hij de telefoon aan hun kleinzoon overhandigde, wiens gekloonde stem om hulp smeekte om de honoraria te betalen, wat ze terecht deden.
Ze beseften pas dat ze waren opgelicht toen hun kleinzoon hen later die dag belde voor een praatje. Er wordt gedacht dat de oplichter zijn stem heeft gekloond uit YouTube-video's die de kleinzoon heeft gepost, hoewel dat moeilijk met zekerheid te zeggen is.
Sommigen roepen op om de bedrijven die de AI-technologie maken die stemmen kloont, verantwoordelijk te houden voor dergelijke misdaden. Maar voordat dit gebeurt, lijkt het zeker dat vele anderen geld zullen verliezen via deze snode zwendel.
Om naar een voorbeeld van een gekloonde stem te luisteren en te zien hoe dicht deze bij het origineel kan komen: bekijk dit Digitale Trends-artikel.
Aanbevelingen van de redactie
- Topauteurs eisen betaling van AI-bedrijven voor het gebruik van hun werk
- De beste AI-videobewerkingstools
- Het nieuwe AI-bedrijf van Elon Musk wil 'het universum begrijpen'
- OpenAI bouwt nieuw team om te voorkomen dat superintelligente AI schurkenstaten wordt
- OpenAI onthult de locatie van zijn eerste internationale buitenpost
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.