Du har uden tvivl hørt om fidusen, hvor gerningsmanden ringer op til en ældre person og udgiver sig for at være deres barnebarn eller en anden nær slægtning. Den sædvanlige rutine er at handle i en nødstedt tilstand, lade som om de er i en klæbrig situation og bede om en hasteoverførsel for at løse situationen. Mens mange bedsteforældre vil indse, at stemmen ikke er deres barnebarns og lægge på, vil andre ikke lægge mærke til og, kun alt for ivrige efter at hjælpe deres ængstelige slægtning, gå videre og send penge til den, der ringer op konto.
EN Washington Post rapporten på søndag afslører, at nogle svindlere har taget ulempen til et helt nyt niveau ved at implementere AI teknologi, der er i stand til at klone stemmer, hvilket gør det endnu mere sandsynligt, at målet vil falde for list.
For at lancere denne mere sofistikerede version af fidusen, kræver kriminelle "en lydprøve med kun et par sætninger," ifølge Post. Prøven køres derefter gennem et af mange bredt tilgængelige onlineværktøjer, der bruger den originale stemme til at skabe en replika, der kan instrueres til at sige, hvad du vil, blot ved at indtaste sætninger.
Relaterede
- GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
- ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
- AI-gennembrud kan komme via biernes hjerner, siger videnskabsmænd
Data fra Federal Trade Commission tyder på, at der alene i 2022 var mere end 36.000 rapporter om såkaldte bedragere, hvor mere end 5.000 af disse skete over telefonen. Rapporterede tab nåede 11 millioner dollars.
Anbefalede videoer
Frygten er, at med AI-værktøjer, der bliver mere effektive og bredere tilgængelige, vil endnu flere mennesker falde for fidusen i de kommende måneder og år.
Fidusen kræver dog stadig noget planlægning, og en beslutsom gerningsmand skal finde et lydeksempel af en stemme samt telefonnummeret på det relaterede offer. Lydeksempler kunne for eksempel være placeret online via populære websteder som TikTok og YouTube, mens telefonnumre også kunne findes på nettet.
Fidusen kan også antage mange former. Posten nævner et eksempel, hvor en, der udgav sig for at være advokat, kontaktede et ældre ægtepar og fortalte deres barnebarn var varetægtsfængslet for en påstået forbrydelse, og at de havde brug for mere end $15.000 til juridisk omkostninger. Den falske advokat foregav derefter at give telefonen til deres barnebarn, hvis klonede stemme bad om hjælp til at betale gebyrerne, hvilket de behørigt gjorde.
De indså først, at de var blevet snydt, da deres barnebarn ringede til dem senere på dagen for en snak. Det menes, at svindleren kan have klonet sin stemme fra YouTube-videoer, som barnebarnet har lagt ud, selvom det er svært at være sikker.
Nogle opfordrer til, at de virksomheder, der laver AI-teknologien, der kloner stemmer, bliver holdt ansvarlige for sådanne forbrydelser. Men før dette sker, virker det sikkert, at mange andre vil tabe penge på denne uhyggelige fidus.
For at lytte til et eksempel på en klonet stemme for at se, hvor tæt på originalen den kan komme, tjek denne artikel om digitale trends.
Redaktørernes anbefalinger
- Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
- De bedste AI-videoredigeringsværktøjer
- Elon Musks nye AI-virksomhed har til formål at 'forstå universet'
- OpenAI bygger nyt hold for at forhindre, at superintelligent kunstig intelligens bliver useriøs
- OpenAI afslører placeringen af sin første internationale forpost
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.