Umělá inteligence dělá dlouhotrvající podvod ještě efektivnější

Nepochybně jste slyšeli o podvodu, kdy pachatel zavolá starší osobě a předstírá, že je její vnuk nebo jiný blízký příbuzný. Obvyklou rutinou je jednat v tísni, předstírat, že jsou v lepkavé situaci, a požádat o okamžitý převod hotovosti, aby se situace vyřešila. Zatímco mnoho prarodičů si uvědomí, že to není hlas jejich vnoučete, a zavěsí, jiní ne. všimněte si toho, a protože je příliš horlivý na to, aby pomohl svému úzkostnému příbuznému, jděte do toho a pošlete peníze volajícímu účet.

A Washington Post report on Sunday odhaluje, že někteří podvodníci posunuli podvod na zcela novou úroveň nasazením AI technologie schopná klonovat hlasy, takže je ještě pravděpodobnější, že cíl padne na lest.

Starší člověk drží telefon.
Ono Kosuki/Pexels

Ke spuštění této sofistikovanější verze podvodu potřebují zločinci podle Post „zvukovou ukázku s několika větami“. Ukázka je poté spuštěna prostřednictvím jednoho z mnoha široce dostupných online nástrojů, které používají původní hlas k vytvoření repliky, kterou lze nařídit, aby řekla, co chcete, pouhým zadáním frází.

Příbuzný

  • GPT-4: jak používat chatbota s umělou inteligencí, který dělá ChatGPT hanbou
  • Tvůrce ChatGPT OpenAI čelí vyšetřování FTC kvůli zákonům na ochranu spotřebitele
  • Vědci říkají, že průlomy v umělé inteligenci by mohly přijít prostřednictvím mozku včel

Údaje z Federal Trade Commission naznačují, že jen v roce 2022 bylo hlášeno více než 36 000 takzvaných podvodných podvodníků, přičemž více než 5 000 z nich se odehrálo po telefonu. Hlášené ztráty dosáhly 11 milionů dolarů.

Doporučená videa

Obává se, že s tím, jak budou nástroje umělé inteligence efektivnější a dostupnější, v nadcházejících měsících a letech propadne podvodu ještě více lidí.

Podvod však stále vyžaduje určité plánování, protože odhodlaný pachatel potřebuje najít zvukovou ukázku hlasu a také telefonní číslo související oběti. Zvukové ukázky lze například najít online prostřednictvím oblíbených stránek, jako je TikTok a YouTube, zatímco telefonní čísla lze také najít na webu.

Podvod může mít také mnoho podob. The Post uvádí příklad, kdy někdo vydávající se za právníka kontaktoval starší pár a vyprávěl jejich vnuk byl ve vazbě za údajný zločin a že potřebovali více než 15 000 dolarů na právní náklady. Falešný právník pak předstíral, že předává telefon jejich vnukovi, jehož klonovaný hlas prosil o pomoc se zaplacením poplatků, což řádně učinili.

Uvědomili si, že byli podvedeni, až když jim později toho dne zavolal jejich vnuk, aby si popovídali. Předpokládá se, že podvodník mohl naklonovat svůj hlas z videí na YouTube, která vnuk zveřejnil, i když je těžké si být jistý.

Někteří volají po společnostech, které vyrábějí technologii AI, která klonuje hlasy, aby byly zodpovědné za takové zločiny. Ale než se tak stane, zdá se jisté, že mnoho dalších přijde o peníze prostřednictvím tohoto hanebného podvodu.

Chcete-li si poslechnout příklad klonovaného hlasu, abyste viděli, jak blízko se může přiblížit originálu, podívejte se na tento článek Digitální trendy.

Doporučení redakce

  • Špičkoví autoři požadují od firem zabývajících se umělou inteligencí platby za použití jejich díla
  • Nejlepší nástroje pro úpravu videa AI
  • Nová společnost Elona Muska zaměřená na umělou inteligenci si klade za cíl ‚porozumět vesmíru‘
  • OpenAI buduje nový tým, aby zabránil tomu, že superinteligentní umělá inteligence bude nečestná
  • OpenAI odhaluje umístění své první mezinárodní základny

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.