Nepochybne ste už počuli o podvode, kde páchateľ zavolá staršiu osobu a predstiera, že je jej vnukom alebo iným blízkym príbuzným. Zvyčajnou rutinou je konať v núdzovom stave, predstierať, že sú v lepkavej situácii, a požiadať o naliehavý prevod hotovosti na vyriešenie situácie. Zatiaľ čo mnohí starí rodičia si uvedomia, že to nie je hlas ich vnúčat, a zavesia, iní nie všimnite si to a príliš horlivo pomôžete svojmu úzkostlivému príbuznému a pošlite peniaze volajúcemu účtu.
A Washington Post správa v nedeľu odhaľuje, že niektorí podvodníci posunuli podvod na úplne novú úroveň nasadením AI technológia schopná klonovať hlasy, vďaka čomu je ešte pravdepodobnejšie, že cieľ padne na lesť.
Na spustenie tejto sofistikovanejšej verzie podvodu potrebujú zločinci podľa Post „zvukovú ukážku s niekoľkými vetami“. Ukážka je potom spustená prostredníctvom jedného z mnohých široko dostupných online nástrojov, ktoré využívajú pôvodný hlas na vytvorenie repliky, ktorá môže byť inštruovaná, aby povedala čokoľvek chcete jednoduchým zadaním fráz.
Súvisiace
- GPT-4: ako používať chatbota AI, ktorý robí ChatGPT hanbou
- Výrobca ChatGPT OpenAI čelí vyšetrovaniu FTC v súvislosti so zákonmi na ochranu spotrebiteľa
- Vedci tvrdia, že objavy AI by mohli prísť cez mozgy včiel
Údaje Federálnej obchodnej komisie naznačujú, že len v roku 2022 bolo hlásených viac ako 36 000 takzvaných podvodných podvodníkov, pričom viac ako 5 000 z nich sa odohralo cez telefón. Hlásené straty dosiahli 11 miliónov dolárov.
Odporúčané videá
Obávame sa, že s tým, ako sa nástroje AI stanú efektívnejšími a dostupnejšími, v najbližších mesiacoch a rokoch podľahne podvodu ešte viac ľudí.
Podvod si však stále vyžaduje určité plánovanie, pričom odhodlaný páchateľ musí nájsť zvukovú vzorku hlasu, ako aj telefónne číslo súvisiacej obete. Zvukové ukážky by sa napríklad dali nájsť online prostredníctvom populárnych stránok, ako sú TikTok a YouTube, zatiaľ čo telefónne čísla sa dajú nájsť aj na webe.
Podvod môže mať tiež mnoho podôb. The Post uvádza príklad, keď niekto, kto sa vydáva za právnika, kontaktoval starší pár a rozprával sa ich vnuk bol vo väzbe za údajný zločin a že potrebovali viac ako 15 000 dolárov na právne náklady. Falošný právnik potom predstieral, že podal telefón ich vnukovi, ktorého klonovaný hlas prosil o pomoc pri zaplatení poplatkov, čo aj riadne urobili.
Uvedomili si, že boli podvedení, keď im neskôr v ten deň zavolal ich vnuk na rozhovor. Predpokladá sa, že podvodník mohol naklonovať svoj hlas z videí YouTube, ktoré vnuk zverejnil, aj keď je ťažké si byť istý.
Niektorí žiadajú, aby spoločnosti, ktoré vyrábajú technológiu AI, ktorá klonuje hlasy, boli zodpovedné za takéto zločiny. Ale skôr ako sa tak stane, zdá sa isté, že mnohí ďalší prídu o peniaze prostredníctvom tohto hanebného podvodu.
Ak si chcete vypočuť príklad klonovaného hlasu, aby ste videli, ako blízko sa môže priblížiť originálu, pozrite si tento článok o digitálnych trendoch.
Odporúčania redaktorov
- Špičkoví autori požadujú od firiem AI platbu za používanie ich práce
- Najlepšie nástroje na úpravu videa AI
- Nová spoločnosť Elona Muska zameraná na umelú inteligenciu má za cieľ „pochopiť vesmír“
- OpenAI buduje nový tím, aby zastavil nečestnú superinteligentnú AI
- OpenAI odhaľuje umiestnenie svojej prvej medzinárodnej základne
Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.