Olet varmasti kuullut huijauksesta, jossa tekijä soittaa vanhuksen ja esiintyy hänen lapsenlapsenaan tai muuna lähisukulaisensa. Tavallinen rutiini on toimia ahdistuneessa tilassa, teeskennellä olevansa tahmeassa tilanteessa ja pyytää kiireellistä käteissiirtoa tilanteen ratkaisemiseksi. Vaikka monet isovanhemmat ymmärtävät, että ääni ei ole heidän lapsenlapsensa ääni ja katkaisevat puhelun, toiset eivät huomaa ja koska hän on liian innokas auttamaan ahdistunutta sukulaistaan, mene eteenpäin ja lähetä rahaa soittajalle tili.
A Washington Post Sunnuntain raportti paljastaa, että jotkut huijarit ovat vieneet huijauksen kokonaan uudelle tasolle ottamalla käyttöön tekoälyn tekniikka, joka pystyy kloonaamaan ääniä, mikä tekee siitä vieläkin todennäköisemmän, että kohde osuu juoni.
Postin mukaan rikolliset vaativat tämän huijauksen kehittyneemmän version käynnistämiseksi "vain muutaman lauseen ääninäytteen". Näyte ajetaan sitten yhden monista laajalti saatavilla olevista online-työkaluista, jotka käyttävät alkuperäistä ääntä luodakseen replikan, joka voidaan ohjata sanomaan mitä tahansa yksinkertaisesti kirjoittamalla lauseita.
Liittyvät
- GPT-4: kuinka käyttää AI-chatbotia, joka saa ChatGPT: n häpeään
- ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista
- Tekoälyn läpimurto voi tulla mehiläisten aivojen kautta, tutkijat sanovat
Federal Trade Commissionin tiedot viittaavat siihen, että pelkästään vuonna 2022 niin sanotuista huijarihuijauksista tuli yli 36 000 ilmoitusta, joista yli 5 000 tapahtui puhelimitse. Raportoidut tappiot olivat 11 miljoonaa dollaria.
Suositellut videot
Pelätään, että tekoälytyökalujen tehostumisen ja laajemman saatavuuden myötä entistä useammat ihmiset sortuvat huijaukseen tulevina kuukausina ja vuosina.
Huijaus vaatii kuitenkin vielä suunnittelua, sillä päättäväisen tekijän on löydettävä ääninäyte äänistä sekä uhrin puhelinnumero. Esimerkiksi ääninäytteet voisivat olla verkossa suosittujen sivustojen, kuten TikTokin ja YouTuben, kautta, kun taas puhelinnumerot voivat sijaita myös verkossa.
Huijaus voi myös esiintyä monessa muodossa. The Post mainitsee esimerkin, jossa lakimiehenä esiintyvä henkilö otti yhteyttä iäkkääseen pariskuntaan ja kertoi heidän pojanpoikansa oli pidätettynä väitetystä rikoksesta ja että he tarvitsivat yli 15 000 dollaria lainkäyttöön. kustannuksia. Väärä lakimies teeskenteli sitten ojentavansa puhelimen heidän pojanpojalleen, jonka kloonattu ääni anoi apua maksujen maksamiseen, minkä he tekivät asianmukaisesti.
He huomasivat, että heidät oli huijattu, kun heidän pojanpoikansa soitti heille myöhemmin samana päivänä keskustellakseen. Huijarin uskotaan saaneen kloonata äänensä pojanpojan julkaisemista YouTube-videoista, vaikka siitä on vaikea olla varma.
Jotkut vaativat, että ääniä kloonaavaa tekoälytekniikkaa valmistavia yrityksiä pidetään vastuullisina tällaisista rikoksista. Mutta ennen kuin tämä tapahtuu, näyttää varmalta, että monet muut menettävät rahaa tämän ilkeän huijauksen kautta.
Jos haluat kuunnella esimerkkiä kloonatusta äänestä nähdäksesi kuinka lähelle alkuperäistä se voi tulla, katso tämä Digital Trends -artikkeli.
Toimittajien suositukset
- Huippukirjailijat vaativat tekoälyyrityksiltä maksua työnsä käytöstä
- Parhaat AI-videonmuokkaustyökalut
- Elon Muskin uuden tekoälyyrityksen tavoitteena on "ymmärtää maailmankaikkeus"
- OpenAI rakentaa uutta tiimiä estääkseen superälykkään tekoälyn huijauksen
- OpenAI paljastaa ensimmäisen kansainvälisen etuvartionsa sijainnin
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.