Fără îndoială, ați auzit de escrocheria în care făptuitorul cheamă o persoană în vârstă și se preface a fi nepotul sau o altă rudă apropiată. Rutina obișnuită este să acționezi într-o stare de suferință, să te prefaci că se află într-o situație dificilă și să ceri un transfer urgent de numerar pentru a rezolva situația. În timp ce mulți bunici își vor da seama că vocea nu este cea a nepotului lor și vor închide, alții nu vor observă și, prea dornici să-și ajute ruda anxioasă, mergi mai departe și trimite bani la apelant cont.
A Washington Post Raportul de duminică dezvăluie că unii escroci au dus escrocheria la un nivel cu totul nou prin implementarea AI tehnologie capabilă să cloneze voci, ceea ce face și mai probabil ca ținta să cadă pentru şiretlic.
Pentru a lansa această versiune mai sofisticată a înșelătoriei, infractorii au nevoie de „o mostră audio cu doar câteva propoziții”, potrivit Postului. Eșantionul este apoi rulat printr-unul dintre multele instrumente online disponibile pe scară largă care folosesc vocea originală pentru a crea o replică care poate fi instruită să spună orice doriți, prin simpla introducere a frazelor.
Legate de
- GPT-4: cum să folosești chatbot-ul AI care face ChatGPT de rușine
- Creatorul de ChatGPT OpenAI se confruntă cu o anchetă FTC cu privire la legile privind protecția consumatorilor
- Descoperirile AI ar putea veni prin creierul albinelor, spun oamenii de știință
Datele Comisiei Federale pentru Comerț sugerează că numai în 2022, au existat peste 36.000 de rapoarte de așa-numite înșelătorii de impostori, peste 5.000 dintre acestea având loc prin telefon. Pierderile raportate au ajuns la 11 milioane de dolari.
Videoclipuri recomandate
Teama este că, odată cu instrumentele AI care devin mai eficiente și mai disponibile pe scară largă, și mai mulți oameni vor cădea în escrocherie în următoarele luni și ani.
Înșelătoria necesită încă ceva planificare, totuși, un făptuitor hotărât care trebuie să găsească o mostră audio a unei voci, precum și numărul de telefon al victimei înrudite. Mostre audio, de exemplu, ar putea fi găsite online prin site-uri populare precum TikTok și YouTube, în timp ce numerele de telefon ar putea fi găsite și pe web.
Înșelătoria poate lua și multe forme. Postul citează un exemplu în care cineva care se pretindea a fi avocat a contactat un cuplu în vârstă, spunând nepotul lor era în arest pentru o presupusă crimă și că aveau nevoie de mai mult de 15.000 de dolari pentru legalitate. cheltuieli. Avocatul fals s-a prefăcut apoi că îi dă telefonul nepotului lor, a cărui voce clonată a cerut ajutor pentru plata taxelor, ceea ce au făcut în mod corespunzător.
Și-au dat seama că fuseseră înșelați doar când nepotul lor i-a sunat mai târziu în acea zi pentru o conversație. Se crede că escrocul și-a clonat vocea din videoclipurile pe YouTube pe care nepotul le-a postat, deși este greu de sigur.
Unii cer ca companiile care produc tehnologia AI care clonează vocile să fie considerate responsabile pentru astfel de crime. Dar înainte de a se întâmpla acest lucru, pare sigur că mulți alții vor pierde bani prin această înșelătorie nefastă.
Pentru a asculta un exemplu de voce clonată pentru a vedea cât de aproape de original poate ajunge, consultați acest articol Digital Trends.
Recomandările editorilor
- Autorii de top cer plăți de la firmele de inteligență artificială pentru utilizarea lucrărilor lor
- Cele mai bune instrumente de editare video AI
- Noua companie de inteligență artificială a lui Elon Musk își propune să „înțeleagă universul”
- OpenAI construiește o nouă echipă pentru a împiedica IA superinteligentă să devină necinstită
- OpenAI dezvăluie locația primului său avanpost internațional
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.