Ви, безсумнівно, чули про шахрайство, коли зловмисник дзвонить літній людині та прикидається її онуком або іншим близьким родичем. Звичайна рутина полягає в тому, щоб діяти в скрутному стані, вдавати, що вони опинилися в скрутній ситуації, і просити терміново переказати гроші, щоб вирішити ситуацію. У той час як багато бабусь і дідусів зрозуміють, що це не голос їхніх онуків, і покладуть трубку, інші цього не зроблять помічають і, надто прагнучи допомогти своєму стурбованому родичу, надсилають гроші абоненту рахунок.
А Washington Post Недільний звіт показує, що деякі шахраї вивели шахрайство на абсолютно новий рівень, розгорнувши ШІ технологія, здатна клонувати голоси, що робить ще більшою вірогідність того, що ціль попадеться на хитрість.
Щоб запустити цю більш витончену версію шахрайства, злочинцям потрібен «зразок аудіо лише з кількома реченнями», повідомляє Post. Потім зразок запускається за допомогою одного з багатьох широко доступних онлайн-інструментів, які використовують оригінальний голос для створення копії, якій можна сказати, що завгодно, просто ввівши фрази.
Пов'язані
- GPT-4: як використовувати чат-бот ШІ, який ганьбить ChatGPT
- Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
- Вчені кажуть, що відкриття штучного інтелекту можуть відбуватися через мозок бджіл
Дані Федеральної торгової комісії свідчать про те, що лише у 2022 році було надіслано понад 36 000 повідомлень про так звані самозванці, причому понад 5 000 із них відбувалися по телефону. Заявлені збитки досягли 11 мільйонів доларів.
Рекомендовані відео
Побоювання полягає в тому, що у зв’язку з тим, що інструменти штучного інтелекту стають ефективнішими та доступнішими, у найближчі місяці та роки на шахрайство потрапить ще більше людей.
Проте шахрайство все ще вимагає певного планування, оскільки рішучому зловмиснику потрібно знайти аудіо зразок голосу, а також номер телефону пов’язаної жертви. Наприклад, зразки аудіо можна знайти в Інтернеті через такі популярні сайти, як TikTok і YouTube, а номери телефонів також можна знайти в Інтернеті.
Шахрайство також може приймати різні форми. The Post наводить приклад, коли хтось, видаючи себе за адвоката, зв’язався з літньою парою, розповівши їхній онук перебував під вартою за ймовірний злочин і що їм потрібно більше 15 000 доларів США для витрати. Потім фальшивий адвокат удав, що простягає телефон їхньому онукові, чий клонований голос благав допомогти сплатити гонорари, що вони належним чином зробили.
Вони зрозуміли, що їх ошукали, лише коли їхній онук зателефонував їм того дня, щоб поговорити. Вважається, що шахрай міг клонувати свій голос із відео на YouTube, які опублікував онук, хоча це важко бути впевненим.
Деякі закликають притягнути до відповідальності за такі злочини компанії, які створюють технологію ШІ, яка клонує голоси. Але перш ніж це станеться, здається певним, що багато інших втратять гроші через це мерзенне шахрайство.
Щоб послухати приклад клонованого голосу, щоб побачити, наскільки він може наблизитися до оригіналу, перегляньте цю статтю Digital Trends.
Рекомендації редакції
- Найпопулярніші автори вимагають від фірм штучного інтелекту плату за використання їхніх робіт
- Найкращі інструменти для редагування відео AI
- Нова компанія ШІ Ілона Маска прагне «розуміти Всесвіт»
- OpenAI створює нову команду, щоб зупинити надрозумний штучний інтелект
- OpenAI розкриває місцезнаходження свого першого міжнародного форпосту
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.