AI прави една дългогодишна измама още по-ефективна

Със сигурност сте чували за измама, при която извършителят се обажда на възрастен човек и се представя за негов внук или друг близък роднина. Обичайната рутина е да действат в бедстващо състояние, да се преструват, че са в трудна ситуация и да поискат спешен паричен превод за разрешаване на ситуацията. Докато много баби и дядовци ще разберат, че гласът не е на внука им и ще затворят, други няма забележете и, твърде силно желаещи да помогнат на своя разтревожен роднина, продължете и изпратете пари на обаждащия се сметка.

А Вашингтон пост докладът в неделя разкрива, че някои измамници са издигнали измамата на съвсем ново ниво, като са внедрили AI технология, способна да клонира гласове, което прави още по-вероятно целта да падне на хитрост.

Възрастен човек държи телефон.
Оно Косуки/Пексели

За да стартират тази по-сложна версия на измамата, престъпниците изискват „аудио извадка само с няколко изречения“, според Post. След това извадката се пуска през един от многото широко достъпни онлайн инструменти, които използват оригиналния глас, за да създадат реплика, която може да бъде инструктирана да каже каквото искате, просто чрез въвеждане на фрази.

Свързани

  • GPT-4: как да използвате AI chatbot, който засрамва ChatGPT
  • Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
  • Пробивите в ИИ могат да дойдат чрез мозъците на пчелите, твърдят учени

Данните от Федералната търговска комисия сочат, че само през 2022 г. е имало повече от 36 000 доклада за така наречените измами с измамници, като повече от 5000 от тях са станали по телефона. Отчетените загуби достигнаха 11 милиона долара.

Препоръчани видеоклипове

Страхът е, че с инструментите за изкуствен интелект, които стават все по-ефективни и по-широко достъпни, още повече хора ще попаднат на измамата през следващите месеци и години.

Измамата все още изисква известно планиране, като решителният извършител трябва да намери аудио извадка от глас, както и телефонния номер на свързаната жертва. Аудио мостри, например, могат да бъдат намерени онлайн чрез популярни сайтове като TikTok и YouTube, докато телефонните номера също могат да бъдат намерени в мрежата.

Измамата също може да приеме много форми. The Post цитира пример, когато някой, представящ се за адвокат, се свързва с възрастна двойка, казвайки техният внук е бил задържан за предполагаемо престъпление и че са им необходими повече от 15 000 долара за правно разходи. Тогава фалшивият адвокат се престори, че дава телефона на внука им, чийто клониран глас молеше за помощ за плащане на таксите, което те надлежно направиха.

Те разбрали, че са били измамени едва когато внукът им се обадил по-късно същия ден за разговор. Смята се, че измамникът може да е клонирал гласа си от видеоклипове в YouTube, които внукът е публикувал, въпреки че е трудно да бъдем сигурни.

Някои призовават компаниите, които създават AI технологията, която клонира гласове, да бъдат държани отговорни за подобни престъпления. Но преди това да се случи, изглежда сигурно, че много други ще загубят пари чрез тази подла измама.

За да чуете пример за клониран глас, за да видите колко близо до оригинала може да бъде, вижте тази статия в Digital Trends.

Препоръки на редакторите

  • Топ автори изискват заплащане от фирми за изкуствен интелект за използване на работата им
  • Най-добрите AI инструменти за редактиране на видео
  • Новата AI компания на Илон Мъск има за цел да „разбере вселената“
  • OpenAI изгражда нов екип, за да спре свръхинтелигентния AI да стане измамник
  • OpenAI разкрива местоположението на първия си международен пост

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.