Наскоро в медиите беше публикувана манипулирана реч на министър-председателя на Република България. В този манипулиран клип видяхме как премиерът Денков прави реклама на финансов инструмент в полза на определена фирма. Това видео е способно да заблуди всеки и да ни въвлече във финансови схеми, от които може да пострадаме финансово. А сега си представете, че получавате гласово съобщение от сина ви, който ви съобщава, че е в ареста и трябва да предоставите определена сума на адвокат, който ще се свърже с вас. Сценариите с които може да се злоупотребява могат да бъдат най-различни. Софтуер ползващ изкуствен интелект може да клонира глас за минути и е свободно достъпен в Интернет срещу минимален абонамент.
Видео и аудио манипулации – deepfake
Дийпфейк (от англ. Deepfake) е синтетичен запис, в който съществуващо изображение, аудио или видео е модифицирано, за да представлява изцяло някой друг. Аудио-видео манипулация на определена личност, която може да цели дезинформация, уронване на името или измама. Това е технология за копиране не само на гласа, но и изображението на определена личност. За постигане на високо качество на един дийпфейк се изисква значително количество изображения на лицето на човека под различни ъгли. На този етап е трудно да се произведе неразличима от реалността видео манипулация, но технологията напредва бързо и скоро може да бъде достъпно и лесно за всеки да извършва такива манипулации.
Видео манипулациите, подобни на клипа на премиера Денков, са сравнително по-лесни за улавяне, защото не са усъвършенствани на този етап. В клипа с г-н Денков се чуват думи, които не звучат правилно, а в други моменти не се чува говор, но премиерът се вижда как изговаря думи – като това е един от признаците да познаем, че клипът не е реален.
Клониране на глас
Почитателите на киното може би си спомнят сцената от „Мисията невъзможна“ трета част, където маскираният Итън Хънт (Том Круз) принуди „лошия“ герой да прочете няколко изречения от картичка, за да му копират гласа. Е, разбира се, филмът е от 2006-та година и тогава това е изглеждало фантасмагорично за няколко минути да се клонира глас. Сега, обаче, сме 2023 г. и не изглежда фантасмагорично, а е възможност, която е достъпна за всеки в Интернет срещу минимален абонамент или дори безплатно. За да бъде клониран един глас, често са достатъчни само няколко минути, а понякога дори и секунди записи на речта на даден човек. Ако споделяте вашата реч в публичното пространство, бъдете нащрек.
Не само хората с публична активност са застрашени. Наскоро имаше случай на многобройни телефонни позвънявания, в които женски глас задаваше въпроса „От София ли сте?“. Вие започвате да говорите, но забелязвате нещо странно - тази жена пита едни и същи въпроси като робот. Изглежда този глас е компютърно генериран и е възможно това позвъняване да е с цел именно записване на аудио данни на различни гласове на хора и създаване на база аудио данни. В случая колкото по-дълго и разнообразно говорите, толкова по-добре. На този етап не става ясно каква бе целта на това позвъняване – дали за събиране на аудио данни или за данни за местожителство на гражданите.
Използването на технология за клониране на гласа, засега е по-напреднала от тази за видео и създава възможности за измами и фалшификации.
Как може да се злоупотреби с тази технология?
Технологията за клониране на глас вече е достъпна, както за тийнейджърски шеги, така и за търговски и криминални измами. На практика става изключително лесно да се публикуват манипулирани реклами от известни личности или да се създават фалшиви тревоги и беди. Не сме далеч от момента, в който и телефонните измамници ще включат използването на клонирани гласове в репертоара си. В България телефонните измами са много разпространени, а с този нов технологичен инструмент никой не е застрахован. Клониране на гласа на човек е вероятно да се използва за създаване на фалшиви бедствени сценарии, разказани от ваш близък роднина или приятел, при което вие сте готови да дадете на непознат човек всичките ви спестявания без да се замислите.
Като използвахме един от достъпните онлайн софтуери, създадохме запис с гласа на премиера Денков за 15 минути, след регистрация и заплащане на абонамент от 1 долар. Вижте нашия клип, за да се уверите колко лесно е да се клонира един глас без никакви технически знания. Изисква се един аудио или видео запис със сравнително чист говор с продължителност над минута.
Нашите съвети
Бъдете мнителни и филтрирайте информацията, която срещате в интернет. Бъдете резервирани към видеоклипове с участието на известни лица, когато говорят нетипични за тях неща и особено когато става въпрос за бизнес предложения.
Един клониран глас може да звучи много автентично, но въпреки това може да бъде разпознат. Начин за разпознаване на измамата е ако гласът е много равен - не повишава или не понижава тон.
В случай, че получите гласово съобщение от близък, винаги се замислете защо не ви се обажда, а ви праща записано съобщение. Затова първо опитайте да се свържете с човека по телефон или на живо.
Бъдете внимателни! Никога не давайте крупни суми на непознати лица.
Запомнете – никога не бързайте да изпълнявате инструкциите на непознати - ситуацията няма да се промени, ако се забавите преди да предприемете действия.
В случай че известно лице ви рекламира стоки или услуги и се съмнявате в автентичността му, сигнализирайте на полицията.
Дарение
За да можем да доставяме още полезна информация и тестове имаме нужда от вашата подкрепа.
Дори най-дребната сума ще ни помогне да бъдем още по-полезни, защото заедно сме по-силни.
Коментари ( 0 общо )
anonymous