deepfake

Deepfake – лажни видеа направени со вештачка интелигенција за кои треба да бидеме загрижени

Мислите дека го гледате претседателот на Украина Володимир Зеленски како зборува и им кажува на своите војници да го положат оружјето и да ја предадат борбата против Русија. Ликот е тој, фацијалните експресии се тие, тој ја отвора устата онака како што зборува, но сепак, тоа не е вистината. Видеото е лажно.

Понатаму, на пример, го гледате познатиот актер Том Круз како се сопнува и паѓа, а потоа се извинува. А впрочем, само мислите дека го гледате. Тоа не е тој. Тоа е човек кој буквално го има „присвоено“ ликот на Том Круз и станува толку славен, што редовно му се прават интервјуа, а тој дава изјави во однос на техниката што ја користи.

Станува збор за Дип Фејк (Deep Fake) – техника која на прв поглед изгледа револуционерно, но последиците можат да бидат катастрофални. Примената на оваа техника може да уништи животи, да манипулира со јавноста, да ве доведе во заблуда, да влијае на изборни резултати, на политичко-општествени случувања, или со еден збор – да влијае на секој сегмент од индивидуалното, општественото, глобалното.

Најголемата опасност што ја претставуваат „дип фејкс“ е нивната способност да шират лажни информации што се чини дека доаѓаат од доверливи извори, како примерот со лажното видео на украинскиот претседател Володимир Зеленски кој бара од неговите војници да се предадат.

Дипфејк, по својата дефиниција вклучува слики, видеа и аудио, генерирани од технологијата за вештачка интелигенција (ВИ) што прикажуваат нешто што не постои во реалноста или настани кои никогаш не се случиле.

Терминот е преземено од комбинација на зборовите „длабоко учење“ со вештачка интелигенција и „лажно“, со акцент на тоа дека содржината не е реална.

Првпат „дип фејк“ почнува да се користи во 2017 година, кога модераторот на Reddit создал подредит наречен „deepfakes“ и почнал да објавува видеа кои користат технологија за замена на лица за да ги вметне сличностите на познатите личности во постоечки порнографски видеа.

Покрај порнографијата, примерите на дип фејк кои беа широко распространети беше на пример, папата Франциско облечен во пуфер јакна, видео на кое наводно се гледа поранешниот американски претседател Доналд Трамп во пресметка со полицијата, видео на извршниот директор на Фејсбук, Марк Закерберг кој говори за неговата „злобна моќ на компанијата“ и видео од сега починатата кралица Елизабета како танцува и држи говор за моќта на технологијата. Ниту еден од овие настани не се случи во реалниот живот. Но, тоа, не го знае секој, па лесно може да биде доведен во залбуда. Токму затоа, дип фејк вестите редовно се дебанкирани од проверувачите на факти ширум светот.

Начинот на кој работи алгоритмот на „дип фејк“ е сложен. Но, „тајниот сос“ на алгоритмите има две важни компоненти. Првата е дека алгоритмот развива длабоко разбирање на лицето на една личност и учи како да ги мапира тие атрибути на друго лице. Бидејќи повеќето луѓе имаат уста, очи и нос на приближно исто место од лицето, длабоко лажниот алгоритам може да ги анализира карактеристиките на таа анатомија и да ја научи до исклучително ситни детали. Потоа, манипулира со карактеристиките во второто видео за да одговара на карактеристиките од првото. Алгоритмот го прави сето тоа додека го задржува општиот стил и изглед на оригиналното видео.

Првично, длабоките фејкови првенствено се користеа за безопасни и забавни цели, како што е создавање замена на лица на познати личности или вметнување лица во филмови. Меѓутоа, како што напредуваше технологијата, така се зголемуваше и нејзиниот потенцијал за злоупотреба. Алгоритмите на Deepfake станаа пософистицирани, овозможувајќи беспрекорни и убедливи манипулации. Ова предизвика загриженост за потенцијалот за злонамерна употреба, како што се ширење дезинформации, клевета, па дури и политичка манипулација.

Во 2018 година, американските истражувачи открија дека луѓето на „дип фејк“ видеата не трепкаат, односно дека на поголемиот дел од сликите ги прикажуваат луѓето со постојано отворени очи. Но, веднаш штом беше објавено истражувањето, се појавија „дип фејкс“ со трепкање, односно креаторите научија дека штом се открие слабост, таа може и да се поправи.

Според Гардијан, полесно се забележуваат „дип фејкс“ со слаб квалитет. На приемр, синхронизацијата на усните може да биде лоша или тонот на кожата да биде матен, а може да има и треперење на снимката.

Оттаму, deep fake технологијата претставува меч со две острици во областа на вештачката интелигенција. Иако нуди креативни и забавни можности, неjзиниот потенцијал за злоупотреба и злонамерни намери предизвикуваat глобална значителна загриженост. Како што напредуваат длабоките фејк алгоритми, од клучно значење е да се остане буден и да се развиваат стратегии за ублажување на негативните влијанија. Со поттикнување на свеста, инвестирање во технологија за откривање и имплементирање на соодветни правни и политички мерки, можеме да се движиме низ сложениот пејзаж на технологијата за deep fake и да ја зачуваме довербата, безбедноста и интегритетот на нашиот дигитален свет.

ИЗВОР

Прочитајте повеќе

USB-C приклучок

Крај на кабелската џунгла – во Германија ќе се користат кабли само со USB-C приклучок

Стандардот USB-C од 2025 година ќе биде задолжителен за паметни телефони, дигитални камери, слушалки, таблети, …