Затвори ја рекламата

Deepfake - технологијата што овозможува да се заменат лицата на луѓето на фотографиите и видеата со туѓи лица, еволуираше во последниве години во форма во која разликата помеѓу вистинските снимки и лажните податоци станува се покомплицирана. На сајтови со порнографска содржина, на пример, deepfake се користи за да се креираат титлови видеа со сличности на познати актери. Секако, сето ова се одвива без согласност на нападнатите личности, а благодарение на зголемената софистицираност на технологијата со користење на машинско учење, се шират стравувања за други можни форми на нејзина злоупотреба. Заканата дека длабок фејк може целосно да ги дискредитира дигиталните записи како доказ во судските случаи е реална и виси над правосудниот сектор како Дамоклов меч. Добрата вест сега доаѓа од Truepic, каде што дошле до едноставен начин да ја потврдат автентичноста на огласите.

Неговите креатори ја нарекоа новата технологија Foresight и наместо дополнителна видео анализа и утврдување дали е длабок фејк, таа користи поврзување на поединечни снимки со хардверот на кој се создадени за да се обезбеди автентичност. Foresight ги означува сите записи како што се креирани со посебен сет на шифрирани метаподатоци. Податоците се чуваат во вообичаени формати, во прегледот за страницата Android Полицијата компанијата покажа дека сликата обезбедена на овој начин може да се зачува во JPEG формат. Значи, нема страв од некомпатибилни формати на податоци.

Но, технологијата страда од низа мали муви. Најголемата веројатно е фактот што датотеките сè уште не ги запишуваат промените што се направени на нив. Решението е да се вклучат повеќе компании кои би го поддржале овој безбедносен метод. Оттука, успехот на технологијата главно ќе биде одреден од вклучувањето на најголемите производители на камери и мобилни уреди, предводени од Samsung и Appleм Дали се плашите дека некој може да го злоупотреби вашиот изглед? Споделете го вашето мислење со нас во дискусијата под статијата.

Најчитаните на денешницата

.