Petr Kocmich portrait square
21. augusta 2023

Scammeri už nemusia vedieť pracovať s grafickými programami. Falošné akty z fotografií na sociálnych sieťach vďaka AI vytvoria za pár minút

Umelá inteligencia (AI) sa vo veľkom používa pri tvorbe falošných explicitných fotografií a videí. Počas chvíľky automaticky vzniknú falošné akty, ktoré sa predtým museli vytvárať za pomoci grafických editorov a potrebného čiastočného talentu. Tie následne slúžia či už na šikanovanie, alebo vydieranie (tzv. sextortion). Pred týmto nebezpečím v kyberpriestore varoval Americký Federálny úrad pre vyšetrovanie (FBI). Postretnúť môže každého. Nielen celebrity, ale aj úspešných podnikateľov či bežných občanov.

V prípade sextortionu (sex – sexuálne a extortion – vydieranie) sa obvykle vydierači (tzv. scammeri) snažia získať peniaze alebo iné výhody od obete tým, že hrozia zverejnením kompromitujúceho, avšak sfalšovaného materiálu. FBI upozorňuje na zvlášť znepokojujúci aspekt tejto hrozby – scammeri často využívajú nevinné fotografie a videá, ktoré ľudia zdieľajú na svojich profiloch na sociálnych sieťach. S pomocou deepfake technológie potom prostredníctvom umelej inteligencie využijú tvár obete k vygenerovaniu pornografického materiálu.

Obete hlásia, že ich neškodné príspevky na sociálnych sieťach (fotky, videá atď.) zločinci preberajú a upravujú pomocou AI generátorov obsahu. Nejde o nový typ útokov, len dávnejšie sa k tomu využívali programy pre (profesionálnu) úpravu fotografií, ako je Photoshop. Teraz však zločinci nepotrebujú k transformácií žiadne grafické zručnosti ani skúsenosti, ani hodiny práce potrebné k ručnej úprave. Stačí im iba pár fotiek a AI.

Ľahká dostupnosť AI bola spustená na jeseň 2022, kedy sa objavil ChatGPT, ktorý v tomto ohľade pre útoky predstavoval revolúciu.

Stúpajúci počet obetí podlieha novému trendu deepfake podvodov

FBI dostáva stále viac podnetov od obetí, ktorých fotografie alebo videá boli explicitne upravené. Tieto materiály sú potom verejne šírené sociálnymi sieťami alebo pornografickými webovými stránkami za účelom obťažovania a vydierania obetí. „Pokrok v technológiách s generatívnou tvorbou obsahu a ľahká online dostupnosť osobných fotografií poskytujú novú príležitosť pre zločincov, ktorí hľadajú a zameriavajú sa na svoje obete,“ uvádza Petr Kocmich, Global Cyber Security Delivery Manager spoločnosti Soitron.

Vydierači najčastejšie od obetí požadujú peniaze a hrozia, že budú fotografie a videá zdieľať s členmi rodiny a priateľmi na sociálnych sieťach, ak obeť nezaplatí. Alternatívne ich vydierajú tým, že od obetí požadujú skutočné sexuálne snímky či videá. Tento nový trend deepfake podvodov sa stále viac rozširuje, a to nielen v oblasti sextortionu, ale tiež napríklad pri podvodoch spojených s virtuálnymi hovormi.

Ako sa chrániť pred online vydieraním a sexuálnym zneužívaním

Pred týmito vydieračskými technikami nie je úplne v bezpečí nikto, pokiaľ všetky svoje obrázky z internetu neodstráni. Ani potom však nemusí byť v úplnom bezpečí, pretože ich niekto môže tajne fotografovať alebo natáčať v skutočnom živote a potom za účelom sextortionu alebo iného podvodu zneužiť urobené materiály. Vzhľadom na tom, že sa deepfake technológia stáva stále pokročilejšou a dostupnejšou, je nevyhnutné, aby vlády a legislatívne orgány prijali k ochrane občanov zodpovedajúce opatrenia. V niektorých jurisdikciách už existujú zákony, ktoré vytváranie falošných obrazov, bez súhlasu zobrazenej osoby, trestajú. Napríklad Veľká Británia plánuje v rámci pripravovaného zákona o online bezpečnosti prijať proti šíreniu takéhoto materiálu opatrenia.

„Ak sa stanete obeťou sextortionu, odporúčame zachovať chladnú hlavu. Určite nikomu nič neplaťte, pretože to odstránenie explicitného materiálu z internetu nezaručí. Naopak, kontaktujte Políciu SR. Ako prevenciu odporúčame dodržiavať na sociálnych sieťach štandardné bezpečnostné kroky, ako je odmietanie žiadostí o priateľstvo od cudzích ľudí a využívanie všetkých dostupných nastavení ochrany osobných údajov,“ radí Petr Kocmich.

Prvé nahé deepfake fotografie a videá, vytvorené prostredníctvom AI, sa na internete začali šíriť v roku 2017, kedy užívatelia na fórach, ako je napríklad Reddit, testovali možnosti umelej inteligencie pri tvorbe sexuálne explicitného obsahu ženských celebrít. Hoci existujú pokusy o zastavenie šírenia takéhoto obsahu, online nástroje a webové stránky pre vytváranie deepfake nahých fotiek sú zatiaľ ľahko dostupné každému.

Súvisiace články