Zgodilo se je že marsikomu, sedaj je doletelo še predsednico republike Natašo Pirc Musar – postala je orodje »deep fake« prevare. Neznani nepridipravi, ki so želeli ljudi premamiti v lažno investicijo za lahek zaslužek, so namreč vzeli videoposnetek njenega lanskega nastopa v oddaji Kaj dogaja na TV Slovenija. Tega so nato predelali s pomočjo umetne inteligence ter naši predsednici v usta položili svoje besede. Umetna inteligenca je ob tem prilagodila tudi odpiranje predsedničinih ust, da se je skladalo z govorom. Govorila je celo s svojim pravim glasom.


Kdor je posnetek na facebooku zasledil z izklopljenim zvokom in je zgolj bral podnapise, je kljub nekaterim tiskarskim škratom morda nasedel prevari. Kdor je imel vklopljen zvok, pa si verjetno ni mogel pomagati, da ne bi planil v smeh. Slovenska majhnost, drugačnost jezika od ostalih slovanskih jezikov in omejena količina posnetkov slovenskega jezika na spletu so nas namreč zopet zaščitile. Nataša Pirc Musar v posnetku sicer govori slovenske besede, a so naglašene tako nepravilno in izgovorjene v tako napačnem ritmu, da bi slušatelj govor v najboljšem primeru pripisal delavki v klicnem centru v eni od drugih vzhodnoevropskih držav, ki se sicer zgledno trudi govoriti s slovenskim klicateljem.

Elon Musk je zelo popularno orodje »deep fake« prevar

Posnetek se je v obliki oglasa na facebooku predvajal med 15. in 18. januarjem, videlo pa ga je okoli 50 tisoč uporabnikov. Nepridipravi so v zameno za vložek v višini 200 evrov obljubljali zaslužke do 4000 evrom mesečno. Povezava ob objavi je vodila na ponarejeno spletno stran naftne družbe MOL Slovenija. Oglas je objavil profil Ciptakerja, s katerim opravljajo trije uporabniki iz Kitajske in Kanade.

»Zaznavamo vedno več deepfake videov, ki zlorabljajo identiteto znanih Slovencev za promocijo različnih kripto shem,« so medtem opozorili pri nacionalnem programu ozaveščanja o informacijski varnosti Varni na internetu. »V zadnjem primeru gre za računalniško obdelano izjavo predsednice dr. Pirc Musar, kjer goljufi združijo obstoječi video posnetek z računalniško obdelanim govorom.« Dodali so še, da so se takšni posnetki v angleško govorečem svetu pojavili kakšno leto dni nazaj, sedaj pa smo dobil »lokalne« različice. Za zelo popularno orodje deepfake prevar se je medtem izkazal Elon Musk. »Zmanipulirani posnetki se lahko uporabijo za zvabljanje novih žrtev v kripto prevare, izsiljevanje z intimnimi posnetki, direktorsko prevaro ipd,« še opozarjajo. »Splošno načelo pri takšnih obljubah o hitrih zaslužkih z malo klikanja ostaja vedno enako - ne nasedajte pravljicam, cilj je vedno izvabiti denar iz vas!«