Podle dat České asociace umělé inteligence za loňský rok světově vzrostl počet takzvaných deepfaků, tedy falešných videí, podvržených fotek nebo audionahrávek, na desetinásobek. Jen v Evropě byl zaznamenán nárůst těchto útoků o 780 procent. Tato technologie se bude dál vyvíjet a může ovlivňovat mínění lidí. Zatím totiž deepfaky rozpoznat jde, to se ale může brzy změnit, upozorňuje Jakub Sedláček ze Studií nových médií FF UK a Národního institutu SYRI.
Deepfaků se během loňského roku na sociálních sítích objevilo nespočet. Velkou reakci ale vyvolaly zejména údajné fotky ze zatčení Donalda Trumpa nebo snímek zobrazující výbuch poblíž Pentagonu. V období parlamentních voleb na Slovensku bylo pomocí řetězových e-mailů šířeno deepfake audio, na němž lídr strany Progresivní Slovensko Michal Šimečka údajně diskutoval o plánech na manipulaci s volbami. Vznikala také různá videa a nahrávky s českým prezidentem Petrem Pavlem.
To, jak dobře nebo špatně lze deepfake rozpoznat, záleží na jeho druhu a kvalitě. „Záleží, co všechno si pod pojmem deepfake představíme. Zatím jde (s určitým tréninkem) poznat vše. U klasických deepfaků poznáme „vyměněné“ obličeje ve videu nejlépe, když se hlava různě pootáčí a obličej není nasměrovaný přímo k nám, ale najednou třeba z boku – často v takový moment postřehneme výraznější změnu struktury celého obličeje. V případech, kdy jde pouze o deepfake pusy (aby seděla s vygenerovanou řečí), lze postřehnout nesrovnalosti mezi pohyby a mimikou obličeje a pusy, případně může být pusa oproti zbytku podivně rozmazaná, pohybovat se jinak, než jsme u daného mluvčího zvyklí, a tak dále,“ popsal na dotaz deníku FORUM 24 Sedláček.
„S hlasem samotným je to horší, ten se dnes dá dělat opravdu velice přesvědčivě. Pokud mluvčího známe, u jednodušších deepfaků si všimneme, že chybí některé jeho typické poznávací znaky (například že čeština Andreje Babiše bude podezřele standardní). Reklamní podvodná videa (Andrej Babiš doporučuje investiční systém apod.) také často přicházejí ze zahraničí a vyznačují se nesmyslným překladem,“ popisuje.
Jako důležité vidí posilování důvěry lidí v média. Přestože zatím ještě deepfaky rozpoznat jde, brzy se to může změnit. „Všechno to, co jsem popsal, se zatím dá poznat poměrně dobře, ale už dnes existují služby, které dovedou z videa vytvořit velice přesvědčivý avatar mluvčího (tvář, pohyby, hlas), který pak může kdokoli nakrmit libovolným textem. A ty jsou již nyní na hranici rozeznatelosti a těžko říct, kolik měsíců bude trvat, než budou zcela za ní. Neboli brzy to možná poznat nepůjde. Tady vidím hlavně nutnost posilovat důvěru lidí v média, protože bez profesionálů, kteří se na ověřování informací budou specializovat, budou lidé v tomto ohledu nejspíš brzy ztracení. Ale ano, obecně je potřeba vzdělávat ve smyslu, že co je psáno/vyfoceno/natočeno, už nemusí dávno být „dáno“ a je třeba ověřovat zdroj,“ upozornil.
A co to může znamenat třeba pro volby? Podle Sedláčka je spektrum možností široké. „AI může například pomáhat cílit a přizpůsobovat online reklamu na míru skupinám obyvatelstva nebo i jednotlivcům; pomocí velkých jazykových modelů je možné s minimem úsilí chrlit texty na libovolné téma (a ty opět přizpůsobovat) a šířit je e-mailem, pomocí botů na sociálních sítích, ale klidně i fyzicky. Boty můžou pomocí komentářů pod články a posty ve velkém tlačit pro někoho výhodný narativ a uměle vyvolávat dojem jeho rozšířenosti. Pokud se vrátíme k deepfakům, největším rizikem je, že bez důvěryhodného zdroje zkrátka nemůžeme věřit pravdivosti fotky ani videa. To, že politik něco na videu nebo nahrávce říká, ještě neznamená, že to skutečně řekl. A přitom jeho falešný projev může skončit např. v e-mailových schránkách desítek tisíc uživatelů a ovlivnit jejich mínění,“ dodává.