OVĚŘOVNA: ‚Vstupujeme do světa, kde nebude možné věřit jedinému videu.‘ Na sítích se šíří deepfakes

Chcete slyšet Petra Pavla říkat, že Ukrajina prohraje válku? Nebo chcete, aby ve vysílání zpráv propagovali vaši hazardní aplikaci? Podvodníci k tomu používají takzvaný deepfake. Hrozba takovýchto dezinformací bude podle Jakuba Sedláčka, doktora sociologie ze Studií nových médií Filozofické fakulty na Karlově univerzitě, ještě větší. „Vstupujeme do světa, kde bez důvěryhodného zdroje nebude možné věřit jediné fotce nebo videu,“ varuje.

Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

OVĚŘOVNA: ‚Vstupujeme do světa, kde nebude možné věřit jedinému videu.‘ Na sítích se šíří deepfakes

OVĚŘOVNA: ‚Vstupujeme do světa, kde nebude možné věřit jedinému videu.‘ Na sítích se šíří deepfakes | Zdroj: Koláž iROZHLAS

„Ukrajina dříve či později prohraje a zvítězí Rusko,“ říká prezident Petr Pavel ve videu, ve kterém údajně „kápnul božskou“. Jedná se ovšem o podvrh, tvůrci sestříhali určitou pasáž z rozhovoru v pořadu Dvacet minut Radiožurnálu.

‚Na té fotce mi je 14.‘ Mladé ženy čelí falešným nahým fotografiím, české zákony ale ‚deepfakes‘ neřeší

Číst článek

Moderátor se ve skutečnosti prezidenta ptal: „Pokud by platilo heslo slovenského premiéra Roberta Fica ‚ani náboj na Ukrajinu, co by to znamenalo?“ A na to prezident odpověděl, že by v takovém případě vyhrálo Rusko.

„Při tvorbě dezinformací si vystačíme s obyčejným střihem videa. Pokud se nepletu, o žádnou sofistikovanou manipulaci obrazu ani zvuku nejde a kousky původního rozhovoru jsou prostě jen vytržené z kontextu tak, že vyznívají naprosto opačně, než byly zamýšlené,“ vysvětluje Sedláček, výzkumník v Národním institutu SYRI.

‚Nalepování obličejů‘

Byť je tento způsob velmi přesvědčivý a poměrně snadný, obsah videa už je velmi omezený. Význam vět známé osobnosti sice lze úplně obrátit, ale podvodníci už nemohou vymýšlet svůj vlastní obsah. I proto postupně začínají využívat takzvaná deepfake videa.

„Označení původně vzniklo na Redditu někdy před šesti lety a od začátku zahrnovalo především nalepování obličejů slavných hereček na těla v pornovideích a nalepování obličejů Nicolase Cage všude jinde,“ popisuje Sedláček.

„Obecně se dá říct, že pro kvalitní deepfake typicky potřebujeme natrénovat nějakou neuronovou síť na větším množství videomateriálu obličeje, který chceme někam nalepit. U těch jednoduchých si vystačíme i s jednou fotkou a podstatně menší výpočetní náročností,“ doplňuje.

‚Obyčejnej dělník‘

Jedním takovým příkladem by mohl být i upravený projev slovenské hlavy státu Zuzany Čaputové. Ve videu více než minutu oslovuje osoby se všemi různými orientacemi a deepfake nejspíš „paroduje“ snahu o začlenění těchto lidí. Můžeme si ale všimnout, že pohyby úst jen částečně odpovídají řeči.

OVĚŘOVNA: Na síti X se množí dezinformace z ‚ověřených‘ účtů. Modrá fajfka už nic neznamená

Číst článek

„Bude to spíš vtip než snaha o dezinformaci a po vizuální stránce je to tedy trochu amatérská práce. Naopak klon hlasu je, myslím, přesvědčivý dostatečně,“ hodnotí doktor sociologie.

V dalším deepfake videu zase hlasatelka CNN Prima News propaguje v jedné ze zpráv hazardní aplikaci. „Jeden obyčejnej dělník z Prahy se stal miliardářem díky aplikaci. Chlap hned splnil svý sen a koupil si nový sportovej auto a chalupku na venkově v teplej zemi,“ láká hlas zprávařky.

„Je to úsměvné už jenom velice špatným překladem. Hlas je ale opět velice povedený, takže tu máme docela dobrý vzorec, před čím se mít obzvlášť na pozoru: před klony hlasů. Ty totiž už je možné zvládnout i s poměrně malým úsilím tak, že nás ošálí,“ upozorňuje Sedláček.

„Technologická bariéra je už docela nízká a na jednodušší formy deepfake videí bez problémů najdeme mobilní aplikace nebo webové služby. Pokud budete chtít vytvořit něco opravdu přesvědčivého a zároveň nebezpečného, nějaké ajťácké know-how ještě potřebujete a hodit se bude i výkonnější počítač nebo schopnost si neuronovku natrénovat v cloudu,“ vysvětluje.

Odhalování deepfake

Dát nějakou obecnou radu na to, jak deepfake rozeznat, není podle Sedláčka jednoduché: „Pokud ho bude dělat opravdový profesionál a bude na něj mít čas, nejspíš ho udělá tak dobře, že to bez extrémního soustředění nepoznáme nikdo, protože si bude vědom slabých míst dané technologie a vyhne se jim.“

Rizika umělé inteligence přeceňujeme především kvůli novosti technologie, myslí si novinář Koubský

Číst článek

„Výrazné pohyby, otáčení hlavy, částečné zakrytí obličeje – to všechno jsou situace, kdy obzvlášť jednodušší filtry selhávají a iluze buď mizí úplně, nebo se obličej alespoň podezřele mění a vypadá z obrázku na obrázek trochu jinak,“ popisuje.

„Můžeme to třeba potenciálně využít, když bychom si nebyli jistí, že proti nám na živém videu skuteční sedí ten, za koho se vydává. Můžeme protistranu požádat, aby si párkrát přejela rukou před obličejem, nebo se zvedla a prošla po místnosti a sledovat u toho, jestli se s obličejem nedějí podivné věci,“ radí Sedláček.

Některé studie se podle Sedláčka chlubí velkou úspěšností odhalování deepfake, takový nástroj tři roky nazpět ohlásil i Microsoft: Je tedy možné, že ještě nějakou dobu budeme moci postavit stroj proti stroji a vyhrávat‘.“

„Systémově bojovat potom můžeme asi jedině na úrovni samotných služeb. Těžko říct, co přesně by měly detekovat, protože daná manipulace obrazu nebo zvuku může být zcela legální, satirická atd. ‚Zakázat manipulaci obrazu‘ nedává ve světě všudypřítomných filtrů smysl,“ míní.

Hrozba, nebo služba?

Některá deepfake videa však mohou mít i pozitivní využití, byť Sedláček podotýká, že firmy určitě zvolí jiné označení, které není tak hanlivé.

Autopilot je bezpečnější než člověk, řekl Musk. Tesla nyní kvůli smrti řidiče tvrdí, že je to možný deepfake

Číst článek

„Youtuber může generovat vlogy, televize může generovat moderátory zpravodajství, filmy můžou ‚angažovat‘ dávno mrtvého herce atd. Tohle nás bezpochyby čeká a už teď jsme na samé hranici rozeznatelnosti. Pro někoho to bude užitečné, někoho to znesmrtelní, někoho to připraví o práci,“ myslí si.

Na druhou stranu, hrozba, kterou deepfakes představují, bude podle Sedláčka do budoucna větší.

„Technologie jde dopředu a budou přesvědčivější a dostupnější. Jak rád říkám: vstupujeme do světa, kde bez opravdu důvěryhodného zdroje už nebude možné věřit jediné fotce, nahrávce, nebo videu. Ale to tak docela nebylo možné ani doposud,“ varuje Sedláček.

„Zcela zásadní je tedy mít k dispozici média, u kterých můžeme věřit, že dělají svou práci dobře a informace v nich ověřují skuteční profesionálové. Pokud si důvěru v média rozbijeme, zbyde nám jen zmatek, ze kterého budou těžit trollí farmy a jiné živly,“ uzavírá.

Josef Beneda Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme