Pozadí astronaut Brázda
Pozadí astronaut Brázda
Často hledáte, jak…

Denní menu, Společnost

Budoucností fake news jsou falešné projevy politiků

Univerzita tento postup demonstrovala na „falešných“ projevech politiků Donalda Trumpa, Baracka Obamy, Vladimira Putina nebo George Bushe.  • Autor: University of Washington
Univerzita tento postup demonstrovala na „falešných“ projevech politiků Donalda Trumpa, Baracka Obamy, Vladimira Putina nebo George Bushe. • Autor: University of Washington

Manipulace fotografií pomocí Photoshopu a digitální retuše je v současnosti běžnou záležitostí. Zpravodajství se teď ale bude muset vypořádat s dalším mocným nástrojem, který lze zneužít k rozšiřování falešných zpráv, tzv. fake news. Nový druh technologie umožňuje spojit videozáznam mluvící osoby s odlišnou zvukovou stopou a vytvořit tak přesvědčivou verzi zpravodajských záběrů se zcela opačným vyzněním. Na hrozby manipulace pomocí nové technologie upozorňuje server Guardian.

Software Face2Face vytvořený na Stanfordské univerzitě je schopen v reálném čase propojit záběry osobnosti s hlasem druhého člověka, který se nahrává na webkameru. Služba snímá jeho mimiku a automaticky ji transformuje pro obličej na originálním videu. Univerzita tento postup demonstrovala na „falešných“ projevech politiků Donalda Trumpa, Baracka Obamy, Vladimira Putina nebo George Bushe. Technologie byla původně vytvořena pro lepší hlasy a mimiku postav ve videohrách nebo přirozenější předčítání knih slavnými osobnostmi. Zároveň však představuje nástroj snadno zneužitelný pro rozšiřování dezinformací a lživých zpráv.

Na sociálních sítích tak hrozí vzestup účelově upravených vyjádření politiků a osobností veřejného života, což může mít i globální dopad. Vývojáři z University of Alabama at Birmingham pracují na počítačové imitaci hlasu. S třemi až pěti minutami záznamu mluveného projevu dokáže kdokoliv hlas slavné osobnosti napodobit a spojit s výše zmíněnou aplikací. Do takové míry, že bude stále složitější odhalit rozdíl mezi původním a upraveným záběrem.

Mandy Jenkins z firmy Storyful, která se specializuje na ověřování obsahu na sociálních sítích, upozorňuje na úskalí technologické novinky ve zpravodajství: „Lidé by se měli zaměřovat na světlo a stíny ve videu, jestli proporčně sedí prvky v záběru a také zda je synchronizovaný hlas s pohybem obličeje.“ Mimo dezinformace hrozí i zneužití služby například při vydírání nebo krádežích, upozorňuje vedoucí výzkumu z University of Alabama, Nitesh Sexena.

Mediální domy by se tak měly více než kdy předtím zaměřovat na precizní ověřování materiálů, aby se nezhoršovala už tak rozšířená nedůvěra k obsahu médií ze strany veřejnosti i politiků. „Už jsme zažili, že se špatně zfalšované audio nebo video začalo šířit a lidé mu věřili, tohle má potenciál situaci ještě zhoršit," dodává pesimisticky Jenkins.

Pokud jste v článku našli chybu, napište nám prosím na [email protected].