kategorie: Technologie

Co je deepfake, jak je nebezpečný a jak ho poznat

Dnes bude řeč o deepfake, který se v dnešní době stal rozšířeným a celkem běžným jevem. Díky této technologii se manipulace s informacemi dostala na novou úroveň.

Viděli jste královnu Alžbětu tančit na stole během vysílání novoročního poselství? Nebo poslouchal projev Kim Čong-una o demokracii, nebo obdivoval Salvadora Dalího, který mluvil o jeho smrti (proč v ni nevěří)?

Všechna tato úžasná videa mají jedno společné – jsou falešná. Deepfake je technika vytváření a zveřejňování nepravdivých informací ve formě videí, zvuku a fotografií. Narazit na takové materiály je stále snazší, proto jsme pro vás připravili návod na vytváření, rozpoznávání a vyhledávání deepfake videí na internetu.

Přečtěte si také: Blockchainy zítřka: Budoucnost odvětví kryptoměn jednoduchými slovy

Deepfake - co to je?

Deepfake (Deepfake) je ve skutečnosti fotografie, video nebo audio materiál, který není skutečný, falešný, tedy falešný. Deepfake (kombinace dvou slov – hluboké učení „hluboké učení“ a falešné „falešné“) využívá umělou inteligenci (AI) pro hluboké učení k vytvoření podobnosti jedné osoby s druhou ve videích a dalších materiálech digitálních médií. Je vytvořen pomocí algoritmů založených na skutečných vzorcích hlasu, zvuku, videa nebo fotografií, které jsou spojeny dohromady. Algoritmus přebírá vybrané informace z mnoha různých míst a poté je spojuje do jednoho materiálu. V důsledku toho vzniká něco nového (falešného), co je založeno na kombinaci různých reálných dat.

Ale to není všechno. Deepfake také umí „namalovat“ fotku od nuly, například vytvořením tváří postav, které nikdy neexistovaly.

Jaký je účel takových akcí? Deepfake se mimo jiné používá k šíření nesprávných informací na internetu (například o politických osobnostech nebo událostech), krádežím (například padělání hlasových příkazů) a vytváření pornografie (filmy s celebritami - deepfake porno). Může být také použit pro vzdělávací a zábavní účely.

Přečtěte si také: O kvantových počítačích jednoduchými slovy

Deepfake - Jak to funguje?

Obecně existují dva způsoby, jak vytvořit deepfake materiál. První metoda používá dva algoritmy. Nejprve první (kodér) hledá společné znaky dvou obrázků (ty, které se mají spojit do jednoho), poté je druhý (dekodér) může přenést do nově vytvořeného obrázku. Například, pokud chceme vytvořit video, ve kterém by se herec pohyboval jako my, kodér vezme pohyb z videa, kde tančíme, a dekodér již nahradí naši tvář tváří herce a přiměje ho reprodukovat naše pohyby. . Klíčové jsou zde vybrané akce, které se zkopírují do nového obrázku (například pohyby, gesta, mimika).

Druhý způsob je prostřednictvím generativních adversariálních sítí (GAN), kde spolupracují dva algoritmy. První se nazývá generátor, protože pomocí obecných informací vytváří obrazy (například obraz člověka), které spojují jeho rozlišovací znaky (člověk má tělo, obličej, oči). Druhým algoritmem je diskriminátor, který vyhodnocuje, zda jsou obrázky, které mu generátor dává, pravdivé nebo ne.

Postupem času jsou oba algoritmy pokročilejší, takže se učí a zdokonalují. Pokud je generátor naučený tak, že diskriminátor falešnou fotku nepozná (považuje ji za skutečnou), je proces dokončen.

Velké množství padělaného softwaru lze nalézt na GitHubu, komunitě open source pro skripty, programy a kód. Některé z těchto programů slouží čistě k zábavním účelům, takže vytváření deepfake není zakázáno, nicméně mnohé z nich lze využít i pro kriminální účely.

Mnoho odborníků se domnívá, že v budoucnu s rozvojem technologií budou deepfakes mnohem komplexnější a mohou představovat závažnější hrozby pro společnost související s vměšováním do voleb, vytvářením politického napětí a kriminálními aktivitami.

Přečtěte si také:

Hrozba Deepfake – od kdy existuje?

Poprvé se takové falešné informace objevily v roce 2017. Potom je uživatel alias deepfake publikoval na Reddit několik pornografických filmů, ve kterých byly zapojeny celebrity, včetně Scarlett Johansson, Gal Gadot a Taylor Swift. Od té doby se toto odvětví rychle rozvíjí, protože natáčet deepfake filmy může téměř každý.

V posledních letech se technologie deepfakingu natolik rozvinula, že je nyní stále obtížnější určit, zda se jedná o smyšlené video nebo skutečnou nahrávku skutečných lidí. Příkladem může být video se vzkazem Alžběty II. nebo projev Baracka Obamy, který byl rychle zveřejněn na mnoha různých stránkách. Video s prohlášením bývalého amerického prezidenta se zabývalo globálními hrozbami, které mohou způsobit dezinformace a fake news publikované na internetu. V materiálu zveřejněném kanálem BuzzFeedVideos se hlasem 44. prezidenta Spojených států stal americký režisér a herec Jordan Peele. V současnosti je však umělá inteligence již schopna generovat hlas na základě archivních nahrávek osoby, která se má objevit ve falešném filmu.

Takto pokročilé technologie se mohou v budoucnu stát nebezpečným nástrojem v rukou kyberzločinců a internetových podvodníků. Zveřejňování falešných videí s projevy významných politiků může způsobit skutečné škody na mezinárodní úrovni. Takové filmy založené na deepfake technologii mohou způsobit diplomatické konflikty a skandály, a tím ovlivnit veřejné mínění a chování lidí.

Další potenciální hrozbou je obsah pro dospělé, který vždy generoval největší provoz ve virtuálním prostoru. Není divu, že technologie deepfake zasáhla internet tak rychle. Podle zprávy nizozemské společnosti Deeptrace zabývající se kybernetickou bezpečností se 96 % umělých videí vytvořených pomocí technologie deepfake týká takových témat. Nejčastěji se pro výrobu takových materiálů používají obrazy filmových hvězd, sportovců a dokonce i politiků a představitelů vlády.

Přečtěte si také: Proč vesmírná mise nemůže každou chvíli letět: Co je to startovací okno?

Jak udělat deepfake?

Pokud někdo umí natáčet deepfake videa, lze je dělat i doma? Určitě ano, ale jejich kvalita samozřejmě nebude dokonalá. Vytváření takových videí vyžaduje velké výpočetní zdroje a výkonné grafické karty. Ty, které běžně máme v domácích počítačích, nestačí a samotný vývojový proces může trvat týdny. Kvalita filmů také zanechá mnoho přání – budou viditelné chyby, pohyby úst nemusí odpovídat zvuku, budou viditelná místa, kde se „starý“ obsah překrývá s „novým“.

Pokud bychom ale chtěli fotku lehce „oretušovat“ nebo udělat krátké deepfake video, program na to lze stáhnout přímo do smartphonu. Velmi snadno použitelný program během pár minut odstraní vady vzhledu, udělá z vás vybranou celebritu nebo umožní vašemu psovi mluvit lidským hlasem.

Přečtěte si také:

Jak poznat deepfake?

Profesionální deepfake videa je stále těžší a těžší rozpoznat. Algoritmy měly zpočátku problémy se základním chováním (jako je mrkání očí) a hned bylo jasné, že film je padělek. Tato chyba byla nyní opravena. Falešné postavy blikají, pohybují se přirozeně a mluví plynně. Někdy však mají stále problémy s přirozeným pohybem očí.

Jak tedy poznat deepfake? Při sledování videa byste měli věnovat pozornost následujícímu:

  • Drží zvuk krok s pohyby úst? Někdy se úplně neshodují a osoba ve videu pohybuje rty se zpožděním vzhledem ke zvuku nebo špatně artikuluje slova.
  • Všechny druhy jevů, které se zdají nepřirozené. Hovoříme zde mimo jiné o postavení celého těla či hlavy vůči trupu, nesprávném odrazu světla na předmětech, nesprávném odrazu světla ve špercích atp. Příznakem, že je film falešný, může být i nepřirozená barva pleti.
  • Kvalita zvuku a videa. Rozdíl mezi nimi pomůže odhalit deepfake. Zvuková stopa je obvykle horší kvality.
  • Nesrovnalosti obrazu. Nejčastěji se objevují na křižovatce těla a hlavy. Když je hlava celebrity "přilepena" k jinému tělu, může se objevit rozostření v oblasti krku. Někdy dochází k přeskakování snímků (intermitence) a chybám snímků (různý úhel světla, typ nebo směr).
  • Změna hashtagu během videa může také znamenat, že máme deepfake video.

Při prohlížení materiálů z pohledu deepfake se také vyplatí spolehnout se na vlastní pocity. Někdy máme dojem, že je něco „špatně“. Stává se to mimo jiné tehdy, když emoce zobrazené osoby na plátně neodpovídají tomu, co nám ukazuje výraz obličeje nebo tón hlasu. To také naznačuje, že video mohlo být falešné.

Zajímavé také:

Jak se chránit před deepfakeem?

Chcete-li se vyhnout hlubokému falešnému podvodu, odborníci doporučují následující kroky:

  • Vytvořte tajné slovo nebo slogan s blízkými, jako jsou členové rodiny nebo kolegové, kteří dokážou reálnost situace videem nebo nahrávkou. To vám umožní rychle ověřit nepravdivost situace a vyhnout se například vymáhání peněz.
  • Domluvte se s příbuznými nebo kolegy na seznamu informací, na které se nikdy nebude ptát prostřednictvím zpráv, například na sociálních sítích nebo SMS. Je nezbytné, aby všechny zainteresované strany byly informovány o skutečném rozsahu nebezpečí.
  • Implementace kanálů vícefaktorové autentizace pro ověření každého požadavku. Pokud komunikace začíná textovou zprávou, pak je nejbezpečnějším způsobem potvrzení informace kontaktovat odesílatele zprávy formou rozhovoru prostřednictvím předem dohodnutého a zabezpečeného komunikačního kanálu.
  • Neustálé zlepšování bezpečnostní kompetence, například formou školení zaměstnanců o bezpečnosti a kybernetické kriminalitě. Zvyšování povědomí o tom, co je deepfake a jak se této hrozbě bránit.
  • Podpora a rozvoj bezpečnostních systémů v prostředí informačních a komunikačních technologií (ICT).

Kde se můžete setkat s deepfakeem?

Falešný materiál lze nalézt všude tam, kde může oslovit velké publikum, tedy potenciální deepfake publikum. Facebook, Instagram, TikTok a další stránky sociálních médií jsou plné tohoto druhu věcí.

Jsou to nejen úžasná videa, ale také „vytříbené“ fotografie a zvukové záznamy. Některé z autentických profilů celebrit byly někdy zcela zaplněny deepfake věcmi!

Toto není jediné místo, kde můžete najít deepfake. Na této technologii je založena i aplikace pro smartphone, která umožňuje přidat k fotce knír a vousy nebo jiné speciální efekty (například stárnutí o několik desítek let). Může se tedy ukázat, že poslední fotka, kterou jste dostali od přátel, je trochu „podkreslená“.

Zajímavé také:

Deepfake filmy nejsou jen pornografické

Použití deepfake může být pozitivní i negativní. Deepfake filmy mohou být hravé nebo zábavné. Zde bychom měli zmínit video královny Alžběty tančící na stole během novoročního poselství. To je také účelem většiny úprav fotografií, které provádíme pomocí deepfake aplikace na našich chytrých telefonech. Mělo by to být vtipné a zábavné.

Deepfake materiály mohou sehrát i výchovnou roli, například „vzkřísit“ již mrtvé umělce, zpěváky nebo hudebníky. Některá muzea, zejména Muzeum Salvadora Dalího na Floridě, tuto technologii využívají, kde návštěvníkům svá díla „představuje“ samotný umělec, se kterým si můžete popovídat a dokonce se i vyfotit.

Technologie Deepfake se používá v hlasových generátorech – zařízeních určených pro lidi, kteří ztratili schopnost mluvit. Díky nim k nám takoví lidé mohou stále mluvit svým vlastním hlasem. Hlas Vala Kilmera, který ztratil kvůli rakovině hrtanu, byl modelován v Top Gun: Maverick.

Bohužel máme také mnoho příkladů negativního využití deepfakingu. Politika je příkladem, kdy tento druh nepravdivých informací může mít dalekosáhlé, globální důsledky, jako je diskreditace veřejných osob, ovlivňování akciového trhu, ekonomiky nebo výsledků voleb nebo dokonce vedení války ve válce. Dobře připravený záznam usnadňuje manipulaci s veřejným míněním. Progresivní vývoj technologií ještě více ztíží rozlišení skutečných materiálů od padělků. Jde tedy o krok k pádu společenské důvěry a informačního chaosu.

Deepfake videa, jak jsme již zmínili, jsou v pornoprůmyslu velmi rozšířená. Nejčastěji změny spočívají v nahrazení tváře pornoherečky/herce tváří celebrit nebo filmových hvězd, samozřejmě bez jejich souhlasu.

Přečtěte si také: Vesmírné mise s lidskou posádkou: Proč je návrat na Zemi stále problémem?

Deepfake je skutečnou hrozbou pro nás všechny

Deepfake není problém jen pro herce a politiky. Kdokoli může být ovlivněn falešným obsahem. Prvek vydírání a vydírání může být vykonstruované video, ve kterém spácháme trestný čin nebo se dostaneme do nejednoznačné situace – buď zaplatíte, nebo prozradíme. Pokud pracujete v podnikání, musíte pochopit, že existuje nebezpečí použití deepfake k diskreditaci společnosti mezi jejími protistranami.

Nárůst množství manipulativního materiálu může ovlivnit i sociální důvěru a důvěru v poskytované informace. Jak můžete něčemu věřit, když film, který je důkazem u soudu, může být falešný a zprávy informují o neexistujících událostech?

Technologie, která umožňuje vytvořit škodlivý obrázek, zvukovou nahrávku nebo film, jehož postavy se velmi podobají jiným lidem, představuje novou úroveň hrozby ze strany kyberzločinců. Zejména s ohledem na skutečnost, že v sociálních sítích mohou čerpat téměř neomezené zdroje zdrojového materiálu pro vytváření deepfakes.

Software strojového učení dokáže vyhledávat Facebook abo Instagram, a nachytat třeba zajímavé fotky nebo videa potenciálních „herců“. Na tomto základě lze vytvořit velmi čistý hlas, obraz a video osoby, ale se speciálně vytvořenou falešnou přitažlivostí, která simuluje například vážné potíže - jako oběť únosu nebo nehody. V další fázi se vygeneruje falešná žádost o pomoc, například finanční, adresovaná příbuzným „oběti“.

Přečtěte si také: Vesmírný dalekohled Jamese Webba: 10 cílů k pozorování

Boj proti deepfake

Tok nepravdivých informací je tak velký, že se mnoho sociálních sítí rozhodlo proti deepfakes bojovat. Facebook і Twitter zkuste odhalit falešná videa a automaticky je smazat. Velké korporace (vč Microsoft nebo Amazon) investují do softwaru, který bude detekovat falešný obsah. Na řešení tohoto problému pracují i ​​vědci.

V situaci, kdy k vytvoření falešného filmu stačí aplikace pro chytré telefony, je však boj s deepfakeem jako boj s větrnými mlýny. Neexistují ani žádné právní normy, které by určovaly důsledky manipulace s informacemi nebo využívání cizího obrazu tímto způsobem.

Deepfake je stále populárnější a rozeznat jej od pravdy je stále obtížnější. Může za to zdokonalování technologií, které dokážou lépe napodobit lidské pohyby a gesta. Deepfakes lze využít k dobrým účelům, jako je tvorba vzdělávacích materiálů nebo pomoc lidem, kteří přišli o hlas po operaci hrtanu, ale jsou také nástrojem pro hackery, vyděrače a internetové trolly.

Pokud tedy na internetu opět narazíte na úžasné video, nejprve si zkontrolujte, zda není někdy upravené nebo falešné. Možná to, na co se díváte, nikdy nebylo ve skutečnosti!

Přečtěte si také:

Nezapomínejte však, že na Ukrajině probíhá válka. Pokud chcete pomoci Ukrajině v boji proti ruským okupantům, nejlepší způsob, jak to udělat, je darovat Ozbrojeným silám Ukrajiny prostřednictvím Zachraňte život nebo přes oficiální stránku NBÚ.

Share
Yuri Svitlyk

Syn Karpat, neuznaný génius matematiky, "právník"Microsoft, praktický altruista, levá-pravá

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny*