Deepfakes mohou ohrozit váš business. Jak?

8. září 2020

Na internetu jsou jich desítky tisíc. Dokážou zavařit hercům, politikům, byznysmenům i náhodným lidem. A také firmám. Řeč je o takzvaných deepfakes – podvodných fotkách, nahrávkách a dalších audiovizuálních materiálech, které simulují projev nebo činy konkrétních lidí. Co byste o „hloubkových podvodech“ měli vědět a jak mohou ohrozit vaše podnikání?

1. Deepfakes dokážou simulovat i manažery

Pryč jsou časy, kdy se kyberzločinci soustředili hlavně na celebrity, jejichž tváře vkládali do nejrůznějších (často eroticky laděných) fotomontáží. Útočníci zjistili, jak jednoduše lze pomocí deepfakes vydělávat peníze. Od té chvíle toho využívají čím dál častěji a jejich terčem se stávají také firmy.

Softwarová společnost Symantec například zachytila několik nahrávek, ve kterých domnělí vysoce postavení manažeři požadovali okamžitý převod peněz. Firmy, jejichž zaměstnanci se nachytali a peníze odeslali, tak přišly o miliony dolarů.

Jeden takový příběh přinesl v roce 2019 deník The Wall Street Journal. Zaměstnanec nejmenované britské energetické společnosti si myslel, že po telefonu mluví se šéfem sesterské pobočky v Německu. Když ho hlas na druhé straně telefonu požádal, aby převedl 220 tisíc eur – tedy necelých šest milionů korun – maďarskému dodavateli, dotyčný neváhal. Žádost totiž byla velmi urgentní; peníze musely být údajně převedeny do hodiny. Útočníkovi se dokonce podařilo napodobit tón hlasu i přízvuk ředitele německé pobočky.

Jak je něco takového možné? Stačí, aby umělá inteligence sestavila proslov a intonaci pomocí starších nahrávek z telefonátů, videí na YouTube či přednášek.

Co to jsou deepfakes?

Technologie deepfake staví na umělé inteligenci. „Shromažďováním modelů lidského chování vytváří vlastní modely, které simulují lidské chování,“ uvádí server InternetemBezpecne.cz. Jinak řečeno, konkrétní tváře či hlasy jsou často vkládány do již existujících videí či fotek, a vznikají tak realistické fotomontáže nebo videomontáže, v nichž známí politici, manažeři a herci vyprávějí a dělají věci, které ve skutečnosti nikdy neřekli nebo neudělali. 

2. Deepfakes mohou shazovat konkurenci a sloužit k sabotáži

Představte si, že by konkurenční značka chtěla poškodit například Apple. „Deepfakes by mohly vmžiku znehodnotit jeho akcie,“ píše Michael Grothaus pro americký Forbes. Stačilo by do světa vypustit video, které zachycuje, jak například Tim Cook někomu vypráví o klesající prodejnosti „jablíčkové“ elektroniky. Takové výroky – i když jen nahrané a lživé – by mohly v několika málo vteřinách zásadně změnit pozici Applu na trhu. „I kdyby se později ukázalo, že jde o podvod, video by mezitím stihlo napáchat obrovské škody,“ dodává Grothaus.

Jak dokážou pomluvy a podvrhy hýbat s trhem, ukázal případ z roku 2008. Tehdy se světem šířila mylná informace, že Steve Jobs měl infarkt – a akcie Applu rázem strmě spadly. Začaly se zase zvedat až ve chvíli, kdy se ukázalo, že jde o lež. Do té doby mohla konkurence těžit z nejistoty akcionářů. A dovedete si asi představit, jak snadno dnes může firma ztratit reputaci při porušení etiky v podnikání nebo ve spojení se sexuálním zneužíváním a dalšími přestupky, jichž by se zdánlivě dopustili manažeři ve vedoucích pozicích. Deepfakes navíc ztěžují prokazování neviny v rámci soudního líčení poskytováním falešných důkazů.

3. Deepfakes mohou vést k poškození firemní kultury

V souvislosti s digitální transformací a digitalizací firem se začíná více využívat také systém pro rozpoznávání tváře (Facial Recognition System). Jde o počítačový program, který slouží k identifikaci osob z fotografií či videí. Tváře rozpoznává podle geometrických charakteristik obličeje, jež porovnává s databází, lze ho ale zmást. Některé systémy rozpoznávání tváře už nyní vykazují nepřesnosti například v situacích, kdy mají porovnat barvu pleti.

Co se stane, když zkombinujete technologii rozpoznávání tváře s deepfakes? Může vzniknout napodobenina člověka, který se přihlašuje do firemního systému pomocí multifaktorové autentizace. Ta ověřuje identitu lidí skrze různé kanály – a jedním z nich je také přihlašování pomocí obličeje. Dotyčný by tak snadno mohl získat přístup třeba k utajovaným dokumentům.

Kromě toho se už nyní vedou diskuse o činnosti amerického startupu Clearview AI, který vytváří rozsáhlou databázi více než tří miliard fotek – pravděpodobně včetně těch vašich. Firma je nashromáždila z různých koutů internetu, včetně sociálních sítí jako Facebook, Instagram a YouTube. Řada kritiků ve Spojených státech vnímá tento startup jako rizikový a varují před možným neetickým jednáním lidí, kteří by ho využívali.

Podle zpravodajského a investigativního portálu Vox společnost Clearview tvrdí, že její aplikace umožňuje, aby kdokoli během několika sekund identifikoval neznámou tvář a přiřadil ji k veřejně dostupným informacím o dané osobě.

Představte si, že máte obrázek osoby, jejíž jméno neznáte. Fotografii nahrajete do aplikace Clearview.ai a za chvíli se vám zobrazí všechny fotky této osoby, které jsou na internetu dostupné. A to včetně odkazů na webové stránky, ze kterých tyto obrázky pocházely. To všechno poskytuje informace, které mohou sloužit právě k vylepšování deepfakes. Dotyčný se takto může dostat i k jiným dokumentům, v nichž dotyčná osoba figuruje, a získat tak cenná data, která může opět využít k podvodům. Z hlediska firemní kultury by taková technologie mohla vést například ke kyberšikaně ovlivňující atmosféru pracovních týmů. 

Jak můžete ochránit své podnikání?

Nejlepší cesta vede skrze trénink zaměstnanců. Zkuste je naučit, jak identifikovat falešné záběry a ověřovat podezřelé audiovizuální obsahy.

  1. Začleňte ukázky podvrhů do tréninku kybernetické bezpečnosti.
  2. Připravte několik otázek, které si mohou zaměstnanci položit, když narazí na podivnou fotografii či video. Dokážou pak lépe zhodnotit jeho pravdivost.
  3. Dejte zaměstnancům seznam otázek, pomocí kterých si mohou ověřit totožnost osoby, která jim deepfake pošle.
  4. Sledujte, zda se na internetu neobjevuje falešný obsah týkající se vaší značky.
  5. Podezřelý obsah zkuste co nejdříve nahlásit, aby zbytečně nepoškozoval reputaci firmy.
  6. Pokud budete neprávem obviněni nebo se stanete obětí deepfaků, buďte co nejvíce transparentní, aby vaši klienti či spolupracující firmy viděli, že se jedná o útok.
  7. Informujte zaměstnance, aby si dali pozor na stahování aplikací.

4. Deepfakes je těžké odhalit a jednoduché vytvořit

Ukázaná platí, říká se. V případě deepfakes ale může být tahle zásada začátkem problému. Síla deepfakes spočívá v tom, že na rozdíl od psaného textu působí přesvědčivým dojmem i na zrakové a sluchové vnímání. Náš mozek ale není naučený, že má zpochybňovat hlas nebo chování lidí na neznámých fotografiích či videích – a právě toho deepfakes zneužívají. Navíc je často nedokážou rozpoznat ani experti. Techniky umělé inteligence jsou zkrátka stále propracovanější a podvrhy autentičtější.

Pokud si autor deepfaku nedá s výtvorem takovou práci, jedním z možných ukazatelů, že jde o podvod, může být to, že osoba ve videu méně mrká. Obličej může mít také rozmazané obrysy a zvláštně splývat s pozadím. Nápadná je rovněž uměle vypadající pleť, velmi pomalá řeč a divná intonace.

Vývojáři po celém světě se snaží přijít s detektory, které by dokázaly deepfake v online prostředí odhalit. Část odborné veřejnosti je však skeptická: jakmile se totiž vyvine efektivní postup, jak podvrhy rozpoznávat, kyberzločinci přijdou se sofistikovanějšími technikami a metoda „odhalovacího“ softwaru okamžitě zestárne. Jinak řečeno, než se program naučí deepfakes rozpoznávat, na světě už bude propracovanější verze podvrhu.

Boj proti deepfakes komplikují i provozovatelé sociálních sítí, kteří dosud nevydali jasné stanovisko, jak se k nové generaci podvrhů postaví. Instagram například v červnu 2019 odmítl stáhnout deepfake video se zakladatelem Facebooku Markem Zuckerbergem a potvrdil tak, že online prostředí výrazněji regulovat nehodlá.

Vytvořit deepfake video či jinou montáž je zároveň nesmírně jednoduché. Stačí několik desítek fotek dotyčné osobnosti. Na trhu už jsou rovněž aplikace jako ZAO, prostřednictvím kterých se můžete proměnit ve známou osobnost. Případně lze využít služby některého z mnoha serverů, které výrobu deepfakes nabízejí na zakázku. Umělá inteligence však dokáže vytvořit i zcela nové avatary neboli lidi, kteří ve skutečnosti neexistují – vytvořit si novou identitu ještě nikdy nebylo jednodušší. 

Mohou deepfakes přinést i něco dobrého?

Podle některých odborníků se technologie může uplatnit například v kinematografii. „Mohla by usnadnit natáčení nebezpečných scén, kdy na obličej kaskadéra počítač prostě domodeluje tvář herce, za kterého odvážlivec zaskakuje,“ popisuje pro Forbes Kristýna Tmejová. Deepfakes by případně mohly zobrazit také již zemřelé herce – v takových případech by ale bylo nutné posoudit etický aspekt využití. V roce 2020 takto znovu ožila Carrie Fisher alias princezna Leia. Jak říká autor videa, potřeboval jen 500 snímků herečky, 24 hodin a počítač za 800 dolarů, tedy necelých 18 tisíc korun.

Podle serveru Hackernoon by se deepfakes mohly uplatnit i ve vzdělávání, kdy by známé a dávno zesnulé osobnosti promlouvaly ke studentům.

Mohlo by vás ještě zajímat