Obsah:
- Jak jsou vytvořeny Deepfakes
Důsledky deepfakes- Ne všechny Deepfakes jsou špatné
Jak detekovat Deepfake videa- Dávejte si pozor na Deepfakes
Video: OpenAI Plays Hide and Seek…and Breaks The Game! 🤖 (Listopad 2024)
Když se vydáme do příští sezóny prezidentských voleb, budete si muset dát pozor na možná nebezpečí, která falešná online videa přinášejí pomocí umělé inteligence (AI) a strojového učení (ML). Pomocí softwaru AI mohou lidé vytvářet videa typu deepfake (krátká pro „hluboké učení a falešné“), ve kterých jsou algoritmy ML používány k provádění výměny tváří a vytvářejí iluzi, že někdo řekl buď něco, co neřekli, nebo někoho, koho ' re ne. Deepfake videa se objevují v různých arénách, od zábavy po politiku až po firemní svět. Videozáznamy, které mohou prohloubit falešné zprávy, mohou nejen ovlivnit volbou falešnými zprávami, ale mohou přinést i osobní rozpaky nebo zavádějící zprávy o značkách, pokud například ukazují, že generální ředitel oznamuje uvedení produktu na trh nebo akvizici, ke které ve skutečnosti nedošlo.
Deepfakes jsou součástí kategorie umělé inteligence zvané „Generative Adversarial Networks“ (Generativní Adversarial Networks) nebo GAN, ve kterých dvě neuronové sítě soutěží o vytvoření fotografií nebo videí, které se zdají skutečné. GAN sestávají z generátoru, který vytváří novou sadu dat, jako je falešné video, a diskriminátoru, který používá algoritmus ML k syntéze a porovnání dat ze skutečného videa. Generátor se stále pokouší syntetizovat falešné video se starým, dokud diskriminátor nedokáže říct, že data jsou nová.
Jak zdůraznil Steve Grobman, senior viceprezident a hlavní technologický ředitel společnosti McAfee (CTO) na konferenci RSA 2019 v březnu v San Franciscu, falešné fotografie se objevují od objevu fotografie. Řekl, že změna fotografií je jednoduchý úkol, který můžete provést v aplikaci, jako je Adobe Photoshop. Nyní se však tyto typy pokročilých možností úprav pohybují také ve videu a dělají to pomocí vysoce schopných a snadno dostupných softwarových nástrojů.
Jak jsou vytvořeny Deepfakes
I když je pochopení konceptů umělé inteligence užitečné, není nutné, aby byl konstruktérem hlubokého obrazu video vědec. Podle společnosti Grobman jde pouze o dodržování některých pokynů online. Na konferenci RSA 2019 (viz video výše) odhalil hluboce falešné video spolu s Dr. Celeste Fralickem, hlavním vědcem v oblasti dat a vedoucím hlavním inženýrem společnosti McAfee. Hluboké video představovalo hrozbu, kterou tato technologie představuje. Grobman a Fralick ukázali, jak veřejný činitel ve videu říká, že něco nebezpečného by mohlo veřejnost uvést v omyl, když si myslel, že zpráva je skutečná.
Grobman a Fralick si vytvořili své video a stáhli si software deepfake. Poté natočili video o Grobmanovi svědčícím před americkým senátem v roce 2017 a položili Fralickovi ústa na Grobmana.
"Použil jsem volně dostupné veřejné komentáře, abych vytvořil a trénoval ML model; to mi umožnilo vyvinout hluboce falešné video s mými slovy vycházejícími z úst, " řekl Fralick divákům RSA na pódiu. Fralick pokračoval říkat, že hluchá videa mohou být použita pro sociální vykořisťování a informační válku.
Grobman a Fralick použili k vytvoření svého hlubokého videa nástroj, který vyvinul uživatel Reddit s názvem FakeApp, který využívá algoritmy ML a fotografie k výměně tváří u videí. Během prezentace RSA Grobman vysvětlil další kroky. "Rozdělili jsme videa na statické obrázky, extrahovali jsme tváře a vyčistili jsme je roztříděním a vyčistili je na Instagramu."
Skripty Pythonu umožnily týmu McAfee stavět pohyby úst tak, aby Fralickova řeč odpovídala Grobmanovým ústům. Pak potřebovali napsat nějaké vlastní skripty. Výzvou při vytváření přesvědčivého hlubokého padělku je, když se vlastnosti, jako je pohlaví, věk a tón pleti, neshodují, řekl Grobman.
On a Fralick pak použili konečný algoritmus umělé inteligence, aby odpovídali představám Grobmana svědčícího před Senátem s Fralickovou řečí. Grobman dodal, že trénování těchto ML algoritmů trvalo 12 hodin.
McAfee nastínil kroky, které podnikl k vytvoření hlubokého videa zobrazeného na konferenci RSA 2019. Používal software deepfake s názvem FakeApp a školení ML modelů, aby změnil video Grobmana pomocí řeči od Fralicka. (Obrazový kredit: McAfee).
Důsledky deepfakes
Hackerská videa typu deepfake mají potenciál způsobovat mnoho problémů - všechno od vládních úředníků šířících nepravdivé dezinformace až po celebrity, které jsou v rozpacích z toho, že jsou ve videích, do kterých se skutečně nedostali, do společností poškozujících postavení konkurentů na akciovém trhu. Vědomí si těchto problémů, zákonodárci v září poslali dopis Danielu Coatsovi, americkému řediteli National Intelligence, s žádostí o přezkoumání hrozby, kterou představují hluboké padělky. Dopis varoval, že země, jako je Rusko, mohou na šíření falešných informací použít sociální média na sociálních médiích. V prosinci představili zákonodárci zákon o škodlivém prohloubení falešných zákonů z roku 2018, který zakázal podvody v souvislosti s „audiovizuálními záznamy“, které odkazují na hluboké podvody. Zůstane vidět, zda návrh zákona přejde.
Jak již bylo zmíněno, celebrity mohou trpět rozpaky z videí, ve kterých byly jejich tváře překrývány s tvářemi pornohvězd, jako tomu bylo v případě Gal Gadota. Nebo si představte generálního ředitele, který má údajně oznamovat novinky o produktech a potopit akcie společnosti. Bezpečnostní profesionálové mohou použít ML k detekci těchto typů útoků, ale pokud nejsou detekovány včas, mohou způsobit zbytečné poškození zemi nebo značce.
"S hlubokými padělky, pokud víte, co děláte a víte, na koho cílit, můžete opravdu přijít s přesvědčivým videem, které způsobí značnou škodu značce, " řekl Dr. Chase Cunningham, hlavní analytik Forrester Research. Dodal, že pokud distribuujete tyto zprávy na LinkedIn nebo Twitteru nebo využijete robota, „můžete akcie společnosti rozložit na základě falešného videa bez chvilky úsilí.“
Prostřednictvím hluchých videí by spotřebitelé mohli být podvedeni v přesvědčení, že produkt může udělat něco, co nemůže. Cunningham poznamenal, že pokud generální ředitel významného výrobce automobilů uvedl ve falešném videu, že by společnost již nevyráběla vozidla poháněná plynem a potom v tomto videu šířila tuto zprávu na Twitteru nebo LinkedIn, pak by tato akce mohla snadno poškodit značku.
„Je zajímavé, že z mého výzkumu lidé dělají rozhodnutí na základě titulků a videí za 37 sekund, “ řekl Cunningham. „Takže si dokážete představit, že můžete získat video, které běží déle než 37 sekund, můžete přimět lidi, aby se rozhodli na základě zda faktické nebo ne. A to je děsivé. “
Vzhledem k tomu, že sociální média jsou zranitelným místem, kde mohou být hluchá videa virová, weby sociálních médií aktivně bojují proti hrozbě hluchoty. Například Facebook nasazuje technické týmy, které umí nacházet manipulované fotografie, audio a video. Kromě používání softwaru si Facebook (a další společnosti v oblasti sociálních médií) najímá lidi, aby ručně hledali hluboké kouzla.
"Rozšířili jsme naše pokračující úsilí v boji proti manipulovaným médiím tak, aby zahrnovalo boj proti hlubokým podvodům, " uvedl v prohlášení zástupce Facebooku. „Víme, že neustálý vznik všech forem manipulovaných médií představuje pro společnost skutečné výzvy. Proto investujeme do nových technických řešení, učíme se z akademického výzkumu a spolupracujeme s ostatními v oboru, abychom porozuměli hlubokým změnám a jiným formám manipulovaných médií.. “
Ne všechny Deepfakes jsou špatné
Jak jsme viděli ve vzdělávacím videu McAfee a komediálním videu na televizi v pozdní noci, některá videozáznamy nemusí být nutně špatné. Ve skutečnosti, zatímco politika může odhalit skutečná nebezpečí hlubokých falešných videí, zábavní průmysl často jen ukazuje slabší stránku hlubokých falešných videí.
Například v nedávné epizodě The Late Show With Stephen Colbert bylo vtipné video s hlubokým uměním, ve kterém byla tvář herce Steve Buscemi překrývána s tělem herečky Jennifer Lawrence. V jiném případě komik Jordan Peeler nahradil video bývalého prezidenta Baracka Obamy, který mluvil svým vlastním hlasem. Humorná videa s hlubokým uměním, jako jsou tato, se také objevila online, kde tvář prezidenta Trumpa překrývá tvář německé kancléřky Angely Merkelové.
Opět platí, že pokud jsou videa typu deepfake použita pro satirický nebo vtipný účel nebo jednoduše jako zábava, pak platformy sociálních médií a dokonce i filmové produkční společnosti to dovolují nebo používají. Například Facebook umožňuje tento typ obsahu na své platformě a Lucasfilm použil tento druh digitální rekreace k představení mladé Carrie Fisherové v těle herečky Ingvild Deily v „Rogue One: A Star Wars Story“.
McAfee's Grobman poznamenal, že některé technologie, které se skrývají za hlubokými padělky, se dobře využívají s kaskadérskými zdvojnásobeními, aby se herci udrželi v bezpečí. "Kontext je všechno. Pokud je to pro komediální účely a je zřejmé, že to není skutečné, je to něco, co je legitimním využitím technologie, " řekl Grobman. "Uznání, že může být použit pro nejrůznější účely, je klíčové."
Jak detekovat Deepfake videa
McAfee není jedinou bezpečnostní firmou, která experimentuje s tím, jak detekovat falešná videa. Ve svém příspěvku vydaném na Black Hat 2018 s názvem „AI Gone Rogue: Vyhubení hlubokých padělků dříve, než způsobí hrozbu“, dva odborníci na bezpečnost společnosti Symantec, vedoucí odpovědí na bezpečnostní reakce Vijay Thaware a vývojář softwaru Niranjan Agnihotri, píšou, že vytvořili nástroj pro zjištění falešná videa založená na Google FaceNet. Google FaceNet je architektura neuronové sítě, kterou vědci Google vyvinuli s cílem pomoci s ověřováním a rozpoznáváním obličeje. Uživatelé trénují model FaceNet na konkrétním obrázku a během následujících testů si mohou ověřit jejich identitu.
AI Foundation, nezisková organizace, která se zaměřuje na interakci člověka a umělé inteligence, se snaží zastavit šíření hluboce falešných videí a nabízí software s názvem „Reality Defender“, pomocí kterého dokáže odhalit falešný obsah. Může skenovat obrázky a videa a zjistit, zda byly změněny pomocí AI. Pokud ano, dostanou „čestný vodoznak AI“.
- Obchodní průvodce strojovým učením Obchodní průvodce strojovým učením
- PornHub, Twitter Zákaz „Deepfake“ AI-modifikované porno Porn PornHub, Twitter Zákaz 'Deepfake' AI-modifikované porno
- Nejnovější Deepfake Tech vás bude tančit jako Bruno Mars Nejnovější Deepfake Tech vás bude tančit jako Bruno Mars
Další strategií je mít na paměti koncept Zero Trust, což znamená „nikdy nevěřte, vždy ověřte“ - motto kybernetické bezpečnosti, které znamená, že IT profesionálové by měli před udělením přístupových oprávnění potvrdit, že všichni uživatelé jsou legitimní. Bude třeba zůstat skeptický ohledně platnosti videoobsahu. Budete také chtít, aby software s digitální analytickou funkcí našel falešný obsah.
Dávejte si pozor na Deepfakes
V budoucnu musíme být opatrnější s videoobsahem a mít na paměti nebezpečí, která mohou společnosti při zneužití představovat. Jak poznamenal Grobman: „V nejbližší době musí být lidé skeptičtější k tomu, co vidí, a uznávají, že video a audio lze vyrobit.“
Dávejte pozor na politická videa, která sledujete, když se vydáváme do příští volební sezóny, a nedůvěřujte všem videím představujícím firemní vůdce. Protože to, co slyšíte, nemusí být to, co bylo skutečně řečeno, a zavádějící hluchá videa mají potenciál skutečně poškodit naši společnost.