Obsah:
Video: Ghar More Pardesiya - Full Video| Kalank | Varun, Alia & Madhuri| Shreya & Vaishali| Pritam| Amitabh (Listopad 2024)
Na konci roku 2017 základní deska informovala o technologii umělé inteligence, která dokáže vyměnit tváře u videí. V té době tato technologie - později zvaná hluboké padělky - přinesla hrubé, zrnité výsledky a většinou se používala k vytváření falešných porno videí představujících celebrity a politiky.
O dva roky později tato technologie ohromně pokročila a je obtížnější ji odhalit pouhým okem. Spolu s falešnými zprávami se kovaná videa stala problémem národní bezpečnosti, zejména když se blíží prezidentské volby do roku 2020.
Od doby, kdy se objevily hluboké kouzla, vyvinulo několik organizací a společností technologie pro detekci videí narušených umělou inteligencí. Ale existuje obava, že jednoho dne nebude možné detekovat technologii hlubokých padů.
Vědci z University of Surrey vyvinuli řešení, které by mohlo problém vyřešit: místo toho, aby zjistili, co je nepravdivé, ukáže se, co je pravda. Technologie, nazvaná Archangel, má být představena na nadcházející konferenci o počítačovém vidění a rozpoznávání vzorů (CVPR) a používá AI a blockchain k vytvoření a registraci digitálního otisku prstu pro autentická videa. Otisk prstu lze použít jako referenční bod pro ověření platnosti médií distribuovaných online nebo vysílaných v televizi.
Použití AI k podepisování videí
Klasickým způsobem, jak prokázat pravost binárního dokumentu, je použití digitálního podpisu. Vydavatelé provozují svůj dokument prostřednictvím kryptografického algoritmu, jako je SHA256, MD5 nebo Blowfish, který vytváří „hash“, krátký řetězec bajtů, který představuje obsah tohoto souboru a stává se jeho digitálním podpisem. Spuštění stejného souboru pomocí algoritmu hashování kdykoli vytvoří stejný hash, pokud se jeho obsah nezměnil.
Hash jsou citlivé na změny v binární struktuře zdrojového souboru. Když upravíte jeden bajt v hashovaném souboru a znovu jej spustíte pomocí algoritmu, vytvoří se úplně jiný výsledek.
Přestože hash funguje dobře pro textové soubory a aplikace, představují výzvy pro videa, která mohou být uložena v různých formátech, podle Johna Collomosse, profesora počítačového vidění na University of Surrey a vedoucí projektu pro Archanděla.
„Chtěli jsme, aby byl podpis stejný bez ohledu na kodek, s nímž je video komprimováno, “ říká Collomosse. „Pokud vezmu své video a převedu ho z, řekněme, z MPEG-2 na MPEG-4, pak bude mít tento soubor úplně jinou délku a bity se úplně změní, což povede k jinému hašování. byl hashovací algoritmus s vědomím obsahu. “
K vyřešení tohoto problému Collomosse a jeho kolegové vyvinuli hlubokou neuronovou síť, která je citlivá na obsah obsažený ve videu. Hluboké neuronové sítě jsou typem konstrukce AI, která vyvíjí své chování analýzou obrovského množství příkladů. Zajímavé je, že neuronové sítě jsou také technologií v jádru hlubokých padělků.
Při vytváření hlubokých padělků živí vývojář síť sítí obrázky obličeje subjektu. Neuronová síť se učí rysy obličeje a při dostatečném zaškolení je schopna najít a zaměnit tváře v jiných videích s obličejem subjektu.
Archangelova neuronová síť je trénována na videu, které otiskuje. „Síť se dívá spíše na obsah videa než na jeho základní bity a bajty, “ říká Collomosse.
Po zaškolení, když spustíte nové video v síti, ověří to, když obsahuje stejný obsah jako zdrojové video, bez ohledu na jeho formát, a odmítne jej, když se jedná o jiné video nebo bylo s ním manipulováno nebo upraveno.
Podle Collomosse může technologie detekovat jak prostorové, tak časové zasahování. Prostorové manipulace jsou změny provedené v jednotlivých rámcích, například úpravy výměny obličeje prováděné v hlubokých padělcích.
Hluboké padělky však nejsou jediným způsobem, jak lze s videi manipulovat. Méně diskutované, ale stejně nebezpečné jsou úmyslné změny v sekvenci snímků a rychlosti a trvání videa. Nedávné, široce šířené narušené video House Speaker Nancy Pelosi nevyužívalo hluboké kouzla, ale bylo vytvořeno pečlivým používáním jednoduchých editačních technik, díky nimž vypadala zmateně.
„Jednou z forem manipulace, kterou dokážeme odhalit, je odstranění krátkých segmentů videa. Jedná se o časové omezovače. A dokážeme detekovat až tři sekundy manipulace. Takže, pokud je video několik hodin dlouhé a jen odstraníte tři vteřiny tohoto videa, můžeme to zjistit, “říká Collomosse a dodal, že Archangel také odhalí změny rychlosti původního videa, jako tomu bylo ve videu Pelosi.
Registrace otisku prstu na blockchainu
Druhou součástí projektu Archangel je blockchain, databáze chráněná proti neoprávněné manipulaci, kde lze ukládat, ale neměnit nové informace - ideální pro video archivy, které po zaregistrování neprovedou žádné změny ve videích.
Technologie Blockchain je základem digitálních měn, jako jsou bitcoiny a ethery. Je to digitální kniha spravovaná několika nezávislými stranami. Většina smluvních stran se musí dohodnout na změnách provedených v blockchainu, což znemožňuje, aby jakákoli jediná strana jednostranně zasahovala do knihy.
Je technicky možné zaútočit a změnit obsah blockchainu, pokud srazí více než 50 procent jejích účastníků. V praxi je to však nesmírně obtížné, zejména pokud je blockchain udržován mnoha nezávislými stranami s různými cíli a zájmy.
Archandělův blockchain se trochu liší od veřejného blockchainu. Nejprve neprodukuje kryptoměnu a ukládá pouze identifikátor, otisk prstu citlivý na obsah a binární hash neuronové sítě ověřovatele pro každé video v archivu (blockchainy nejsou vhodné pro ukládání velkého množství dat, což je důvod, proč samotné video a neuronová síť jsou uloženy mimo řetězec).
Je to také povolený nebo „soukromý“ blockchain. To znamená, že na rozdíl od bitcoinových blockchainů, kde každý může zaznamenávat nové transakce, mohou nové záznamy ukládat do archandělského blockchainu pouze oprávněné strany.
Archanděl je v současné době zkoušen sítí národních vládních archivů z Velké Británie, Estonska, Norska, Austrálie a USA: Aby bylo možné ukládat nové informace, musí každá zúčastněná země doplnit dodatek. Přestože pouze národní archivy zúčastněných zemí mají právo přidávat záznamy, všichni ostatní mají přístup ke čtení do blockchainu a mohou jej použít k ověření jiných videí proti archivu.
- AI a strojové učení využívat, Deepfakes, nyní těžší detekovat AI a Machine Learning využívat, Deepfakes, nyní těžší detekovat
- Deepfake videa jsou tady, a nejsme připraveni Deepfake videa jsou tady, a nejsme připraveni
- Nové AI od společnosti Adobe detekuje obličeje Photoshopped Nové AI od společnosti Adobe detekuje obličeje Photoshoppedu
„Toto je aplikace blockchainu pro veřejné dobro, “ říká Collomosse. „Podle mého názoru je jediným smysluplným využitím blockchainu situace, kdy máte nezávislé organizace, které si navzájem nemusí nutně důvěřovat, ale mají tento vlastní zájem na tomto společném cíli vzájemné důvěry. zabezpečit národní archivy vlády po celém světě, abychom pomocí této technologie mohli podepsat jejich integritu. ““
Protože vytváření kovaných videí je stále snazší, rychlejší a dostupnější, bude každý potřebovat veškerou pomoc, kterou může získat, aby zajistil integritu svých video archivů - zejména vlád.
„Myslím, že hluboké padělky jsou skoro jako závod se zbraněmi, “ říká Collomosse. „Protože lidé produkují stále přesvědčivější hluchoty a jednoho dne je může být nemožné je detekovat. Proto je nejlepší, co můžete udělat, je pokusit se prokázat původ videa.“