Domov Názory Jak falešná varování openai vyvolala skutečné falešné zprávy

Jak falešná varování openai vyvolala skutečné falešné zprávy

Obsah:

Video: OpenAI библиотека для генерации кода, текста, вёрстки… / GPT 3 — библиотека будущего? (Listopad 2024)

Video: OpenAI библиотека для генерации кода, текста, вёрстки… / GPT 3 — библиотека будущего? (Listopad 2024)
Anonim

Nezisková výzkumná laboratoř AI OpenAI minulý měsíc vyvolala vlnu paniky AI apokalypsy, když zavedla nejmodernější textovou AI generující text nazvanou GPT-2. Ale zatímco oslavoval úspěchy GPT-2, OpenAI prohlásil, že neuvede svůj model AI na veřejnost, protože se obává, že ve špatných rukou může být GPT-2 použit pro škodlivé účely, jako je vytváření zavádějících zpravodajských článků, předstírání jiných online online a automatizaci výroby falešného obsahu na sociálních médiích.

Oznámení OpenAI pravděpodobně vytvořilo záplavu senzačních zpravodajských příběhů, ale přestože je možné zaútočit na jakoukoli pokročilou technologii, AI má ještě daleko před tím, než zvládne generování textu. Dokonce i pak trvá víc než jen generování textu, aby se vytvořila falešná zpravodajská krize. V tomto světle byla varování OpenAI přehnaná.

AI a lidský jazyk

Počítače se historicky snažily zvládnout lidský jazyk. V psaném textu je tolik komplikací a nuancí, že jejich převedení na klasická softwarová pravidla je prakticky nemožné. Nedávné pokroky v hlubokém učení a neuronových sítích však vydláždily cestu pro odlišný přístup k vytváření softwaru, který dokáže zvládnout úkoly související s jazykem.

Hluboké učení přineslo velká zlepšení v oblastech, jako je strojový překlad, shrnutí textu, odpovídání na otázky a tvorba přirozeného jazyka. Umožňuje softwarovým inženýrům vytvářet algoritmy, které rozvíjejí jejich vlastní chování analýzou mnoha příkladů. V případě úkolů souvisejících s jazykem dodávají inženýři neuronové sítě digitalizovanému obsahu, jako jsou zpravodajské příběhy, stránky Wikipedie a příspěvky v sociálních médiích. Neuronové sítě pečlivě porovnávají data a berou na vědomí, jak určitá slova následují ostatní v opakujících se sekvencích. Poté tyto vzory promění v komplexní matematické rovnice, které jim pomohou řešit jazykové úkoly, jako je předpovídání chybějících slov v textové sekvenci. Obecně platí, že čím kvalitnější tréninková data poskytnete modelu hlubokého učení, tím lépe se stane při plnění jeho úkolu.

Podle OpenAI byl GPT-2 vyškolen na 8 milionech webových stránek a miliardách slov, což je mnohem více než jiné podobné modely. Používá také pokročilé modely AI k lepšímu použití textových vzorů. Ukázkový výstup z GPT-2 ukazuje, že model dokáže udržet koherenci v delších sekvencích textu než jeho předchůdci.

Ale zatímco GPT-2 je krokem vpřed v oblasti generování přirozeného jazyka, nejedná se o technologický průlom směrem k vytváření umělé inteligence, který může pochopit význam a kontext psaného textu. GPT-2 stále používá algoritmy k vytváření posloupností slov, která jsou statisticky podobná miliardám textových výňatků, které dříve viděla - nemá absolutně žádnou představu o tom, co generuje.

V hloubkové analýze ukazuje ZDNet's Tiernan Ray na několik případů, kdy výstupní vzorky GPT-2 prozrazují svou umělou povahu známými artefakty, jako je zdvojování termínů a nedostatek logiky a konzistentnosti ve faktech. „Když se GPT-2 pustí do řešení psaní, které vyžaduje další rozvoj myšlenek a logiky, trhliny se otevřou poměrně široko, “ poznamenává Ray.

Statistické učení může počítačům pomoci generovat text, který je gramaticky správný, ale pro udržení logické a faktické konzistence je vyžadováno hlubší pojmové porozumění. Bohužel je to stále výzva, kterou současné směsi AI nepřekonaly. To je důvod, proč GPT-2 dokáže generovat pěkné odstavce textu, ale pravděpodobně by bylo obtížné generovat autentický článek s dlouhou formou nebo někoho vydávat za přesvědčivé a po delší dobu.

Proč je AI Fake-News Panic přehnaná

Další problém s argumentem OpenAI: Předpokládá, že AI může vytvořit falešnou krizi.

V roce 2016 skupina makedonských dospívajících šířila falešné zprávy o amerických prezidentských volbách milionům lidí. Je ironií, že ani neměli správné anglické dovednosti; našli své příběhy na webu a spojili různorodý obsah dohromady. Byli úspěšní, protože vytvořili weby, které vypadaly dostatečně autenticky, aby přesvědčily návštěvníky, aby jim věřili jako spolehlivé zpravodajské zdroje. Senzační titulky, nedbalí uživatelé sociálních médií a algoritmy trendů udělali zbytek.

V roce 2017 pak nebezpeční herci spustili diplomatickou krizi v oblasti Perského zálivu tím, že nabourali katarské státní zpravodajské weby a účty vládních sociálních médií a zveřejnili falešné poznámky jménem šejka Tamima bin Hamada Al Thaniho, emiru Kataru.

Jak tyto příběhy ukazují, úspěch falešných zpravodajských kampaní závisí na vytvoření (a zradení) důvěry, nikoli na generování velkého množství koherentního anglického textu.

Varování OpenAI o automatizaci výroby falešného obsahu pro zveřejňování na sociálních médiích jsou však oprávněnější, protože měřítko a objem hrají v sociálních sítích důležitější roli než v tradičních mediálních odbytištích. Předpokládá se, že umělá inteligence, jako je GPT-2, bude schopna zaplavit sociální média miliony jedinečných příspěvků na konkrétní téma, což ovlivní algoritmy trendů a veřejné diskuse.

Výstrahy však stále chybí realitě. V posledních několika letech vyvíjejí společnosti sociálních médií neustálý vývoj schopností detekovat a blokovat automatické chování. Zlovolný herec vyzbrojený AI vytvářející text by tedy musel překonat řadu výzev nad rámec vytváření jedinečného obsahu.

Například by potřebovali tisíce falešných účtů na sociálních sítích, na kterých by mohli zveřejňovat svůj obsah generovaný AI. Ještě tvrdší, aby se ujistili, že neexistuje způsob, jak propojit falešné účty, potřebují pro každý účet jedinečné zařízení a IP adresu.

Zhorší se to: účty by musely být vytvořeny v různých časech, možná po dobu jednoho roku nebo déle, aby se snížila podobnost. Minulý rok šetření v New York Times ukázalo, že samotná data vytvoření účtu by mohla pomoci objevit účty bot. Poté, aby účty dále skryly svou automatizovanou povahu před ostatními uživateli a policejními algoritmy, musely by se účty zapojit do chování podobného člověku, jako je interakce s ostatními uživateli a nastavení jedinečných tónů v jejich příspěvcích.

Žádnou z těchto výzev nelze překonat, ale ukazují, že obsah je pouze jednou částí úsilí potřebného k vedení falešné zprávy v sociálních médiích. A opět hraje důvěra důležitou roli. Několik důvěryhodných ovlivňovačů sociálních médií, kteří zveřejňují několik falešných zpráv, bude mít větší dopad než množství neznámých účtů vytvářejících velké množství obsahu.

Na obranu varování OpenAI

Přehnaná varování OpenAI vyvolala cyklus mediálních humbuků a paniky, která paradoxně hraničila se samotnými falešnými zprávami, což vyvolalo kritiku od renomovaných odborníků na umělou inteligenci.

Pozvali mediální lidi, aby získali rychlý přístup k výsledkům, a to s embargem na tisk, takže to vše bylo zveřejněno ve stejný den. Žádní vědci, o kterých vím, se nemuseli podívat na velký model, ale novináři ano. Ano, úmyslně to vyhodili do vzduchu.

- Matt Gardner (@ nlpmattg) 19. února 2019

Každý nový člověk může být potenciálně použit ke generování falešných zpráv, šíření konspiračních teorií a ovlivňování lidí.

Měli bychom přestat dělat děti?

- Yann LeCun (@ylecun) 19. února 2019

Chtěla jsem vám jen dát hlavu, naše laboratoř našla úžasný průlom v porozumění jazyku. ale také se obáváme, že to může spadnout do nesprávných rukou. takže jsme se rozhodli to zrušit a místo toho publikovat pouze běžné položky * ACL. Velký respekt týmu k jejich skvělé práci.

- (((? () (? () 'Yoav)))) (@yoavgo) 15. února 2019

Zachary Lipton, výzkumný pracovník AI a redaktor časopisu Přibližně korigovat, poukázal na historii OpenAI „pomocí svého blogu a nadměrně zaměřuje pozornost na nezralé práce katapultů na veřejný pohled a často hraje na aspekty bezpečnosti lidí, které dosud nemají intelektuální nohy stát. “

Přestože si OpenAI zaslouží veškerou kritiku a teplo, které obdržela v návaznosti na své zavádějící poznámky, je také správné se skutečně obávat možného škodlivého využití své technologie, i když společnost použila nezodpovědný způsob, jak o ní informovat veřejnost.

  • Rok etického zjišťování průmyslu AI Rok etického zjišťování průmyslu AI
  • Nespravedlivá výhoda: Neočekávejte, že AI bude hrát jako člověk Nespravedlivá výhoda: Neočekávejte, že AI bude hrát jako člověk
  • Tento AI předpovídá online trolling, než se stane

V minulých letech jsme viděli, jak mohou být technologie AI zveřejňovány bez přemýšlení a reflexe, aby mohly být vyzbrojeny za škodlivé úmysly. Jedním z příkladů byla aplikace FakeApp, AI aplikace, která umí zaměnit tváře u videí. Brzy poté, co byl vydán FakeApp, byl použit k vytváření falešných pornografických videí, která obsahovala celebrity a politiky, což vyvolalo obavy z hrozby padělání poháněného umělou inteligencí.

Rozhodnutí OpenAI ukazuje, že musíme pozastavit a zamyslet se nad možnými důsledky technologie uvolňování veřejnosti. A musíme vést aktivnější diskuse o rizicích technologií AI.

"Jedna organizace, která pozastaví jeden konkrétní projekt, se ve skutečnosti nic nezmění dlouhodobě. Ale OpenAI získává hodně pozornosti za všechno, co dělají… a myslím si, že by jim mělo být chváleno za to, že obrátili pozornost na toto téma, " David Bau, výzkumný pracovník v MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL), řekl Slate.

Jak falešná varování openai vyvolala skutečné falešné zprávy