Obsah:
- Hluboké učení spoléhá na data příliš mnoho
- Hluboké učení není flexibilní
- Hluboké učení je neprůhledné
- Hluboké učení by mohlo být přehnané
Video: how to make a proportional divider for drawing (Listopad 2024)
V roce 2012 udělala skupina vědců z University of Toronto průlom v klasifikaci obrázků.
V ImageNet, každoroční soutěži umělé inteligence (AI), ve které soutěžící soupeří o vytvoření nejpřesnějšího algoritmu pro klasifikaci obrazu, debutoval tým Toronto AlexNet, „který porazil pole o neuvěřitelných 10, 8 procentních bodů… o 41 procent lepší než další nejlepší, “podle Quartze.
Mnozí ocenili hluboké učení a jeho nadmnožinu, strojové učení, jako univerzální technologii naší doby a hlubší než elektřina a oheň. Jiní však varují, že hluboké učení bude nakonec nejlepším člověkem při každém úkolu a stane se konečným zabijákem práce. A exploze aplikací a služeb poháněných hlubokým učením vyvolala obavy z apokalypsy umělé inteligence, ve které super inteligentní počítače dobývají planetu a vedou lidi k otroctví nebo vyhynutí.
Ale i přes humbuk, hluboké učení má některé nedostatky, které mu mohou bránit v realizaci některých svých slibů - pozitivních i negativních.
Hluboké učení spoléhá na data příliš mnoho
Hluboké učení a hluboké nervové sítě, které tvoří jeho základní strukturu, jsou často porovnávány s lidským mozkem. Ale naše mysl se může učit koncepty a rozhodovat s velmi malými daty; Hluboké učení vyžaduje spoustu vzorků k provedení nejjednoduššího úkolu.
Hluboké učení je v jádru složitá technika, která mapuje vstupy do výstupů pomocí nalezení společných vzorců v označených datech a pomocí znalostí kategorizuje další vzorky dat. Například dejte aplikaci pro hluboké učení dostatek obrázků koček a bude schopen zjistit, zda fotografie obsahuje kočku. Podobně, když algoritmus hlubokého učení požívá dostatek zvukových vzorků různých slov a frází, dokáže rozpoznat a přepsat řeč.
Tento přístup je však účinný pouze v případě, že máte k dispozici dostatek kvalitních dat, abyste mohli své algoritmy doplňovat. V opačném případě mohou algoritmy hlubokého učení dělat velké chyby (jako například zaměnit pušku s vrtulníkem). Když jejich data nejsou inkluzivní a různorodá, algoritmy hlubokého učení dokonce projevily rasistické a sexistické chování.
Spolehlivost na data také způsobuje problém centralizace. Protože mají přístup k obrovskému množství dat, společnosti jako Google a Amazon mají lepší pozici pro vývoj vysoce účinných aplikací pro hluboké učení než pro začínající podniky s menším objemem zdrojů. Centralizace AI v několika společnostech by mohla bránit inovacím a dát těmto společnostem příliš mnoho nad jejich uživatele.
Hluboké učení není flexibilní
Lidé se mohou učit abstraktní pojmy a aplikovat je na různé situace. Děláme to pořád. Například při hraní počítačové hry, jako je Mario Bros, poprvé, můžete okamžitě využít znalosti z reálného světa - například potřebu přeskočit jámy nebo vyhnout ohnivé koule. Následně můžete své znalosti hry aplikovat na jiné verze Mario, jako je Super Mario Odyssey, nebo na jiné hry s podobnými mechaniky, jako je Donkey Kong Country a Crash Bandicoot.
Aplikace AI se však musí učit vše od nuly. Pohled na to, jak se algoritmus pro hluboké učení učí hrát Mario, ukazuje, jak odlišný je proces učení umělé inteligence od procesu lidí. V podstatě nezačíná nic o svém prostředí a postupně se učí interagovat s různými prvky. Znalosti, které získává z hraní Mario, však slouží pouze pro úzkou doménu této jediné hry a nelze je přenést na jiné hry, dokonce ani na jiné hry Mario.
Tento nedostatek konceptuálního a abstraktního porozumění udržuje aplikace hlubokého učení zaměřené na omezené úkoly a brání rozvoji obecné umělé inteligence, druhu umělé inteligence, která může činit intelektuální rozhodnutí jako lidé. To není nutně slabost; někteří odborníci tvrdí, že vytvoření obecné AI je zbytečný cíl. Ale ve srovnání s lidským mozkem je to určitě omezení.
Hluboké učení je neprůhledné
Na rozdíl od tradičního softwaru, pro který programátoři definují pravidla, vytvářejí aplikace pro hluboké učení svá vlastní pravidla zpracováním a analýzou testovacích dat. V důsledku toho nikdo opravdu neví, jak dospějí k závěrům a rozhodnutím. Dokonce i vývojáři algoritmů hlubokého učení se často ocitnou zmatení výsledky svých výtvorů.
Tento nedostatek transparentnosti by mohl být hlavní překážkou pro umělou inteligenci a hluboké učení, protože se technologie snaží najít své místo v citlivých oblastech, jako je léčba pacientů, vymáhání práva a automobily s vlastním řízením. Algoritmy pro hloubkové učení mohou být méně náchylné k chybám než lidé, ale když dělají chyby, důvody těchto chyb by měly být vysvětlitelné. Pokud nedokážeme pochopit, jak fungují naše aplikace AI, nebudeme jim moci důvěřovat s důležitými úkoly.
Hluboké učení by mohlo být přehnané
Hluboké učení se již osvědčilo v mnoha oborech a bude i nadále měnit způsob, jakým děláme věci. I přes své nedostatky a omezení nás hluboké učení nezklamalo. Musíme ale upravit naše očekávání.
Jak varuje vědec AI Gary Marcus, přepracování technologie by mohlo vést k další „AI zimě“ - období, kdy příliš vysoká očekávání a nedostatečná výkonnost vedou k obecnému zklamání a nedostatku zájmu.
Marcus navrhuje, že hluboké učení není „univerzálním rozpouštědlem, ale jedním z mnoha nástrojů“, což znamená, že zatímco budeme i nadále zkoumat možnosti, které hluboké učení poskytuje, měli bychom se také podívat na jiné, zásadně odlišné přístupy k vytváření aplikací AI.
Dokonce i profesor Geoffrey Hinton, který byl průkopníkem práce, která vedla k revoluci v hlubokém učení, věří, že bude pravděpodobně nutné vymyslet zcela nové metody. "Budoucnost závisí na nějakém postgraduálním studentovi, který je hluboce podezřelý ze všeho, co jsem řekl, " řekl Axiosovi.