Obsah:
Video: Policie ČR: Pátráme po pachateli dopravní nehody (Listopad 2024)
12. března spustila společnost MIT Technology Review příběh, který začal takto: „Je to rok 2023, a autem řízená auta konečně procházejí našimi ulicemi města. Jeden z nich poprvé zasáhl a zabil chodce obrovské mediální pokrytí. Je pravděpodobné, že bude veden vysoký soudní proces, ale jaké zákony by se měly použít? “
Přestože se incident stále vyšetřuje, rozruch, který následoval, je známkou toho, jak daleko jsme od úspěšného začlenění umělé inteligence do našich kritických úkolů a rozhodnutí.
V mnoha případech to není problém s umělou inteligencí, ale s našimi očekáváními a pochopením. Podle Wired zemřelo loni v USA při dopravních nehodách téměř 40 000 lidí - z toho 6 000 chodců. Jen velmi málo (pokud vůbec) se stalo titulky tak, jak se stalo uberským incidentem.
Jedním z důvodů, proč havárie v Uberu způsobila takový rozruch, je to, že obecně očekáváme nové technologie, i když jsou stále ve vývoji. Pod iluzí, že čistá matematika řídí algoritmy umělé inteligence, máme sklon důvěřovat svým rozhodnutím a jsou šokováni, když dělají chyby.
Dokonce i bezpečnostní řidiči za volantem autem poháněných vozidel se nechali hlídat. Záběry z incidentu v Uberu ukázaly, že řidič byl rozptýlen, když se podíval dolů, než k nehodě došlo.
V roce 2016 řidič modelu Tesla S pracující v režimu Autopilot zemřel poté, co vozidlo narazilo do kamionu. Vyšetřování zjistilo, že řidič možná v době srážky sledoval film Harryho Pottera.
Očekávání dokonalosti jsou vysoká a zklamání jsou silná. Kritici byli rychlí, aby po incidentu zpochybnili celý Uberův projekt autovraků; společnost v důsledku toho dočasně pozastavila testování motorových vozidel.
AI není člověk
Mezi kritikou, která následovala po havárii, bylo to, že se lidský řidič incidentu snadno vyhnul.
„nevyskočila z keřů. Udělala jasný pokrok přes několik jízdních pruhů, které měly být v systému, aby je zvedly, “ řekl jeden expert CNN.
Ona má pravdu. Zkušený lidský řidič by ji pravděpodobně spatřil. AlI algoritmy však nejsou lidské.
Algoritmy pro hluboké učení, které se nacházejí v autech s vlastním pohonem, používají četné příklady „naučit se“ pravidla své domény. Když tráví čas na cestách, třídí informace, které shromažďují, a naučí se zvládat různé situace. To však nutně neznamená, že používají stejný rozhodovací proces jako lidské řidiče. To je důvod, proč by v některých situacích mohli hrát lépe než lidé a v těch, které se lidem zdají triviální, selhat.
Dokonalým příkladem je algoritmus klasifikace obrázků, který se naučí rozpoznávat obrázky analýzou milionů označených fotografií. V průběhu let se klasifikace obrazu stala velmi účinnou a v mnoha podmínkách překonává lidi. To však neznamená, že algoritmy chápou kontext obrázků stejným způsobem jako lidé.
Například výzkum odborníků z Microsoftu a Stanfordské univerzity zjistil, že algoritmus hlubokého učení vyškolený s obrázky bílých koček věřil s vysokou mírou přesvědčení, že fotografie bílého psa představovala kočku, což je chyba, které se lidské dítě snadno může vyhnout. A v neslavném případě algoritmus klasifikace obrázků Google omylem klasifikoval lidi tmavé barvy pleti jako gorily.
Tyto situace se nazývají „okrajové případy“, které nebyly algoritmy AI vyškoleny pro manipulaci, obvykle kvůli nedostatku dat. Nehoda v Uberu je stále předmětem vyšetřování, ale někteří experti na umělou inteligenci naznačují, že by to mohl být další okrajový případ.
Hluboké učení má mnoho úkolů, které je třeba překonat, než je lze aplikovat v kritických situacích. Ale jeho selhání by nás neměla odradit. Musíme upravit naše vnímání a očekávání a přijmout skutečnost, že každá velká technologie selže během jejího vývoje. AI se neliší.