Domov Funkce 10 Trápný algoritmus selhal

10 Trápný algoritmus selhal

Obsah:

Anonim

Technologie není jen pro geeky, je to pro každého, a to je spousta lidí. Pouze s hrstkou společností, které ovládají většinu hardwaru a softwaru - od společností Apple a Amazon, přes Facebook, Microsoft a Google - mohou tolik udělat, aby ovládaly vaši peněženku a oční bulvy. Co dělat chudá, obří společnost? Spolehněte se na algoritmy a udělejte některá důležitá rozhodnutí.

Oxford Living Slovníky definuje algoritmus jako „proces nebo sadu pravidel, která se mají dodržovat při výpočtech nebo jiných operacích řešení problémů, zejména v počítači“. Dokonalým příkladem je Facebook News Feed. Nikdo neví, jak to funguje, že některé z vašich příspěvků se zobrazují na zpravodajských kanálech některých lidí, nebo ne, ale Facebook ano. Nebo co Amazon, který vám ukazuje související knihy? Související vyhledávání na Google? To vše jsou přísně střežená tajemství, která pro společnost vykonávají spoustu práce a mohou mít velký dopad na váš život.

Algoritmy však nejsou dokonalé. Selhají a některé selhávají velkolepě. Přidejte záblesk sociálních médií a malá závada se může rychle změnit na noční můru PR. Je to zřídka škodlivé; tito mají tendenci být tím, co New York Times nazývá „Frankenstein Moments“, kde se stvoření, které někdo vytvořil, změní v monstrum. Stává se to a některé z nejzávažnějších nedávných příkladů jsme sestavili níže. Sdělte nám své oblíbené v komentářích níže.

    1 pochybných reklam Instagramu

    Jak uvádí The Guardian , Facebook rád provozuje reklamy na svou Instagramovou službu s příspěvky od svých vlastních uživatelů. Algoritmus však vybral špatnou „fotografii“, aby se přiměl k přátelům Olivie Solonové, sama reportérce The Guardian , a vybrala si roční snímek obrazovky, kterou pořídila z hrozící e-mailové zprávy.

    2 cílené rasistické reklamy

    Minulý týden ProPublica oznámila, že Facebook umožnil inzerentům zacílit na urážlivé kategorie lidí, jako jsou „Židé nenávisti“. Web zaplatil 30 USD za reklamu (výše), která cílila na publikum, které by pozitivně reagovalo na věci jako „proč Židé ničí svět“ a „Hitler neudělal nic špatného“. Bylo schváleno do 15 minut.

    Slate našel podobně útočné kategorie, a to se stalo další v dlouhé řadě věcí, za které se Facebook musel nejen omluvit, ale slíbit, že se s určitým lidským dohledem opraví. Víš, jako když to umístilo volební reklamy na Rusko v hodnotě 100 000 dolarů.

    V příspěvku na Facebooku COO Sheryl Sandbergová uvedla, že byla „znechucená a zklamala tato slova“ a oznámila změny v jejích reklamních nástrojích.

    BuzzFeed zkontroloval, jak Google nakládá s podobnými věcmi, a zjistil, že je snadné také nastavit cílené reklamy, které budou vidět rasisté a fanatici. Denní zvíře to zkontrolovalo na Twitteru a našlo miliony reklam pomocí výrazů jako „nacista“, „mokrá zpět“ a slovo N.

    3 roky na Facebooku v recenzi

    Pokud jste na Facebooku, bezpochyby jste viděli jeho videa vytvořená na konci roku s algoritmy s upozorněním z posledních 12 měsíců. Nebo pro některé, slabá světla. V roce 2014 jeden otec viděl obrázek své pozdní dcery, zatímco druhý viděl snímky svého domu v plamenech. Mezi další příklady patří lidé, kteří vidí své pozdní mazlíčky, urny plné popela rodičů a zesnulé přátele. Do roku 2015 Facebook slíbil, že odfiltruje smutné vzpomínky.

  • 4 Tesla Autopilot Crash

    Většina algoritmických snafů není zdaleka fatální, ale svět aut s vlastním pohonem přinese zcela novou úroveň nebezpečí. To už se stalo alespoň jednou. Majitel Tesly na dálnici Florida použil poloautonomní režim (Autopilot) a narazil do přívěsu, který ho přerušil. Tesla rychle vydal aktualizace, ale byla to chyba režimu Autopilot? Národní správa bezpečnosti silničního provozu říká, že možná ne, protože systém vyžaduje, aby řidič zůstal varován před problémy, jak můžete vidět na videu výše. Tesla nyní brání tomu, aby se Autopilot zapojil, i když řidič nejprve neodpovídá na vizuální podněty.

  • 5 Tay A Rasist Microsoft AI

    Před pár lety měli chatovací roboti brát svět bouří, nahrazovat opakování zákaznických služeb a dělat z online světa chatovací místo pro získávání informací. Microsoft odpověděl v březnu 2016 vysláním umělé inteligence jménem Tay, se kterým mohou lidé, konkrétně věkové skupiny 18 až 24 let, komunikovat na Twitteru. Tay na oplátku vydává veřejné hromadné zprávy pro masy. Ale za méně než 24 hodin, Tay se poučil ze sprostých mas, stal se plnohodnotným rasistou. Microsoft okamžitě stáhl Tay; v prosinci 2016 se vrátila jako nová umělá inteligence jménem Zo se „silnými kontrolami a vyvážením, které ji chrání před vykořisťováním“.

    6 Gratulujeme k vašemu (neexistujícímu) dítěti!

    Úplné zveřejnění: Jak píšu, moje žena je ve skutečnosti těhotná. Oba jsme dostali tento e-mail od Amazonu s tím, že někdo pro nás něco koupil z našeho registru dětí. Ještě jsme to nezveřejnili, ale nebylo to tak šokující. Mezitím několik miliónů dalších Amazonských zákazníků získalo stejnou poznámku, včetně některých bez registru… nebo dítěte na cestě. Mohlo to být součástí schématu phishingu, ale nebylo. Amazon zachytil chybu a poslal e-mail s následným ospravedlněním. Do té doby si mnozí stěžovali, že to bylo nevhodné nebo necitlivé. Byl to méně algoritmus než bludný e-mailový server, ale ukazuje se, že je vždy snadné urazit.

    7 Amazon „doporučuje“ materiály bomb

    Všichni na něj skočili poté, co to reportovali britské Channel 4 News, od Fox News po The New York Times . Údajně zjistil, že Amazonova funkce „často nakupovaných společně“ by lidem ukázala, co potřebují k sestavení bomby, kdyby začali s jednou ze složek, kterou by místo nemělo pojmenovat (byl to dusičnan draselný).

    Algoritmus Amazonu ve skutečnosti udělal kupujícím ukázat přísady, aby vyrobily černý prášek v malém množství, což je ve Velké Británii zcela legální, a používá se pro všechny druhy věcí - jako je ohňostroj - jak bylo rychle zdůrazněno v neuvěřitelně dobře promyšlené- z blogového příspěvku na Idle Words. Místo toho jsou všechny zprávy o tom, jak se na to Amazon dívá, protože to je to, co musí říci, že dělají ve světě, který se bojí terorismu a logiky.

    8 Google Maps získává rasisty

    V roce 2015 se Google musel omluvit, když Mapy Google hledaly výraz „n ***** king“ a „n *** a house“, což vedlo k Bílému domu, který tehdy v té době okupoval Barack Obama. Byl to výsledek „Googlebomb“, ve kterém se výraz používaný znovu a znovu vyhledává vyhledávacím nástrojem a označuje se jako „populární“, takže výsledky jdou na začátek vyhledávání. Takto slovo „Santorum“ získalo novou definici.

    9 značek Google pro lidi jako gorily

    Fotky Google je úžasná aplikace / služba, která ukládá všechny vaše obrázky a ještě mnohem více. Jednou z těchto věcí je automatické označování lidí a věcí na fotografiích. Používá rozpoznávání obličeje pro lidi, aby je zúžil přímo na správnou osobu. Mám dokonce složku všech svých psů a žádné z nich jsem neoznačil. Stejně dobře to fungovalo i tehdy, když se v roce 2015 Google musel omluvit počítačovému programátorovi Jackymu Alcinému, když on a jeho přítel - oba tito černí - byli službou identifikováni jako gorily. "Jsme zděšeni a je nám opravdu líto, že se to stalo, " řekl Google společnosti PCMag.

    10 Robot Security Hits Child, Kills Self

    Knightscope vyrábí autonomní bezpečnostní roboty zvané K5 pro hlídkové školy, obchůdky a sousedství. 5-stop vysoký Dalek-esque kužely na kolech - což je podle jejich kreditů, stále v beta testování - mají tendenci dělat zprávy ne pro zmařující zločin, ale pro závady.

    Například v červenci 2016 se K5 v obchodním centru Stanford v Palo Alto rozběhla přes patro šestnáctiletého a Knightscope se musel formálně omluvit. Na stejném místě - možná ve stejném droidu - se na parkovišti s opilcem objevila hádka, ale přinejmenším to nebyla chyba K5. Porota je stále na jednotce K5 v Georgetown Waterfront, kancelářském / nákupním komplexu ve Washingtonu DC… že jeden údajně zakopl o několik schodů do vodní fontány již po jednom týdnu v práci. Nevypadá dobře pro Skynetovu armádu.

10 Trápný algoritmus selhal