Domov Názory Proč ai musí sdělit, že je to ai

Proč ai musí sdělit, že je to ai

Obsah:

Video: В ЧЁМ РАЗНИЦА МЕЖДУ ФОРМАТАМИ ФАЙЛОВ AI и EPS ? | ADOBE ILLUSTRATOR ЛАЙФХАКИ | (Listopad 2024)

Video: В ЧЁМ РАЗНИЦА МЕЖДУ ФОРМАТАМИ ФАЙЛОВ AI и EPS ? | ADOBE ILLUSTRATOR ЛАЙФХАКИ | (Listopad 2024)
Anonim

Google nedávno opakoval Duplex, aby výslovně odhalil hostům restaurací a personálu salonu, že mluví s Asistentem Google a zaznamenávají se.

Google tento malý, ale důležitý detail vynechal, když poprvé představil Duplex na své vývojové konferenci I / O v květnu. Následovala mediální vůle a kritici obnovili staré obavy z důsledků rozpuštění agentů umělé inteligence, kteří mohou předstírat chování lidí nerozlišitelným způsobem.

Tím, že ladí Duplex, Google staví k odpočinku někteří ta kritika. Ale proč je tak důležité, aby společnosti byly transparentní, pokud jde o identitu jejich agentů AI?

Mohou pomocníci AI sloužit zlým účelům?

„Stále roste očekávání, že když zasíláte zprávy podnikům, můžete komunikovat s chatem poháněným umělou inteligencí. Když ale skutečně slyšíte řeč člověka, obvykle očekáváte, že to bude skutečná osoba, “ říká Joshua March, generální ředitel z Coversocial.

March říká, že jsme na začátku lidí, kteří pravidelně spolupracují s umělou inteligencí, a pokroky v této oblasti vyvolaly strach, že hackeři mohou zneužívat agenty umělé inteligence ke škodlivým účelům.

„V nejlepším případě by roboti s umělou inteligencí se škodlivými úmysly mohli lidi urazit, “ říká Marcio Avillez, SVP Networks ve společnosti Cujo AI. Ale Marcio dodává, že můžeme čelit hroznějším hrozbám. Například se umělá inteligence může naučit specifické jazykové vzorce, což usnadňuje přizpůsobení technologie manipulaci s lidmi, vydávání se obětí a útokům na vize (vokální phishing) a podobných činností.

Mnoho odborníků souhlasí, že hrozba je skutečná. Ve sloupci pro CIO Steven Brykman stanovil různé způsoby, jak lze využít technologii, jakou je Duplex: „Alespoň u lidí, kteří volají lidi, stále existuje omezující faktor - člověk může volat tolik hovorů za hodinu, denně. Lidé musí být placeni, přestávky atd. Ale AI chatbot by mohl doslova neomezený počet hovorů neomezenému počtu lidí neomezeným způsobem!"

V této fázi většinou slyšíme spekulace; stále neznáme rozsah a závažnost hrozeb, které mohou nastat s příchodem hlasových asistentů. Mnoho potenciálních útoků, které se týkají hlasových asistentů, však lze zneškodnit, pokud společnost poskytující technologii explicitně komunikuje s uživateli, když komunikují s agentem AI.

Ochrana osobních údajů

Dalším problémem spojeným s používáním technologií, jako je Duplex, je možné riziko pro soukromí. Systémy poháněné umělou inteligencí potřebují uživatelská data, aby mohli trénovat a vylepšovat své algoritmy, a Duplex není výjimkou. Jak to bude ukládat, zabezpečit a používat tato data je velmi důležité.

Objevují se nová pravidla, která vyžadují, aby společnosti získaly výslovný souhlas uživatelů, když chtějí shromažďovat své informace, ale většinou byly navrženy tak, aby pokryly technologie, kde uživatelé úmyslně iniciují interakce. To má smysl pro pomocníky AI, jako jsou Siri a Alexa, které jsou aktivovány uživatelem. Není však jasné, jak by se nová pravidla vztahovala na pomocníky umělé inteligence, kteří osloví uživatele, aniž by byli spuštěni.

Ve svém článku Brykman zdůrazňuje potřebu zavést regulační záruky, jako jsou zákony, které vyžadují, aby společnosti prohlásily přítomnost agenta AI, nebo zákon, který, když se zeptáte chatbota, zda je to chatbot, je třeba říci: „Ano, Jsem chatbot. “ Taková opatření by dala lidskému partnerovi šanci se uvolnit nebo alespoň rozhodnout, zda chtějí komunikovat se systémem AI, který zaznamenává jejich hlas.

I s takovými zákony se obavy o soukromí nezmizí. „Největším rizikem, které v současné inkarnaci technologie předpokládám, je to, že Googlu poskytne ještě více údajů o našich soukromých životech, které ještě neměl. Až do této chvíle věděli pouze o naší online komunikaci; nyní získají skutečný vhled do naše konverzace v reálném světě, “říká Vian Chinner, zakladatel a generální ředitel společnosti Xineoh.

Nedávné skandály v oblasti soukromí, které se týkají velkých technologických společností, ve kterých používaly uživatelská data sporným způsobem pro své vlastní zisky, vytvořily pocit nedůvěry v to, že jim dodají více oken do našich životů. "Lidé obecně mají pocit, že velké společnosti Silicon Valley je považují za zásoby namísto zákazníků a mají velkou nedůvěru vůči téměř čemukoli, co dělají, bez ohledu na to, jak nakonec to bude průkopnické a měnící se život, " říká Chinner.

Funkční poruchy

Přestože má Duplex přirozený hlas a tón a používá zvuky podobné lidem, jako jsou „mmhm“ a „ummm“, neliší se od jiných současných technologií AI a trpí stejnými omezeními.

Ať už se jako rozhraní používá hlas nebo text, agenti umělé inteligence umí řešit konkrétní problémy. Proto je nazýváme „úzkou umělou inteligencí“ (na rozdíl od „obecné umělé inteligence“ - typ umělé inteligence, který se může zapojit do obecného řešení problémů, jako to dělá lidská mysl). I když úzká umělá inteligence může být při plnění úkolů, pro které je naprogramována, výjimečně dobrá, může při dopadu scénáře, který se odchyluje od problémové domény, působit velkolepě.

„Pokud si spotřebitel myslí, že mluví s člověkem, pravděpodobně se zeptá na něco, co je mimo normální scénář AI, a poté, co robot nerozumí, dostane frustrující odpověď, “ říká Conversocial's March.

Naopak, když člověk ví, že mluví s umělou inteligencí, která byla vyškolena, aby rezervovala stoly v restauraci, bude se snažit vyhnout se používání jazyka, který zaměří umělou inteligenci a způsobí, že se bude chovat neočekávaně, zejména pokud přináší je to zákazník.

„Zaměstnanci, kteří přijímají hovory od Duplexu, by měli také získat přímý úvod, že to není skutečná osoba. Pomohlo by to, aby komunikace mezi zaměstnanci a AI byla konzervativnější a jasnější, “ říká Avillez.

Z tohoto důvodu, dokud (a pokud) nevyvineme umělou inteligenci, která může fungovat na stejné úrovni jako lidská inteligence, je v zájmu samotných společností, aby byly transparentní, pokud jde o jejich používání umělé inteligence.

Na konci dne je část strachu z hlasových asistentů, jako je Duplex, způsobena skutečností, že jsou noví, a stále si na ně zvykáme v nových nastaveních a případech použití. „Přinejmenším někteří lidé se zdají být velmi nepříjemní s myšlenkou mluvit s robotem, aniž by to věděli, takže prozatím by to pravděpodobně mělo být sděleno protistranám v rozhovoru, “ říká Chinner.

  • AI je (také) síla pro dobré AI je (také) síla pro dobré
  • Když AI rozostří hranici mezi realitou a fikcí Když AI rozostří hranici mezi realitou a fikcí
  • Umělá inteligence má předpojatost a je to naše chyba Umělá inteligence má předpojatost a je to naše chyba

Ale v dlouhodobém horizontu si zvykneme na interakci s agenty AI, které jsou chytřejší a schopnější plnit úkoly, které byly dříve považovány za výhradní doménu lidských operátorů.

"Příští generaci bude jedno, jestli budou mluvit s umělou inteligencí nebo s člověkem, když kontaktují firmu. Budou chtít jen rychle a snadno získat odpověď a vyrostou v rozhovoru s Alexou. Čekají na vydržet mluvit s člověkem bude mnohem více frustrující, než jen interakce s robotem, “říká Conversocial's March.

Proč ai musí sdělit, že je to ai