S umělou inteligencí je to trochu jako s loterií: je snadné si představit možnosti, které se naskytnou, pokud vám padnou ta správná čísla. Ale trefit jackpot u AI – utopie poháněné technologiemi, kde asistenti AI superzvýší produktivitu zaměstnanců a všude vytváří nové příležitosti – to závisí na jednom zásadním prvku: důvěře.
Přední odborníci na umělou inteligenci společnosti Salesforce, od analytiků a datových vědců až po designéry a futuristy, se zamýšlejí nad tím, proč je budování důvěry v umělou inteligenci
klíčovým prvkem pro její úspěšné využívání ve firmách.
Přínosy umělé inteligence totiž závisí na správném nastavení důvěry v tuto novou technologii a na tom je třeba zapracovat právě nyní.
Skvělá umělá inteligence vyžaduje, aby jí lidé rozuměli
Lidé využívají umělou inteligenci už léta – od odemykání telefonů pomocí rozpoznávání obličeje a přivolání vozidla pro spolujízdu až po seznamování v seznamovací aplikaci.
Kat Holmesová, EVP a Chief Design Officer společnosti Salesforce, tyto zkušenosti nazývá „matchmaking“, tedy skloubení potřeb jednotlivce s možnostmi technologie.
„Strojová inteligence a strojové učení jsou již nějakou dobu klíčovou součástí naší společnosti a úspěch přichází ve chvíli, kdy dojde k pozitivní shodě s osobou – vznikne relevantní výsledek, který jako by byl vytvořen přímo a jen pro mě,“ říká Holmesová.
Dnes je ale umělá inteligence ve fázi druhé vlny zavádění do praxe, která představuje generativní AI s dalekosáhlými důsledky pro podnikání a společnost. A to vede k nové naléhavé potřebě zajistit, aby byla AI nasazována v souladu s důvěrou těch, kteří ji budou využívat a na které bude mít dopad. Technologové a firmy si však kladou otázku, jak toho dosáhnout.
Jak navrhovat důvěryhodnou umělou inteligenci
Klíčovým prvkem pro vytváření důvěry je způsob, jakým vývojáři navrhují uživatelské rozhraní umělé inteligence.
„Jedním z nejdůležitějších a nejnáročnějších úkolů v oblasti designu je pomoci lidem udělat první krok do nového světa nové technologie,“ vysvětluje Holmesová. „Lidé potřebují jednoduchý důkaz, že jejich důvěra nebude zklamána.“
Podle Holmsové se však nesmí nic překombinovat.
„Mohlo by to být jednoduché tlačítko, které poskytne doporučení,“ říká. „Tento malý, jednoduchý důkaz je jako první pozdrav, když se lidé potkají. Je to okamžik prvního očního kontaktu.“
A pak, stejně jako u lidí, je dalším krokem k nastavení důvěry v umělou inteligenci pokračující interakce, jako je zjištění, zda byl výstup poháněný umělou inteligencí užitečný nebo zda by mohl být znovu použit či vylepšen.
„Tím nastává vzájemný vztah mezi mnou a touto technologií,“ konstatuje Holmesová. „Poté, co si vyzkouším první interakci, je dalším krokem možnost tuto technologii utvářet a zlepšovat na základě mé zpětné vazby. Díky těmto zpětným vazbám začínám budovat důvěru, která může vést ke složitějším a možná i zajímavějším scénářům. Vše ale začíná jednoduchou přesvědčivou výzvou k vyzkoušení něčeho nového.“
Jak získat důvěru zaměstnanců v umělou inteligenci
Dostat se k tomuto prvnímu kroku však znamená, že k němu firmy musí mobilizovat své zaměstnance.
Nedávná studie Harvard Business Review zjistila, že umělá inteligence čelí propastné nedůvěře: většina lidí (57 %) umělé inteligenci nedůvěřuje a 22 % se k ní staví neutrálně. Výzkum společnosti Salesforce doplňuje, že podle 68 % zákazníků je pro společnosti kvůli pokroku v oblasti AI stále důležitější, aby byly důvěryhodné.
Podle Daniela Lima, vedoucího ředitele Salesforce Futures – týmu, který pomáhá společnosti a jejím zákazníkům predikovat, představovat a utvářet budoucnost – existuje několik cest, jak si pracovníci mohou získat důvěru v umělou inteligenci.
Jednou z klíčových cest je přitom školení. „Lidé budou umělé inteligenci s větší pravděpodobností důvěřovat, pokud budou mít pocit, že chápou, kdy a jak se umělá inteligence používá, a budou mít dostatečné dovednosti pro používání této technologie,“ říká Lin a poukazuje na globální studii o důvěře v umělou inteligenci od University of Queensland a KPMG. „Zlepšování gramotnosti a dovedností lidí v oblasti AI může přispět k budování důvěry.“
Další cesta je společenská a institucionální. Lidé mají tendenci delegovat svou důvěru autoritativním zdrojům – důvěru jim například zvýší fakt, že jejich společnost nebo vláda zavedla bezpečnostní opatření pro danou technologii.
To je jeden z důvodů, proč je podle Lima povinností firem zajistit školení a zavést bezpečnostní opatření, kdy umělou inteligenci používat a kdy ne. „Je to výchozí bod pro konverzaci o tom, zda budou zaměstnanci AI na pracovišti důvěřovat.“
Organizace musí také zajistit, aby u vedení zůstali lidé, kteří budou řídit umělou inteligenci a v případě potřeby zajišťovat dohled nad modelem AI. V rámci svého závazku k odpovědné a důvěryhodné AI například společnost Salesforce zahájila několik školení na téma Trailhead, aby uživatelům pomohl zvýšit jejich znalosti a schopnost zodpovědně používat AI.
A konečně, používání technologie nelze ničím nahradit. „Stejně jako u každé technologie, ať už jde o jednoduchý nástroj jako je vidlička nebo kladivo, získáte důvěru v jejich používání až ve chvíli, kdy se tato technologie ukáže jako přínosná,“ říká Lim.
Důvěra v umělou inteligenci se nevyřeší v zasedací místnosti. „Přizpůsobení se měnícímu se prostředí není něco, co dělá firma,“ píše profesor Wharton Adam Grant v knize Think Again, „je to něco, co dělají lidé prostřednictvím mnoha rozhodnutí, která dělají každý den.“
Vytváření umělé inteligence, která překonává technické problémy
Lidé vždy vytvářeli nové technologie a ne vždy to byla hladká cesta, konstatuje Muralidhar Krishnaprasad, výkonný viceprezident pro inženýrství ve společnosti Salesforce.
„Je důležité uvědomit si, že když se objeví tyto převratné trendy, pokaždé přijde strach z toho, co se může stát,“ říká Krishnaprasad. „Ale zároveň, pokud budete novinky ignorovat, nemusíte jako firma nebo podnik přežít, protože je to taková převratná změna.“
Krishnaprasad zdůraznil, že je třeba zajistit, aby modely vycházely z vysoce kvalitních dat, zejména pokud jde o generativní umělou inteligenci, a řešit tak obavy z chyb a toxických nebo zkreslených výstupů.
„Zejména u generativní umělé inteligence, protože celý model je postaven tak, aby byl kreativní – snaží se vytvořit spoustu věcí, i když neexistují,“ řekl. „Je opravdu důležité, abyste se ujistili, že za prvé začnete se správnými daty a podklady. Pokud se chystáte položit otázku, ujistěte se, že víte, jakými daty ji chcete nakrmit, abyste získali odpovědi.“
Uživatelé by také měli chápat, kam jejich data při používání generativní umělé inteligence směřují – zejména zda velký jazykový model (LLM), který za nástrojem stojí, zachycuje jejich data pro vlastní trénink. „Kontrola nad svými daty je důležitá také z hlediska bezpečnosti, protože pokud předáte všechny své modely nějakému poskytovateli LLM, tento poskytovatel LLM vysaje všechna vaše data a zahrne je do modelu, což znamená, že vaše data jsou nyní veřejným majetkem.“
K odstranění těchto obav zavedla společnost Salesforce funkci nulovou retenci, což znamená, že poskytovatelé LLM třetích stran nikdy neuchovávají žádné údaje o zákaznících. Vrstva Einstein Trust Layer, kterou společnost uvedla v roce 2023, je odpovědí na otázku „Jak důvěřovat generativní umělé inteligenci?“. Stručně řečeno, maskuje informace umožňující identifikaci osob (PII), aby se zajistilo, že bezpečné údaje nepůjdou k poskytovateli LLM, což týmům umožní využívat výhod generativní AI, aniž by ohrozili údaje svých zákazníků.
Kromě toho je pro zajištění přesných výstupů umělé inteligence zásadní tvorba podnětů, tedy to, jaké úkoly uživatelé umělé inteligenci zadávají. Kromě toho, že generativnímu modelu AI říkají, co má vytvořit, umožňují omezit okruh dat, která modely používají, aby mohly zlepšit přesnost výstupů.
Důvěryhodná AI je etická AI
Přes všechny přísliby, které umělá inteligence skýtá, není bez rizika.
Paula Goldmanová, ředitelka pro etické a humánní využití, a Kathy Baxterová, hlavní architektka pro etickou praxi společnosti Salesforce v oblasti umělé inteligence, upozornily ve svém článku, jehož jsou spoluautorkami, na potřebu „upřednostnit odpovědné inovace, které pomohou řídit, jak lze a je třeba tuto transformační technologii využívat – a zajistit, aby naši zaměstnanci, partneři a zákazníci měli k dispozici nástroje, které potřebují k bezpečnému, přesnému a etickému vývoji a využívání těchto technologií.“
Kai Nunez, viceprezident Salesforce pro výzkum a informace, také zdůraznil potřebu Hippokratovy přísahy technologa.
„Jako technologové musíme být zodpovědnější, abychom dodávali produkty, které neškodí. Musíme nést odpovědnost za vlastnosti, funkce nebo kód, který vypustíme do světa,“ upozorňuje. „Vedoucí pracovníci v oblasti technologií umělé inteligence mohou minimalizovat předpojatost tím, že do životního cyklu vývoje produktu v každé jeho fázi vetknou etiku. Nesmí se jednat o dodatečnou myšlenku. Musí být součástí definice hotové věci.“
I když se objevily případy, kdy umělá inteligence vytvářela obsah, který odrážel stereotypy a předsudky, Nunez uvedl, že právě proto musí být vývoj umělé inteligence inkluzivní, zejména mezi historicky nedostatečně zastoupenými skupinami – a proto je třeba více pracovat na tom, aby si tato technologie získala jejich důvěru. Důvěra se buduje prostřednictvím reprezentace. Lidé raději používají nástroje, které odrážejí jejich hlas, jejich potřeby a jedinečné zkušenosti. Zahrnutí zkušeností těchto nedostatečně zastoupených skupin je zásadní pro to, aby se zabránilo vytvoření začarovaného kruhu nedostatečného zastoupení v modelech.
Vytváření důvěryhodné umělé inteligence
Na druhou stranu Holmesová vidí také cestu k větší dostupnosti rolí a demokratizaci zaměstnání v oblasti technologií. Vzhledem k tomu, že modely umělé inteligence jsou stále více schopné zastávat datové a analytické práce, lidé, kteří tyto dovednosti postrádají a dříve nemohli uvažovat o různých technologických rolích, do nich nyní mohou vnést svůj jedinečný pohled.
„Chceme, aby se lidé z různých prostředí mohli zapojit do technologií a podílet se na jejich podobě a designu,“ řekla Holmesová. „Umělá inteligence je příležitostí, jak tyto dveře otevřít opravdu zeširoka a získat přispěvatele ze všech prostředí.“
„Všechno se odvíjí od vstupních dveří, které vytvoříme, a od toho, jak přívětivé je toto prostředí, jakmile lidé vstoupí a začnou používat umělou inteligenci. Pokud se lidé budou cítit, že patří do středu této revoluce, budou se podílet na jejím formování do budoucna.“
Hlavní vědecký pracovník výzkumu umělé inteligence společnosti Salesforce Silvio Savarese také nastínil konkrétní postupy pro budování důvěryhodné umělé inteligence.
Podle Savareseho je třeba více pracovat na zvyšování povědomí uživatelů, aby pochopili silné a slabé stránky umělé inteligence. S tím mohou pomoci samotné modely AI, které označují, nakolik je model přesvědčen o správnosti daného výstupu.
A modely AI by měly uživatelům označit, na základě jakých dat byla odpověď poskytnuta, aby se přímo řešily obavy o důvěryhodnost a přesnost dat. Klíčová je v podstatě transparentnost a vysvětlitelnost.