Pět zásad, jak zodpovědně využívat generativní umělou inteligenci ve vaší firmě

3. 7. 2023

Sdílet

GAI Autor: Depositphotos
GAI
Generativní umělá inteligence (AI) může zásadním způsobem změnit způsob našeho života a práce a v nadcházejících letech bude výzvou i pro ty nejinovativnější společnosti.

Generativní umělá inteligence však není bez rizika. V mnoha věcech se jí daří, ale v mnoha věcech se mýlí. Vzhledem k tomu, že se firmy předhánějí v uvádění této technologie na trh, je velmi důležité, abychom tak činili inkluzivně a záměrně. Nestačí dodat technologické možnosti generativní AI, musíme upřednostnit odpovědné inovace, které pomohou řídit, jak tuto transformační technologii používat a jak by se měla používat – a zajistit, aby naši zaměstnanci, partneři a zákazníci měli k dispozici nástroje, které potřebují k bezpečnému, přesnému a etickému vývoji a používání těchto technologií.

Potenciál generativní umělé inteligence v Salesforce – a obecněji ve firemních technologiích – je obrovský.

AI je již nedílnou součástí platformy Customer 360 a technologie Einstein AI poskytují každý den téměř 200 miliard predikcí ve firemních aplikacích Salesforce, včetně:

-              Sales, která využívá poznatky AI ke stanovení dalších kroků důležitých pro rychlejší uzavírání obchodů.

-              Servis, který využívá AI k vedení konverzací podobných lidským a k poskytování odpovědí na opakující se otázky a úkoly, čímž uvolňuje ruce odpovědným zaměstnancům k vyřizování složitějších požadavků.

-              Marketing, který využívá AI k pochopení chování zákazníků a personalizaci načasování, zacílení a obsahu marketingových aktivit.

-              Obchod, který využívá AI k zajištění vysoce personalizovaných nákupních zkušeností a inteligentnějšího elektronického obchodování.

Generativní AI má nyní potenciál pomoci zákazníkům navázat kontakt s publikem novými, personalizovanějšími způsoby v mnoha interakcích v oblasti prodeje, zákaznického servisu, marketingu, obchodu a IT. Dokonce je zkoumána možnost využití kódu generovaného umělou inteligencí, aby pomohla zákazníkům – i těm, kteří nemají certifikované vývojáře Salesforce ve svých řadách – psát kvalitní kód rychleji, s použitím menšího počtu řádků kódu, a tedy s menšími nároky na procesor.

Pokyny pro důvěryhodnou generativní umělou inteligenci

Stejně jako u všech inovací Salesforce zavádí do svých produktů etická ochranná pravidla a pokyny, aby zákazníkům pomohly inovovat zodpovědně a zachytit potenciální problémy dříve, než nastanou. Vzhledem k obrovským příležitostem a výzvám, které se v této oblasti objevují, navazuje na Zásady důvěryhodné umělé inteligence novým souborem pokynů zaměřených na odpovědný vývoj a implementaci generativní umělé inteligence.

Níže uvádíme pět zásad, kterými se Salesforce řídí při vývoji důvěryhodné generativní umělé inteligence, a to jak v společnosti samotné, tak i mimo ni.

Přesnost: Musíme poskytovat ověřitelné výsledky, které vyvažují přesnost, preciznost a odvolatelnost modelů tím, že zákazníkům umožníme trénovat modely na jejich vlastních datech. Měli bychom informovat o případech, kdy existuje nejistota ohledně pravdivosti odpovědi umělé inteligence, a umožnit uživatelům tyto odpovědi ověřit. Toho lze dosáhnout uvedením zdrojů, vysvětlitelností důvodů, proč AI poskytla odpovědi, které poskytla (např. výzvy k řetězci myšlenek), zdůrazněním oblastí, které je třeba překontrolovat (např. statistiky, doporučení, data), a vytvořením ochranných zábran, které zabrání tomu, aby některé úlohy byly plně automatizovány (např. spuštění kódu do produkčního prostředí bez lidské kontroly).

Bezpečnost: Stejně jako u všech našich modelů umělé inteligence bychom měli vynaložit veškeré úsilí na zmírnění rizika zkreslení, toxicity a škodlivých výstupů tím, že budeme provádět průběžné hodnocení úrovně zkreslení, vysvětlitelnosti, robustnosti a red teamingu. Musíme také chránit soukromí u všech osobních údajů (PII) přítomných v datech použitých pro trénink a vytvořit ochranná opatření, abychom zabránili dalším škodám (např. vynucené publikování kódu v sandboxu namísto automatického přesunu do produkce).

Upřímnost: Při shromažďování dat pro trénování a vyhodnocování našich modelů musíme respektovat původ dat a zajistit, že máme souhlas s jejich použitím (např. open-source, data poskytnutá uživateli). Musíme být také transparentní a přiznat, že daný obsah vytvořila umělá inteligence, například v situacích, kdy je poskytován autonomně (např. odpověď chatbota spotřebiteli, použití vodoznaků).

Zplnomocnění: Existují případy, kdy je nejlepší procesy plně automatizovat, ale existují i jiné případy, kdy by AI měla hrát pouze podpůrnou roli a kdy je nutný lidský úsudek. Musíme určit vhodnou rovnováhu, abychom „posílili“ lidské schopnosti a zpřístupnili tato řešení všem (např. generování textu ALT k obrázkům).

bitcoin_skoleni

Udržitelnost: Při snaze o vytváření přesnějších modelů bychom měli vyvíjet modely správné velikosti, aby se snížila naše uhlíková stopa. Pokud jde o modely umělé inteligence, větší neznamená vždy lepší: V některých případech menší, lépe vycvičené modely překonávají větší, řídce vycvičené modely.

Autory článku jsou Paula Goldman, manažerka pro etické a humánní otázky, Salesforce a Kathy Baxter, hlavní architektka uvádění AI do praxe.