Potřebujete rychle přeložit kus textu, shrnout dokument, nebo přepsat e-mail. Oficiální cesta neexistuje, nebo je pomalá. Tak otevřete to, co znáte – svůj soukromý účet, free verzi něčeho, co vám funguje.
A přesně takhle vzniká shadow AI.
Co je shadow AI
Shadow AI je situace, kdy lidi ve firmě používají AI nástroje, o kterých firma neví. Není to hackerství. Není to sabotáž. Je to člověk, který chce udělat práci a má po ruce něco, co funguje.
Problém není v tom nástroji. Problém je v tom, že firma netuší, kam její data tečou.
Proč se to děje
Důvodů je většinou pár a žádný z nich není zlý úmysl:
- Firma nemá oficiální nástroj, nebo je těžké ho získat
- Schvalovací proces trvá týdny a člověk potřebuje výsledek teď
- Nikdo nikdy neřekl, že to není OK
- Lidi prostě neví, že je rozdíl mezi „používám doma“ a „používám na firemní věci“
A tak vznikne situace, kdy tým pěti lidí používá pět různých nástrojů, každý na svém soukromém účtu. A nikdo netuší, co kam odešlo.
zaměstnanců aktivně používá AI nástroje (LayerX Security Report 2025)
z nich vkládá pracovní obsah – dokumenty, e-maily, poznámky z porad
těchto vložení se děje přes osobní účty – bez vědomí firmy
obsahuje přímo citlivá data – osobní údaje nebo finanční informace
Co se může stát: Samsung, 2023
Jeden z nejznámějších případů shadow AI. Samsung povolil inženýrům používat ChatGPT s varováním, aby tam nedávali citlivé věci. Během tří týdnů se staly tři samostatné incidenty:
- Inženýr vložil zdrojový kód interního programu pro měření polovodičů – hledal řešení bugu.
- Druhý poslal kód pro optimalizaci testovacích sekvencí na identifikaci vadných čipů.
- Třetí nahrál záznam z firemní porady do přepisovacího nástroje a pak výstup vložil do ChatGPT, aby mu z toho udělal zápis.
Citlivá data Samsungu – zdrojový kód, interní procesy, obsah porad – skončila na serverech OpenAI. Samsung je nemohl dostat zpět, protože ChatGPT v té době defaultně používal uživatelské vstupy k dalšímu trénování.
Samsung pak zakázal používání generativní AI úplně a začal vyvíjet vlastní interní nástroj.
Tohle nebyli zlí lidé. Byli to inženýři, kteří chtěli rychle vyřešit problém.
Proč je to problém
Tady se vracíme ke třem otázkám z prvního dílu: kam data tečou, kdo k nim má přístup, jak dlouho tam zůstanou.
U shadow AI je odpověď na všechny tři: „Nevíme.“
A to je ten průšvih. Firma nemá přehled jaké nástroje se používají, nemá smluvní vztah s dodavatelem, nemá audit, nemá možnost řídit retenci nebo smazání, a při incidentu nemá co ukázat.
Není to jen o velkých firmách
Samsung je velká firma s tisíci zaměstnanci. Ale shadow AI se týká i malých a středních firem – možná ještě víc. Protože tam často chybí jasná pravidla, IT oddělení je menší (nebo žádné), a lidi jsou zvyklí si věci řešit sami.
Většina lidí netuší, že dělají něco špatně. Protože jim to nikdo neřekl.
„Tak to zakážeme“
Tohle je první reflex většiny firem. Napíšeme interní směrnici: „AI nástroje jsou zakázány.“
A výsledek? Lidi je používají dál, jen o tom nemluví.
Zákazy bez alternativy nefungují. Lidé nejsou hloupí – vědí, že jim AI šetří hodiny práce. Když jim řeknete „nesmíš“, ale nedáte jim jinou cestu, půjdou tou, která funguje. A vy o tom nebudete vědět.
Co místo toho
Jediná cesta, která reálně funguje, je kombinace tří věcí:
1. Dát lidem alternativu
Něco, co je stejně rychlé a jednoduché, ale pod kontrolou firmy. Nástroj s jasným data flow, smluvními garancemi, rolemi a auditem. Pokud tohle neexistuje, lidi budou hledat vlastní řešení.
Nejde o to mít „nejlepší“ nástroj na trhu. Jde o to mít nástroj, který je dost dobrý a zároveň bezpečný. Protože nejbezpečnější nástroj, který nikdo nepoužívá, vám nepomůže.
2. Jasně říct, co je OK a co ne
Ne padesátistránková směrnice. Jeden odstavec: „Pro osobní poznámky a veřejné informace klidně. Pro cokoli interního, klientského nebo citlivého – jen schválené nástroje.“ A hlavně: říct to lidem dřív, než se něco stane.
3. Vysvětlit proč
Většina lidí netuší, co se děje s daty na pozadí. Když jim ukážete, že free verze může mít defaultně zapnuté trénování, že support může vidět obsah, že logy existují měsíce – pochopí. Nejde o buzeraci, jde o ochranu firmy i jich samotných.
Závěr
Shadow AI není problém zlých lidí. Je to problém chybějících pravidel a chybějících alternativ.
Když lidem řeknete „tohle nedělej“ a nedáte jim jinou cestu, udělají to stejně, jen potají. A vy přijdete o kontrolu.
Nejlepší prevence? Dát lidem nástroj, který můžou používat s čistým svědomím. A jednoduchou odpověď na otázku: „Je tohle safe?“
Univerzální recept na to, co používat místo rizikových nástrojů, bohužel neexistuje – každá firma má jiné procesy, data i míru rizika. Pokud chcete probrat, co dává smysl ve vašem případě, napište nám.
