ChatGPT, Claude, Gemini, Copilot, Perplexity – pět jmen, která dnes zná skoro každý, kdo pracuje s počítačem. Všechny mají bezplatnou verzi. A všechny si za tu bezplatnost berou něco na oplátku.

Podívejme se na to, co se reálně stane s vašimi daty, když do těchto nástrojů napíšete dotaz.

ChatGPT (OpenAI)

Vaše konverzace se automaticky používají k trénování. Všechno, co napíšete – texty, kód, firemní dokumenty – se může stát materiálem pro budoucí verze.

Dá se to vypnout (Settings → Data Controls → „Improve the model for everyone“). Ale: zaprvé o tom většina lidí neví. A zadruhé, vypnutí platí jenom dopředu. Co jste napsali předtím, to už v tom systému je.

I po vypnutí OpenAI vaše konverzace drží 30 dní. Smažete konverzaci? Taky zmizí až po měsíci.

Bomba: kvůli soudnímu sporu s The New York Times musel OpenAI uchovávat veškerá uživatelská data několik měsíců, včetně těch, co uživatelé smazali. Soud to v říjnu 2025 zrušil, ale data z dubna až září 2025 existují dodnes. Smazali jste konverzaci? Leží v právním archivu.

Claude (Anthropic)

Dlouho nejlepší z celé pětice. Až do léta 2025 Anthropic konverzace k trénování nepoužíval, ani u free verze.

To se změnilo v srpnu 2025. Anthropic aktualizoval podmínky a teď konverzace k trénování používá u Free, Pro i Max verzí. A pozor: defaultně je to zapnuté. Kdo to nechce, musí si to sám vypnout (Settings → Privacy → Model Training).

Kdo souhlasí (nebo si nevšimne), tomu Anthropic drží data až 5 let. Kdo odmítne, zůstává na standardních 30 dnech. Smazané konverzace se k trénování nepoužijí.

Pořád lepší než většina konkurence – máte reálnou volbu a smazání funguje. Ale ten automatický opt-in znamená, že většina lidí trénování povolila, aniž by o tom věděla.

Google Gemini

Konverzace se automaticky používají k trénování. A skuteční lidé z Google je můžou číst. To není spekulace – Google to říká otevřeně.

Vypnout přes „Gemini Apps Activity“ v nastavení. Po vypnutí Google drží data ještě 72 hodin. Pokud jste někdy dali zpětnou vazbu? Ta data zůstávají až 3 roky.

Když aktivitu nevypnete, Google konverzace standardně uchovává 18 měsíců (nastavitelné na 3 nebo 36 měsíců).

Tohle skoro nikdo neví: používáte Gemini panel v Gmailu nebo Google Docs? Když napíšete „shrň mi tohle vlákno“ nebo „najdi fakturu od XY“, tyhle dotazy spadají pod stejná pravidla. Vaše otázky na vlastní emaily můžou krmit trénování, pokud nemáte aktivitu vypnutou.

Microsoft Copilot

Copilot je zákeřný, protože vypadá jako součást firemního prostředí – je ve Windows, v Edge, v Office. Ale free verze nemá firemní zabezpečení. Microsoft to říká přímo.

Zaměstnanec otevře Edge, klikne na ikonu Copilota, zadá firemní data – a nemá žádnou ochranu. Přitom si myslí, že jo, protože je to přece „Microsoft“.

U běžných účtů Microsoft plánuje data používat k trénování.

Perplexity

Dotazy, odpovědi i nahrané soubory – všechno automaticky krmí trénování. Vypnout: Profile → Settings → AI Data Usage.

Bezpečnostní průšvih: podle analýzy z konce roku 2024 Perplexity ukládal nahrané soubory bez šifrování na veřejně přístupném úložišti. PDF, které jste nahráli, mohl najít kdokoliv, kdo znal adresu.

A protože do vyhledávače lidi přirozeně píšou konkrétní věci jako „jaká je právní situace pro moji firmu?“, každý dotaz je kousek skládačky o vašem byznysu.

Velké srovnání

Trénuje na datech? Lidé čtou konverzace? Opt-out? Lepší ochrana?
ChatGPT Ano (default) Možné Ano, ručně Team / Enterprise
Claude Ano (od 8/2025, default) Možné (analýza) Ano, ručně Team / Enterprise
Gemini Ano (default) Ano Ano, ručně Workspace (firemní)
Copilot Plánováno Není jasné Ano M365 Copilot
Perplexity Ano (default) Není jasné Ano, ručně Enterprise Pro

„Tak si koupíme enterprise verzi a máme klid.“ Opravdu?

Placené verze jsou nesrovnatelně bezpečnější. Ale nejsou neprůstřelné, a důvod je jednoduchý: třetí strany.

Váš AI nástroj nežije ve vzduchoprázdnu. Napojujete ho na další služby – CRM systémy, cloudová úložiště, analytické nástroje, překladové pluginy. Každé takové napojení je místo, kudy data tečou ven. A ta třetí strana má vlastní pravidla, vlastní servery, vlastní lidi s přístupem.

Představte si to takhle: máte kvalitní zámek na dveřích. Ale klíč jste dali jedné firmě, která ho pak nakopírovala dalším pěti firmám, o kterých toho moc nevíte.

Případ z praxe: v listopadu 2025 OpenAI používal analytickou firmu Mixpanel k měření, jak lidé pracují s jejich API. Útočníci se nabourali do Mixpanelu a ukradli data zákazníků OpenAI – jména, emaily, přibližné lokace. OpenAI reagoval: „naše systémy nebyly napadeny.“ Uživatelům, jejichž data unikla, je to celkem jedno.

Vy si zaplatíte za enterprise verzi s nejlepším zabezpečením. Ale ta platforma pod sebou má desítky dalších firem – na analytiku, monitoring, podporu, infrastrukturu. Každá z nich je místo, kudy můžou data uniknout. A vy o většině z nich ani nevíte.

Co s tím?

Pokud jste jednotlivec

Projděte nastavení každého nástroje a najděte přepínač pro trénování. Trvá to dvě minuty. A hlavně: nezadávejte do free verzí nic, co by vám vadilo vidět na titulní straně novin.

Pokud řídíte firmu

Víte, co vaši lidé používají? Možná máte placený enterprise nástroj, ale kolik zaměstnanců si mezitím otevřelo free ChatGPT a vložilo tam nabídku pro klienta?

Vytvořte pravidla. Definujte schválené nástroje. A pamatujte – i ta placená verze má pod sebou dodavatele, o kterých nevíte. Nejslabší článek řetězu není nástroj, který jste si vybrali – je to ten, o kterém nemáte přehled.

V dalším dílu se podíváme na to, jak vypadá bezpečné nastavení AI ve firmě – od pravidel přes výběr nástroje až po audit.