Proč firmy zakazují AI — a proč jejich důvody neobstojí
Vytvořeno:
Manažer sedne za auto s manuální převodovkou. Zařadí jedničku a vyrazí z Brna do Prahy po dálnici. Po sto kilometrech zastaví a nadává: hlučné, pomalé, obrovská spotřeba. „Nikdy víc. Počkám, až bude lepší auto."
Auto bylo v pořádku. Jen ho neuměl použít — a nevěděl o tom.
Přesně takhle většina českých manažerů „testuje" AI. A na základě tohohle testu pak dělají firemní rozhodnutí, která stojí miliony. Mezitím konkurenti jezdí 130 km/h.
Důvod první: manažerské nepochopení potenciálu
Typický scénář. Vedoucí pracovník otevře ChatGPT, napíše obecný dotaz typu „napiš mi něco o naší firmě", dostane obecnou odpověď a rozhodne, že to „nic moc". Místo aby si uvědomil vlastní neznalost, vyhodnotí to jako nedostatek technologie.
Závěr: „Počkáme, až bude AI lepší."
Tohle nejsou hloupí lidé. Často to jsou ředitelé úspěšných firem s desítkami let zkušeností. Problém není v inteligenci — je v tom, že nemají žádný referenční rámec, jak AI správně používat. Otevřou ji jako vyhledávač, dostanou výsledek hodný vyhledávače, a zavřou.
A teď si představte tuhle scénu trochu obrazněji.
Dálnice D1, silný déšť, fronta kamionů v pravém pruhu. Manažer v obleku sedí za volantem nového sedanu, ruce křečovitě na volantu. Ručička tachometru ukazuje 45 km/h, otáčkoměr v červeném poli. Z motoru stoupá pára z přehřáté chladicí kapaliny. Na okně auta je nalepený papírek s velkou číslicí „1". Za autem dlouhá fronta troubících vozidel. Manažer křičí do mobilu: „Ta auta prostě nefungují. Vrátíme se ke koňům!"
Smějete se? Tohle dělá většina firem, které dnes rozhodují o tom, jestli zaměstnancům povolit AI. Vyzkoušeli to. Nefunguje to. Počkáme.
Mezitím konkurenti řadí pětku.
Důvod druhý: strach o data, který nedává smysl
Druhý důvod je sofistikovanější. „Citlivá firemní data nesmí do AI." Zní to odpovědně. Compliance řekne ano, právník nadšeně přitaká, vedení má pocit zodpovědné správy.
Jen je v tom jeden problém. Strach předbíhá realitu.
Dokážu pochopit opravdu citlivé údaje — zdravotní záznamy, rodná čísla, právní dokumenty pod NDA. Ale opravdu jsou všechna ostatní firemní data tak cenná a citlivá, že po nich AI dychtí?
Stejnou vlnu jsme zažili před dvaceti lety s cloudem. Firmy měly vlastní servery a bezpečnost byla paradoxně tragická — žádné MFA, slabé heslo správce, data na nezašifrovaných discích, zálohy na CD v zásuvce u sekretářky. Pak přišel cloud a všichni se báli. „Naše data v Microsoftu? Nikdy."
Dnes se nikdo nepozastavuje nad tím, že kritická firemní data má Microsoft, Google nebo Amazon. Přijali jsme je jako důvěryhodné instituce. Stalo se to potichu, postupně, během deseti let.
S AI je to úplně stejná vlna. Stejný strach, stejný postupný přerod v běžnou praxi. Otázka není, jestli se to stane, ale jak pozdě bude firma, která tuhle vlnu propásne.
Sundar Pichai, CEO Google/Alphabet, to na AI Action Summitu v Paříži v únoru 2025 řekl přesně:
„Every generation worries that the new technology will change the lives of the next generation for the worse — and yet it's almost always the opposite. We must not let our own bias for the present get in the way of the future."
Pod oběma důvody: řídit riziko, nebo ho eliminovat?
Když se podíváte zblízka na to, jak firma rozhoduje o AI, narazíte na rozdíl, kterého si málokdo všímá. Je to rozdíl mezi tím, co je úkolem firmy, a tím, co je úkolem právníka.
- Úkol firmy: řídit bezpečnostní rizika — minimalizovat je, pojistit, nasmlouvat, ale dělat business.
- Úkol právníka: eliminovat bezpečnostní rizika — vrátit firmě verdikt „nepoužívat", protože to je nejjistější.
Tyhle dvě úlohy nejsou ve sporu — jsou prostě každá za jiným cílem. A když firma nemá nikoho, kdo ten rozdíl drží, vyhrává automaticky právník. Jeho „ne" je vždycky bezpečnější než „ano". Žádný compliance officer nedostane výtku za to, že byl přehnaně opatrný. Ale dostane ji za první únik dat.
Jenže tady je háček. Pokud firma jede výhradně podle logiky eliminace, dochází k businessovému nesmyslu. Náklady na tvorbu produktu nebo služby vystoupají tak vysoko, že to klient nezaplatí. Konkurence, která rizika řídí místo eliminuje, dodává rychleji a levněji. Můžete být dokonale korektní — a zároveň ekonomicky mrtví.
Řízení rizika není zákaz. Znamená to:
- enterprise licence s no-training klauzulemi, ne osobní účty
- SSO a auditní stopy, ne anarchie přes mobil
- jasná pravidla, co do AI smí a co ne, ne plošné „nesmí"
- klasifikace dat — jiný režim pro veřejné texty, jiný pro citlivé záznamy
- pravidelný audit, co tam reálně teče a kým
A tady je věc, která firmám chybí nejvíc: někdo, kdo má odvahu jít do konfliktu s právním oddělením. Někdo, kdo právníkovi řekne „rozumím tvému návrhu, ale tohle by zabilo business — pojďme najít, jak to udělat bezpečně, ne jak to nedělat vůbec."
Tahle role nemá ve firmě obvykle jméno. Někde to je CTO, někde COO, někde majitel, někde ředitel digitalizace. Ale bez tohoto člověka firma vždycky sklouzne k zákazu. Protože nikdo jiný nemá motivaci se s právníkem hádat — a právník, logicky, doporučí to nejbezpečnější řešení. Které je business smrt na splátky.
Iluze cenných firemních dat
Tady je třetí věc, která mě opravdu fascinuje. Firmy si myslí, že mají cenná data. Většinou jsou v iluzi.
Sám jsem si dlouhé roky shromažďoval malé „prográmky" a poznámky — vlastní kód, analýzy, šablony. Říkal jsem si, že se k nim vrátím, prozkoumám, využiju. Když jsem v prosinci dělal úklid disku, mohl jsem velkou část toho smazat. V auditu jsem zjistil, že to už nemá žádnou hodnotu. S AI si dnes vytvořím lepší analýzu za hodinu, než byl výsledek mé tříměsíční práce před pěti lety. To, co leželo na disku, je bezcenné.
Tenhle audit by udělal dobře každý majitel firmy. Většina zjistí, že chrání prach.
A teď ten skutečný paradox. Firmy mají hromady dat, ale nestrukturovaných. Nemají lidi, kteří by s nimi pracovali. Nemají schopnosti ani nástroje. A tak to leží — a leží tam velké peníze. AI by to dokázala zpracovat a propojit jako nikdy předtím. Netrvalo by to půl roku lidské práce, ale dny, hodiny. Mohlo by to ukázat úplně jiný směr a zásadně změnit efektivitu firmy.
Ale firma využití AI zakáže. Místo toho nechá data ležet v šuplíku a raději padne — protože nikdy nezaplatí lidi, aby data ručně zpracovali, a i kdyby je zaplatila, nebylo by to včas.
Obrovský paradox: chráníte data, která nepoužíváte, před nástrojem, který by z nich poprvé udělal hodnotu.
Skutečné riziko není to, kterého se bojíte
Tady je věc, kterou většina vedení vůbec nevidí.
Větší riziko než „únik dat do AI" je chytrý zaměstnanec, který umí AI používat a bude nespokojený. Z firmy odejde — a přirozeně má firemní kontext v hlavě. Zná data, procesy, klienty, slabiny. Vytěží to, k čemu se ve firmě dostal, za pár hodin, na úrovni, kterou samotná firma se všemi zaměstnanci nedokáže za půl roku.
A vznikne konkurence. A protože firma sama neumí data těžit, ani nepochopí, jak může být konkurent tak rychlý a tak dobrý.
Riziko AI nepoužít je dnes větší než riziko ztráty dat. Na to přišli i v Googlu:
„The biggest risk could be missing out."
„You are going to lose your job to someone who is using AI."
A pokud si myslíte, že tyhle citace jsou marketing, podívejte se na Samsung. V roce 2023 zakázali ChatGPT po interním leaku kódu. Klasická reakce. Během pár měsíců zákaz měkčili a začali stavět vlastní interní AI. Plošný zákaz není udržitelná pozice — firma si ho může dovolit maximálně krátkodobě, pak ji realita dožene.
Heavy users mluví jinou řečí
Když potkáte majitele firem, kteří AI používají na vysoké úrovni, často řeknou stejnou větu:
„O data se nebojím. Udělal jsem všechno proto, abych s nimi mohl v AI pracovat. Platím adekvátní licence a používám několik AI nástrojů. Protože vím, že to, co dokážu za víkend s AI, nedokážu ani za půl roku se všemi zaměstnanci ve firmě."
Heavy users vědí, o čem mluví. Měli období, kdy se taky báli. Pak si sedli, udělali si pořádek v licencování, nastavili si SSO a no-training klauzule v enterprise smlouvách — a pracují.
Jejich chování je diametrálně odlišné od restriktivních firem. A jejich výsledky taky.
Proč na tomhle záleží
Možná čtete tenhle text a říkáte si: „OK, ale my máme zákaz, a vlastně se nic neděje."
To je iluze. Děje se toho hodně, jenom to ještě nevidíte.
Vaši nejchytřejší zaměstnanci AI stejně používají — jen přes nekontrolované kanály, ze soukromých zařízení, bez auditních stop. Vaše data odtékají. Jen jinudy, než si myslíte. Vaši nejlepší lidé už hledají firmu, kde budou pracovat bez zbytečných omezení — ne trčet v zastaralých procesech, zatímco zbytek světa jede. A noví chytří lidé se vás na pohovoru sami ptají, jakou máte AI politiku — pokud jim řeknete „zákaz", nepřijdou.
A tohle všechno se nestává navzdory zákazu. Děje se to kvůli němu.
O tom, jak přesně tahle spirála funguje a proč v určitém bodě přestane být zvratná, je další článek.