Když PR tým, právník a algoritmus táhnou za jeden provaz
31. prosince 2025·MACEK.LEGAL a ASCOPA

Když PR tým, právník a algoritmus táhnou za jeden provaz

Děje se v PR

Umělá inteligence už není technologickou novinkou, pro mnoho komunikátorů se stala běžnou součástí práce. Pomáhá s texty, analýzou dat, inspirací. Jenže tam, kde do hry vstupuje algoritmus, vznikají i právní rizika. Jak mohou komunikátoři bezpečně využívat AI, chránit reputaci svou i klienta a jakou výhodu získají spoluprací s AI znalým právníkem, nám v rozhovoru přiblížil advokát Mgr. Daniel Macek z advokátní kanceláře MACEK.LEGAL.

Myslíte si, že je pro komunikátora výhodné používat AI?

AI může být při správném použití relativně dobrým pomocníkem. Její přínos pro nás všechny spočívá hlavně v rychlosti. Rychle připraví návrhy textů, vizuálů, dokáže analyzovat sentiment cílové skupiny osob nebo sledovat aktuální trendy.Také ale asi všichni vidíme, že díky AI se v naprosto všech segmentech trhu tlačí na zvyšování efektivity a snižování cen ve službách. Pokud bych měl ukázat na hlavní výhodu AI, a to nejen pro komunikátory, byla by to skutečnost, že s ní rutinní práce zabere zlomek času. Komunikátoři se pak mohou soustředit například na samotnou tvorbu a realizaci PR strategií a další činnosti a administrativu a rutinu nechají stroji.

A co autenticita a kreativita? Nejsou používáním AI ohroženy?

Přesně to je jedna z otázek, která vzbuzuje diskuze stále, přestože široká veřejnost s AI funguje na denní bázi už prakticky několik let. AI může inspirovat, ale tón, kontext nebo osobitost a klienta, případně jeho značky, musí dodat lidé, člověk z masa a kostí. Je pro to několik důvodů, a nejen právních. Vypíchl bych zejména ten, že pokud se Prista spoléhá jen na algoritmus, publikum to pozná a může klesnout důvěra nejen v jeho klienta, ale zejména v nej samotného. Proto komunikátoři musí kontrolovat, ladit a hlavně ověřovat, co AI generuje, předtím, než to použijí v rámci svého výstupu.

Když se na AI v oblasti PR podíváme z pohledu práva – co vidíte jako nejproblematičtější body?

Nejčastěji se v naší kanceláři setkáváme se třemi typy případů, a právě proto, že se s nimi setkáváme nejčastěji, soudím, že jde o nejproblematičtější body.

Prvním je otázka autorského práva, typicky kdo je autorem AI výstupu, případně samotného promptu. Druhým je problematika odpovědnosti v případě, že umělá inteligence udělá chybu, například když vám dá nesprávné či nepřesné informace nebo použije cizí obsah, který bez příslušné licence použít nelze. Zrovna v tomto ohledu se má AI ještě stále hodně co učit. A třetím problematickým bodem pak je ochrana osobních údajů a neveřejných interních dat klientů, zaměstnanců a dalších osob.

Jak se tyto problémy dají v praxi řešit? Dá se jim předcházet?

Já svým klientům s oblibou často říkám, že investice do předejití právním problémům je jejich nejlepší a nejlevnější řešení. V případě spolupráce komunikátorů a AI to platí dvojnásob. A mohu po zkušenostech s řešením případů, které jsem tu typově před chvílí nastínil, říct, že většinou z nich bychom se vůbec nemuseli zabývat, kdyby klienti měli správně nastavené smlouvy. Takže ano, dá se jim předcházet, a to primárně vhodně nastavenými smluvními ujednáními.

Předně by ve smlouvě s klientem mělo být v rámci licenčních ujednání jasně řečeno, jestli vůbec může komunikátor AI používat, za jakých podmínek a v jaké míře. Je potřeba si totiž uvědomit, že výstup AI není tvůrčím výsledkem, nejde o autorské dílo, a jako takový není chráněný autorským právem. Aby byl výstup AI chráněný, musí ho komunikátor kreativně a vlastní tvůrčí činností upravit. Pokud ho neupraví – a tady se můžeme dohadovat o tom, jak moc a jakým způsobem to musí být – bude ho moci kdokoli vzít a naprosto legálně zkopírovat a využít pro sebe. Což pak ale v případě, že si od komunikátora klient vyžádá, třeba takovou přípravu tiskového prohlášení pro veřejnost nebo PR strategii na míru, se dá považovat za porušení smluvních povinností, a to dokonce aniž by to bylo ve smlouvě výslovně zmíněné. A potom samozřejmě nastupují sankce.

Doporučit mohu také důsledné dokumentování procesu tvorby nejen samotného výstupu AI, ale celého obsahu dodávaného komunikátorem klientovi, tzn. kdo co upravil, jak vznikl výsledek apod. A samozřejmostí je pak důsledná kontrola výstupu (spolu)vytvořeného AI před jeho publikací, a nutnost dávat si velký pozor na to, jaká data, údaje a informace AI o sobě, potažmo klientech poskytuje. Jakmile jí totiž tato data předáte, ve většině případů ztrácíte kontrolu nad tím, co se s daty dál děje, čímž jako správce osobních údajů porušujete povinnosti na poli GDPR a v případě neveřejných interních dat klienta zase riskujete jejich únik.

A co transparentnost? Musíme na sebe žalovat, že pracujeme s AI?

Transparentnost je jedním z témat, která se promítla do legislativní úpravy práce s AI, a to v podobě evropského nařízení známého jako AI Act. Podle něj je třeba označit jako AI generovaný každý obsah, který by mohl klamat publikum, typicky u videí a vizuálů, ale i textů. Nepoužíval bych nicméně termín „žalovat“, ten zní vcelku negativně. Když se na to totiž podíváme prakticky, komunikátoři, kteří s AI pracují transparentně a kteří nevydávají její obsah za vlastní tvůrčí činnost, budí důvěru, a zároveň chrání sebe i svého klienta před nežádoucími právními a reputačními problémy.

Dokážete odhadnout, co komunikátory v souvislosti s AI čeká dál?

Určitě nás čeká nová vlna legislativy, zavedením nařízení AI Act do našeho práva to určitě nekončí. Předpokládám zejména rozvoj autorského práva v digitálním prostředí. Také určitě můžeme brzo čekat novou judikaturu v oblasti odpovědnosti za AI generovaný obsah. A z toho, co v souvislosti s využíváním AI ve své právní praxi vidím, soudím, že velmi brzy dojde k významné změně profesních standardů v oblasti PR, protože se bude velmi pravděpodobně zvyšovat tlak na osvojení dovedností a znalostí v oblasti dat a digitální komunikace. Zárodky tohoto procesu můžeme v podstatě vidět už dnes.

Dá se vůbec s AI pracovat bezpečně bez právní pomoci?

Ano, dá. Komunikátor tím ale riskuje chyby, které ho mohou stát reputaci i peníze. Naopak při spolupráci s právníkem bude znát hranice možností právně legitimního využití AI v daném konkrétním případě, sníží riziko právních sporů a AI se pro něj stane konkurenční výhodou, nikoli Achillovou patou.

AI dokáže práci v PR zrychlit, případně zefektivnit. Ale skutečný rozdíl mezi přínosem a rizikem určuje v konečném důsledku sám komunikátor – ten, který ví, kde jsou právní hranice, a umí je proměnit ve výhodu. Proto když PR tým a právník táhnou za jeden provaz, algoritmus bude spojencem, nikoli jednosměrnou jízdenkou do reputačního a/nebo právního pekla.

Rozhovor vznikl v rámci partnerství Zlatého středníku 2025.

ASCOPA

ASCOPA je největší profesní asociací public relations a komunikace v České republice. Jejími členy jsou jak uznávaní PR odborníci, tak začínající komunikátoři. Sdružuje firmy, komunikační agentury a veřejné i neziskové organizace. Pořádáme největší komunikační soutěž v České republice a na Slovensku Zlatý středník a profesní ocenění Mluvčí roku.