Zvýšil či jste jinak změnil používání umělé inteligence během posledních šesti měsíců? A je tento váš přístup ve vaší společnosti typický?
Během posledních šesti měsíců jsem v případě běžné, operativní, finanční i právní agendy byl vedle Lawrence nejvíce věrný nástroji Claude (Anthropic). Málo se to ví, ale Claude Code – a dneska i Claude Cowork – neuplatní jen (vibe)codeři, ale téměř každý. A to i ve světě práva.
Agentská struktura, se kterou přišel právě Anthropic, se za mě opravdu povedla a používám ji například při analýze smluv a přípravě návrhu a odůvodnění změn v náš prospěch, dále při přípravě, analýze a připomínkování legislativních návrhů či při finanční analýze a tvorbě na ní navazujících interaktivních aplikací. V těchto případech nutně nepotřebuji, aby AI pracovala přímo s právními daty, jak s nimi pracuje právě Lawrence, ale plně využívám schopností vyhledávání na internetu, ovládání webového prohlížeče, přípravy a spouštění kódu či zpracování a vytváření Word dokumentů. Při právních rešerších, ale i draftingu se pak přirozeně držím našeho Lawrence, u kterého, když mě napadne, co změnit nebo zlepšit, okamžitě píšu Vojtovi Pourovi. Druhý den je změna na světě, pokud nejde o kritickou věc.
S tímto způsobem práce s AI se zároveň změnilo i to, jak vypadá můj pracovní den. Pauzy se odvíjejí od toho, kdy mě zastaví usage limity, nebo když mám spuštěno více agentů najednou.
Protože se ve své akademické činnosti věnuji právě odpovědnosti za autonomní a adaptivní AI systémy, začal jsem poslední měsíc dva experimentovat i s OpenClaw. Jako opravdu přínosný AI asistent se mi ale zatím neosvědčil, držím se v tomto Code a Cowork. Navíc si občas pomáhám – například když nechci plýtvat nebo mi dojdou tokeny v Claudovi – s Deep Research od Gemini či ChatGPT, a to například při hledání a zpracování akademických zdrojů.
Abych ukázal, jak může Claude Cowork pomoct, nechal jsem si od něj vytvořit analýzu odpovědí ostatních respondentů (publikovaných v okamžiku přípravy tohoto textu – pozn. red.) tohoto dotazníku od legalwebu. A co mi odpověděl? Potvrzuje se jednoznačný nárůst využívání u naprosté většiny kanceláří. Až 17 z 19 respondentů potvrdilo zvýšení využívání AI za posledních šest měsíců. Téměř všichni zmínili rešerše a analýzy, dále se zmiňovala například i sumarizace dokumentů a schůzek, revize a analýza smluv, strukturování argumentace, brainstorming a volba strategie, příprava prvních verzí textů, due diligence, práce s interním know-how či tvorba vlastních agentů a workflows.
Všímáte si určité averze, která se aktuálně začíná objevovat vůči výstupům vytvářených právě umělou inteligencí? Reflektujete ji nějak například při svých publikacích na sociálních sítích apod.?
Určitou averzi vůči AI výstupům vnímám od doby, co se AI nástroje vůbec více rozšířily. Někdy to vnímám jako konstruktivní kritiku, jindy trochu jako trend. České právníky a právničky ale musím pochválit. Není mezi nimi jen pár experimentátorů, ale napříč firmami a pozicemi jich jsou spousty, co řeší, jak ke své práci AI smysluplně využít. I podle zahraničních průzkumů patří právo mezi odvětví s nejširším využitím. Vezměte si jen, kolik za ty tři roky vzniklo u nás i ve světě AI právních startupů. Poptávka po takových řešeních tak určitě je.
Averzi pak konkrétně vnímám jak vůči formě, tak vůči obsahu, respektive (možné) faktické nesprávnosti. S formou lze často docela dobře pracovat, chyby se pak do výstupů podle mě dostávají primárně jako důsledek nesprávného způsobu používání AI samotnými uživateli. Nemůžeme po samotné AI, respektive LLM, chtít, ať nám vytvoří seznam judikátů pro a proti a ať nám k tomu přidá i pár citací z nich. Když tohle po AI chceme, jdeme na to špatně.
Vše, co publikuji, od LinkedIn postů přes odborné články až po mou knihu, vzniklo na mé klávesnici. AI však nyní jak v případě příspěvků, tak článků používám jednak ke kontrole textu, jestli v něm nemám překlepy či jiné chyby, jednak jako další pár očí. Docela se mi osvědčilo používat právě Claude Cowork jako svého osobního recenzenta, který mi řekne, že mám určité tvrzení nedostatečně podložené, nebo čtenáři nemusí zvolená formulace vůbec dávat smysl. Když se člověk dlouhodobě určitému tématu věnuje, přijde mi, že se může jednoduše dopustit toho, že předpokládá informace, kontext, co má sám v hlavě, nikoliv však čtenáři. Zrovna k tomuto mi přijdou AI nástroje vhodné i v právní a akademické praxi.
A co na to podle Claude Cowork odpovídají ostatní? Averzi vnímá naprostá většina respondentů a aktivně na ni reaguje. Zmiňuje se generický, snadno rozpoznatelný obsah, záplava „prázdného“ obsahu na sociálních sítích či problém, když klienti posílají AI zadání.
Zároveň se opět výrazněji mluví o chybovosti, stejně jako o konspiraci umělé inteligence mezi sebou navzájem směřované proti lidem. Můžou podle vás podobné informace nástup AI ještě omezit nebo zpomalit?
Osobně si myslím, že je nástup AI nevyhnutelný a že nebude evolučního, ale revolučního charakteru. Mluví-li se o chybovosti AI, vždycky dodávám, že chybovat je stejně tak lidské.
S tím, jak se AI rozšiřuje, samozřejmě ale může něco, co bychom mohli nazvat chybou, ale i něco, co tak vůbec nedokážeme posoudit, vést ke vzniku škody nebo újmy, za kterou by byla fyzická nebo právnická osoba odpovědná. V trestním právu se dnes můžeme vedle poměrně přímočaré trestní odpovědnosti za AI jako nástroj trestné činnosti bavit o nedbalostní trestné činnosti těch, co stojí za AI (a mohou na ni mít vliv). Do budoucna to ale patrně stačit nebude.
Budeme muset – a to možná i s pomocí AI samotné – vymyslet, jak řešit situace, kdy bude AI kauzálně, nikoli však zaviněně v dnešním slova smyslu odpovědná za více a více společensky škodlivých jednání. Budeme muset najít nové odpovědnostní paradigma pro 21. století.
Zrovna fenomén Moltbook jsem od samého počátku bedlivě sledoval. Internet – jako prostředí odlišné od fyzického světa – ve spojení s AI agenty totiž podkopává právně-teoretický koncept jednání. AI agenti, aniž by k tomu potřebovali člověka, si mohou na internetu číst nejnovější zprávy, přispívat na sociální sítě, používat nejrůznější aplikace či platit kryptoměnami. Stejně tak se ale mohou stát i svébytnými aktéry kyberkriminality.
Ač se objevují tábory volající po národním, ba dokonce globálním zastavení vývoje AI, nemyslím si, že to je ta správná cesta. Naopak musíme najít způsob, jak kohabitovat.















