Zvýšili či jste jinak změnili používání umělé inteligence během posledních šesti měsíců? A je tento váš přístup ve vaší společnosti typický?
V kanceláři dlouhodobě využíváme nástroje pro podporu práce s textem a jazykem (např. DeepL, Grammarly) i pro tvorbu grafiky (např. Canva). V posledních měsících jsme systematičtěji zapojili také generativní AI (např. ChatGPT, Gemini) – především poté, co jsme si nastavili interní způsob práce a základní pravidla bezpečného používání. Dnes vnímáme AI jako běžný nástroj moderní právní praxe, nikoli jako náhradu odborného úsudku.
Nejvíce se nám osvědčuje při úvodní rešerši, tvorbě osnov a variant formulací, dále při editaci a kontrole konzistence finálních výstupů. Přistupujeme k ní obezřetně, klademe důraz na anonymizaci, respektujeme povinnost mlčenlivosti a dbáme na důsledné ověřování veškerých výstupů. AI nám šetří čas na rutinních krocích, ale odpovědnost za právní závěry a finální podobu dokumentů zůstává vždy na advokátovi.
Všímáte si určité averze, která se aktuálně začíná objevovat vůči výstupům vytvářených právě umělou inteligencí? Reflektujete ji nějak například při svých publikacích na sociálních sítích apod.?
Ano, určitou averzi vnímáme – a upřímně ji chápeme. Část obsahu generovaného AI je snadno rozpoznatelná, bývá příliš obecná a široce pojatá, někdy je nepřesná nebo zbytečně dramatizuje i bagatelní otázky. Umělá inteligence často není schopna zasadit zadání do kontextu a vnímat potřeby klienta a neumí dobře pracovat s prioritami a strategií, které jsou v advokacii klíčové.
V komunikaci to proto reflektujeme hlavně důrazem na autentičnost, kvalitu a konkrétnost. Dáváme přednost kratším a přesnějším sdělením a hlídáme si, aby text měl jasný praktický dopad. Pokud nám AI někde pomůže s osnovou nebo jazykovou úpravou, finální podobu vždy upravujeme „lidsky“.
Zároveň platí, že v právních výstupech je pro nás rozhodující odpovědnost a důvěra. Stavíme na tom, aby naše výstupy byly na vysoké odborné úrovni, promyšlené a zohledňovaly konkrétní potřeby klienta.
Zároveň se opět výrazněji mluví o chybovosti, stejně jako o konzervaci umělé inteligence mezi sebou navzájem směřované proti lidem. Můžou podle vás podobné informace nástup AI ještě omezit nebo zpomalit?
Krátkodobě ano a do určité míry to považujeme za žádoucí. AI je třeba nasazovat uvážlivě a s dávkou kritičnosti, zejména v regulovaných a odpovědnostních oborech. Z dlouhodobého hlediska si myslíme, že tyto debaty nástup umělé inteligence nezastaví, spíš povedou k jejímu rozumnějšímu a bezpečnějšímu používání. Lze očekávat další zvyšování kvality modelů a zároveň i větší důraz na interní pravidla, ověřování výstupů a celkově odpovědné používání AI.
V advokacii může AI nepochybně zefektivnit poskytování právních služeb, je však třeba mít na paměti, že advokát musí při jejím používání plnit všechny povinnosti vyplývající z právních a stavovských předpisů. Je třeba zajistit důvěrnost a ochranu údajů. Odpovědnost za konečný výstup nese vždy advokát. Mnohé AI modely mají stále tendenci si vymýšlet právní úpravu, judikaturu i faktické skutečnosti. AI nemůže nahrazovat právní služby advokáta, ale může být užitečným pomocníkem při práci.
Sniehotta & Vajda Legal je partnerem legalwebu, v rámci této spolupráce byl publikován rovněž tento text.














