Zvýšili či jste jinak změnili používání umělé inteligence během posledních šesti měsíců? A je tento váš přístup ve vaší společnosti typický?
S umělou inteligencí pracujeme už podstatně déle – v tomto směru jsme v právním sektoru patřili mezi early adoptery a AI dnes používáme jako součást širší strategie. Nejde přitom o jeden konkrétní nástroj, ale o širší ekosystém technologií a projektů. Důležitou roli v tom hraje naše interní AI Task Force, která koordinuje přístup napříč praxemi i jurisdikcemi. S kolegy se AI dlouhodobě věnujeme, pravidelně o ní školíme, publikujeme v odborných médiích a spolupracujeme s vývojáři předních nástrojů na jejich dalším rozvoji. Samozřejmostí jsou také interní procesy a směrnice, které zajišťují, aby byla AI využívána eticky, v souladu s právními i stavovskými předpisy a aby byla klientská data vždy maximálně chráněna.
Podstatné je, že AI fluency u nás není záležitostí úzké skupiny nadšenců, ale přirozenou součástí práce napříč celou kanceláří – od advokátů až po back office. První fázi implementace máme už dávno za sebou a dnes se soustředíme především na prohlubování znalostí a rozšiřování praktického využití, včetně možností zpřístupnění některých řešení klientům. Pomohli jsme například automatizovat dokumentové procesy pro investiční fond, mezinárodního retailera, přední banku nebo velkou pojišťovací skupinu.
Všímáte si určité averze, která se aktuálně začíná objevovat vůči výstupům vytvářených právě umělou inteligencí? Reflektujete ji nějak například při svých publikacích na sociálních sítích apod.?
Určitá opatrnost vůči AI-generovanému textu je podle mého názoru zdravá. V řadě případů je takový text poměrně snadno rozpoznatelný, zvlášť pokud autor s nástroji teprve začíná. Typizovaná struktura nebo velmi obecné formulace pak často signalizují, že samotný obsah nemusí mít velkou přidanou hodnotu. Na sociálních sítích specificky to někdy působí skoro tak, jako by mezi sebou komunikovaly AI modely prostřednictvím avatarů skutečných lidí.
Na druhou stranu nemá smysl tvářit se, že AI neexistuje. My sami případně publikujeme pouze obsah, který prošel důkladnou lidskou redakcí. U vlastních publikací proto nepovažujeme za klíčové, zda byl někde v procesu použit nástroj AI, ale zda je výsledný text odborně správný, srozumitelný a odpovědně zpracovaný. To je standard, který by měl platit bez ohledu na technologii – a totéž bychom očekávali od profesionálního prostředí obecně.
Zároveň se opět výrazněji mluví o chybovosti, stejně jako o konzervaci umělé inteligence mezi sebou navzájem směřované proti lidem. Můžou podle vás podobné informace nástup AI ještě omezit nebo zpomalit?
Je dobré si připomínat, že umělá inteligence je nástroj, nikoli náhrada za odborný právní úsudek. V advokacii ji proto používáme jako podpůrný prostředek, který může urychlit práci nebo pomoci s analýzou velkého množství dat, ale nikdy se na její výstupy nespoléháme bez ověření. Každý výstup musí projít lidskou kontrolou advokáta. Ostatně jinak by to ani nedávalo smysl – konečná odpovědnost za právní radu vždy leží na advokátovi, ne na algoritmu.
Současné debaty o chybovosti AI jsou podle mého názoru spíše součástí přirozeného procesu, kdy si společnost nastavuje realistická očekávání. Mohou dočasně zpomalit adopci u konzervativnějších organizací, ale ty, které AI používají zodpovědně jako podpůrný nástroj pro zrychlení a zefektivnění práce, tyto debaty neodradí. Naopak spíše posilují argumenty pro to, aby lidský dohled zůstal nedílnou součástí celého procesu.
Schoenherr je partnerem legalwebu, v rámci této spolupráce byl publikován rovněž tento text.














