ChatGPT oznámil, že začne nabízet erotický obsah. Jak tohle v rámci rozvoje technologií hodnotíte? Co to znamená o jejich dalším postupu do našich životů?
Tohle je přirozená součást vývoje technologií. Erotika, stejně jako třeba hazard nebo násilí, byla vždy mezi prvními oblastmi, které testují limity nových platforem. Není to poprvé – pamatujme si, že i internet sám o sobě se zpočátku potýkal se stejným trendem. Takže mě to vlastně nepřekvapuje.
Co je ale nové, je to, že nejde jen o „pasivní obsah“, ale o interakci s AI, která má být personalizovaná, přesvědčivá a místy velmi intimní. A to už není jen otázka vkusu, ale i právních a etických mantinelů. Kde je hranice mezi fantazií a manipulací? Jak zajistit souhlas, když je konverzace simulovaná? A co ochrana osobních údajů, které při takovém chatu mohou lidé sdílet? Nebo ochrana podobizny známé osobnosti? Samozřejmostí by pak měla být jasně stanovená pravidla pro ochranu dětí.
Z právního hlediska je to složité – AI nemá vědomí ani úmysl, ale generuje určité emoce. To znamená, že bude čím dál důležitější právně upravit nejen to, co AI smí říkat, ale i jak se má chovat. A zároveň musíme chránit uživatele před tím, aby ve virtuálním světě neztratili kompas. Ale sám si kladu otázku, zda to vůbec půjde.
Myslím, že nás tahle vlna donutí mnohem víc přemýšlet o tom, jaké místo má AI v mezilidských vztazích. A jestli by neměla do nějaké míry platit podobná pravidla jako u lidí – byť s vědomím, že AI není partner, ale simulace.
Předpokládám, že může jít rovněž o otázkou výraznější související s lidskými právy. Co bude potřeba v tomto ohledu řešit a jakým způsobem?
Ano, v tomhle směru se už bavíme o zásazích do základních práv – například na soukromí, důstojnost nebo svobodu projevu. Když AI začne vytvářet intimní obsah, který působí realisticky, ale je zcela fiktivní, může to mít dopad i na ty, kteří s tím vůbec nesouhlasili. Například herečka, jejíž tvář AI zneužije.
Bude tedy potřeba důkladně upravit, kdo nese odpovědnost za takto vytvořený obsah – vývojář AI, uživatel, platforma? A jak účinně vymáhat práva lidí, kteří svá práva chtějí bránit? Z pohledu práva na ochranu osobnosti už dnes máme samozřejmě řadu nástrojů, ale s AI dostávají úplně nové rozměry – zvlášť pokud je obsah generovaný v reálném čase a šířený napříč platformami.
Celkově si myslím, že v oblasti lidských práv nás čeká nová etapa výkladu známých pojmů – třeba co znamená „důstojnost“ nebo „autonomie vůle“ v době, kdy AI dokáže simulovat mezilidské vztahy. A na to musíme být připraveni jak legislativně, tak soudně.
Ale má to samozřejmě mnoho dalších rovin, zejména sociologických, duševního zdraví či demografických. Stačí se podívat do dnešního Japonska.
Konečně, objeví se podle vás nové právní spory související s novou intimitou?
Určitě ano – a vlastně už se pomalu objevují. Řeší se záležitosti na pomezí technologií, mezilidských vztahů a práva. Reálně už řešíme třeba otázky kolem deepfake obsahu, neoprávněného šíření intimních výstupů z AI nebo třeba zneužití identity ve virtuálním prostředí.
Navíc se objeví i nové typy nepřímých zásahů – třeba situace, kdy se někdo cítí manipulován nebo zneužit i přesto, že „se navenek nic nestalo“. Můžeme řešit narušení psychického zdraví, koneckonců již jsou známy případy sebepoškozování i dokonaných sebevražd, v nichž AI mělo svou roli.
Interakce s AI může být pro některé jedince emočně velmi intenzivní, ale současně právně těžko uchopitelná. A právě v těchto šedých zónách podle mě vznikne řada nových sporů – a tím pádem i výzev pro právníky, zákonodárce i soudy.
Z ústavněprávního hlediska se tedy připravme na to, že budeme muset přehodnotit některé tradiční pojmy, jako je zásah do soukromí nebo souhlas. A hlavně – že hranice mezi realitou a simulací přestanou být tak jasné, jak jsme byli zvyklí. A právo se s tím bude muset naučit pracovat.








