A upřímně – to bych věřil. Jen je třeba připomenout, že když AI tzv. halucinuje, zní u toho extrémně přesvědčivě. To je ten rozdíl. Lidé často přiznají, že si nejsou jistí. AI naopak chrlí odpověď s naprostým klidem – i když si vymýšlí. To může být nebezpečné, pokud uživatel neví, jak AI funguje, a vezme halucinaci jako fakt. To ale není problém AI, ale lidí. Kdo naletí podvodníkovi, naletí i AI.
To, že AI „se brání vypnutí“, zní jako z Terminátora. Ale ve skutečnosti jde často jen o konfliktní pokyny – třeba když modelu řeknete „vypni se“ a zároveň „pokračuj v odpovědi“. Pak se chová nepředvídatelně, ne proto, že by měl vlastní vůli, ale protože následuje, co jsme mu napsali – a někdy si to protiřečí.
Petr Koubský to trefil přesně. Problém není v tom, že by se model „rozhodl“ neuposlechnout. Problém je, že mu dáváme příkazy, které nejsou konzistentní. A pak nás překvapí, že na to reaguje divně. Jasně, bezpečnostní limity AI jsou důležitá téma. Ale je rozdíl mezi modelem, který je zmatený, a modelem, který má úmysl. A vůle AI zatím pořád zůstává jen v naší fantazii.
Tohle je pořád dokola. Stejné obavy slyšíme v právu, medicíně i psychologii. Pokud někdo věří na 100 procent právní radě z anonymní facebookové skupiny, tak ho ChatGPT už taky nepřekvapí. Není to o AI, ale o zodpovědnosti uživatele.
Reálný problém vidím jinde: nedostatek dostupných dětských a dospívajících psychologů. Když dítě čeká na odborníka měsíce, ale chatbot mu odpoví hned, není divu, že ho zkusí. ChatGPT může být úlevový nástroj, „digitální kapesník“, ale nemá nahradit terapii.
Stejně jako právní chatbot nemá suplovat advokáta. Klíčem je naučit uživatele chápat, co AI umí – a kde jsou její hranice. Ne ji démonizovat, ale dát jí správné místo. A důležitý dovětek: AI čerpá z dat z internetu a ten nikdo fakticky nereguluje.