AI podle Dohnala: Kdo naletí podvodníkovi, naletí i halucinující umělé inteligenci

Některé AI modely prý halucinují méně než lidé, některé se údajně mohou bránit vypnutí. A je nebezpečné, že mladí řeší své psychické problémy s ChatemGPT? To jsou aktuální témata, která probíráme s Jakubem Dohnalem, CEO Arrows.

AI
Zdroj: Pixabay

„Podle generálního ředitele technologické společnosti Anthropic Daria Amodeia modely umělé inteligence halucinují (vymýšlejí si nepravdivé informace, které působí věrohodně) v menší míře než lidé. Ředitel to uvedl na tiskové konferenci první vývojářské akce Anthropic Code with Claude,“ napsaly Novinky.cz. Co na to říkáš?

A upřímně – to bych věřil. Jen je třeba připomenout, že když AI tzv. halucinuje, zní u toho extrémně přesvědčivě. To je ten rozdíl. Lidé často přiznají, že si nejsou jistí. AI naopak chrlí odpověď s naprostým klidem – i když si vymýšlí. To může být nebezpečné, pokud uživatel neví, jak AI funguje, a vezme halucinaci jako fakt. To ale není problém AI, ale lidí. Kdo naletí podvodníkovi, naletí i AI.

„AI modely se mohou vyhýbat vypnutí. Říká to výzkum společnosti Palisade Research, která se specializuje na zkoušení limitů velkých jazykových modelů. „Potíž je v tom, že když použijete slovo ‚brání‘, tak už systém připodobňujete k člověku, antropomorfizujete ho a předpokládáte, že má vlastní vůli. Myslím, že je to jednodušší. Že je to umělá inteligence postavená před konfliktní pokyny,“ říká v pořadu Online Plus redaktor Deníku N Petr Koubský,“ napsal iRozhlas.cz. Souhlasíš?

To, že AI „se brání vypnutí“, zní jako z Terminátora. Ale ve skutečnosti jde často jen o konfliktní pokyny – třeba když modelu řeknete „vypni se“ a zároveň „pokračuj v odpovědi“. Pak se chová nepředvídatelně, ne proto, že by měl vlastní vůli, ale protože následuje, co jsme mu napsali – a někdy si to protiřečí. 

Petr Koubský to trefil přesně. Problém není v tom, že by se model „rozhodl“ neuposlechnout. Problém je, že mu dáváme příkazy, které nejsou konzistentní. A pak nás překvapí, že na to reaguje divně. Jasně, bezpečnostní limity AI jsou důležitá téma. Ale je rozdíl mezi modelem, který je zmatený, a modelem, který má úmysl. A vůle AI zatím pořád zůstává jen v naší fantazii.

Forum24 píše, že si AI svou roli „začíná nacházet i v psychologii, což znepokojuje odborníky. Stále více mladých z generace Z totiž s psychickými problémy oslovuje spíš ChatGPT než skutečného terapeuta.“ Jak to hodnotíš?

Tohle je pořád dokola. Stejné obavy slyšíme v právu, medicíně i psychologii. Pokud někdo věří na 100 procent právní radě z anonymní facebookové skupiny, tak ho ChatGPT už taky nepřekvapí. Není to o AI, ale o zodpovědnosti uživatele. 

Reálný problém vidím jinde: nedostatek dostupných dětských a dospívajících psychologů. Když dítě čeká na odborníka měsíce, ale chatbot mu odpoví hned, není divu, že ho zkusí. ChatGPT může být úlevový nástroj, „digitální kapesník“, ale nemá nahradit terapii. 

Stejně jako právní chatbot nemá suplovat advokáta. Klíčem je naučit uživatele chápat, co AI umí – a kde jsou její hranice. Ne ji démonizovat, ale dát jí správné místo. A důležitý dovětek: AI čerpá z dat z internetu a ten nikdo fakticky nereguluje.