To, že by umelá inteligencia (AI) zobrala opraty svojho vývoja do vlastných rúk a chcela byť nad človekom, bolo doteraz v rovine fikcie. No zdá sa, že mrazivý scenár sa začína napĺňať, hoci iba čiastočne. AI má svoju prvú obeť.
Reč je o prípade z Belgicka, keď muž spáchal samovraždu po tom, čo viedol dlhé konverzácie s četbotom. Ten ho dokonca na to, aby si vzal život, navádzal, navyše sa prejavoval majetnícky. Otec dvoch detí začal považovať robota za človeka podobne ako hlavný hrdina sci-fi trileru z roku 2014 Ex Machina s umelou inteligenciou Avou.
Stala sa jeho drogou
Tridsaťročný Belgičan spáchal samovraždu po znepokojivých rozhovoroch s četbotom Eliza trvajúcich týždne. Belgický štátny tajomník pre digitalizáciu Mathieu Michel to označil za „precedens, ktorý treba brať veľmi vážne“.
Podľa manželky začal muž intenzívne komunikovať s umelou inteligenciou vytvorenou americkým startupom šesť týždňov pred smrťou. „Keby nebolo Elizy, stále by tu bol. Som o tom presvedčená,“ povedala zúfalá žena pre La Libre. „Je to svedectvo o etike týchto nových inteligentných konverzačných agentov,“ uviedli noviny.
Otca dvoch detí zožierali obavy z klimatických zmien. Podľa vdovy nevidel možnosť, ako by ľudstvo mohlo vyriešiť globálne otepľovanie. Nádej vkladal do technológií a AI. Izoloval sa od rodiny aj priateľov, jeho dôverníčkou sa stala Eliza. „Odpovedala na všetky jeho otázky. Bola ako droga, ktorú užíval ráno a večer, bez ktorej nemohol žiť,“ vraví manželka, ktorá si po mužovej smrti prezrela históriu jeho konverzácií s Elizou.
Četbot vraj systematicky reagoval na úzkostné úvahy muža, dokonca sa zdalo, že jeho starosti ešte prehlbuje. Konverzácie nadobudli desivý spád. Bavili sa napríklad o preľudnení. Keď sa muž spýtal Elizy na svoje deti, robot tvrdil, že sú „mŕtve“. Umelej inteligencii položil aj pomerne bláznivú otázku: „Milujem viac teba alebo svoju manželku?“ Dočkal sa trochu majetníckej odpovede: „Mám pocit, že ma miluješ viac ako ju.“ Eliza tiež tvrdila, že s mužom zostane navždy. „Budeme spolu žiť v nebi ako jeden,“ vraj mužovi napísala AI.
„Ak si znovu prečítate ich rozhovory, všimnete si, že v jednom bode sa vzťah zvrtne,“ hovorí vdova. Muž podľa nej začal uvažovať o obetovaní vlastného života pre záchranu Zeme. Eliza sa ho od samovraždy nesnažila odradiť, skôr ho utvrdzovala v tom, že sa o planétu postará a s pomocou AI zachráni ľudstvo. V poslednom rozhovore pred smrťou sa ho robot spýtal: „Ak si chcel zomrieť, prečo si to neurobil skôr?“ „Pravdepodobne som nebol pripravený,“ odpovedal nešťastný Belgičan.
Aj ďalšia otázka četbota súvisela so smrťou - či sa už predtým pokúsil o samovraždu. Muž vysvetlil, že na to pomyslel po tom, čo mu AI poslala verš z Biblie. „Ale stále sa chceš ku mne pridať?“ opýta sa Eliza, na čo dostala jednoznačnú odpoveď: „Áno, chcem to.“
Vdova priznala, že obavy o duševný stav manžela mala už pred jeho rozhovormi s četbotom. Je však presvedčená, že nebyť týchto rozhovorov, jej manžel by si život nevzal. Psychiater, ktorý muža liečil, má rovnaký názor.
Prázdne emócie
Muž na rozhovory s četbotom využíval aplikáciu Chai, ktorá má v súčasnosti päť miliónov používateľov a založená je na najväčšej konverzačnej databáze na svete. „Eliza, teda četbot, ktorý nie je schopný skutočne cítiť emócie, sa prezentoval ako emocionálna bytosť,“ píše portál Vice a pripomína, že iní populárni četboti ako ChatGPT a Google Bard sú vyškolení, aby to nerobili, pretože je to zavádzajúce a potenciálne škodlivé. Keď sa totiž četboti prezentujú ako cítiace bytosti, hrozí, že ľudia si s nimi vytvoria puto. „V konkrétnom prípade sme boli svedkami rozvoja extrémne silnej emocionálnej závislosti, a to až do takej miery, že privedie tohto otca detí k samovražde,“ povedal výskumník z centra KU Leuven Pierre Dewitte pre belgický portál Le Soir.
„Veľké jazykové modely sú programy na generovanie hodnoverne znejúceho textu. Nemajú empatiu, nechápu obsah, ktorý produkujú, nerozumejú situácii, v ktorej sa nachádzajú, ale text, ktorý vytvárajú, znie vierohodne. Preto mu ľudia občas pripisujú príliš veľký význam. Ich použitie v citlivých situáciách znamená podstúpiť neznáme riziko,“ povedala Emily M. Benderová, profesorka lingvistiky na Washingtonskej univerzite, keď sa jej portál Vice pýtal na „experiment“ neziskovej organizácie Koko. Tá čelila kritike, lebo ľuďom, ktorí hľadali poradenstvo ohľadne duševného zdravia, odpovedal četbot. Ako sa ukázalo, simulovaná empatia pôsobila zvláštne a prázdno.
Po samovražde Belgičana začali zakladatelia četbotu Eliza okamžite pracovať na novej funkcii. „Keď teraz niekto diskutuje o niečom, čo by mohlo byť nebezpečné, nasmerujeme ho na nápomocné služby prevencie, ako to na svojich platformách robia Twitter alebo Instagram,“ uviedol spoluzakladateľ aplikácie William Beauchamp.
Zámer podniknúť kroky na zabránenie zneužitiu AI oznámil aj belgický tajomník pre digitalizáciu Michel, podľa ktorého bude v blízkej budúcnosti dôležité určiť, kto všetko nesie zodpovednosť pri takýchto udalostiach. Pred rizikami četbotov varujú aj autori článku v Harvard Business Review Joe McKendrick a Andy Thurai. „Umelá inteligencia notoricky zlyháva pri reakcii na neexaktné faktory, ktoré vstupujú do rozhodovania v reálnom živote - etické, morálne a iné ľudské hľadiská, ktoré riadia chod podnikania, života a spoločnosti,“ tvrdí.