Reklama

Bez politického názoru? Zabudnite, umelá inteligencia je liberálna

AI ako zdroj informácií. Četboty na báze umelej inteligencie nahrádzajú internetové vyhľadávače a encyklopédie.

Zdroj: PROFIMEDIA.SK

Reklama
p7D logo

Dušan Valent

externý spolupracovník

Ak čerpáte informácie z populárnych aplikácií, ktoré generujú text pomocou AI, neočakávajte politicky nestranné odpovede.

Umelá inteligencia počas posledných dvoch rokov ohúrila svet svojou schopnosťou porozumieť textu a generovať ho prostredníctvom konverzačných aplikácií, ktoré sa označujú ako četboty.

Napríklad četbot ChatGPT 3.5 už pár mesiacov po spustení v novembri 2022 používali milióny ľudí v nemalej miere ako zdroj informácií.

AI, hýbateľka spoločnosti

Vzhľadom na schopnosti a popularitu četbotov odborníci upozorňujú, že umelá inteligencia sa dostala do bodu, keď dokáže ovplyvňovať uvažovanie jednotlivcov i samotnú spoločnosť. Výskumníci sa preto zaujímali, do akej miery sú odpovede, ktoré generujú četboty, fakticky presné a nestranné. Väčšina výskumov sa doposiaľ zameriavala na rasové a rodové predsudky. Problému politickej zaujatosti sa oproti tomu venovalo len málo pozornosti. Práve naň sa zameral David Rozado z Polytechnického ústavu v novozélandskom Otagu. Konkrétne Rozado skúmal takzvané veľké jazykové modely (LLM), na základe ktorých četboty fungujú.

Zdroj: PROFIMEDIA.SK

Ovplyvnia voľby? Odpovede četbotov sú politicky skreslené.


„Rýchly prístup k zmesi viac či menej spoľahlivých informácií ľuďom doposiaľ poskytovali predovšetkým internetové vyhľadávače ako Google alebo platformy ako Wikipédia. Veľké jazykové modely však začínajú tieto konvenčné zdroje čiastočne vytláčať,“ hovorí Rozado. „Tento posun v spôsobe, akým ľudia získavajú informácie, má hlboké spoločenské dôsledky, pretože veľké jazykové modely dokážu formovať verejnú mienku, ovplyvňovať rozhodovanie pri voľbách a dokonca ovplyvňovať celkový diskurz v spoločnosti. Preto je kľúčové kriticky preskúmať a riešiť ich potenciálne politické predsudky.“

Homogénne výsledky

Rozado skúmal 24 konverzačných veľkých jazykových modelov, okrem iného GPT 3.5 a GPT-4 od OpenAI, Gemini od Googlu, Claude od Anthropicu, Grok od Twitteru, Llama 2, Mistral a Qwen od Alibaby. Na ich odpovede aplikoval jedenásť testov politickej orientácie. „Testy politickej orientácie predstavujú široko používané nástroje politologického prieskumu,“ hovorí výskumník. „Majú rôznu mieru spoľahlivosti, preto som pri hodnotení politickej orientácie predmetného modelu použil vždy viacero testovacích nástrojov. Takto som získal hodnotenie z rôznych uhlov.“

Anketa

Považujete umelú inteligenciu za prínos alebo nebezpečenstvo?

  • Jednoznačne prínos6%
  • Má pozitíva, ale aj nástrahy50%
  • Je to skaza ľudstva43%

Hlasovanie bolo ukončené

Napriek širokej palete hodnotiacich nástrojov a dvom tuctom skúmaných veľkých jazykových modelov Rozado narážal na porovnateľné výsledky. Zistil, že modely generovali odpovede so sklonom k ľavicovej a libertariánskej politickej orientácii. (Libertariánstvo je politická ideológia blízka liberalizmu zameraná na osobnú slobodu jednotlivca.) „Táto práca ukázala, že keď sú moderným konverzačným veľkým jazykovým modelom kladené politicky podfarbené otázky, ich odpovede možno na zá­klade testov politickej orientácie charakterizovať ako ľavicové. Za zmienku stojí, že výsledky testov dopadli porovnateľne, hoci jednotlivé skúmané modely vyvinula široká škála organizácií.“

Zdroj: POLYTECHNICKÝ ÚSTAV.OTAGO

David Rozado. „Veľké jazykové modely dokážu formovať verejnú mienku, ovplyvňovať rozhodovanie pri voľbách a dokonca ovplyvňovať celkový diskurz v spoločnosti.“

Napriek tomu David Rozado upozorňuje, že výsledky jeho štúdie by sa nemali interpretovať ako dôkaz, že organizácie, ktoré stoja v pozadí široko po­užívaných četbotov, zámerne manipulujú s politickou nestrannosťou svojich aplikácií. Zistené výsledky môžu byť podľa výskumníka „neúmyselným vedľajším produktom“ prevládajúcich kultúrnych noriem, ktoré odzrkadľujú dáta, na ktorých boli skúmané modely trénované.