Tajný experiment odhalil krutú pravdu: Umelá inteligencia ti veľmi často klame

AI modely klamú, upozorňuje nová štúdia.


Umelá inteligencia sa stala neoddeliteľnou súčasťou života miliónov ľudí po celom svete. Nová štúdia však odhaľuje znepokojujúci trend – populárne AI chatboty systematicky skresľujú vedecké poznatky, čo môže viesť k šíreniu nepresných informácií. Téme sa venoval portál Fontech.

Výskumníci z Utrechtskej univerzity a univerzít v Kanade a Spojenom kráľovstve analyzovali takmer 5 000 súhrnov vedeckých článkov vytvorených rôznymi jazykovými modelmi. Výsledky ukazujú, že až v 73 % prípadov AI významne skreslila pôvodné vedecké závery.

Nebezpečné zovšeobecňovanie

Problém spočíva najmä v spôsobe, akým AI mení formulácie. Chatboty majú tendenciu meniť opatrné tvrdenia z minulého času na všeobecné vyhlásenia v prítomnom čase. Napríklad vetu „liečba bola v tejto štúdii účinná“ zmenia na „liečba je účinná“, čím vytvárajú falošný dojem všeobecnej platnosti výsledkov.

„Tento efekt je znepokojujúci. Študenti, výskumníci či tvorcovia politík môžu predpokladať, že ak ChatGPT požiadajú o presnosť, dostanú spoľahlivejší súhrn. Naše zistenia dokazujú opak,“ uviedol spoluautor štúdie Uwe Peters.

Paradoxne, keď používatelia explicitne požiadali AI o vyhnutie sa nepresnostiam, modely boli takmer dvakrát náchylnejšie produkovať zovšeobecnené závery v porovnaní s jednoduchými požiadavkami na súhrn.

Shutterstock

Ako minimalizovať riziko

Výskum priniesol aj niekoľko prekvapivých zistení. Súhrny vytvorené ľuďmi boli päťkrát menej náchylné k zovšeobecňovaniu než tie vytvorené AI. Navyše, novšie modely ako ChatGPT-4o a DeepSeek sa ukázali byť menej presné než ich staršie verzie.

Vedci odporúčajú používať model Claude, ktorý vykazoval najnižšiu mieru skreslenia. Odborníci tiež radia znížiť v nastaveniach kreativitu jednotlivých modelov. Dôležité je tiež formulovať požiadavky tak, aby AI používala minulý čas a nepriamu reč.

„Ak chceme, aby AI podporovala vedeckú gramotnosť namiesto jej podkopávania, potrebujeme viac ostražitosti a testovania týchto systémov v kontexte vedeckej komunikácie,“ dodal Peters.

Štúdia bola publikovaná v odbornom časopise Royal Society Open Science a upozorňuje na potrebu opatrnosti pri spoľahnutí sa na AI v oblasti vedeckej komunikácie.

Mohlo by ťa zaujímať:

Z poslušného pomocníka na zlovestnú entitu. Toto sú filmy, ktoré svetu predstavili umelú inteligenciu v novom šate


Tagy:

Henrieta Balázsová
Žijem s novinárskym perom v ruke a nebojím sa ponoriť do rôznorodých tém. Od aktuálneho diania cez záhadné kriminálne prípady až po fascinujúce zákutia ľudskej psychiky - všetko je pre mňa inšpiráciou.
Najčítanejšie
Podobné