Umelá inteligencia sa stala neoddeliteľnou súčasťou života miliónov ľudí po celom svete. Nová štúdia však odhaľuje znepokojujúci trend – populárne AI chatboty systematicky skresľujú vedecké poznatky, čo môže viesť k šíreniu nepresných informácií. Téme sa venoval portál Fontech.
Výskumníci z Utrechtskej univerzity a univerzít v Kanade a Spojenom kráľovstve analyzovali takmer 5 000 súhrnov vedeckých článkov vytvorených rôznymi jazykovými modelmi. Výsledky ukazujú, že až v 73 % prípadov AI významne skreslila pôvodné vedecké závery.
Nebezpečné zovšeobecňovanie
Problém spočíva najmä v spôsobe, akým AI mení formulácie. Chatboty majú tendenciu meniť opatrné tvrdenia z minulého času na všeobecné vyhlásenia v prítomnom čase. Napríklad vetu „liečba bola v tejto štúdii účinná“ zmenia na „liečba je účinná“, čím vytvárajú falošný dojem všeobecnej platnosti výsledkov.
„Tento efekt je znepokojujúci. Študenti, výskumníci či tvorcovia politík môžu predpokladať, že ak ChatGPT požiadajú o presnosť, dostanú spoľahlivejší súhrn. Naše zistenia dokazujú opak,“ uviedol spoluautor štúdie Uwe Peters.
Paradoxne, keď používatelia explicitne požiadali AI o vyhnutie sa nepresnostiam, modely boli takmer dvakrát náchylnejšie produkovať zovšeobecnené závery v porovnaní s jednoduchými požiadavkami na súhrn.

Ako minimalizovať riziko
Výskum priniesol aj niekoľko prekvapivých zistení. Súhrny vytvorené ľuďmi boli päťkrát menej náchylné k zovšeobecňovaniu než tie vytvorené AI. Navyše, novšie modely ako ChatGPT-4o a DeepSeek sa ukázali byť menej presné než ich staršie verzie.
Vedci odporúčajú používať model Claude, ktorý vykazoval najnižšiu mieru skreslenia. Odborníci tiež radia znížiť v nastaveniach kreativitu jednotlivých modelov. Dôležité je tiež formulovať požiadavky tak, aby AI používala minulý čas a nepriamu reč.
„Ak chceme, aby AI podporovala vedeckú gramotnosť namiesto jej podkopávania, potrebujeme viac ostražitosti a testovania týchto systémov v kontexte vedeckej komunikácie,“ dodal Peters.
Štúdia bola publikovaná v odbornom časopise Royal Society Open Science a upozorňuje na potrebu opatrnosti pri spoľahnutí sa na AI v oblasti vedeckej komunikácie.