Tlačidlo na zatvorenie okna potvrdenia platby
Tvoje predplatné bolo aktivované
Piatok 23.5.2025
sk
Želmíra
cz
Vladimír, Vladimíra

Tajný experiment odhalil krutú pravdu: Umelá inteligencia ti veľmi často klame

AI modely klamú, upozorňuje nová štúdia.


Umelá inteligencia sa stala neoddeliteľnou súčasťou života miliónov ľudí po celom svete. Nová štúdia však odhaľuje znepokojujúci trend – populárne AI chatboty systematicky skresľujú vedecké poznatky, čo môže viesť k šíreniu nepresných informácií. Téme sa venoval portál Fontech.

Výskumníci z Utrechtskej univerzity a univerzít v Kanade a Spojenom kráľovstve analyzovali takmer 5 000 súhrnov vedeckých článkov vytvorených rôznymi jazykovými modelmi. Výsledky ukazujú, že až v 73 % prípadov AI významne skreslila pôvodné vedecké závery.

Nebezpečné zovšeobecňovanie

Problém spočíva najmä v spôsobe, akým AI mení formulácie. Chatboty majú tendenciu meniť opatrné tvrdenia z minulého času na všeobecné vyhlásenia v prítomnom čase. Napríklad vetu „liečba bola v tejto štúdii účinná“ zmenia na „liečba je účinná“, čím vytvárajú falošný dojem všeobecnej platnosti výsledkov.

„Tento efekt je znepokojujúci. Študenti, výskumníci či tvorcovia politík môžu predpokladať, že ak ChatGPT požiadajú o presnosť, dostanú spoľahlivejší súhrn. Naše zistenia dokazujú opak,“ uviedol spoluautor štúdie Uwe Peters.

Paradoxne, keď používatelia explicitne požiadali AI o vyhnutie sa nepresnostiam, modely boli takmer dvakrát náchylnejšie produkovať zovšeobecnené závery v porovnaní s jednoduchými požiadavkami na súhrn.

Shutterstock

Ako minimalizovať riziko

Výskum priniesol aj niekoľko prekvapivých zistení. Súhrny vytvorené ľuďmi boli päťkrát menej náchylné k zovšeobecňovaniu než tie vytvorené AI. Navyše, novšie modely ako ChatGPT-4o a DeepSeek sa ukázali byť menej presné než ich staršie verzie.

Vedci odporúčajú používať model Claude, ktorý vykazoval najnižšiu mieru skreslenia. Odborníci tiež radia znížiť v nastaveniach kreativitu jednotlivých modelov. Dôležité je tiež formulovať požiadavky tak, aby AI používala minulý čas a nepriamu reč.

„Ak chceme, aby AI podporovala vedeckú gramotnosť namiesto jej podkopávania, potrebujeme viac ostražitosti a testovania týchto systémov v kontexte vedeckej komunikácie,“ dodal Peters.

Štúdia bola publikovaná v odbornom časopise Royal Society Open Science a upozorňuje na potrebu opatrnosti pri spoľahnutí sa na AI v oblasti vedeckej komunikácie.

Mohlo by ťa zaujímať:

Z poslušného pomocníka na zlovestnú entitu. Toto sú filmy, ktoré svetu predstavili umelú inteligenciu v novom šate


Tagy:

Henrieta Balázsová
Žijem s novinárskym perom v ruke a nebojím sa ponoriť do rôznorodých tém. Od aktuálneho diania cez záhadné kriminálne prípady až po fascinujúce zákutia ľudskej psychiky - všetko je pre mňa inšpiráciou.
Najčítanejšie
Podobné

Vitaj na stránke EMEFKA

Posúvaj prostom doľava alebo doprava a objav viac

Práve sa deje

Klikni a uvidíš aké máme novinky

Práve sa deje

Zakúpené články

Zatiaľ nemáš zakúpený žiadny článok

Odomknúť článok

kamošovi

Táto funkcia je dostupná iba členom Emefka PREMIUM. Skopíruj špeciálny odkaz a zdieľaj obsah so svojimi kamošmi.

Kopírovať odkaz

Odkaz bol skopírovaný

Odomknúť článok

kamošovi

Táto funkcia je dostupná iba členom Emefka PREMIUM, prihlás sa do svojho konta. Ak členom nie si, využi túto možnosť a zakúp si predplatné.

Zakúpiť Zakúpiť

Blahoželáme, máš prémiových kamošov!

Tento obsah je štandardne platený, no tvoj kamoš je členom Emefka PREMIUM a obsah ti odomkol. Stačí zadať tvoju emailovú adresu.