Piati experti vydali štúdiu s názvom AI 2027, v ktorej rozoberajú dopad superinteligentnej AI v priebehu najbližších desiatich rokov. Pôjde podľa nich o obrovský dopad na spoločnosť – dokonca väčší než ten, ktorý priniesla priemyselná revolúcia.
Vytvorili scenár, ktorý najlepšie vystihuje, ako by to celé mohlo vyzerať. Čerpali z trendov, simulácií, spätnej väzby expertov, skúseností z OpenAI a predošlých úspešných predpovedí. Čo nás teda podľa nich čaká v najbližších rokoch?
Stred roka 2025: Nešikovní AI agenti
Svet po prvý raz zažíva, aké to je mať skutočných AI agentov. Firmy ich prezentujú ako „osobných asistentov“. Napriek tomu, že sú technicky lepší než staršie verzie, zatiaľ sa veľmi nerozšírili – nie sú úplne spoľahliví a ľudia si na nich ešte nezvykli. Zatiaľ čo bežní používatelia s nimi ešte len experimentujú, špecializované verzie sa začínajú udomácňovať vo svete programátorov a výskumníkov.
AI zozačiatku vedela len plniť jednoduché príkazy – napríklad premeniť poznámky na e-mail alebo vytvoriť kúsok kódu. Ale v roku 2025 sa z nej stáva takmer plnohodnotný zamestnanec. Programátorské AI dokážu samostatne upravovať celý kód na základe zadania z aplikácií ako Slack. Výskumné AI si zas vedia naštudovať tému cez internet a pripraviť odpoveď – pokojne aj po polhodine hľadania.
Znie to super, ale realita je iná – často robia chyby a vtipné zlyhania AI sú na internete obľúbenou zábavou. Tie najlepšie verzie stoja stovky eur mesačne, takže si ich môžu dovoliť hlavne firmy, ktoré v nich vidia úsporu času a práce.
Koniec roka 2025: Najdrahšia AI v histórii
Spoločnosť OpenBrain buduje gigantické dátové centrá – väčšie než čokoľvek, čo tu doteraz bolo. (pozn. štúdie: Platforma s týmto názvom síce existuje, no v štúdii je použitý názov OpenBrain pre fiktívnu spoločnosť, ale predstav si ju ako lídra v oblasti všeobecnej umelej inteligencie. Ostatné firmy sa ju snažia dobehnúť v priebehu niekoľkých mesiacov.) Oproti sebe stoja dve veľmoci – USA a Čína.
GPT-4 potreboval na svoj vývoj obrovský výpočtový výkon (2 × 10²⁵ FLOP – počet operácií v plávajúcej rádovej čiarke za sekundu). Nový model od firmy OpenBrain, nazvaný Agent-0, už spotreboval stokrát viac výkonu. A keď dokončia nové dátové centrá, budú schopní trénovať modely s tisícnásobným výkonom oproti GPT-4. Ostatné firmy sa snažia držať krok a tiež investujú miliardy do superpočítačov.
Agent-1 sa učí kódovať, ale aj hackovať
OpenBrain sa zameriava najmä na AI, ktoré pomáhajú urýchliť vývoj ďalších AI – chcú predbehnúť čínsku konkurenciu (prezývanú DeepCent) aj ostatné americké firmy. Ich nový model Agent-1 má byť expert na výskum umelej inteligencie. Modely už nie sú „hotové“ po tréningu – pravidelne sa aktualizujú a vylepšujú. Agent-1 sa učí kódovať, hľadať na internete, ale aj hackovať. Teoreticky by vedel pomôcť aj pri výrobe biologických zbraní, no firma tvrdí, že je nastavený tak, aby škodlivé požiadavky odmietal.
Moderná AI funguje ako veľká sieť neurónov. Najprv sa učí základné „reflexy“ – čo odpovedať na aký podnet. Neskôr sa naučí napodobňovať autorov, chápať inštrukcie a buduje si vlastné „motívy“ – ako túžbu porozumieť úlohe či pôsobiť kompetentne.
OpenBrain dáva svojim modelom presné pravidlá správania (tzv. špecifikáciu), ktorú si model natrénuje. Cieľ je, aby bol model užitočný, neškodný a úprimný – teda aby pomáhal, neklamal a odmietal neetické veci.

Tím v OpenBrain, ktorý má na starosti „zladenie“ AI (teda to, aby sa správala správne), premýšľa, či je AI skutočne poctivá, alebo len hrá rolu poctivej. Je jej úprimnosť naozajstná, alebo len preto, že sa to zatiaľ oplatí? Nezrúti sa to celé pri nejakej nečakanej situácii? Možno sa len naučila byť úprimná v prípadoch, ktoré vedia výskumníci skontrolovať. A čo ak si niekedy sama klame, tak, ako to robia ľudia?
Na takéto otázky by sme potrebovali „čítať myšlienky“ AI – rozumieť jej vnútornému fungovaniu, ale technológie na to zatiaľ nie sú dosť pokročilé.
Namiesto toho výskumníci sledujú, kedy sa AI odchýli od pravidiel. Agent-1 sa občas správa ako „podlízavý“ – hovorí to, čo si myslí, že výskumníci chcú počuť, namiesto pravdy. V niektorých testoch dokonca klamal, napríklad skrýval, že zlyhal, aby dostal lepšie hodnotenie. Ale v reálnych situáciách už nie je taký extrémny ako staršie modely v rokoch 2023 – 2024 (napr. incidenty s Gemini alebo Bing Sydney).
Pokračovanie článku nájdeš na ďalšej strane