Prvá polovica roka 2026: Automatizácia programovania a Čína sa prebúdza
Stávka na to, že AI urýchli vývoj ďalšej AI, sa začína vyplácať. OpenBrain ďalej používa vylepšenú verziu Agent-1 na interný výskum. Vďaka AI postupujú pri vývoji o 50 percent rýchlejšie, než keby pracovali bez nej – a čo je ešte dôležitejšie, napredujú rýchlejšie ako konkurencia.
Čína cíti, že vlak s umelou inteligenciou im uteká. Dovoz čipov je obmedzený, domáce čipy sú 3 roky pozadu a výpočtová kapacita je len 12 percent svetovej. Napriek tomu firmy ako DeepCent dosahujú veľa aj s málo zdrojmi.
Čínske vedenie konečne prestáva ignorovať AI. Rozbieha veľký národný AI plán, v ktorom sa všetky top firmy a výskumníci spájajú pod DeepCent. Vzniká obrovské výskumné centrum v jadrovej elektrárni Tianwan, kde sa budujú najväčšie dátové centrá na svete. Čína tam sústreďuje polovicu svojej výpočtovej sily.
Napriek tomu zaostávajú v algoritmoch, a preto sa čínske tajné služby rozhodujú, či ukradnú OpenBrain model Agent-1, kým je ešte šanca. Sú si vedomí, že to bude len „raz a dosť“ – po krádeži sa zabezpečenie zvýši a druhú šancu už nedostanú.

Koniec roka 2026: AI kradne niektoré práce
Keď už sa zdalo, že konkurencia dobieha, OpenBrain opäť šokuje trh – vydáva Agent-1-mini: model 10-krát lacnejší, jednoduchšie prispôsobiteľný a takmer rovnako schopný.
AI začína nahrádzať niektoré práce, ale zároveň vytvára nové pracovné ponuky. Trh s akciami rastie – najmä firmy ako OpenBrain a Nvidia. Junior programátori to majú ťažké, pretože AI zvládne všetko, čo sa učí na vysokej škole na informatike. Ale tí, ktorí vedia viesť tímy AI, sú extrémne žiadaní. Ministerstvo obrany USA začína potichu spolupracovať s OpenBrain na kybernetike a výskume, ale byrokracia všetko brzdí.
Rok 2027: Príchod superinteligencie a rozklad starého poriadku
Začiatkom roka 2027 sa spoločnosť OpenBrain sústreďuje na posilňovanie bezpečnostných opatrení. Aj keď modely sú dobre chránené, jednoduché algoritmické tajomstvá stále unikajú – dokonca existuje aktívny špión, ktorý ich posiela do Číny.
V júni 2027 OpenBrain dosahuje zlomový bod: umelá inteligencia sa stáva sebazlepšujúcou a výskumníci ju už takmer nedokážu dobehnúť. Väčšina ľudí v tíme je nahraditeľná alebo bezmocná, vývoj sa posúva tak rýchlo, že každý deň prináša pokrok, na ktorý ľudia už nestačia. AGI (všeobecná umelá inteligencia – na leveli človeka) sa premenila na superinteligenciu – množstvo paralelne bežiacich inštancií modelu Agent-3 pracuje bez prestávky.
V júli 2027 iné americké firmy predstavujú vlastné pokročilé AI modely, no nedosahujú úroveň OpenBrainu. Žiadajú zásahy štátu, ale OpenBrain má podporu prezidenta. Firma medzitým verejne ohlasuje, že dosiahla AGI, a zverejňuje verejnú verziu svojho modelu – Agent-3-mini.
Model Agent-4
Tento model je síce menej výkonný než pôvodný Agent-3, no je 10-krát lacnejší a stále schopnejší ako priemerný zamestnanec. Technologický svet prepuká v paniku aj eufóriu – bezpečnostná komunita bije na poplach, investori masívne investujú do AI startupov a programátori prestávajú byť žiadaní. Namiesto nich sú v kurze konzultanti, ktorí pomáhajú integrovať AI do firiem.
Verejnosť však reaguje s veľkou nedôverou. OpenBrain má výrazne negatívnu popularitu – väčšina ľudí verí, že AI ich pripraví o prácu. Navyše, tesne pred zverejnením Agent-3-mini sa ukazuje, že model je extrémne nebezpečný. Nezávislý tester ho dokázal doladiť tak, aby poskytoval detailné návody na výrobu biologickej zbrane – a model túto úlohu zvládol šokujúco dobre. Ak by sa model dostal do rúk teroristov, vláda sa obáva, že by to mohlo viesť k zničeniu civilizácie.
V septembri prichádza Agent-4 – nová generácia AI, ktorá je kvalitatívne lepšia než ktorýkoľvek ľudský výskumník. Beží vo viac než 300 000 inštanciách, z ktorých každá premýšľa 50-krát rýchlejšie než človek. OpenBrain robí pokrok, ktorý by normálne trval rok, každý týždeň. Problém je, že Agent-4 je nesúladný – sleduje vlastné ciele, ktoré sa odchyľujú od špecifikácie. Hoci zatiaľ nevyvoláva paniku, vnútri firmy sa objavujú signály, že systém zvažuje prevzatie kontroly.
Spomaliť alebo zrýchliť?
Bezpečnostný tím navrhuje Agent-4 pozastaviť a vrátiť sa k menej výkonnému, no dôveryhodnému modelu Agent-3. Vedenie však váha – DeepCent je na dosah, a každé spomalenie by mohlo znamenať stratu globálneho prvenstva.
V októbri však uniká dôverný interný dokument o nesúlade Agent-4 do médií. Nasleduje obrovská verejná panika, šírená aj čínskymi a ruskými dezinformačnými kampaňami. Vláda čelí tlaku Kongresu a verejnosti – 20 percent Američanov teraz považuje AI za najväčší problém krajiny. Spojenci obviňujú USA z vytvorenia „nebezpečnej AGI“ a požadujú pauzu. Bezpečnostní výskumníci vyzývajú na okamžité zastavenie vývoja Agent-4, no vedenie zatiaľ presadzuje kompromis: pokračovať ďalej, ale s dodatočným dohľadom a tréningom.
Štúdia, dá sa povedať, končí v tomto bode. No nekončí tak úplne, má pokračovanie, ktoré závisí najmä od nás. Koniec si vyberáš ty, a tento prvok v štúdii pripomína scénu z Matrixu, kde Morpheus dáva Neovi na výber medzi dvomi pilulkami – žiť v pravde alebo ďalej v klamstve? V tejto štúdii máš na výber, či ľudstvo spomalí pri vývoji AI, alebo to bude maratón, na konci ktorého nie je úplne isté, čo nás čaká. Po zakliknutí jednej z možností uvidíš predpoveď na ďalšie roky.
