Všetky Altman nahral tak, ako ich model Sora vytvoril. Neboli nijako upravované.
Zlatá doba hoaxov
Takýto pokročilý model by mohol byť zneužitý na generovanie nevhodného obsahu. Môže ísť o obsah sexuálneho charakteru či videá, ktoré sa dajú zneužiť na šírenie dezinformácií. Ako tomu zabrániť?
OpenAI si uvedomuje, aký katastrofálny dopad na ľudskú spoločnosť môže mať takáto technológia v súvislosti s tvorbou hoaxov a dezinformácií. Práve preto momentálne experti hľadajú spôsoby, ako modelu zabrániť v tvorbe nevhodného obsahu.
Nedostatky
Pri dôkladnejšom pohľade na vytvorené videá si človek všimne drobné nedostatky. Generované videá môžu mať problémy s perspektívou, presným vykreslením tieňov či s nie úplne presvedčivými časticovými efektmi (prach, sneh).
Slabé stránky modelu Sora priznáva aj OpenAI na svojom webe. Upozorňuje napríklad na neschopnosť znázorniť následky niektorých akcií – osoba zahryzne do koláčika, avšak na koláčiku to nezanechá žiadne stopy.
Rýchly pokrok
To, čo Sora dokáže, je dôkazom skutočne rapídneho napredovania technológií. Ako vo svojom príspevku upozornil Sam Sheffer, text-to-video sa v priebehu jedného roka posunulo z úrovne prvého videa (Will Smith je špagety) na úroveň druhého videa (osoba v posteli s mačkou).
Zatiaľ nie je známe, kedy bude Sora k dispozícii širokej verejnosti. Vzhľadom na rýchle tempo rozvoja umelej inteligencie to však zrejme bude čoskoro a očakávať môžeme aj obdobné služby od konkurencie. Po doladení existujúcich nedostatkov bude generovanie videí z textu také jednoduché a dostupné, ako je dnes vytváranie statických obrázkov na základe textového vstupu.