Zdroj fotografie: freepik.com
Společnost OpenAI čelí ostré kritice poté, co její nová platforma pro generování videí Sora umožnila vytvářet realistická videa s historickými osobnostmi, například Martinem Lutherem Kingem Jr. Po vlně kontroverzí se OpenAI rozhodla funkci dočasně zastavit a zavést nová pravidla pro využívání podobizen veřejných osob. Tento krok se stal předmětem široké diskuze o etice, autorských právech a morálních hranicích umělé inteligence.
OpenAI oznámila, že v rámci nově připravovaných pravidel bude možné požádat o zákaz využívání konkrétní osoby ve videích generovaných umělou inteligencí, pokud to odporuje vůli rodiny či správců práv. To znamená, že dědicové nebo právní zástupci slavných osobností budou moci požadovat, aby se jejich podoba v AI videích vůbec neobjevovala.
Impulsem k tomuto rozhodnutí byla stížnost Bernice Kingové, dcery Martina Luthera Kinga Jr. Ta upozornila, že videa, která umělá inteligence vytváří s tváří jejího otce, jsou neuctivá a zraňující. Na sociálních sítích se objevila řada videí, kde byl King zobrazen ve zcela smyšlených situacích, což vyvolalo silné pobouření. Podobně reagovala i Zelda Williams, dcera zesnulého herce Robina Williamse, která upozornila, že generované nahrávky zneužívají hlas a podobu jejího otce bez souhlasu rodiny.

Kritika se neomezila pouze na vyobrazení slavných osobností. Uživatelé i odborníci upozorňují, že Sora umožňuje vytvářet videa, která porušují autorská práva – například replikují známé scény z filmů nebo seriálů s přesností, která může být pro původní tvůrce škodlivá. Tyto případy znovu otevírají debatu o tom, jak regulovat obsah vytvořený umělou inteligencí a jak zabránit zneužití technologie pro komerční nebo manipulativní účely.
OpenAI reagovala slibem, že do budoucna bude spolupracovat s držiteli autorských práv a zajistí férové mechanismy, které umožní spravedlivé využívání těchto materiálů. Zástupci firmy připustili, že technologické možnosti Sory překonaly původní očekávání a že je nezbytné nastavit jasné etické hranice.
Podle OpenAI je hlavním cílem zajistit, aby tvůrci a veřejnost měli z AI technologií prospěch, nikoliv aby se staly nástrojem pro klamání nebo poškozování pověsti jiných. Firma uvedla, že pozastavení využívání podoby Martina Luthera Kinga je symbolickým gestem, které má upozornit na nutnost respektovat přání rodin a dědiců historických osobností. Zároveň chce vytvořit nový kodex pro zodpovědné používání umělé inteligence v audiovizuální tvorbě.
Kritici však namítají, že reagovat až po vzniku kontroverze je málo – a že tvůrci AI měli taková rizika předvídat už před uvedením platformy na trh. Technologie Sora je nyní v omezeném testovacím režimu, ale mnozí se obávají, že i po zavedení nových pravidel zůstane v rukou uživatelů příliš velká moc nad tím, jak bude historie a kultura zobrazována v digitálním prostoru.
Odborníci na etiku a technologie připomínají, že AI dokáže působit velmi věrohodně a lidé mají tendenci věřit i falešným záznamům, zejména když mají vysokou vizuální kvalitu. Právě proto je podle nich nezbytné, aby vývoj podobných nástrojů byl provázen přísnou regulací a transparentností. Bez nich hrozí, že umělá inteligence může ztratit důvěru veřejnosti a stát se zdrojem dezinformací.
OpenAI se tak nachází na rozcestí – musí najít rovnováhu mezi technologickým pokrokem a zodpovědností. Zatímco někteří vidí v Sore revoluční nástroj pro tvorbu audiovizuálního obsahu, jiní varují, že bez jasně stanovených pravidel může taková technologie způsobit víc škody než užitku. Diskuze o etice AI je proto aktuálnější než kdy dřív.
Rozhodnutí OpenAI pozastavit sporné funkce je vnímáno jako nutný krok ke zklidnění situace, ale zároveň i jako přiznání, že rychlý vývoj AI předběhl připravenost společnosti na jeho důsledky. Otázka zní, zda se podobným situacím podaří v budoucnu zabránit, nebo budou takové kontroverze neoddělitelnou součástí éry generativní inteligence.
