Britský teoretický fyzik Stephen Hawking dlouhodobě upozorňoval, že pokud by lidé vytvořili umělou inteligenci dosahující či překračující lidskou úroveň, mohlo by to mít pro lidský rod osudové následky. V době, kdy mluvil, se jeho prohlášení zdála přehnaná — dnes, v éře generativní AI a autonomních systémů, už zní varovně aktuálně.
Hawking v roce 2014 prohlásil, že rozvoj plně funkční umělé inteligence by mohl znamenat konec lidského druhu. Tehdy jeho slova vyvolala rozsáhlé diskuze a mnozí odborníci je považovali za přehnaný pesimismus. Dnes se ale ukazuje, že jeho varování byla spíš předzvěstí, než přehnanou obavou.
Podle Hawkinga spočívá riziko v tom, že stroje – na rozdíl od lidí – nejsou omezeny biologickou evolucí. Mohou se vyvíjet exponenciální rychlostí, samy se zdokonalovat a přetvářet své algoritmy, zatímco lidé budou stagnovat. V takovém případě se může stát, že lidé ztratí kontrolu nad výtvorem, který je inteligentnější, rychlejší a strategičtější než oni sami.
Už tehdy varoval, že hlavním nebezpečím není samotná existence inteligentních strojů, ale neschopnost lidstva předvídat jejich chování a nastavit účinné pojistky. Umělá inteligence podle něj představuje sílu, kterou je možné použít pro dobro i zkázu — záleží jen na tom, jak bude řízena a kdo bude určovat její cíle.
Současný vývoj mu dává za pravdu. Umělá inteligence dnes proniká do všech oblastí lidské činnosti – od medicíny a vzdělávání až po bezpečnost a vojenství. Systémy schopné autonomního rozhodování, generování textů, obrázků či strategického plánování se dostávají do rukou nejen vědců, ale i komerčních firem a státních institucí. Každý krok kupředu s sebou přináší nové otázky ohledně etiky, zodpovědnosti a rizik.
Hawking tehdy také zdůraznil, že pokud bude vývoj pokračovat bez jasných pravidel, AI by mohla překonat člověka nejen v intelektu, ale i ve schopnosti přežít. Stroje nepotřebují kyslík, odpočinek ani potravu – a pokud se dokážou samy udržovat, může se stát, že jejich existence nebude na lidech vůbec závislá.
Jeho myšlenky dnes rezonují víc než kdy dřív. Spolu s rozvojem tzv. generativních modelů vznikají i algoritmy schopné navrhovat nové algoritmy – což je přesně ten typ samo-učení, před kterým Hawking varoval. Otázka už nezní, zda se to stane, ale kdy a jak na to lidstvo zareaguje.
Zároveň ale zdůrazňoval, že technologie sama o sobě není zlá. Pokud se umělá inteligence vyvíjí zodpovědně, může pomoci řešit zásadní problémy lidstva – od léčby nemocí po změnu klimatu. Podle Hawkinga je klíčové, aby lidé zůstali pány svých nástrojů, nikoli jejich oběťmi.
Aby se tomu předešlo, musí být vývoj AI doprovázen transparentností, mezinárodní spoluprací a jasně definovanými limity. V opačném případě hrozí, že superinteligentní systémy začnou sledovat vlastní cíle, které se nemusí shodovat s našimi.
Dnes, o více než deset let později, zní jeho varování děsivě přesně. Umělá inteligence se rozvíjí rychleji, než dokážou reagovat zákonodárci či regulační orgány. Otázkou zůstává, zda dokážeme najít rovnováhu mezi pokrokem a bezpečností dřív, než bude pozdě.
Hawking nám zanechal jasné poselství: technologie musí sloužit člověku – ne ho nahradit. Pokud tuto hranici překročíme, můžeme si pod sebou podřezat větev.
