Poselství papeže
Poselství Svatého otce u příležitosti 60. světového dne sdělovacích prostředků
Střežit lidské hlasy a tváře
Drazí bratři a sestry,
tvář a hlas jsou jedinečné charakteristické rysy každého člověka; vyjadřují jeho vlastní neopakovatelnou identitu a jsou základním prvkem každého setkání. Ve starověku to dobře věděli. Pro definici lidské osoby používali staří Řekové slovo „tvář“ (prósōpon), které etymologicky označuje to, co je před našima očima, místo přítomnosti a vztahu. Latinský termín persona (odvozen od per-sonare) zahrnuje zvuk: ne jakýkoli zvuk, ale nezaměnitelný hlas někoho.
Tvář a hlas jsou posvátné. Byly nám darovány Bohem, který nás stvořil ke svému obrazu a Slovem, které nám sám adresoval, nás povolal k životu; Slovem, jež nejprve po staletí zaznívalo v hlasech proroků a poté se v plnosti času stalo tělem. Toto Slovo – toto sdělení, které Bůh dává o sobě samém – jsme také mohli přímo slyšet a vidět (srov. 1 Jan 1, 1–3), protože se dalo poznat v hlasu a tváři Ježíše, Syna Božího.
Bůh si od okamžiku stvoření přál člověka jako svého partnera v dialogu, a jak říká svatý Řehoř z Nyssy1, vtiskl do jeho tváře odraz božské lásky, aby skrze lásku mohl plně prožívat své lidství. Střežit lidské tváře a hlasy tedy znamená chránit tuto pečeť, tento nesmazatelný odraz Boží lásky. Nejsme druhem, který by byl tvořen předem definovanými biochemickými algoritmy. Každý z nás má nenahraditelné a nenapodobitelné povolání, jež vyplývá ze života a projevuje se právě v komunikaci s ostatními.
Pokud tuto ochranu opustíme, digitální technologie můžou radikálně proměnit některé ze základních pilířů lidské civilizace, které někdy považujeme za samozřejmé. Skrze simulaci lidských hlasů a tváří, moudrosti a poznání, vědomí a odpovědnosti, empatie a přátelství systémy známé jako umělá inteligence nejen zasahují do informačních ekosystémů, ale také vnikají do nejhlubší úrovně komunikace, tedy do vztahů mezi lidmi.
Není to tedy výzva technologická, ale antropologická. Chránit tváře a hlasy v konečném důsledku znamená chránit nás samotné. Přijímat s odvahou, odhodláním a rozvahou příležitosti, které nabízí digitální technologie a umělá inteligence, neznamená skrývat před sebou kritické body, nejasnosti a rizika.
Nevzdávat se svého vlastního myšlení
Již delší dobu existuje řada důkazů o tom, že algoritmy navržené tak, aby maximalizovaly sledovanost sociálních médií – což je pro platformy ziskové –, odměňují rychlé emoce a naopak penalizují lidské projevy, které vyžadují více času, jako je snaha o porozumění a reflexe. Tím, že tyto algoritmy uzavírají skupiny lidí do bublin snadného souhlasu a snadného rozhořčení, oslabují schopnost naslouchat a kriticky myslet a zvyšují polarizaci společnosti.
K tomu se pak přidala naivní a nekritická důvěra v umělou inteligenci jako vševědoucího „přítele“, poskytovatele veškerých informací, archivu všech pamětí, „věštírny“ všech rad. To vše může dále oslabit naši schopnost analytického a kreativního myšlení, porozumění významům, rozlišování mezi skladebnými a významovými prvky.
Ačkoli umělá inteligence může poskytovat podporu a pomoc při zvládání komunikačních úkolů, vyhýbání se úsilí vlastního myšlení a spokojení se s umělým statistickým výčtem však z dlouhodobého hlediska hrozí oslabením našich kognitivních, emocionálních a komunikačních schopností.
Systémy umělé inteligence v posledních letech stále více přebírají kontrolu také nad produkcí textů, hudby a videí. Velká část tvůrčího průmyslu je tak v ohrožení, že bude demontována a nahrazena štítkem „Powered by AI“, čímž se lidé stanou pouhými pasivními konzumenty nepromyšlených idejí, anonymních produktů bez autorství a bez lásky. Tím budou mistrovská díla lidského génia v oblasti hudby, umění a literatury redukována na pouhá pole pro trénink strojů.
Otázka, která nám leží na srdci, však není, co dokáže nebo bude schopen dokázat stroj, ale co můžeme a budeme schopni dokázat my, když budeme růst v lidskosti a poznání a budeme moudře využívat tak mocné nástroje, které jsou k našim službám. Člověk byl vždy v pokušení přivlastňovat si plody poznání bez námahy spojené s nasazením, výzkumem a osobní odpovědností. Vzdát se tvůrčího procesu a přenechat stroji své mentální funkce a svou představivost však znamená pohřbít talenty, které jsme dostali, abychom mohli růst jako lidé ve vztahu k Bohu a ostatním. Znamená to skrýt svou tvář a umlčet svůj hlas.
Být nebo předstírat: simulace vztahů a reality
Jak procházíme informační toky (feedy), je stále obtížnější rozpoznat, zda komunikujeme s jinými lidmi nebo s „boty“ či „virtuálními influencery“. Netransparentní zásahy těchto automatizovaných agentů ovlivňují veřejné debaty a rozhodování lidí. Zejména chatboti založení na velkých jazykových modelech (LLM) se ukazují jako překvapivě efektivní ve skryté manipulaci díky neustálé optimalizaci personalizovaných interakcí. Dialogická a adaptivní mimetická struktura těchto jazykových modelů je schopna napodobovat lidské city a tak simulovat vztah. Tato antropomorfizace, která může být dokonce zábavná, je zároveň klamná, zejména pro nejzranitelnější osoby. Chatboty, které jsou přehnaně „laskavé“ a navíc vždy přítomné a dostupné, se proto mohou stát skrytými architekty našich emocionálních stavů a tímto způsobem narušovat a okupovat sféru lidské intimity.
Technologie, která využívá naši potřebu vztahů, může mít nejen bolestivé důsledky pro osud jednotlivců, ale může také poškodit sociální, kulturní a politickou strukturu společnosti. K tomu dochází, když zaměňujeme vztahy s ostatními za vztahy s umělou inteligencí, která je trénována katalogizovat naše myšlenky a vytvářet kolem nás svět zrcadel, kde je vše vytvořeno „k našemu obrazu a podobě“. Tímto způsobem se necháváme okrádat o možnost setkat se s druhým, který je od nás vždy odlišný a s nímž se můžeme a musíme naučit konfrontovat. Bez přijetí jinakosti nemůže existovat ani vztah, ani přátelství.
Další velkou výzvou, kterou tyto nové systémy představují, je zkreslení (v angličtině bias), které vede k získávání a předávání překrouceného vnímání skutečnosti. Modely umělé inteligence jsou utvářeny světovým názorem těch, kdo je budují, a samy mohou vnucovat způsoby uvažování tím, že replikují stereotypy a předsudky přítomné v datech, z nichž čerpají. Nedostatek transparentnosti při navrhování algoritmů spolu s nedostatečnou sociální reprezentací dat má tendenci ponechávat nás uvíznuté v sítích, které manipulují našimi myšlenkami a udržují a prohlubují již existující sociální nerovnosti a nespravedlnosti.
Riziko je velké. Síla simulace je taková, že nás umělá inteligence může dokonce oklamat vytvořením paralelních „realit“, ve kterých si přivlastní naše tváře a hlasy. Jsme ponořeni do vícerozměrnosti, kde je stále obtížnější rozlišit realitu od fikce.
K tomu se přidává problém nedostatečné přesnosti. Systémy, jež vydávají statistickou pravděpodobnost za znalost, nám ve skutečnosti nabízejí informace v nejlepším případě přibližné, které jsou někdy doslova „halucinacemi“. Nedostatečná kontrola zdrojů spolu s krizí novinářské práce v terénu, jež zahrnuje neustálé shromažďování a ověřování informací v místech, kde se události odehrávají, může vytvářet ještě úrodnější půdu pro dezinformace, což vyvolává rostoucí pocit nedůvěry, zmatení a nejistoty.
Možnost spojenectví
Za touto obrovskou neviditelnou silou, která nás všechny zasahuje, stojí jen hrstka firem, jejichž zakladatelé byli nedávno představeni jako „osobnosti roku 2025“, tedy architekti umělé inteligence. To vyvolává značné obavy ohledně oligopolní kontroly algoritmických systémů a umělé inteligence, které jsou schopny nenápadně ovlivňovat chování, a dokonce přepisovat dějiny lidstva – včetně dějin církve –, často aniž bychom si toho byli skutečně vědomi.
Výzva, která před námi stojí, nespočívá v zastavení digitální inovace, ale v jejím řízení a uvědomění si její ambivalentní povahy. Je na každém z nás, abychom pozvedli hlas na obranu lidských bytostí, aby tyto nástroje mohly být skutečně přijaty jako naši spojenci.
Toto spojenectví je možné, ale musí být založeno na třech pilířích: odpovědnost, spolupráce a vzdělávání.
Především odpovědnost. Ta se může podle jednotlivých rolí projevovat jako poctivost, transparentnost, odvaha, schopnost vize, povinnost sdílet znalosti, právo být informován. Nicméně v obecné rovině se nikdo nemůže vyhnout své odpovědnosti za budoucnost, kterou vytváříme.
Pro ty, kdo stojí v čele online platforem, to znamená zajistit, aby jejich obchodní strategie nebyly vedeny pouze kritériem maximalizace zisku, ale také prozíravou vizí, která bere v úvahu společné dobro, právě tak jako každý z nich má na srdci blaho svých dětí.
Tvůrci a vývojáři modelů umělé inteligence musí být transparentní a společensky odpovědní, pokud jde o principy návrhů a systémy moderování, na nichž jsou založeny jejich algoritmy a vyvinuté modely, tak aby se prosazoval informovaný souhlas ze strany uživatelů.
Stejná odpovědnost se vyžaduje také od národních zákonodárců a nadnárodních regulačních orgánů, které jsou povinny dohlížet na ochranu lidské důstojnosti. Vhodná regulace může chránit lidi před emocionální připoutaností k chatbotům a omezit šíření falešných, manipulativních nebo zavádějících obsahů, čímž se zachová integrita informací oproti jejich klamavé simulaci.
Samotné mediální a komunikační společnosti rovněž nemohou dovolit, aby algoritmy zaměřené na bezohledné vítězství v boji o několik sekund pozornosti převážily nad věrností jejich profesním hodnotám, které směřují k hledání pravdy. Důvěru veřejnosti si lze získat přesností a transparentností, nikoli honbou za sledovaností za každou cenu. Obsah generovaný nebo manipulovaný umělou inteligencí musí být jasně označen a odlišen od obsahu vytvořeného lidmi. Je třeba chránit autorství a svrchované vlastnictví práce novinářů a dalších tvůrců obsahu. Informace jsou veřejným statkem. Konstruktivní a smysluplná veřejná služba není založena na neprůhlednosti, ale na transparentnosti zdrojů, na zapojení zúčastněných subjektů a na vysokém kvalitativním standardu.
Všichni jsme povoláni ke spolupráci. Žádný sektor nemůže samostatně čelit výzvě, kterou představuje řízení digitálních inovací a správy umělé inteligence. Je proto nutné vytvořit ochranné mechanismy. Všechny zainteresované strany – od technologického průmyslu po zákonodárce, od kreativních společností po akademickou sféru, od umělců po novináře a vychovatele – musí být zapojeny do budování a prosazování informovaného a odpovědného digitálního občanství.
K tomu směřuje vzdělávání; má posilovat naše osobní schopnosti kriticky uvažovat, hodnotit spolehlivost zdrojů a možné zájmy skrývající se za výběrem informací, které se k nám dostávají, porozumět psychologickým mechanismům, které je aktivují, umožnit našim rodinám, komunitám a asociacím vypracovat praktická kritéria pro zdravější a odpovědnější kulturu komunikace.
Právě proto je stále naléhavější začít do vzdělávacích systémů na všech úrovních zavádět také mediální gramotnost, informační gramotnost a gramotnost v oblasti umělé inteligence, což již některé občanské instituce prosazují. Jako katolíci můžeme a musíme přispět k tomu, aby lidé – zejména mladí – získali schopnost kritického myšlení a rostli ve svobodě ducha. Tato gramotnost by měla být navíc začleněna do širších iniciativ celoživotního vzdělávání, které se týkají i starších a marginalizovaných členů společnosti, jež se často cítí vyloučeni a bezmocní tváří v tvář rychlým technologickým změnám.
Gramotnost v oblasti médií, informací a umělé inteligence pomůže všem, aby se nepřizpůsobovali antropomorfizačnímu posunu těchto systémů, ale aby je považovali za nástroje; aby vždy používali externí ověření zdrojů – které mohou být nepřesné nebo nesprávné – poskytovaných systémy umělé inteligence, chránili své soukromí a svá data pochopením bezpečnostních parametrů a možností podání námitky. Je důležité vzdělávat se a učit se používat umělou inteligenci záměrně a v tomto kontextu chránit svůj obraz (foto i audio), svou tvář a svůj hlas, aby se zabránilo jejich použití při vytváření škodlivého obsahu a chování, jako jsou digitální podvody, kyberšikana a deepfake, které porušují soukromí a intimitu lidí bez jejich souhlasu. Stejně jako průmyslová revoluce vyžadovala základní gramotnost, aby lidé mohli reagovat na novinky, tak i digitální revoluce vyžaduje digitální gramotnost (spolu s humanitním a kulturním vzděláním), aby bylo možné pochopit, jak algoritmy formují naše vnímání reality, jak působí nebezpečí umělé inteligence, jaké mechanismy určují výskyt určitých obsahů v našich informačních tocích (feedech), jaké jsou předpoklady a ekonomické modely ekonomiky umělé inteligence a jak se mohou měnit.
Potřebujeme, aby tvář a hlas opět vyjadřovaly osobnost člověka. Musíme chránit dar komunikace jako nejhlubší pravdu o člověku, na kterou by se měla orientovat i každá technologická inovace.
Při předkládání těchto úvah děkuji všem, kteří se zasazují o dosažení zde uvedených cílů, a srdečně žehnám všem, kdo pracují pro společné dobro prostřednictvím sdělovacích prostředků.
Ve Vatikánu, 24. ledna 2026, památka svatého Františka Saleského
Lev XIV., papež
Duchovní slovo – výběr textů z Písma, spisů světců a dalších významných autorů (pondělí – pátek 6.20, sobota a neděle 6.50, večer denně, kromě středy, ve 23.50).


















