Přinášíme pracovní překlad textu poselství Svatého otce k 60. světovému dni sdělovacích prostředků zveřejněného na stránkách Sv. stolce

POSELSTVÍ SVATÉHO OTCE K 60. SVĚTOVÉMU DNI KOMUNIKACE 2026

Chraňte lidské hlasy a tváře

Drazí bratři a sestry,
tvář a hlas jsou jedinečné rysy, které odlišují každého člověka – ukazují jeho jedinečnou identitu
a jsou podstatným prvkem každého setkání. Starověcí lidé to dobře věděli. Proto staří Řekové k
definici lidské osoby používali slovo „tvář“ (prósopon), které etymologicky označuje to, co je
před zrakem, místo přítomnosti a vztahu. Latinský termín persona (z per-sonare) naopak
zahrnuje zvuk – ne jen jakýkoli zvuk, ale jedinečný hlas konkrétní osoby.
Tvář a hlas jsou posvátné. Byly nám dány Bohem, který nás stvořil k obrazu svému a povolal
nás k životu slovem, které nám sám adresoval; slovem, které nejprve zaznívalo po staletí v
hlasech proroků a poté, v plnosti času, se stalo tělem. Toto Slovo, sdělení, které Bůh sděluje o
sobě samém, jsme také mohli přímo slyšet a vidět (srov. 1 Jan 1,1-3), protože bylo zjeveno v
hlasu a tváři Ježíše, Syna Božího.

Od okamžiku stvoření chtěl Bůh člověka jako svého partnera v dialogu a, jak říká sv. Řehoř z
Nyssy, 1 vtiskl do jeho tváře odraz Boží lásky, aby mohl plně prožívat své lidství skrze lásku.
Chránit lidské tváře a hlasy tedy znamená chránit tuto pečeť, tento nesmazatelný odraz Boží
lásky. Nejsme druh složený z předem definovaných biochemických algoritmů. Každý z nás má
nenahraditelné a jedinečné povolání, které vyplývá ze života a projevuje se právě v komunikaci
s ostatními.

Pokud se tímto principem nebudeme řídit, digitální technologie mohou radikálně změnit některé
základní pilíře lidské civilizace, které někdy považujeme za samozřejmé. Simulováním lidských
hlasů a tváří, moudrosti a znalostí, uvědomění a odpovědnosti, empatie a přátelství systémy
známé jako umělá inteligence nejen zasahují do informačních ekosystémů, ale vstupují také do
nejhlubší úrovně komunikace, kterou jsou lidské vztahy.
Tato výzva proto není technologická, ale antropologická. Ochrana našich tváří a hlasů v
konečném důsledku znamená ochranu nás samých. Odvážně, odhodlaně a s rozvahou přijímat
příležitosti, které nabízí digitální technologie a umělá inteligence, neznamená zastírat si
zlomové body, nejednoznačnosti a hrozby.

Nevzdávejte se vlastního myšlení

Již dlouho existuje mnoho důkazů o tom, že algoritmy navržené k maximalizaci zapojení do
sociálních médií – což je pro platformy ziskové – odměňují rychlé emoce a penalizují časově
náročnější projevy lidské činnosti, jako je snaha porozumět a přemýšlet. Tím, že uzavírají
skupiny lidí do bublin snadného konsensu a snadného pobouření, oslabují tyto algoritmy
schopnost naslouchat a kriticky myslet a zvyšují sociální polarizaci.
K tomu se přidává naivní, nekritická důvěra v umělou inteligenci jako vševědoucího „přítele“,
zdroj veškerého vědění, archiv všech vzpomínek, „věštce“, který dává všechny rady. To vše
může dále oslabit naši schopnost analyticky a kreativně myslet, rozumět významům, rozlišovat
mezi syntaxí a sémantikou.

1 „Skutečnost, že jsme stvořeni k obrazu Božímu, znamená, že člověku byl od okamžiku jeho stvoření vtisknut
královský charakter [...]. Bůh je láska a zdroj lásky: božský Stvořitel vtiskl tuto vlastnost také do našich tváří, aby
člověk prostřednictvím lásky – odrazu božské lásky – poznal a projevil důstojnost své přirozenosti a podobnost se
svým Stvořitelem“
(srov. sv. Řehoř z Nisy, Stvoření člověka: PG 44, 137).

Zatímco AI může poskytovat podporu a pomoc při řízení komunikačních úkolů, vyhýbání se
vlastnímu myšlení a spokojování se s umělými statistikami může v dlouhodobém horizontu
oslabit naše kognitivní, emocionální a komunikační schopnosti.
V posledních letech přebírají systémy AI stále větší kontrolu nad produkcí textů, hudby a videí.
Tímto způsobem je významná část lidského kreativního průmyslu ohrožena likvidací a
nahrazením štítkem „Powered by AI“, což z jednotlivců dělá pasivní spotřebitele špatně
promyšlených nápadů, anonymních produktů, zbavených autorství a lásky. Na druhé straně se
mistrovská díla lidského génia v oblasti hudby, umění a literatury redukují na pouhé tréninkové
hřiště pro stroje.

Otázka, která nám leží na srdci, však není, co stroj dokáže nebo bude schopen dělat, ale co
dokážeme a budeme schopni dělat my, jak budeme růst v lidskosti a znalostech díky moudrému
využívání mocných nástrojů, které máme k dispozici. Člověk byl vždy v pokušení přivlastnit si
plody poznání bez úsilí, odhodlání, hledání a osobní odpovědnosti. Vzdát se tvůrčího procesu a
předat strojům naše vlastní mentální funkce a představivost však znamená pohřbít talenty, které
jsme dostali, abychom mohli růst jako osoby ve vztahu s Bohem a ostatními lidmi. Znamená to
skrýt svou tvář a ztišit svůj hlas.

Být nebo předstírat, že jsme: simulace vztahů a reality

Když procházíme naše feedy, je pro nás stále obtížnější poznat, zda komunikujeme s jinými
lidmi, nebo s roboty či virtuálními influencery. Neprůhledné aktivity těchto automatizovaných
agentů ovlivňují veřejné debaty a rozhodnutí jednotlivců. Zejména chatboty založené na velkých
jazykových modelech (LLM) se ukazuje jako překvapivě účinné při skrytém přesvědčování díky
neustálé optimalizaci personalizované interakce. Dialogická, adaptivní a mimetická struktura
těchto jazykových modelů je schopna napodobovat lidské city a simulovat tak vztah. Tato
antropomorfizace, která může být dokonce zábavná, je také klamná, zejména pro
nejzranitelnější osoby. Chatboty, které jsou nadměrně „afektované“ a vždy přítomné a
dostupné, se totiž mohou stát skrytými architekty našich emocionálních stavů a tím porušovat a
zabírat intimní sféru lidí.

Technologie, která využívá naši potřebu vztahů, může mít nejen bolestivé dopady na osud
jednotlivců, ale může také poškodit sociální, kulturní a politickou strukturu společností. K tomu
dochází, když nahrazujeme vztahy s ostatními vztahy s umělou inteligencí, která byla vycvičena
katalogizovat naše myšlenky a poté kolem nás budovat svět zrcadel, ve kterém je vše
vytvořeno „k našemu obrazu a podobě“. Tímto způsobem se necháváme okrást o možnost
setkat se s jiným člověkem, který je vždy jiný než my a s nímž se můžeme a musíme naučit
srovnávat. Bez přijetí odlišnosti nemohou existovat ani vztahy, ani přátelství.
Další velkou výzvou, kterou tyto nové systémy představují, je fenomén zaujatosti, který vede k
získávání a přenosu zkresleného vnímání reality. Modely umělé inteligence jsou formovány
světovým názorem lidí, kteří je vytvářejí, a mohou vnucovat způsoby myšlení, replikovat
stereotypy a předsudky přítomné v datech, z nichž čerpají. Nedostatek transparentnosti v
návrhu algoritmů spolu s nedostatečným sociálním zastoupením dat nás uvězňuje v sítích,
které manipulují s našimi myšlenkami a udržují a prohlubují stávající sociální nerovnosti a
nespravedlnosti.

Riziko je obrovské. Síla simulace je tak velká, že umělá inteligence nás může oklamat tím, že
vytvoří paralelní „realitu“ a přivlastní si naše tváře a hlasy. Jsme ponořeni do
multidimenzionality, ve které je stále obtížnější rozlišit realitu od fikce.
K tomu se přidává problém nedostatečné přesnosti. Systémy, které poskytují statistickou
pravděpodobnost jako znalost, nám ve skutečnosti nabízejí nanejvýš přibližné informace, které
jsou někdy dokonce skutečnými „halucinacemi“. Nedostatečná ověřitelnost zdrojů spolu s krizí
terénní žurnalistiky, která vyžaduje neustálé shromažďování a ověřování informací v místech,

kde se události odehrávají, může vytvořit ještě úrodnější půdu pro dezinformace, což vyvolává
rostoucí pocity nedůvěry, zmatení a nejistoty.

Možné spojenectví

Za touto obrovskou, neviditelnou silou, která nás všechny pohltila, stojí několik málo firem,
jejichž zakladatelé byli nedávno jakožto architekti umělé inteligence kolektivně označeni za
„Osobnost roku 2025“. To vyvolává vážné obavy z oligopolní kontroly nad algoritmickými
systémy a umělou inteligencí, které jsou schopny nenápadně ovlivňovat chování a dokonce
přepisovat historii lidstva – včetně historie církve – často takovým způsobem, že si to ani
neuvědomujeme.
Výzvou do budoucna není zastavit digitální inovace, ale řídit je s vědomím jejich ambivalentní
povahy. Každý z nás by se měl ozvat na obranu jednotlivců, aby tyto nástroje mohly být
skutečně integrovány jako naši spojenci.
Toto spojenectví je možné, ale musí být založeno na třech pilířích: odpovědnosti, spolupráci a
vzdělávání.

V první řadě odpovědnost. V závislosti na vykonávané funkci může mít různé podoby, jako
například poctivost, transparentnost, odvaha, prozíravost, povinnost sdílet znalosti, právo na
informace. Obecně platí, že nikdo se nemůže zbavit odpovědnosti za budoucnost, kterou
budujeme.

Pro ty, kteří stojí v čele online platforem, to znamená zajistit, aby jejich obchodní strategie
nebyly řízeny pouze kritériem maximalizace zisku, ale také prozíravou vizí, která zohledňuje
společné dobro – stejně jako se každý z nich stará o blaho svých vlastních dětí.
Vývojáři a tvůrci modelů umělé inteligence jsou povinni být transparentní a sociálně odpovědní,
pokud jde o principy návrhu a systémy moderování, na nichž jsou založeny jejich algoritmy a
modely, které vyvíjejí, aby podpořili informovaný souhlas uživatelů.

Stejná odpovědnost leží také na vnitrostátních zákonodárcích a regulačních orgánech, jejichž
úkolem je zajistit dodržování lidské důstojnosti. Vhodná regulace může chránit jednotlivce před
emocionální vazbou na chatboty a omezit šíření falešného, manipulativního nebo zavádějícího
obsahu, přičemž zachová integritu informací a bude brát v úvahu zavádějící simulaci.

Mediální a komunikační společnosti na druhé straně nemohou dovolit, aby algoritmy, jejichž
cílem je za každou cenu vyhrát boj o několik sekund pozornosti navíc, převážily nad věrností
jejich profesionálním hodnotám, jejichž cílem je hledání pravdy. Veřejná důvěra se získává
přesností a transparentností, nikoli sledováním jakýchkoli zájmů. Obsah generovaný umělou
inteligencí nebo manipulovaný by měl být jasně označen a odlišen od obsahu vytvořeného
lidmi. Je nutné chránit autorská práva a suverénní vlastnická práva k dílům novinářů a dalších
tvůrců obsahu. Informace jsou veřejným statkem. Konstruktivní a smysluplná veřejná služba
není založena na nejednoznačnosti, ale na transparentnosti zdrojů, zapojení zainteresovaných
stran a vysokém standardu kvality.

Všichni jsme vyzváni ke spolupráci. Žádný sektor nemůže sám čelit výzvě, kterou představuje
vedení v oblasti digitální inovace a správa umělé inteligence. Proto je nutné vytvořit
bezpečnostní mechanismy. Všechny zúčastněné strany – od technologického průmyslu po
tvůrce politik, od kreativních společností po akademickou sféru, od umělců po novináře a
pedagogy – se musí podílet na budování a realizaci informovaného a odpovědného digitálního
občanství.

To je cílem vzdělávání: zvýšit naši vlastní schopnost kritického myšlení, posoudit důvěryhodnost
zdrojů a možné zájmy, které stojí za výběrem informací, které se k nám dostávají, porozumět
psychologickým mechanismům, které je spouštějí, a umožnit našim rodinám, komunitám a
sdružením vyvinout praktická kritéria pro zdravější a odpovědnější kulturu komunikace.

Proto je stále naléhavější zavést do vzdělávacích systémů na všech úrovních gramotnost v
oblasti médií, informací a umělé inteligence, což již podporují některé občanské instituce. Jako
katolíci můžeme a musíme přispět k tomu, aby lidé, zejména mladí, získali schopnost kritického
myšlení a rostli v duchovní svobodě. Tato gramotnost by měla být také začleněna do širších
iniciativ celoživotního učení, které zahrnují i starší lidi a marginalizované členy společnosti, kteří
se často cítí vyloučeni a bezmocní tváří v tvář rychlým technologickým změnám.

Gramotnost v oblasti médií, informací a umělé inteligence pomůže všem nepodlehnout
antropomorfizačnímu trendu těchto systémů, ale zacházet s nimi jako s nástroji, vždy využívat
externí ověřování zdrojů – které mohou být nepřesné nebo chybné – poskytované systémy
umělé inteligence, chránit své soukromí a vlastní data, znát bezpečnostní parametry a možnosti
vznesení námitek. Je důležité vzdělávat sebe i ostatní v oblasti vědomého používání umělé
inteligence a v této souvislosti chránit svůj obraz (fotografie a zvukové nahrávky), svou tvář a
hlas, aby nemohly být použity k vytváření škodlivého obsahu a chování, jako jsou digitální
podvody, kyberšikana, deepfakes, které porušují soukromí a intimitu lidí bez jejich souhlasu.
Stejně jako průmyslová revoluce vyžadovala základní gramotnost, aby lidé mohli reagovat na
novinky, digitální revoluce vyžaduje digitální gramotnost (spolu s humanitním a kulturním
vzděláním), aby bylo možné pochopit, jak algoritmy formují naše vnímání reality, jak fungují
předsudky umělé inteligence, jaké mechanismy určují výskyt určitých obsahů v našich
informačních tocích (feedech) a jaké jsou předpoklady a ekonomické modely ekonomiky
založené na umělé inteligenci – a jak se mohou změnit.

Potřebujeme tvář a hlas, abychom mohli znovu definovat osobu. Musíme chránit dar
komunikace jako nejhlubší lidskou pravdu, ke které musí směřovat každá technologická
inovace.

Při předkládání těchto úvah děkuji všem, kteří pracují na dosažení zde nastíněných cílů, a z
celého srdce žehnám všem, kteří pracují pro společné dobro prostřednictvím komunikačních
prostředků.

Vatikán, 24. ledna 2026, v den památky sv. Františka Saleského.
Papež Lev XIV.