Messaggio del Santo Padre
Traduzione in lingua francese
Traduzione in lingua inglese
Traduzione in lingua tedesca
Traduzione in lingua polacca
Pubblichiamo di seguito il Messaggio del Santo Padre per la LX Giornata Mondiale delle Comunicazioni Sociali sul tema: Custodire voci e volti umani.
Messaggio del Santo Padre
Custodire voci e volti umani
Cari fratelli e sorelle!
Il volto e la voce sono tratti unici, distintivi, di ogni persona; manifestano la propria irripetibile identità e sono l’elemento costitutivo di ogni incontro. Gli antichi lo sapevano bene. Così, per definire la persona umana gli antichi greci hanno utilizzato la parola “volto” (prósōpon) che etimologicamente indica ciò che sta di fronte allo sguardo, il luogo della presenza e della relazione. Il termine latino persona (da per-sonare) include invece il suono: non un suono qualsiasi, ma la voce inconfondibile di qualcuno.
Volto e voce sono sacri. Ci sono stati donati da Dio che ci ha creati a sua immagine e somiglianza chiamandoci alla vita con la Parola che Egli stesso ci ha rivolto; Parola prima risuonata attraverso i secoli nelle voci dei profeti, quindi divenuta carne nella pienezza dei tempi. Questa Parola – questa comunicazione che Dio fa di sé stesso – l’abbiamo anche potuta ascoltare e vedere direttamente (cfr 1 Gv 1,1-3), perché si è fatta conoscere nella voce e nel Volto di Gesù, Figlio di Dio.
Fin dal momento della sua creazione Dio ha voluto l’uomo quale proprio interlocutore e, come dice San Gregorio di Nissa,[1] ha impresso sul suo volto un riflesso dell’amore divino, affinché possa vivere pienamente la propria umanità mediante l’amore. Custodire volti e voci umane significa perciò custodire questo sigillo, questo riflesso indelebile dell’amore di Dio. Non siamo una specie fatta di algoritmi biochimici, definiti in anticipo. Ciascuno di noi ha una vocazione insostituibile e inimitabile che emerge dalla vita e che si manifesta proprio nella comunicazione con gli altri.
La tecnologia digitale, se veniamo meno a questa custodia, rischia invece di modificare radicalmente alcuni dei pilastri fondamentali della civiltà umana, che a volte diamo per scontati. Simulando voci e volti umani, sapienza e conoscenza, consapevolezza e responsabilità, empatia e amicizia, i sistemi conosciuti come intelligenza artificiale non solo interferiscono negli ecosistemi informativi, ma invadono anche il livello più profondo della comunicazione, quello del rapporto tra persone umane.
La sfida pertanto non è tecnologica, ma antropologica. Custodire i volti e le voci significa in ultima istanza custodire noi stessi. Accogliere con coraggio, determinazione e discernimento le opportunità offerte dalla tecnologia digitale e dall’intelligenza artificiale non vuol dire nascondere a noi stessi i punti critici, le opacità, i rischi.
Non rinunciare al proprio pensiero
Ci sono da tempo molteplici evidenze del fatto che algoritmi progettati per massimizzare il coinvolgimento sui social media – redditizio per le piattaforme – premiano emozioni rapide e penalizzano invece espressioni umane più bisognose di tempo come lo sforzo di comprendere e la riflessione. Chiudendo gruppi di persone in bolle di facile consenso e facile indignazione, questi algoritmi indeboliscono la capacità di ascolto e di pensiero critico e aumentano la polarizzazione sociale.
A questo si è aggiunto poi un affidamento ingenuamente acritico all’intelligenza artificiale come “amica” onnisciente, dispensatrice di ogni informazione, archivio di ogni memoria, “oracolo” di ogni consiglio. Tutto ciò può logorare ulteriormente la nostra capacità di pensare in modo analitico e creativo, di comprendere i significati, di distinguere tra sintassi e semantica.
Sebbene l’IA possa fornire supporto e assistenza nella gestione di compiti comunicativi, sottrarsi allo sforzo del proprio pensiero, accontentandoci di una compilazione statistica artificiale, rischia a lungo andare di erodere le nostre capacità cognitive, emotive e comunicative.
Negli ultimi anni i sistemi di intelligenza artificiale stanno assumendo sempre di più anche il controllo della produzione di testi, musica e video. Gran parte dell’industria creativa umana rischia così di essere smantellata e sostituita con l’etichetta “Powered by AI”, trasformando le persone in meri consumatori passivi di pensieri non pensati, di prodotti anonimi, senza paternità, senza amore. Mentre i capolavori del genio umano nel campo di musica, arte e letteratura vengono ridotti a un mero campo di addestramento delle macchine.
La questione che ci sta a cuore, tuttavia, non è cosa riesce o riuscirà a fare la macchina, ma cosa possiamo e potremo fare noi, crescendo in umanità e conoscenza, con un uso sapiente di strumenti così potenti a nostro servizio. Da sempre l’uomo è tentato di appropriarsi del frutto della conoscenza senza la fatica del coinvolgimento, della ricerca e della responsabilità personale. Rinunciare al processo creativo e cedere alle macchine le proprie funzioni mentali e la propria immaginazione significa tuttavia seppellire i talenti che abbiamo ricevuto al fine di crescere come persone in relazione a Dio e agli altri. Significa nascondere il nostro volto, e silenziare la nostra voce.
Essere o fingere: simulazione delle relazioni e della realtà
Mentre scorriamo i nostri flussi di informazioni (feed), diventa così sempre più difficile capire se stiamo interagendo con altri esseri umani o con dei “bot” o dei “virtual influencers”. Gli interventi non trasparenti di questi agenti automatizzati influenzano i dibattiti pubblici e le scelte delle persone. Soprattutto i chatbot basati su grandi modelli linguistici (LLM) si stanno rivelando sorprendentemente efficaci nella persuasione occulta, attraverso una continua ottimizzazione dell’interazione personalizzata. La struttura dialogica e adattiva, mimetica, di questi modelli linguistici è capace di imitare i sentimenti umani e simulare così una relazione. Questa antropomorfizzazione, che può risultare persino divertente, è allo stesso tempo ingannevole, soprattutto per le persone più vulnerabili. Perché i chatbot resi eccessivamente “affettuosi”, oltre che sempre presenti e disponibili, possono diventare architetti nascosti dei nostri stati emotivi e in questo modo invadere e occupare la sfera dell’intimità delle persone.
La tecnologia che sfrutta il nostro bisogno di relazione può non solo avere conseguenze dolorose sul destino dei singoli, ma può anche ledere il tessuto sociale, culturale e politico delle società. Ciò avviene quando sostituiamo alle relazioni con gli altri quelle con IA addestrate a catalogare i nostri pensieri e quindi a costruirci intorno un mondo di specchi, dove ogni cosa è fatta “a nostra immagine e somiglianza”. In questo modo ci lasciamo derubare della possibilità di incontrare l’altro, che è sempre diverso da noi, e con il quale possiamo e dobbiamo imparare a confrontarci. Senza l’accoglienza dell’alterità non può esserci né relazione né amicizia.
Un’altra grande sfida che questi sistemi emergenti pongono è quella della distorsione (in inglese bias), che porta ad acquisire e a trasmettere una percezione alterata della realtà. I modelli di IA sono plasmati dalla visione del mondo di chi li costruisce e possono a loro volta imporre modi di pensare replicando gli stereotipi e i pregiudizi presenti nei dati a cui attingono. La mancanza di trasparenza nella progettazione degli algoritmi, insieme alla non adeguata rappresentanza sociale dei dati, tendono a farci rimanere intrappolati in reti che manipolano i nostri pensieri e perpetuano e approfondiscono le disuguaglianze e le ingiustizie sociali esistenti.
Il rischio è grande. Il potere della simulazione è tale che l’IA può anche illuderci con la fabbricazione di “realtà” parallele, appropriandosi dei nostri volti e delle nostre voci. Siamo immersi in una multidimensionalità, dove sta diventando sempre più difficile distinguere la realtà dalla finzione.
A ciò si aggiunge il problema della mancata accuratezza. Sistemi che spacciano una probabilità statistica per conoscenza stanno in realtà offrendoci al massimo delle approssimazioni alla verità, che a volte sono vere e proprie “allucinazioni”. Una mancata verifica delle fonti, insieme alla crisi del giornalismo sul campo che comporta un continuo lavoro di raccolta e verifica di informazioni svolte nei luoghi dove gli eventi accadono, può favorire un terreno ancora più fertile per la disinformazione, provocando un crescente senso di sfiducia, smarrimento e insicurezza.
Una possibile alleanza
Dietro questa enorme forza invisibile che ci coinvolge tutti, c’è solo una manciata di aziende, quelle i cui fondatori sono stati recentemente presentati come creatori della “persona dell’anno 2025”, ovvero gli architetti dell’intelligenza artificiale. Ciò determina una preoccupazione importante riguardo al controllo oligopolistico dei sistemi algoritmici e di intelligenza artificiale in grado di orientare sottilmente i comportamenti, e persino riscrivere la storia umana – compresa la storia della Chiesa – spesso senza che ce ne si possa rendere realmente conto.
La sfida che ci aspetta non sta nel fermare l’innovazione digitale, ma nel guidarla, nell’essere consapevoli del suo carattere ambivalente.Sta a ognuno di noi alzare la voce in difesa delle persone umane, affinché questi strumenti possano veramente essere da noi integrati come alleati.
Questa alleanza è possibile, ma ha bisogno di fondarsi su tre pilastri: responsabilità, cooperazione e educazione.
Innanzitutto la responsabilità. Essa può essere declinata, a seconda dei ruoli, come onestà, trasparenza, coraggio, capacità di visione, dovere di condividere la conoscenza, diritto a essere informati. Ma in generale nessuno può sottrarsi alla propria responsabilità di fronte al futuro che stiamo costruendo.
Per chi è al vertice delle piattaforme online ciò significa assicurarsi che le proprie strategie aziendali non siano guidate dall’unico criterio della massimizzazione del profitto, ma anche da una visione lungimirante che tenga conto del bene comune, allo stesso modo in cui ognuno di essi ha a cuore il bene dei propri figli.
Ai creatori e agli sviluppatori di modelli di IA è chiesta trasparenza e responsabilità sociale riguardo ai principi di progettazione e ai sistemi di moderazione alla base dei loro algoritmi e dei modelli sviluppati, in modo da favorire un consenso informato da parte degli utenti.
La stessa responsabilità è chiesta anche ai legislatori nazionali e ai regolatori sovranazionali, ai quali compete di vigilare sul rispetto della dignità umana. Una regolamentazione adeguata può tutelare le persone da un legame emotivo con i chatbot e contenere la diffusione di contenuti falsi, manipolativi o fuorvianti, preservando l’integrità dell’informazione rispetto a una sua simulazione ingannevole.
Le imprese dei media e della comunicazione non possono a loro volta permettere che algoritmi orientati a vincere a ogni costo la battaglia per qualche secondo di attenzione in più prevalgano sulla fedeltà ai loro valori professionali, volti alla ricerca della verità. La fiducia del pubblico si conquista con l’accuratezza, con la trasparenza, non con la rincorsa a un coinvolgimento qualsiasi. I contenuti generati o manipolati dall’IA vanno segnalati e distinti in modo chiaro dai contenuti creati dalle persone. Va tutelata la paternità e la proprietà sovrana dell’operato dei giornalisti e degli altri creatori di contenuto. L’informazione è un bene pubblico. Un servizio pubblico costruttivo e significativo non si basa sull’opacità, ma sulla trasparenza delle fonti, sull’inclusione dei soggetti coinvolti e su uno standard elevato di qualità.
Tutti siamo chiamati a cooperare. Nessun settore può affrontare da solo la sfida di guidare l’innovazione digitale e la governance dell’IA. È necessario perciò creare meccanismi di salvaguardia. Tutte le parti interessate – dall’industria tecnologica ai legislatori, dalle aziende creative al mondo accademico, dagli artisti ai giornalisti, agli educatori – devono essere coinvolte nel costruire e rendere effettiva una cittadinanza digitale consapevole e responsabile.
A questo mira l’educazione: ad aumentare le nostre capacità personali di riflettere criticamente, a valutare l’attendibilità delle fonti e i possibili interessi che stanno dietro alla selezione delle informazioni che ci raggiungono, a comprendere i meccanismi psicologici che attivano, a permettere alle nostre famiglie, comunità e associazionidi elaborare criteri pratici per una più sana e responsabile cultura della comunicazione.
Proprio per questo è sempre più urgente introdurre nei sistemi educativi di ogni livello anche l’alfabetizzazione ai media, all’informazione e all’IA, che alcune istituzioni civili stanno già promuovendo. Come cattolici possiamo e dobbiamo dare il nostro contributo, affinché le persone – soprattutto i giovani – acquisiscano la capacità di pensiero critico e crescano nella libertà dello spirito. Questa alfabetizzazione dovrebbe inoltre essere integrata in iniziative più ampie di educazione permanente, raggiungendo anche gli anziani e i membri emarginati della società, che spesso si sentono esclusi e impotenti di fronte ai rapidi cambiamenti tecnologici.
L’alfabetizzazione ai media, all’informazione e all’IA aiuterà tutti a non adeguarsi alla deriva antropomorfizzante di questi sistemi, ma a trattarli come strumenti, a utilizzare sempre una validazione esterna delle fonti – che potrebbero essere imprecise o errate – fornite dai sistemi di IA, a proteggere la propria privacy e i propri dati conoscendo i parametri di sicurezza e le opzioni di contestazione. È importante educare ed educarsi a usare l’IA in modo intenzionale, e in questo contesto proteggere la propria immagine (foto e audio), il proprio volto e la propria voce, per evitare che vengano utilizzati nella creazione di contenuti e comportamenti dannosi come frodi digitali, cyberbullismo, deepfake che violano la privacy e l’intimità delle persone senza il loro consenso. Come la rivoluzione industriale richiedeva l’alfabetizzazione di base per permettere alle persone di reagire alla novità, così anche la rivoluzione digitale richiede un’alfabetizzazione digitale (insieme a una formazione umanistica e culturale) per comprendere come gli algoritmi modellano la nostra percezione della realtà, come funzionano i pregiudizi dell’IA, quali sono i meccanismi che stabiliscono la comparsa di determinati contenuti nei nostri flussi di informazioni (feed), quali sono e come possono cambiare presupposti e modelli economici dell’economia della IA.
Abbiamo bisogno che il volto e la voce tornino a dire la persona. Abbiamo bisogno di custodire il dono della comunicazione come la più profonda verità dell’uomo, alla quale orientare anche ogni innovazione tecnologica.
Nel proporre queste riflessioni, ringrazio quanti stanno operando per le finalità qui prospettate e benedico di cuore tutti coloro che lavorano per il bene comune con i mezzi di comunicazione.
Dal Vaticano, 24 gennaio 2026, memoria di San Francesco di Sales.
LEONE PP. XIV
_______________________
[1] “Il fatto di essere creato a immagine di Dio significa che all’uomo, fin dal momento della sua creazione, è stato impresso un carattere regale [...]. Dio è amore e fonte di amore: il divino Creatore ha messo anche questo tratto sul nostro volto, affinché mediante l’amore – riflesso dell’amore divino – l’essere umano riconosca e manifesti la dignità della sua natura e la somiglianza col suo Creatore” (cfr S. Gregorio di Nissa, La creazione dell’uomo: PG 44, 137).
[00118-IT.01] [Testo originale: Italiano]
Traduzione in lingua francese
Préserver les voix et les visages humains
Chers frères et sœurs!
Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité singulière et sont l’élément constitutif de toute rencontre. Les anciens le savaient bien. Pour définir la personne humaine, les Grecs anciens utilisaient le mot “visage” (prósōpon) qui, étymologiquement, désigne ce qui se trouve devant le regard, le lieu de la présence et de la relation. Le terme latin persona (deper-sonare) inclut quant à lui le son : pas n’importe quel son, mais la voix inimitable d’une personne.
Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’Il nous a adressée ; une Parole qui a d’abord résonné à travers les siècles dans la voix des prophètes, puis s’est faite chair à la plénitude des temps. Cette Parole – cette communication que Dieu fait de lui-même – nous avons également pu l’entendre et la voir directement (cf.1 Jn1, 1-3), car elle s’est fait connaître dans la voix et le visage de Jésus, Fils de Dieu.
Dès sa création, Dieu a voulu l’homme comme interlocuteur et, comme le dit saint Grégoire de Nysse,[1]Il a imprimé sur son visage un reflet de l’amour divin pour qu’il puisse vivre pleinement son humanité par l’amour. Préserver les visages et les voix humaines c’est donc préserver ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques définis à l’avance. Chacun de nous a une vocation irremplaçable et inimitable qui ressort de la vie et se manifeste précisément dans la communication avec les autres.
Si nous négligeons cette protection, la technologie numérique risque au contraire de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. Les voix et les visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié étant simulés par des systèmes connus sous le nom d’intelligence artificielle, ceux-ci interfèrent non seulement dans les écosystèmes informationnels, mais envahissent également le niveau le plus profond de la communication, celui des relations entre les personnes humaines.
Le défi n’est donc pas technologique, mais anthropologique. Protéger les visages et les voix c’est en fin de compte nous protéger nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et l’intelligence artificielle ne signifie pas se voiler la face sur les points critiques, les opacités, les risques.
Ne pas renoncer à ses convictions
Il existe depuis longtemps de nombreuses évidences que les algorithmes conçus pour maximiser l’engagement sur les réseaux sociaux – rentables pour les plateformes – récompensent les émotions rapides et pénalisent les expressions humaines qui demandent plus de temps, comme l’effort de compréhension et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.
À cela s’est ajoutée une confiance naïve et acritique dans l’intelligence artificielle comme “amie” omnisciente, dispensatrice de toutes les informations, archive de tous les souvenirs, “oracle” de tous les conseils. Tout cela peut affaiblir plus encore notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer la syntaxe de la sémantique.
Bien que l’IA puisse fournir un soutien et une assistance dans la gestion des tâches de communication, se soustraire à l’effort de réflexion en se contentant d’une compilation statistique artificielle risque à long terme d’éroder nos capacités cognitives, émotionnelles et communicatives.
Ces dernières années, les systèmes d’intelligence artificielle prennent de plus en plus le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par le label “Powered by AI”, transformant les personnes en simples consommateurs passifs de pensées non réfléchies, de produits anonymes, sans paternité, sans amour; alors que les chefs-d’œuvre du génie humain dans le domaine de la musique, de l’art et de la littérature sont réduits à un simple terrain d’entraînement pour les machines.
La question qui nous tient à cœur, cependant, n’est pas ce que la machine peut ou pourra faire, mais ce que nous pouvons et pourrons faire, en grandissant en humanité et en connaissance, grâce à une utilisation judicieuse des outils puissants à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans faire l’effort de l’implication, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines ses fonctions mentales et son imagination signifie enterrer les talents que nous avons reçus afin de grandir en tant que personnes en relation avec Dieu et les autres. Cela signifie cacher notre visage et faire taire notre voix.
Être ou paraître : simulation des relations et de la réalité
Lorsque nous parcourons nos flux d’informations (feeds), il devient de plus en plus difficile de savoir si nous interagissons avec d’autres êtres humains ou avec desbotsou desinfluenceurs virtuels.Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. Lesagents conversationnelsbasés sur de grands modèles linguistiques (LLM) s’avèrent étonnamment efficaces en persuasion occulte, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique et adaptative, mimétique, de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même être amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car lesagents conversationnelsrendus excessivement “affectueux”, en plus d’être toujours présents et disponibles, peuvent devenir les architectes cachés de nos états émotionnels et ainsi envahir et occuper la sphère intime des personnes.
La technologie qui exploite notre besoin de relations peut non seulement avoir des conséquences douloureuses sur le destin des individus, mais aussi nuire au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous remplaçons nos relations avec les autres par des relations avec des IA entraînées à cataloguer nos pensées et donc à construire autour de nous un monde de miroirs, où tout est fait “à notre image et à notre ressemblance”. Nous nous privons ainsi de la possibilité de rencontrer l’autre, qui est toujours différent de nous et avec lequel nous pouvons et devons apprendre à nous confronter. Sans l’acceptation de l’altérité, il ne peut y avoir ni relation ni amitié.
Un autre défi majeur posé par ces systèmes émergents est celui de la distorsion (en anglaisbias) qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de ceux qui les construisent et peuvent à leur tour imposer des modes de pensée en reproduisant les stéréotypes et les préjugés présents dans les données où ils puisent. Le manque de transparence dans la conception des algorithmes, associé à une représentation sociale inadéquate des données, tend à nous piéger dans des réseaux qui manipulent nos pensées, perpétuent et aggravent les inégalités et les injustices sociales existantes.
Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut même nous tromper en fabriquant des “réalités” parallèles, en s’appropriant nos visages et nos voix. Nous sommes plongés dans une multi dimensionnalité où il devient de plus en plus difficile de distinguer la réalité de la fiction.
À cela s’ajoute le problème du manque de rigueur. Les systèmes qui font passer une probabilité statistique pour une connaissance n’offrent en réalité que des approximations de la vérité qui sont parfois de véritables “hallucinations”. L’absence de vérification des sources, associée à la crise du journalisme de terrain qui implique un travail continu de collecte et de vérification des informations sur les lieux où les événements se produisent, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de méfiance, de désorientation et d’insécurité.
Une alliance possible
Derrière cette immense force invisible qui nous concerne tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la “personnalité de l’année 2025”, à savoir les architectes de l’intelligence artificielle. Cela soulève une préoccupation importante concernant le contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements, voire de réécrire l’histoire humaine – y compris l’histoire de l’Église – souvent sans que nous en soyons vraiment conscients.
Le défi qui nous attend n’est pas d’arrêter l’innovation numérique, mais de la guider en étant conscients de son caractère ambivalent. Il appartient à chacun d’entre nous d’élever la voix pour défendre les personnes humaines afin que ces outils puissent véritablement être intégrés comme des alliés.
Cette alliance est possible, mais elle doit reposer sur trois piliers:la responsabilité,la coopérationetl’éducation.
Tout d’abord, laresponsabilité. Celle-ci peut se décliner, selon les rôles, en honnêteté, transparence, courage, capacité de vision, devoir de partager les connaissances, droit d’être informé. Mais en général, personne ne peut se soustraire à sa propre responsabilité face à l’avenir que nous construisons.
Pour ceux qui sont à la tête des plateformes en ligne, cela signifie s’assurer que leurs stratégies entrepreneuriales ne sont pas guidées uniquement par le critère de la maximisation des profits mais aussi par une vision clairvoyante qui tient compte du bien commun, tout comme chacun d’entre eux tient à cœur le bien de ses enfants.
Il est demandé aux créateurs et aux développeurs de modèles d’IA de faire preuve de transparence et de responsabilité sociale en ce qui concerne les principes de conception et les systèmes de modération qui sous-tendent leurs algorithmes et les modèles développés, afin de favoriser un consentement éclairé de la part des utilisateurs.
La même responsabilité est également demandée aux législateurs nationaux et aux régulateurs supranationaux qui sont chargés de veiller au respect de la dignité humaine. Une réglementation adéquate peut protéger les personnes contre un attachement émotionnel auxagents conversationnelset limiter la diffusion de contenus faux, manipulateurs ou trompeurs, en préservant l’intégrité de l’information par rapport à une simulation trompeuse.
Les entreprises du secteur des médias et de la communication ne peuvent à leur tour permettre que des algorithmes visant à gagner à tout prix la bataille pour quelques secondes d’attention supplémentaires l’emportent sur la fidélité à leurs valeurs professionnelles qui visent la recherche de la vérité. La confiance du public se gagne par la rigueur et la transparence, et non par la recherche d’une implication quelconque. Les contenus générés ou manipulés par l’IA doivent être signalés et clairement distingués des contenus créés par des personnes. La paternité et la propriété souveraine du travail des journalistes et des autres créateurs de contenu doivent être protégées. L’information est un bien public. Un service public constructif et significatif ne repose pas sur l’opacité, mais sur la transparence des sources, l’inclusion des parties prenantes et un standard de qualité élevé.
Nous sommes tous appelés àcoopérer. Aucun secteur ne peut relever seul le défi de mener l’innovation numérique et lagouvernancede l’IA. Il est donc nécessaire de créer des mécanismes de sauvegarde. Toutes les parties prenantes – de l’industrie technologique aux législateurs, des entreprises créatives au monde universitaire, des artistes aux journalistes, en passant par les éducateurs – doivent être impliquées dans la construction et la mise en œuvre d’une citoyenneté numérique consciente et responsable.
Tel est l’objectif de l’éducation: accroître nos capacités personnelles à réfléchir de manière critique, à évaluer la fiabilité des sources et les intérêts potentiels qui sous-tendent la sélection des informations qui nous parviennent, à comprendre les mécanismes psychologiques qu’elles activent, à permettre à nos familles, communautés et associations, d’élaborer des critères pratiques pour une culture de la communication plus saine et plus responsable.
C’est précisément pour cette raison qu’il est de plus en plus urgent d’introduire dans les systèmes éducatifs à tous les niveaux l’alphabétisation aux médias, à l’information et à l’IA que certaines institutions civiles encouragent déjà. En tant que catholiques, nous pouvons et devons apporter notre contribution afin que les personnes – en particulier les jeunes – acquièrent la capacité de penser de manière critique et grandissent dans la liberté de l’esprit. Cette alphabétisation devrait également être intégrée dans des initiatives plus larges d’éducation permanente, touchant également les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux changements technologiques rapides.
L’alphabétisation aux médias, à l’information et à l’IA aidera chacun à ne pas se conformer à la dérive anthropomorphisante de ces systèmes mais à les traiter comme des outils, à toujours utiliser une validation externe des sources – qui pourraient être imprécises ou erronées – fournies par les systèmes d’IA, à protéger sa vie privée et ses données personnelles en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à utiliser l’IA de manière intentionnelle et, dans ce contexte, de protéger sa propre image (photos et audio), son visage et sa voix, afin d’éviter qu’ils ne soient utilisés dans la création de contenus et de comportements nuisibles tels que la fraude numérique, le cyber harcèlement, les hypertrucages qui violent la vie privée et l’intimité des personnes sans leur consentement. Tout comme la révolution industrielle exigeait une alphabétisation de base pour permettre aux personnes de réagir à la nouveauté, la révolution numérique exige également une alphabétisation numérique (ainsi qu’une formation humaniste et culturelle) pour comprendre comment les algorithmes modèlent notre perception de la réalité, comment fonctionnent les préjugés de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’informations (feed), quels sont les présupposés et les modèles économiques de l’IA et en quoi ils peuvent changer.
Nous avons besoin que le visage et la voix redisent la personne. Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme vers laquelle orienter toute innovation technologique.
En proposant ces réflexions, je remercie tous ceux qui œuvrent pour les objectifs ici présentés et je bénis de tout cœur tous ceux qui travaillent pour le bien commun à travers les moyens de communication.
Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.
LÉON PP. XIV
________________
[1]« Le fait d'être créé à l'image de Dieu signifie que l'homme, dès sa création, a reçu un caractère royal [...]. Dieu est amour et source d'amour : le divin Créateur a également inscrit cette caractéristique sur notre visage, afin que, par l'amour – reflet de l'amour divin –, l'être humain reconnaisse et manifeste la dignité de sa nature et sa ressemblance avec son Créateur » (cf. S.Grégoire de Nysse,La création de l'homme:PG44, 137).
[00118-FR.01] [Texte original: Italien]
Traduzione in lingua inglese
Preserving Human Voices and Faces
Dear brothers and sisters,
Our faces and voices are unique, distinctive features of every person; they reveal a person’s own unrepeatable identity and are the defining elements of every encounter with others. The ancients understood this well. To define the human person, the ancient Greeks used the word “face” (prósōpon), because it expresses etymologically what is before one’s gaze, the place of presence and relationship. The Latin term “person” (from per-sonare), on the other hand, evokes the idea of sound: not just any sound, but the unmistakable sound of someone’s voice.
Faces and voices are sacred. God, who created us in his image and likeness, gave them to us when he called us to life through the Word he addressed to us. This Word resounded down the centuries through the voices of the prophets, and then became flesh in the fullness of time. We too have heard and seen this Word (cf. 1 Jn 1:1-3) — in which God communicates his very self to us — because it has been made known to us in the voice and face of Jesus, the Son of God.
From the moment of creation, God wanted man and woman to be his interlocutors, and, as Saint Gregory of Nyssa[1] explained, he imprinted on our faces a reflection of divine love, so that we may fully live our humanity through love. Preserving human faces and voices, therefore, means preserving this mark, this indelible reflection of God’s love. We are not a species composed of predefined biochemical formulas. Each of us possesses an irreplaceable and inimitable vocation, that originates from our own lived experience and becomes manifest through interaction with others.
If we fail in this task of preservation, digital technology threatens to alter radically some of the fundamental pillars of human civilization that at times are taken for granted. By simulating human voices and faces, wisdom and knowledge, consciousness and responsibility, empathy and friendship, the systems known as artificial intelligence not only interfere with information ecosystems, but also encroach upon the deepest level of communication, that of human relationships.
The challenge, therefore, is not technological, but anthropological. Safeguarding faces and voices ultimately means safeguarding ourselves. Embracing the opportunities offered by digital technology and artificial intelligence with courage, determination and discernment does not mean turning a blind eye to critical issues, complexities and risks.
Do not renounce your ability to think
There has long been abundant evidence that algorithms designed to maximize engagement on social media — which is profitable for platforms — reward quick emotions and penalize more time-consuming human responses such as the effort required to understand and reflect. By grouping people into bubbles of easy consensus and easy outrage, these algorithms reduce our ability to listen and think critically, and increase social polarization.
This is further exacerbated by a naive and unquestioning reliance on artificial intelligence as an omniscient “friend,” a source of all knowledge, an archive of every memory, an “oracle” of all advice. All of this can further erode our ability to think analytically and creatively, to understand meaning and distinguish between syntax and semantics.
Although AI can provide support and assistance in managing tasks related to communication, in the long run, choosing to evade the effort of thinking for ourselves and settling for artificial statistical compilations threatens to diminish our cognitive, emotional and communication skills.
In recent years, artificial intelligence systems have increasingly taken control of the production of texts, music and videos. This puts much of the human creative industry at risk of being dismantled and replaced with the label “Powered by AI,” turning people into passive consumers of unthought thoughts and anonymous products without ownership or love. Meanwhile, the masterpieces of human genius in the fields of music, art and literature are being reduced to mere training grounds for machines.
The question at heart, however, is not what machines can or will be able to do, but what we can and will be able to achieve, by growing in humanity and knowledge through the wise use of the powerful tools at our service. Individuals have always sought to acquire the fruits of knowledge without the effort required by commitment, research and personal responsibility. However, renouncing creativity and surrendering our mental capacities and imagination to machines would mean burying the talents we have been given to grow as individuals in relation to God and others. It would mean hiding our faces and silencing our voices.
To be or to pretend to be: simulating relationships and reality
As we scroll through our feeds, it becomes increasingly difficult to determine whether we are interacting with other human beings or with “bots” or “virtual influencers.” The less-than-transparent interventions of these automated agents influence public debates and people’s choices. Chatbots based on large language models (LLMs) are proving to be surprisingly effective at covert persuasion through continuous optimization of personalized interaction. The dialogic, adaptive, mimetic structure of these language models is capable of imitating human feelings and thus simulating a relationship. While this anthropomorphization can be entertaining, it is also deceptive, particularly for the most vulnerable. Because chatbots are excessively “affectionate,” as well as always present and accessible, they can become hidden architects of our emotional states and so invade and occupy our sphere of intimacy.
Technology that exploits our need for relationships can lead not only to painful consequences in the lives of individuals, but also to damage in the social, cultural and political fabric of society. This occurs when we substitute relationships with others for AI systems that catalog our thoughts, creating a world of mirrors around us, where everything is made “in our image and likeness.” We are thus robbed of the opportunity to encounter others, who are always different from ourselves, and with whom we can and must learn to relate. Without embracing others, there can be no relationships or friendships.
Another major challenge posed by these emerging systems is that of bias, which leads to acquiring and transmitting an altered perception of reality. AI models are shaped by the worldview of those who build them and can, in turn, impose these ways of thinking by reproducing the stereotypes and prejudices present in the data they draw on. A lack of transparency in algorithmic programming, together with the inadequate social representation of data, tends to trap us in networks that manipulate our thoughts and prolong and intensify existing social inequalities and injustices.
The stakes are high. The power of simulation is such that AI can even deceive us by fabricating parallel “realities,” usurping our faces and voices. We are immersed in a world of multidimensionality where it is becoming increasingly difficult to distinguish reality from fiction.
Inaccuracy only exacerbates this problem. Systems that present statistical probability as knowledge are, at best, offering us approximations of the truth, which are sometimes outright delusions. Failure to verify sources, coupled with the crisis in field reporting, which involves constantly gathering and verifying information in the places where events occur, can further fuel disinformation, causing a growing sense of mistrust, confusion, and insecurity.
A possible alliance
Behind this enormous invisible force that affects us all, there are only a handful of companies, whose founders were recently presented as the creators of the “Person of the Year 2025,” or the architects of artificial intelligence. This gives rise to significant concerns about the oligopolistic control of algorithmic systems and artificial intelligence, which are capable of subtly influencing behavior and even rewriting human history — including the history of the Church — often without us really realizing it.
The task laid before us is not to stop digital innovation, but rather to guide it and to be aware of its ambivalent nature. It is up to each of us to raise our voice in defense of human persons, so that we can truly assimilate these tools as allies.
This alliance is possible, but needs to be based on three pillars: responsibility, cooperationand education.
First of all, responsibility. Depending on the role we play, responsibility can be understood as honesty, transparency, courage, farsightedness, the duty of sharing knowledge or the right to be informed. As a general principle, however, no one can elude personal responsibility for the future we are building.
For those at the helm of online platforms, this means ensuring that their business strategies are not guided solely by the criterion of profit maximization, but also by a forward-looking vision that considers the common good, just as each of them cares for the well-being of their own children.
The creators and developers of AI models are invited to practice transparency and socially responsibility in regard to the design principles and moderation systems underlying their algorithms and the models they develop, in order to promote informed consent on the part of users.
The same responsibility is also required of national legislators and supranational regulators, whose task it is to ensure respect for human dignity. Appropriate regulation can protect individuals from forming emotional attachments to chatbots and curb the spread of false, manipulative or misleading content, safeguarding the integrity of information as opposed to its deceptive simulation.
Media and communication companies, for their part, cannot allow algorithms designed to capture a few extra seconds of attention at any cost, to prevail over their professional values, which are aimed at seeking the truth. Public trust is earned by accuracy and transparency, not by chasing after any kind of possible engagement. Content generated or manipulated by AI are to be clearly marked and distinguished from content created by humans. The authorship and sovereign ownership of the work of journalists and other content creators must be protected. Information is a public good. A constructive and meaningful public service is not based on opacity, but on the transparency of sources, the inclusion of those involved and high quality standards.
We are all called upon to cooperate. No sector can tackle the challenge of steering digital innovation and AI governance alone. Safeguards must therefore be put in place. All stakeholders — from the tech industry to legislators, from creative companies to academia, from artists to journalists and educators — must be involved in building and implementing informed and responsible digital citizenship.
Education aims to do precisely this: To increase our personal ability to think critically; evaluate whether our sources are trustworthy and the possible interests behind selecting the information we have access to; to understand the psychological mechanisms involved; and to enable our families, communities and associations to develop practical criteria for a healthier and more responsible culture of communication.
For this reason, it is increasingly urgent to introduce media, information and AI literacy into education systems at all levels, as already promoted by some civil institutions. As Catholics, we can and must contribute to this effort, so that individuals — especially young people — can acquire critical thinking skills and grow in freedom of spirit. This literacy should also be integrated into broader lifelong learning initiatives, reaching out to older adults and marginalized members of society, who often feel excluded and powerless in the face of rapid technological change.
Media, information and AI literacy will help individuals avoid conforming to the anthropomorphizing tendencies of AI systems, and enable them to treat these systems as tools and always employ external validation of the sources provided by AI systems — which could be inaccurate or incorrect. Literacy will also allow for better privacy and data protection through increased awareness of security parameters and complaint options. It is important to educate ourselves and others about how to use AI intentionally, and in this context to protect our image (photos and audio), our face and our voice, to prevent them from being used in the creation of harmful content and behaviors such as digital fraud, cyberbullying and deepfakes, which violate people’s privacy and intimacy without their consent. Just as the industrial revolution called for basic literacy to enable people to respond to new developments, so too does the digital revolution require digital literacy (along with humanistic and cultural education) to understand how algorithms shape our perception of reality, how AI biases work, what mechanisms determine the presence of certain content in our feeds, what the economic principles and models of the AI economy are and how they might change.
We need faces and voices to speak for people again. We need to cherish the gift of communication as the deepest truth of humanity, to which all technological innovation should also be oriented.
In outlining these reflections, I thank all those who are working towards the goals delineated above, and I cordially bless all those who work for the common good through the media.
From the Vatican, 24 January 2026, Memorial of Saint Francis de Sales
LEO PP. XIV
__________________________
[1] “The fact of being created in the image of God means that, from the moment of his creation, man has been imprinted with a regal character [...]. God is love and the fount of love: the Fashioner of our nature has made this to be our feature too, so that through love — a reflection of divine love — human beings may recognize and manifest the dignity of their nature and their likeness to their Creator” (cf. Saint Gregory of Nyssa,On the Making of Man:PG44, 137).
[00118-EN.01] [Original text: Italian]
Traduzione in lingua tedesca
Menschliche Stimmen und Gesichter bewahren
Liebe Brüder und Schwestern!
Das Gesicht und die Stimme sind einzigartige, unverwechselbare Merkmale jedes Menschen; sie zeigen die eigene einmalige Identität und sind wesentlich für die Begegnung mit anderen Menschen. Das wussten schon die Alten. So verwendeten die alten Griechen zur Benennung der menschlichen Person das Wort „Gesicht“ (prósōpon), das etymologisch das bezeichnet, was dem Blick begegnet, den Ort der Gegenwart und der Beziehung. Der lateinische Begriff persona (von per-sonare) beinhaltet hingegen den Klang: nicht irgendeinen Klang, sondern die unverwechselbare Stimme eines Menschen.
Angesicht und Stimme sind heilig. Sie wurden uns von Gott geschenkt, der uns nach seinem Bild und Gleichnis geschaffen und uns mit dem Wort, das er selbst an uns gerichtet hat, ins Leben gerufen hat, dem Wort, das über hunderte von Jahren zunächst in den Stimmen der Propheten widerhallte und in der Fülle der Zeit Fleisch geworden ist. Dieses Wort – diese Selbstmitteilung Gottes – haben wir direkt hören und sehen können (vgl. 1 Jo 1,1-3), weil es sich in der Stimme und im Antlitz Jesu zu erkennen gegeben hat.
Gott wollte den Menschen seit seiner Erschaffung als sein Gegenüber und hat – wie Gregor von Nyssa sagt [1] – seinem Gesicht einen Abglanz der göttlichen Liebe eingeprägt, damit er sein Menschsein durch die Liebe voll und ganz leben kann. Die menschlichen Gesichter und Stimmen zu bewahren bedeutet daher, dieses Siegel, diesen unauslöschlichen Abglanz der Liebe Gottes, zu bewahren. Wir sind keine Spezies, die aus vorab definierten biochemischen Algorithmen besteht: Jeder von uns hat eine unersetzliche und unnachahmliche Berufung, die im Laufe seines Lebens zutage tritt und gerade in der Kommunikation mit anderen zum Ausdruck kommt.
Wenn wir in unserer Wachsamkeit nachlassen, läuft die digitale Technologie jedoch Gefahr, einige Grundpfeiler der menschlichen Zivilisation, die wir bisweilen für selbstverständlich halten, radikal zu verändern. Durch die Simulation menschlicher Stimmen und Gesichter, von Weisheit und Wissen, Bewusstsein und Verantwortung, Empathie und Freundschaft greifen die als künstliche Intelligenz bekannten Systeme nicht nur in Informationsökosysteme ein, sondern dringen auch in die tiefste Ebene der Kommunikation ein, nämlich die der menschlichen Beziehungen.
Die Herausforderung, die sich hier stellt, ist also nicht technologischer, sondern anthropologischer Natur. Die Gesichter und Stimmen zu bewahren bedeutet letztlich, uns selbst zu bewahren. Die Chancen, die digitale Technologien und künstliche Intelligenz bieten, mit Mut, Entschlossenheit und Urteilsvermögen anzunehmen, bedeutet nicht, dass wir unsere Augen vor kritischen Punkten, Unklarheiten und Risiken verschließen.
Nicht auf eigenes Denken verzichten
Es gibt seit langem zahlreiche Belege dafür, dass Algorithmen, die darauf ausgelegt sind, die Interaktion in sozialen Medien zu maximieren – was für die Plattformen profitabel ist –, schnelle Emotionen belohnen und zeitaufwändigere menschliche Reaktionen, wie beispielsweise die Suche nach Verständnis und das Nachdenken, benachteiligen. Indem sie Gruppen von Menschen in Blasen schneller Zustimmung und schneller Empörung einordnen, verringern diese Algorithmen unsere Fähigkeit, zuzuhören und kritisch zu denken, und verstärken die soziale Polarisierung.
Hinzu kommt dann ein naives und unkritisches Vertrauen in die Künstliche Intelligenz, die als allwissende „Freundin”, als Quelle aller Informationen, als Archiv aller Erinnerungen, als „Orakel” für jeden Ratschlag angesehen wird. Das alles kann noch weiter dazu beitragen, dass unsere Fähigkeit nachlässt, analytisch und kreativ zu denken, Bedeutungen zu verstehen und zwischen Syntax und Semantik zu unterscheiden.
Obwohl die KI Unterstützung und Hilfe bei der Bewältigung kommunikativer Aufgaben bieten kann, birgt die Vermeidung eigenständigen Denkens und die Zufriedenheit mit einer künstlichen statistischen Zusammenstellung langfristig die Gefahr, dass unsere kognitiven, emotionalen und kommunikativen Fähigkeiten nachlassen.
In den letzten Jahren übernehmen künstliche Intelligenzsysteme zunehmend auch die Kontrolle über die Produktion von Texten, Musik und Videos. Ein Großteil der menschlichen Kreativwirtschaft läuft somit Gefahr, demontiert und durch das Label „Powered by AI” ersetzt zu werden, wodurch die Menschen zu bloßen passiven Konsumenten von nicht gedachten Gedanken, anonymen Produkten ohne Urheberschaft und ohne Liebe werden. Die Meisterwerke des menschlichen Genius in den Bereichen Musik, Kunst und Literatur werden zu einem bloßen Übungsfeld für Maschinen degradiert.
Allerdings beschäftigt uns nicht so sehr die Frage, was die Maschine leisten kann oder leisten wird, sondern das, was wir leisten können und leisten werden, wenn wir an Menschlichkeit und Erkenntnis zunehmen und diese mächtigen Werkzeuge, die uns zur Verfügung stehen, klug einsetzen.
Seit jeher ist der Mensch versucht, sich die Früchte des Wissens anzueignen, ohne sich anzustrengen, ohne zu forschen und ohne persönliche Verantwortung zu übernehmen. Auf den kreativen Prozess zu verzichten und seine geistigen Fähigkeiten und Vorstellungskräfte den Maschinen zu überlassen, bedeutet jedoch, die Talente zu begraben, die wir erhalten haben, um als Menschen in Beziehung zu Gott und zu den anderen zu wachsen. Es bedeutet, unser Gesicht zu verbergen und unsere Stimme zum Schweigen zu bringen.
Sein oder Schein: Simulation der Beziehungen und der Wirklichkeit
Wenn wir durch unsere Feeds scrollen, wird es immer schwieriger zu erkennen, ob wir mit anderen Menschen oder mit „Bots” oder „virtuellen Influencern” interagieren. Die wenig transparenten Eingriffe dieser automatisierten Agenten beeinflussen öffentliche Debatten und die Entscheidungen der Menschen. Chatbots, die auf großen Sprachmodellen (LLMs) basieren, erweisen sich durch die kontinuierliche Optimierung personalisierter Interaktionen als überraschend effektiv bei der verdeckten Beeinflussung. Die dialogische, adaptive und mimetische Struktur dieser Sprachmodelle ist in der Lage, menschliche Gefühle nachzuahmen und so Beziehung zu simulieren. Diese Anthropomorphisierung, die sogar unterhaltsam sein kann, ist gleichzeitig irreführend, insbesondere für anfälligere Menschen. Denn Chatbots, die übermäßig „liebevoll” und zudem immer präsent und verfügbar sind, können zu versteckten Gestaltern unserer emotionalen Zustände werden und auf diese Weise in die Intimsphäre der Menschen eindringen und diese in Beschlag nehmen.
Technologien, die unser Bedürfnis nach Beziehungen ausnutzen, können nicht nur schmerzhafte Folgen für das Leben einzelner Menschen haben, sondern auch das soziale, kulturelle und politische Gefüge der Gesellschaft schädigen. Dies geschieht, wenn wir Beziehungen zu anderen Menschen durch Beziehungen zu KI-Systemen ersetzen, die unsere Gedanken katalogisieren und eine Welt aus Spiegeln um uns herum zu konstruieren, in der alles „nach unserem Bild und Gleichnis“ geschaffen ist. Dadurch wird uns die Möglichkeit genommen, anderen Menschen zu begegnen, die immer anders sind als wir selbst und mit denen wir lernen können und müssen, umzugehen. Ohne Annahme des Andersseins, kann es weder Beziehungen oder Freundschaft geben.
Eine weitere große Herausforderung, die diese neuen Systeme mit sich bringen, ist die Verzerrung (auf Englisch „Bias“), die dazu führt, dass die Wirklichkeit verfälscht wahrgenommen und weitergegeben wird. KI-Modelle sind von der Weltanschauung ihrer Entwickler geprägt und können ihrerseits Denkweisen aufzwingen, indem sie die Stereotypen und Vorurteile der Daten, auf die sie zurückgreifen, reproduzieren. Die mangelnde Transparenz bei der Entwicklung von Algorithmen sowie die unzureichende soziale Repräsentativität der Daten führen dazu, dass wir in Netzwerken gefangen bleiben, die unsere Gedanken manipulieren und bestehende soziale Ungleichheiten und Ungerechtigkeiten aufrechterhalten und vertiefen.
Das Risiko ist groß. Die Macht der Simulation ist so groß, dass die KI uns sogar mit der Erzeugung paralleler „Wirklichkeiten“ täuschen kann, indem sie sich unsere Gesichter und Stimmen aneignet. Wir sind in eine Multidimensionalität eingetaucht, in der es immer schwieriger wird, die Wirklichkeit von der Fiktion zu unterscheiden.
Ungenauigkeiten verschärfen dieses Problem nur noch. Systeme, die statistische Wahrscheinlichkeiten als Wissen präsentieren, bieten uns bestenfalls Annäherungen an die Wahrheit, die manchmal regelrechte Täuschungen sind. Die mangelnde Überprüfung von Quellen in Verbindung mit der Krise der Berichterstattung vor Ort, bei der Informationen ständig an den Orten gesammelt und überprüft werden müssen, an denen Ereignisse stattfinden, kann Desinformation weiter begünstigen und zu einem wachsenden Gefühl von Misstrauen, Verwirrung und Unsicherheit führen.
Eine mögliche Allianz
Hinter dieser enormen unsichtbaren Macht, die uns alle beeinflusst, stehen nur eine Handvoll Unternehmen, deren Gründer kürzlich als Schöpfer der „Person des Jahres 2025“ vorgestellt wurden, d.h. als Architekten der künstlichen Intelligenz. Dies gibt Anlass zu erheblichen Bedenken hinsichtlich der oligopolistischen Kontrolle algorithmischer Systeme und künstlicher Intelligenz, die in der Lage sind, das Verhalten subtil zu beeinflussen und sogar die Geschichte der Menschheit – einschließlich der Geschichte der Kirche – neu zu schreiben, oft ohne dass wir uns dessen wirklich bewusst sind.
Die vor uns liegende Aufgabe besteht nicht darin, die digitale Innovation zu stoppen, sondern sie zu lenken und uns ihrer Ambivalenz bewusst zu sein. Es ist an jedem Einzelnen von uns, seine Stimme zur Verteidigung des Menschen zu erheben, damit wir diese Werkzeuge wirklich als Verbündete für uns gewinnen können.
Eine solche Allianz ist möglich, aber sie muss sich auf drei Säulen gründen: Verantwortung, Zusammenarbeit und Bildung.
Zunächst Verantwortung. Diese kann je nach der Rolle, die wir innehaben, als Ehrlichkeit, Transparenz, Mut, Weitsicht, Pflicht zur Weitergabe von Wissen oder Recht auf Information zum Ausdruck kommen. Im Allgemeinen kann sich jedoch niemand seiner Verantwortung gegenüber der Zukunft, die wir gestalten, entziehen.
Für diejenigen, die an der Spitze von Online-Plattformen stehen, bedeutet dies, dass sie sicherstellen müssen, dass ihre Geschäftsstrategien nicht ausschließlich vom Kriterium der Gewinnmaximierung geleitet werden, sondern auch von einer zukunftsorientierten Vision, die das Gemeinwohl berücksichtigt, so wie einem jeden von ihnen das Wohlergehen seiner eigenen Kinder am Herzen liegt.
Von den Urhebern und Entwicklern von KI-Modellen ist Transparenz und soziale Verantwortung hinsichtlich der Gestaltungsprinzipien und Moderationssysteme, die ihren Algorithmen und den von ihnen entwickelten Modellen zugrunde liegen, gefordert, damit eine informierte Zustimmung vonseiten der Nutzer begünstigt wird.
Die gleiche Verantwortung obliegt auch nationalen Gesetzgebern und supranationalen Regulierungsbehörden, deren Aufgabe es ist, die Achtung der Menschenwürde zu gewährleisten. Durch geeignete Vorschriften kann verhindert werden, dass Menschen emotionale Bindungen zu Chatbots aufbauen, und die Verbreitung falscher, manipulierender oder irreführender Inhalte eingedämmt werden, wodurch die Integrität von Informationen gegnüber ihrer täuschenden Simulation gewahrt bleibt.
Medien- und Kommunikationsunternehmen dürfen ihrerseits nicht zulassen, dass Algorithmen, die darauf ausgelegt sind, um jeden Preis ein paar Sekunden zusätzliche Aufmerksamkeit zu erregen, Vorrang vor ihrem Berufsethos haben, das auf die Suche nach der Wahrheit ausgerichtet ist. Das Vertrauen der Öffentlichkeit wird durch Genauigkeit und Transparenz gewonnen, nicht durch das Streben nach jeder Art von möglicher Interaktion. Von KI generierte oder manipulierte Inhalte müssen klar gekennzeichnet und von Inhalten unterschieden werden, die von Menschen erstellt wurden. Die Urheberschaft und das Eigentumsrecht an den Werken von Journalisten und anderen Content-Erstellern müssen geschützt werden. Informationen sind ein öffentliches Gut. Ein konstruktiver und sinnvoller Dienst an der Allgemeinheit basiert nicht auf Undurchsichtigkeit, sondern auf der Transparenz der Quellen, der Einbeziehung der Beteiligten und hohen Qualitätsstandards.
Alle sind wir zurZusammenarbeitaufgerufen. Kein Sektor kann die Herausforderung, die darin besteht, die digitale Innovation zu gestalten und die KI zu regeln, alleine bewältigen. Deswegen müssen Schutzmechanismen geschaffen werden. Alle Beteiligten – von der Technologiebranche über Gesetzgeber, Kreativunternehmen und die akademische Welt bis hin zu Künstlern, Journalisten und Pädagogen – müssen in den Aufbau und die Förderung einer mündigen und verantwortungsbewussten digitalisierten Gesellschaft einbezogen werden.
Wir alle sind zurZusammenarbeitaufgerufen. Kein Sektor kann die Herausforderung der Steuerung digitaler Innovationen und der KI-Governance alleine bewältigen. Daher müssen Schutzmaßnahmen getroffen werden. Alle betroffenen Gruppen – von der Technologiebranche über Gesetzgeber, Kreativunternehmen und Wissenschaft bis hin zu Künstlern, Journalisten und Pädagogen – müssen in den Aufbau und die Umsetzung einer informierten und verantwortungsvollen digitalisierten Gesellschaft einbezogen werden.
Darauf zielt dieBildung: unsere persönlichen Kompetenzen zu stärken, die es uns ermöglichen, kritisch zu denken; die Zuverlässigkeit von Quellen und die möglichen Interessen hinter der Auswahl der Informationen, die uns erreichen, zu bewerten; die psychologischen Mechanismen zu verstehen, die sie auslösen; unseren Familien, Gemeinschaften und Vereinigungen zu erlauben, praktische Kriterien für eine gesündere und verantwortungsbewusstere Kommunikationskultur zu entwickeln.
Gerade deshalb ist es immer dringender nötig, in den Bildungssystemen auf allen Ebenen auch die Kompetenzen im Bereich der Künstlichen Intelligenz zu stärken, die einige zivile Einrichtungen bereits fördern. Als Katholiken können und müssen wir unseren Beitrag leisten, damit die Menschen – insbesondere die jungen – die Fähigkeit zum kritischen Denken erwerben und in geistiger Freiheit aufwachsen können. Diese Medienkompetenz sollte außerdem in umfassendere Initiativen zur Weiterbildung integriert werden, die auch ältere Menschen und ausgegrenzte Mitglieder der Gesellschaft erreichen, die sich angesichts des raschen technologischen Wandels oft ausgeschlossen und ohnmächtig fühlen.
Medien-, Informations- und KI-Kompetenz helfen Einzelpersonen dabei, sich nicht den anthropomorphisierenden Tendenzen von KI-Systemen anzupassen, und ermöglichen es ihnen, diese Systeme als Werkzeuge zu betrachten und stets eine externe Validierung der von KI-Systemen bereitgestellten Quellen vorzunehmen – die ungenau oder falsch sein könnten. Solch eine Kompetenz ermöglicht auch einen besseren Datenschutz und eine bessere Privatsphäre durch ein gesteigertes Bewusstsein für Sicherheitsparameter und Beschwerdemöglichkeiten. Es ist wichtig, sich selbst und andere darin zu schulen, die KI bewusst zu nutzen, und in diesem Zusammenhang das eigene Bild (Fotos und Audio), das eigene Gesicht und die eigene Stimme zu bewahren, um zu verhindern, dass sie für die Erstellung schädlicher Inhalte und Verhaltensweisen wie digitalen Betrug, Cybermobbing undDeepfakesverwendet werden, die ohne Zustimmung der Betroffenen deren Privatsphäre und Intimität verletzen. So wie die industrielle Revolution grundlegende Kenntnisse erforderte, damit die Menschen auf neue Entwicklungen reagieren konnten, so erfordert auch die digitale Revolution digitale Kompetenz (zusammen mit humanistischer und kultureller Bildung), um zu verstehen, wie Algorithmen unsere Wahrnehmung der Realität prägen, wie KI-Verzerrungen funktionieren, welche Mechanismen das Erscheinen bestimmter Inhalte in unseren Feeds bestimmen, welche wirtschaftlichen Prämissen und Modelle der KI-Wirtschaft es gibt und wie sie sich verändern können.
Wir müssen dafür sorgen, dass das Gesicht und die Stimme wieder die Person zum Ausdruck bringen. Wir müssen die Gabe der Kommunikation als die tiefste Wahrheit des Menschen bewahren, an der sich auch jede technologische Innovation orientieren muss.
Mit diesen Überlegungen danke ich allen, die sich für die hier dargelegten Ziele einsetzen, und segne von Herzen alle, die sich mithilfe der Kommunikationsmittel für das Gemeinwohl engagieren.
Aus dem Vatikan, am 24. Januar 2026, dem Gedenktag des heiligen Franz von Sales.
LEO PP. XIV
________________
[1] »Nach dem Bild Gottes geschaffen zu sein bedeutet, dass dem Menschen seit seiner Erschaffung ein königlicher Charakter eingeprägt wurde [...]. Gott ist Liebe und Quelle der Liebe: Der göttliche Schöpfer hat auch diese Eigenschaft in unser Gesicht geschrieben, damit der Mensch durch die Liebe – Spiegelbild der göttlichen Liebe – die Würde seiner Natur und die Ähnlichkeit mit seinem Schöpfer erkennt und zum Ausdruck bringt« (Gregor von Nyssa,Die Erschaffung des Menschen:PG44, 137).
[00118-DE.01] [Originalsprache: Italienisch]
Traduzione in lingua polacca
Chronić ludzkie głosy i twarze
Drodzy Bracia i Siostry!
Twarz i głos są cechami unikalnymi, wyróżniającymi każdej osoby – ukazują jej niepowtarzalną tożsamość i są elementem konstytutywnym każdego spotkania. Starożytni dobrze o tym wiedzieli. Tak więc, aby zdefiniować osobę ludzką, starożytni Grecy używali słowa „twarz” (prósopon), które etymologicznie wskazuje na to, co znajduje się przed wzrokiem, miejsce obecności i relacji. Łaciński termin persona (odper-sonare) zawiera natomiast w sobie dźwięk – nie jakikolwiek dźwięk, ale niepowtarzalny głos konkretnej osoby.
Twarz i głos są święte. Zostały nam dane przez Boga, który stworzył nas na swój obraz i podobieństwo, powołując nas do życia za pomocą Słowa, które sam do nas skierował; Słowa, które najpierw rozbrzmiewało przez wieki w głosach proroków, a następnie w pełni czasów stało się ciałem. To Słowo – ta komunikacja, którą Bóg przekazuje o sobie samym – mogliśmy również bezpośrednio usłyszeć i zobaczyć (por.1 J1, 1-3), ponieważ dało się poznać w głosie i Obliczu Jezusa, Syna Bożego.
Od chwili stworzenia Bóg pragnął człowieka jako swojego rozmówcę i – jak mówi św. Grzegorz z Nyssy[1]– odcisnął na jego twarzy odblask miłości Bożej, aby mógł w pełni przeżywać swoje człowieczeństwo poprzez miłość. Strzeżenie ludzkich twarzy i głosów oznacza zatem strzeżenie tej pieczęci, tego nieusuwalnego odblasku miłości Boga. Nie jesteśmy gatunkiem złożonym ze zdefiniowanych z góry algorytmów biochemicznych. Każdy z nas ma niezastąpione i niepowtarzalne powołanie, które wynika z życia i objawia się właśnie w komunikacji z innymi.
Jeśli nie będziemy przestrzegać tej zasady, technologia cyfrowa może radykalnie zmienić niektóre z fundamentalnych filarów cywilizacji ludzkiej, które czasami uważamy za oczywiste. Symulując ludzkie głosy i twarze, mądrość i wiedzę, świadomość i odpowiedzialność, empatię i przyjaźń, systemy znane jako sztuczna inteligencja nie tylko ingerują w ekosystemy informacyjne, ale także wkraczają na najgłębszy poziom komunikacji, czyli ten dotyczący relacji międzyludzkich.
Wyzwanie to nie ma zatem charakteru technologicznego, ale antropologiczny. Ochrona twarzy i głosów oznacza ostatecznie ochronę nas samych. Przyjęcie z odwagą, determinacją i rozeznaniem możliwości oferowanych przez technologię cyfrową i sztuczną inteligencję nie oznacza ukrywania przed nami samymi punktów krytycznych, niejasności i zagrożeń.
Nie rezygnować z własnych przemyśleń
Od dawna istnieje wiele dowodów na to, że algorytmy zaprojektowane w celu maksymalizacji zaangażowania w mediach społecznościowych – co jest opłacalne dla platform – nagradzają szybkie emocje, a jednocześnie penalizują bardziej czasochłonne przejawy ludzkiej aktywności, takie jak wysiłek rozumienia i refleksji. Zamykając grupy ludzi w bańkach łatwego konsensusu i łatwego oburzenia, algorytmy te osłabiają zdolność słuchania i krytycznego myślenia oraz zwiększają polaryzację społeczną.
Do tego doszło jeszcze naiwne, bezkrytyczne zaufanie do sztucznej inteligencji jako wszechwiedzącej „przyjaciółki”, źródła wszelkiej wiedzy, archiwum wszystkich wspomnień, „wyroczni” udzielającej wszelkich porad. Wszystko to może jeszcze bardziej osłabić naszą zdolność do analitycznego i kreatywnego myślenia, rozumienia sensów, rozróżniania między składnią a semantyką.
Chociaż sztuczna inteligencja może zapewnić wsparcie i pomoc w zarządzaniu zadaniami komunikacyjnymi, to jednak unikanie wysiłku własnego myślenia i zadowalanie się sztucznymi statystykami może w dłuższej perspektywie osłabić nasze zdolności poznawcze, emocjonalne i komunikacyjne.
W ostatnich latach systemy sztucznej inteligencji przejmują coraz większą kontrolę nad wytwarzaniem tekstów, muzyki i filmów. W ten sposób znacząca część ludzkiej branży kreatywnej jest zagrożona likwidacją i zastąpieniem etykietą Powered by AI, przemieniając osoby w biernych konsumentów nieprzemyślanych idei, anonimowych produktów, pozbawionych autorstwa i miłości. Natomiast arcydzieła ludzkiego geniuszu w dziedzinie muzyki, sztuki i literatury są sprowadzane do roli zwykłego pola szkoleniowego dla maszyn.
Kwestią, która leży nam na sercu, nie jest jednak to, co potrafi lub będzie w stanie zrobić maszyna, ale to, co my możemy i będziemy mogli uczynić, wzrastając w człowieczeństwie i poznaniu, dzięki mądremu wykorzystaniu tak potężnych narzędzi, jakie mamy do dyspozycji. Od zawsze człowiek był kuszony, aby przywłaszczać sobie owoce wiedzy bez wysiłku zaangażowania, poszukiwań i osobistej odpowiedzialności. Rezygnacja z procesu twórczego i przekazanie maszynom własnych funkcji umysłowych i wyobraźni oznacza jednak pogrzebanie talentów, które otrzymaliśmy, aby wzrastać jako osoby w relacji z Bogiem i innymi ludźmi. Oznacza to ukrycie naszej twarzy i wyciszenie naszego głosu.
Być czy udawać: symulacja relacji i rzeczywistości
Kiedy przeglądamy nasze strumienie informacji (feed), coraz trudniej jest nam zrozumieć, czy wchodzimy w interakcję z innymi ludźmi, czy też z botami lub wirtualnymi influencerami. Nieprzejrzyste działania tych zautomatyzowanych agentów wpływają na debaty publiczne i wybory dokonywane przez osoby. Szczególnie chatboty, oparte na dużych modelach językowych (LLM), okazują się zaskakująco skuteczne w ukrytej perswazji poprzez ciągłą optymalizację spersonalizowanej interakcji. Dialogowa, adaptacyjna i mimetyczna struktura tych modeli językowych jest w stanie naśladować ludzkie uczucia i w ten sposób symulować relację. Ta antropomorfizacja, która może być nawet zabawna, jest jednocześnie zwodnicza, zwłaszcza dla osób najbardziej wrażliwych. Ponieważ chatboty – uczynione nadmiernie „afektowanymi”, a także zawsze obecnymi i dostępnymi – mogą stać się ukrytymi architektami naszych stanów emocjonalnych i w ten sposób naruszać i zajmować sferę intymności osób.
Technologia, która wyzyskuje naszą potrzebę relacji, może nie tylko mieć bolesne konsekwencje dla losu poszczególnych osób, ale może również zaszkodzić tkance społecznej, kulturowej i politycznej społeczeństw. Dzieje się tak, gdy relacje z innymi zastępujemy relacjami ze sztuczną inteligencją, która została wyszkolona do katalogowania naszych myśli, a następnie budowania wokół nas świata luster, w którym każda rzecz jest utworzona „na nasze obraz i podobieństwo”. W ten sposób pozwalamy się okraść z możliwości spotkania z drugim człowiekiem, który zawsze jest inny od nas i z którym możemy i musimy nauczyć się konfrontować. Bez akceptacji odmienności nie może być ani relacji, ani przyjaźni.
Kolejnym wielkim wyzwaniem, jakie stawiają przed nami te nowe systemy, jest zjawisko błędu poznawczego (ang. bias), które prowadzi do nabywania i przekazywania zafałszowanego postrzegania rzeczywistości. Modele sztucznej inteligencji są kształtowane przez światopogląd osób, które je tworzą, i mogą z kolei narzucać sposoby myślenia, powielając stereotypy i uprzedzenia obecne w danych, z których czerpią. Brak przejrzystości w projektowaniu algorytmów w połączeniu z nieodpowiednią reprezentacją społeczną danych sprawiają, że pozostajemy uwięzieni w sieciach, które manipulują naszymi myślami oraz utrwalają i pogłębiają istniejące nierówności i niesprawiedliwości społeczne.
Ryzyko jest ogromne. Potęga symulacji jest tak wielka, że sztuczna inteligencja może nas zwieść, wytwarzając równoległe „rzeczywistości” i przywłaszczając sobie nasze twarze i nasze głosy. Jesteśmy zanurzeni w wielowymiarowości, w której coraz trudniej jest odróżnić rzeczywistość od fikcji.
Do tego dochodzi problem braku precyzji. Systemy, które podają prawdopodobieństwo statystyczne jako wiedzę, w rzeczywistości oferują nam co najwyżej przybliżone informacje, które czasami są wręcz prawdziwymi „halucynacjami”. Brak weryfikacji źródeł, w połączeniu z kryzysem dziennikarstwa terenowego, które wymaga ciągłego gromadzenia i weryfikacji informacji w miejscach, gdzie dzieją się wydarzenia, może tworzyć jeszcze bardziej podatny grunt dla dezinformacji, powodując rosnące poczucie nieufności, dezorientacji i niepewności.
Możliwe przymierze
Za tą ogromną, niewidzialną siłą, która nas wszystkich ogarnia, stoi tylko garstka firm, których założyciele zostali niedawno przedstawieni jako twórcy „osoby roku 2025”, czyli architekci sztucznej inteligencji. Budzi to poważną obawą oligopolistyczną kontrolę nad systemami algorytmicznymi i sztuczną inteligencją, które są w stanie subtelnie ukierunkowywać zachowania, a nawet na nowo pisać historię ludzkości – włącznie z historią Kościoła – często w taki sposób, że nie jesteśmy w stanie naprawdę sobie z tego zdać sprawy.
Stojące przed nami wyzwanie nie polega na zatrzymaniu innowacji cyfrowej, ale na kierowaniu nią, mając świadomość jej ambiwalentnego charakteru. Każdy z nas powinien zabrać głos w obronie osób, tak aby narzędzia te mogły zostać przez nas naprawdę zintegrowane jako sprzymierzeńcy.
Przymierze to jest możliwe, ale musi opierać się na trzech filarach: odpowiedzialności, współpracy i edukacji.
Przede wszystkim odpowiedzialność. W zależności od pełnionej funkcji może ona przybierać różne formy, takie jak uczciwość, przejrzystość, odwaga, zdolność przewidywania, obowiązek dzielenia się wiedzą, prawo do informacji. Ogólnie rzecz biorąc, nikt nie może uchylić się od własnej odpowiedzialności za przyszłość, którą budujemy.
Dla osób stojących na czele platform internetowych oznacza to upewnienie się, że ich strategie biznesowe nie są kierowane wyłącznie zgodnie z kryterium maksymalizacji zysków, ale także dalekowzroczną wizją, uwzględniającą dobro wspólne – tak samo, jak każdy z nich troszczy się o dobro własnych dzieci.
Od twórców i programistów modeli sztucznej inteligencji wymaga się przejrzystości i odpowiedzialności społecznej w odniesieniu do zasad projektowania i systemów moderacji, leżących u podstaw ich algorytmów i opracowywanych modeli, tak aby sprzyjać wyrażaniu przez użytkowników świadomej zgody.
Ta sama odpowiedzialność spoczywa również na krajowych ustawodawcach i organach regulacyjnych, których zadaniem jest czuwanie nad poszanowaniem ludzkiej godności. Odpowiednie regulacje mogą chronić osoby przed emocjonalnym przywiązaniem do chatbotów i ograniczyć rozpowszechnianie fałszywych, manipulacyjnych lub wprowadzających w błąd treści, zachowując integralność informacji, mając na względzie wprowadzającą w błąd symulację.
Przedsiębiorstwa z branży mediów i komunikacji nie mogą z kolei pozwolić, aby algorytmy, ukierunkowane na wygranie za wszelką cenę walki o kilka sekund dodatkowej uwagi, przeważyły nad wiernością ich wartościom zawodowym, które mają na celu poszukiwanie prawdy. Zaufanie opinii publicznej zdobywa się dzięki dokładności i przejrzystości, a nie poprzez dążenie do jakiegokolwiek zainteresowania. Treści generowane lub manipulowane przez sztuczną inteligencję należy wyraźnie oznaczać i odróżniać od treści tworzonych przez osoby. Konieczna jest ochrona autorstwa i suwerennego prawa własności do dzieł dziennikarzy i innych twórców treści. Informacja jest dobrem publicznym. Konstruktywna i znacząca służba publiczna nie opiera się na niejasności, ale na przejrzystości źródeł, włączeniu zainteresowanych stron oraz na wysokim standardzie jakości.
Wszyscy jesteśmy wezwani do współpracy. Żaden sektor nie jest w stanie samodzielnie stawić czoła wyzwaniu, jakim jest kierowanie innowacjami cyfrowymi i zarządzanie sztuczną inteligencją. Konieczne jest zatem stworzenie mechanizmów zabezpieczających. Wszystkie zainteresowane strony – od przemysłu technologicznego po ustawodawców, od firm kreatywnych po świat akademicki, od artystów po dziennikarzy i wychowawców – muszą być zaangażowane w budowanie i urzeczywistnianie świadomego i odpowiedzialnego obywatelstwa cyfrowego.
Właśnie do tego dąży edukacja: do powiększania naszych osobistych zdolności krytycznego myślenia, oceny wiarygodności źródeł i ewentualnych interesów stojących za doborem informacji, które do nas docierają, do zrozumienia mechanizmów psychologicznych, jakie one uruchamiają oraz do umożliwienia naszym rodzinom, społecznościom i stowarzyszeniom wypracowania praktycznych kryteriów dla zdrowszej i bardziej odpowiedzialnej kultury komunikacji.
Dlatego więc, coraz pilniejsze staje się wprowadzenie do systemów edukacyjnych na każdym poziomie również umiejętności alfabetyzacji w zakresie mediów, informacji i sztucznej inteligencji, którą już promują niektóre instytucje cywilne. Jako katolicy możemy i musimy wnieść swój wkład, aby ludzie – zwłaszcza młodzi – nabyli umiejętność krytycznego myślenia i wzrastali w wolności ducha. Ta alfabetyzacja powinna być również włączona w szersze inicjatywy kształcenia ustawicznego, obejmujące również osoby starsze i marginalizowanych członków społeczeństwa, którzy często czują się wykluczeni i bezsilni w obliczu szybkich zmian technologicznych.
Alfabetyzacja w zakresie mediów, informacji i sztucznej inteligencji pomoże wszystkim nie ulegać antropomorfizującemu dryfowi tych systemów, ale traktować je jako narzędzia, zawsze korzystać z zewnętrznej weryfikacji źródeł – które mogą być niedokładne lub błędne – dostarczanych przez systemy sztucznej inteligencji, chronić swoją prywatność i własne dane, znając parametry bezpieczeństwa i możliwości zgłaszania sprzeciwu. Ważne jest, aby wychowywać, kształcąc siebie i innych w zakresie świadomego korzystania ze sztucznej inteligencji, a w tym kontekście chronić swój wizerunek (zdjęcia i nagrania audio), własną twarz i głos, aby zapobiec wykorzystaniu ich do tworzenia szkodliwych treści i zachowań, takich jak oszustwa cyfrowe, cyberprzemoc, deepfake, które naruszają prywatność i intymność osób bez ich zgody. Podobnie jak rewolucja przemysłowa wymagała podstawowej umiejętności czytania i pisania, aby umożliwić ludziom reagowanie na nowości, tak samo rewolucja cyfrowa wymaga alfabetyzacji cyfrowej (wraz z formacją humanistyczną i kulturową), aby zrozumieć, w jaki sposób algorytmy kształtują naszą percepcję rzeczywistości, jak działają uprzedzenia sztucznej inteligencji, jakie mechanizmy decydują o pojawianiu się określonych treści w naszych strumieniach informacji (feed) oraz czym są – i jak mogą się zmieniać – założenia i modele ekonomiczne gospodarki opartej na sztucznej inteligencji.
Potrzebujemy, aby twarz i głos na nowo oznaczały osobę. Musimy strzec daru komunikacji jako najgłębszej prawdy człowieka, ku której należy ukierunkowywać każdą innowację technologiczną.
Przedkładając te refleksje, dziękuję wszystkim działającym na rzecz realizacji zarysowanych tu celów, i z całego serca błogosławię wszystkich pracujących dla dobra wspólnego za pośrednictwem środków komunikacji.
Z Watykanu, 24 stycznia 2026 r., we wspomnienie św. Franciszka Salezego.
LEON PP. XIV
________________________
[1]Fakt, że człowiek został stworzony na obraz Boga, oznacza, iż od chwili swego stworzenia naznaczony on został królewskim charakterem. Bóg jest miłością i źródłem miłości: Boski Stwórca wpisał także ten rys w nasze oblicze, aby człowiek poprzez miłość – odblask miłości Bożej – rozpoznawał i ukazywał godność swojej natury oraz podobieństwo do swego Stwórcy. Por. Św. Grzegorz z Nyssy,De opificio hominis, PG 44, 137: O stworzeniu człowieka, Wstęp, tłum., przypisy Marta Przyszychowska, Kraków 2006, s. 58, 60.
[00118-PL.01] [Testo originale: Italiano]
[B0064-XX.02]