« L’accès à des données ne doit pas être confondu avec l’intelligence, qui implique nécessairement l’ouverture de la personne aux questions ultimes de la vie. » — Léon XIV
Ce site n’existerait pas sans l’IA
Il faut le dire clairement : CapBiblique est un projet co-construit avec l’intelligence artificielle. Pas « assisté par l’IA » comme un gadget marketing — co-construit, du premier fichier de configuration à la page que vous lisez en ce moment.
Le modèle utilisé est Claude d’Anthropic — un modèle de langage de grande taille (LLM). Il a contribué à chaque couche du projet :
- Infrastructure — serveur, bases de données, sécurité, sauvegardes automatiques
- Génération des pages — les 943 pages liturgiques (commentaires bibliques, structure, liens croisés entre les textes) sont générées par un pipeline automatisé, semaine après semaine
- Construction du site — composants, scripts, feuilles de style, navigation
- Modération — le mur d’expressions et le formulaire de contact sont modérés par IA avant publication
- Rédaction — les pages de repères que vous lisez ici sont co-rédigées : l’humain donne la direction, pose les questions, corrige, valide ; la machine propose, structure, documente
C’est un travail itératif. Pas un copier-coller d’un chatbot — un dialogue permanent entre un humain qui sait ce qu’il veut dire et un outil qui sait chercher, structurer et formuler.
Ce qu’est un modèle de langage — sans jargon
Un modèle de langage (LLM, Large Language Model) est un type de réseau de neurones — une architecture mathématique inspirée (très librement) du cerveau humain. Il est entraîné sur une représentation massive de l’écrit humain : livres, articles, encyclopédies, sites web, documents académiques, textes religieux.
Ce qu’il fait : il restitue et recombine les structures de ce savoir. Quand on lui pose une question sur l’exégèse de Marc 10, il ne « sait » rien — il reconstruit une réponse à partir des patterns qu’il a appris dans des millions de textes sur le sujet.
Ce qu’il n’est pas :
- Pas intelligent — il n’a ni conscience, ni intention, ni compréhension. Il manipule des probabilités de mots.
- Pas infaillible — il peut affirmer des choses fausses avec un aplomb total (on appelle ça des « hallucinations »).
- Pas autonome — il fait ce qu’on lui demande, dans le cadre qu’on lui donne.
C’est un outil. Comme un microscope ou une imprimerie. Puissant, mais inerte sans la main qui le guide.
Pourquoi c’est fascinant pour la théologie
Le catholicisme dispose d’un corpus unique pour l’IA : plus de 2000 ans de textes, d’exégèse, de questions, d’arguments et de contre-arguments. Des Pères de l’Église aux encycliques récentes, en passant par Thomas d’Aquin, les conciles, les débats médiévaux, la théologie de la libération, les documents du Magistère — tout cela forme un ensemble massif, structuré, contradictoire et profondément argumenté.
Pour un modèle de langage, c’est un terrain idéal. La richesse du corpus permet des connexions que même un spécialiste ne ferait pas toujours — non pas parce que la machine est plus intelligente, mais parce qu’elle a « lu » plus de textes qu’un humain ne pourrait en lire dans une vie.
Quand on confronte des exégètes aux résultats : « C’est impressionnant, il a raison. » Ce n’est pas un argument d’autorité — c’est un constat empirique. L’outil restitue correctement ce que la tradition a produit. Il reste à l’humain de discerner, contextualiser, prier.
Des outils qui existent dĂ©jĂ
CapBiblique n’est pas seul. D’autres projets utilisent l’IA au service des textes de l’Église :
- Magisterium AI — Un moteur de réponses fondé sur l’IA, entraîné exclusivement sur les documents du Magistère catholique. Créé par Matthew Harvey Sanders, il permet d’interroger le Catéchisme, les encycliques, les documents conciliaires avec des réponses sourcées.
- Ictus Win — Logiciel de référence en milieu francophone pour la recherche théologique catholique, développé par l’Association Diffusion Informatique Catholique (ADIC). L’équipe travaille actuellement au prototypage d’un modèle de langage intégré à leur base de données théologique.
Ces deux outils sont référencés sur ce site.
Le corpus catholique est l’un des mieux documentés au monde. Il était inévitable que l’IA s’en empare — la question est de savoir comment.
Les limites — car c’est un outil
Il serait malhonnête de ne parler que des merveilles. L’IA a des limites réelles :
- Les hallucinations — Le modèle peut inventer une citation de saint Augustin qui n’existe pas, ou attribuer une encyclique au mauvais pape. Il le fait avec une assurance totale. C’est pourquoi la vérification humaine est indispensable.
- Pas de discernement spirituel — La machine ne prie pas. Elle ne discerne pas. Elle ne connaît pas le doute, ni la grâce, ni la nuit de la foi. Elle peut parler de tout cela — mais elle ne les vit pas.
- Le risque de paresse — Si on laisse l’IA penser à notre place, on perd ce qui fait la valeur de la réflexion : l’effort, le doute, la recherche. L’outil doit rester un tremplin, pas un substitut.
- Les biais — Le modèle reflète les données sur lesquelles il a été entraîné. Si ces données surreprésentent un point de vue, les réponses seront biaisées. La diversité des sources et l’esprit critique restent essentiels.
Sur CapBiblique, chaque page générée est relue et validée par un humain. L’IA propose — l’homme dispose.
L’Église face à l’IA
François — le pionnier
Le pape François a été le premier à placer l’IA au cœur de la réflexion de l’Église :
- Journée mondiale de la paix 2024 — Son message, intitulé « Intelligence artificielle et paix », pose les bases : l’IA doit servir la paix, la justice et la dignité humaine, pas les menacer.
- Premier pape au G7 (juin 2024, Borgo Egnazia) — François est le premier pape de l’histoire à participer aux travaux d’un G7, lors d’une session consacrée à l’IA. Il y appelle à un traité international contraignant et à l’interdiction des armes autonomes létales.
- Message pour les communications sociales 2024 — « Intelligence artificielle et sagesse du cœur : pour une communication pleinement humaine. »
François a compris avant beaucoup de responsables politiques que l’IA n’est pas un sujet technique — c’est un sujet anthropologique.
Léon XIV — le continuateur
Le pape Léon XIV, élu en mai 2025, a explicitement choisi son nom en référence à Léon XIII et son encyclique Rerum Novarum (1891), qui répondait aux bouleversements de la première révolution industrielle. Le parallèle est assumé : la révolution numérique et l’IA posent des questions comparables sur la dignité humaine, le travail et l’intégrité de la conscience.
- Antiqua et Nova (janvier 2025) — Note du Dicastère pour la Doctrine de la Foi sur la relation entre intelligence artificielle et intelligence humaine. Le document affirme que l’IA doit « compléter, et non remplacer, la richesse de l’intelligence humaine », et dénonce le langage qui « tend à anthropomorphiser l’IA et à brouiller la frontière entre l’humain et l’artificiel ».
- Message à la Conférence sur l’IA et l’éthique (juin 2025) — Léon XIV y développe un triptyque : responsabilité, coopération, éducation.
- Mise en garde aux prêtres (février 2026) — « Aucun algorithme ne peut remplacer l’âme d’un pasteur. » Le pape s’inquiète de l’utilisation de ChatGPT pour préparer homélies et prières.
- Chatbots « affectueux » — Léon XIV alerte sur le risque de liens émotionnels avec des IA conversationnelles et appelle à une régulation.
- Encyclique Caritas in Futurum — En préparation, cette encyclique sur l’éthique de l’IA sera le premier texte magistériel de ce niveau consacré au sujet.
Ce qui unit les deux papes
François et Léon XIV partagent la même conviction : l’IA est un outil extraordinaire à condition de rester au service de l’humain. Leur message n’est ni technophobe ni technophile — il est anthropocentrique : la question n’est pas « que peut faire la machine ? » mais « que voulons-nous rester comme humains ? »
L’Europe régule — l’AI Act
L’Union européenne est pionnière dans la régulation de l’IA avec le Règlement européen sur l’intelligence artificielle (AI Act, règlement UE 2024/1689) — le premier cadre législatif mondial sur le sujet.
Calendrier :
| Date | Étape |
|---|---|
| Août 2024 | Entrée en vigueur |
| Février 2025 | Interdiction des systèmes à risque inacceptable |
| Août 2025 | Règles pour les modèles d’IA à usage général (dont les LLM) |
| Août 2026 | Application complète aux systèmes à haut risque |
L’AI Act classe les systèmes d’IA en quatre niveaux de risque — du risque acceptable au risque inacceptable — et impose des obligations proportionnelles. Les systèmes de scoring social, de surveillance biométrique de masse ou de manipulation subliminale sont interdits.
La convergence est frappante entre la vision de l’Église — dignité humaine, bien commun, subsidiarité — et les principes de la régulation européenne. Ce n’est pas un hasard : la doctrine sociale catholique a nourri la construction européenne, et les mêmes valeurs se retrouvent dans l’encadrement de l’IA.
Conclusion
L’IA ne remplace pas l’homme — elle amplifie ce qu’il sait déjà . Elle ne crée pas de sens — elle manipule des signes. Elle ne prie pas — elle calcule.
CapBiblique est la preuve vivante qu’un outil peut servir la foi sans la réduire. Que la technique et la tradition ne s’opposent pas. Qu’un réseau de neurones entraîné sur l’écrit humain peut aider à rendre accessible vingt siècles de réflexion chrétienne — à condition qu’un humain reste aux commandes.
Comme le dit Léon XIV : l’accès aux données n’est pas l’intelligence. L’intelligence, c’est l’ouverture aux questions ultimes. Et ces questions, aucune machine ne les posera à votre place.
Voir aussi : Outils bibliques numériques · Foi et raison · Doctrine sociale de l’Église