Ce rapport a servi de base à une discussion avec une commission de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST). Nos rapports sont à visée académique, fruit d’un travail de recherche fondamentale indépendant des autorités compétentes en matière de santé. En matière de santé publique et pour toute question, nous recommandons de consulter et suivre les instructions officielles disponibles sur https://www.gouvernement.fr/info-coronavirus.
La rencontre des calculs mathématiques et de la santé publique est classiquement datée au XVIIIième siècle. À cette époque, l’Europe découvre la variolisation – importée d’Asie où elle pratiquée depuis plusieurs siècles déjà –, c’est-à-dire l’inoculation volontaire du virus de la variole à partir de survivants à cette maladie. La question est alors de savoir si cet acte, précurseur de la vaccination, doit être encouragé dans le but d’assurer une protection collective malgré une mortalité collatérale non négligeable. En estimant, à partir de l’étude d’équations différentielles, un gain de trois ans d’espérance de vie par variolisation collective, le travail de Daniel Bernoulli (1760, Acad. Roy. Sci.) est ainsi considéré comme le point de départ de l’épidémiologie mathématique. Au même moment, Leonhard Euler met en évidence une égalité connue depuis sous le nom d’équation d’Euler-Lotka qui est encore aujourd’hui centrale dans l’estimation de paramètres épidémiologiques clés, comme le nombre de reproduction.
Bernoulli supposait toutefois que la probabilité qu’un individu contracte la maladie (l’incidence) était constante au cours du temps. Si cette hypothèse est acceptable pour des maladies endémiques, qui circulent constamment au cours de l’année, elle ne s’applique pas aux vagues épidémiques. En effet, au début d’une épidémie, la proportion d’individus contagieux (la prévalence) augmente exponentiellement.
En rendant l’incidence proportionnelle à la prévalence, Kermack et McKendrick (1927, Proc R Soc Lond A), sur l’exemple de la peste en Inde, introduisent la non-linéarité dans les modèles épidémiologiques et jettent les bases du plus connu d’entre eux, le modèle SIR (pour “Sensible”, “Infecté”, “Retiré”). L’immense majorité des modèles actuellement utilisés (comme par exemple notre modèle SEAIR sur le COVID-19) en dérivent.
En parallèle, le développement du champ des probabilités au sens large, a permis aux approches statistiques et stochastiques d’investir les sujets de santé publique, regroupées sous le nom de biostatistiques, sur lesquelles reposent les analyses de données actuelles en biomédecine, qu’il s’agisse de maladies infectieuses ou non.
Les méthodes les plus récentes, à l’image de la phylodynamique, ont enfin été permises par le développement informatique d’une part, et des capacités de séquençage génétique d’autre part.
Comme tous les modèles, ces approches simplifient la réalité afin de répondre à une question scientifique précise. En conséquence, le choix d’une question claire et cernée doit doit précéder celui du modèle le plus adapté. En effet, un modèle ne peut être à la fois réaliste et généraliste, sans parler d’autres contraintes comme la parcimonie, l’identifiabilité, l’intelligibilité.
On peut distinguer trois grands types d’utilisation des modèles :
comprendre : l’ambition d’un modèle est d’éclairer notre compréhension d’un phénomène dynamique, en fournissant un cadre de raisonnement adapté, quantifié, manipulable et falsifiable, pour pallier aux limites d’une analyse intuitive et verbale. En particulier, un modèle peut être utilisé comme validation logique (proof-of-concept) d’une conjecture.
décrire : en analysant des données, un modèle permet de mieux comprendre et de résumer l’information sur l’état d’un phénomène voire d’estimer quantitativement des paramètres qui ne sont pas directement mesurables (par exemple l’effet qu’a le confinement sur la propagation de l’épidémie de COVID-19).
prévoir : les données du passée et du présent contiennent un signal qui fournit des indications sur les variations à venir. Une fois identifié ce signal et son comportement, des prédictions de la dynamique épidémique peuvent être réalisées, en explorant une diversité de scénarios selon l’incertitude sur des paramètres mal connus.
L’ajustement du modèle aux données empiriques et l’analyse de sensibilité sont deux méthodes qui permettent d’apprécier le potentiel explicatif d’un modèle.
Il existe ensuite une myriade d’approches de modélisation dont la revue ne fait pas l’objet de ce rapport. Citons quand même les distinctions entre modèles déterministes vs. stochastiques (les seconds introduisent des processus aléatoires), modèles avec vs. sans structure spatiale, modèles compartimentés vs. individu-centrés, modèles avec vs. sans effet mémoire, modèle avec vs. sans évolution génétique… Les approches les plus appropriées dépendent de la question posée.
Cette diversité méthodologique ainsi que la nécessité de choisir des valeurs pour les paramètres inconnus (par exemple la distribution du temps passé en service de réanimation) explique que différents modélisateurs aboutissent à différents résultats quantitatifs.
Cet axe de travail est porté par Mircea T. Sofonea.
Afin de mieux cerner la propagation de l’épidémie, nous avons développé un modèle à compartiments. Celui-ci est décrit sur le site de notre application COVIDSIM-FR qui permet de visualiser l’effet de diverses mesures de contrôle.
Schématiquement, notre modèle suppose qu’à un instant donné, chaque individu peut être rangé dans l’une des catégorie suivantes :
sensibles (leur nombre est \(S_i\)) : ils sont susceptibles d’être infectés avec une probabilité qui dépend du nombre de personnes infectées ainsi que des éventuelles mesures de santé publique (\(i\) correspond à la classe d’âge de la personne, qui détermine un risque moyen de complications),
infectés non critiques (\(J_i\)) : ils développent une infection par le SARS-CoV-2 qui ne nécessite pas d’hospitalisation mais est contagieuse,
infectés critiques (\(Y_i\)) : leur infection s’accompagne de complications respiratoires qui nécessiteront une prise en charge en services de réanimation et soins intensifs (cf. infra),
en réanimation (\(H_i\)) : c’est un stade qui suit l’infection critique et correspond aux données de Santé Publique France sur le nombre de patients hospitalisés en réanimation,
immunisés (\(R_i\)) : l’ensemble des individus guéris, on suppose que leur mémoire immunitaire les protège d’une ré-infection par le SARS-CoV-2 (au moins d’ici la fin de l’année),
décédés (\(D_i\)) : cette classe correspond aux personnes décédées après être passées en réanimation.
La grande originalité de ce modèle est qu’il est en temps discret. En effet, classiquement, comme on s’intéresse à ce qui se passe dans un futur lointain, on utilise plutôt des modèles en temps continu à l’aide d’équations différentielles. L’avantage des modèles en temps discret est qu’ils peuvent être beaucoup plus précis sur le temps court car ils permettent de prendre en compte des effets de mémoire.
Pour illustrer cet effet, considérons deux individus infectés par le COVID-19, A et B. Alors qu’A a été infecté il y a deux semaines, B a été infecté il y a seulement 3 jours. Dans notre modèle avec mémoire, la probabilité qu’A guérisse ou ne soit plus contagieux le lendemain est plus importante que celle de B, tandis que dans un modèle sans mémoire classique (à base d’équations différentielles ordinaires), ces probabilités sont égales, ce qui est moins réaliste. Cet aspect prend la forme d’une succession de sous-classes dans le diagramme ci-dessus, dont le deuxième indice (\(1\) à \(g\) pour \(J_{i,\cdot}\) par exemple) correspond aux nombres de jours écoulés depuis le début de l’infection. C’est cette succession de sous-classe qui permet de garder la mémoire de l’historique d’infection de chaque individu.
Grâce au modèle en temps discret, nous parvenons à bien capturer les séries temporelles de courbes d’incidence. En particulier, l’augmentation rapide du nombre de décès journaliers est très difficile à expliquer sans effet mémoire dans le modèle.
Ce modèle permet de comprendre aussi les effets qu’ont les variations des différents paramètres clés sur la propagation de l’épidémie.
Cet axe de travail est porté par Samuel Alizon, Mircea T. Sofonea, Gonché Danesh et Bastien Reyné.
Un nombre clé en épidémiologie est le nombre de reproduction de base, aussi appelé \(\mathcal{R}_0\). Biologiquement, il correspond au nombre moyen de personnes que contamine une personne contagieuse au cours de son infection au début de l’épidémie.
Pour l’épidémie de COVID-19 en France, dans notre Rapport n°1, nous avons estimé sa valeur entre 2,5 et 3,5. Toutefois, cette estimation comporte deux limites importantes : d’une part les données d’incidence utilisées (nombre de nouveaux cas détecté chaque jour) sont soumises aux changements des consignes de dépistage, d’autre part, le temps de génération (le temps entre le date à laquelle une personne est infectée et celle à la quelle elle infecte une autre personne en moyenne) est inconnu pour la France.
Une des raisons pour lesquelles ce nombre de reproduction de base est clé est qu’il détermine la fraction de la population qui doit être immunisée pour que l’épidémie commence à décliner. Dans notre Rapport n°2, nous expliquons pourquoi cette proportion correspond à 67
% de la population. Nous calculons aussi le pourcentage de la population qui serait infecté si aucune de mesure de contrôle n’était prise (donc un scénario “catastrophe”), soit près de 90 % de la population.
Cet axe de travail est porté par Samuel Alizon, Bastien Reyné et Mircea T. Sofonea.
Le nombre de reproduction va varier au cours d’une épidémie pour deux raisons. D’une part car des mesures de santé publique sont mises en place, d’autre part car au fur et à mesure de la propagation de l’épidémie la population s’immunise, les personnes ayant guéries étant protégées contre une réinfection (au moins dans le futur proche).
En calculant le nombre de reproduction temporel \(\mathcal{R}(t)\), on peut donc connaître le risque de propagation de l’épidémie à une date \(t\). S’il est plus grand que 1, l’épidémie est toujours en croissance, s’il est plus petit que 1, elle décroît.
Nous avons mis en place une application en ligne qui permet de calculer \(\mathcal{R}(t)\) dans différents pays ou régions et départements de France en utilisant différent types de données. Car, tout comme pour le nombre de reproduction de base \(\mathcal{R}_0\), son calcul requiert deux données : l’incidence (nombre de nouveaux cas par jours) et le temps de génération.
Le nombre de nouveaux cas par jour peut être calculé sur les dépistage, les décès, mais aussi les entrées en réanimation et les hospitalisations. Chacun de ces jeux de données a ses avantages et ses inconvénients.
Un soucis fréquent est qu’il y a toujours un délai entre le moment où une personne est infectée, et le moment où elle peut être dépistée, hospitalisée, ou décédée. Par conséquent, il y a toujours un décalage entre le nombre de reproduction temporel mesuré et l’état de l’épidémie. Au mieux, cet écart est d’une semaine et il peut potentiellement être d’un mois.
À noter que ces estimations ne requièrent pas que tous les cas soient détectés. En revanche, il faut que la politique de dépistage soit constant au cours du temps. Si tout d’un coup vous dépistez plus, alors le nombre de cas va augmenter mécaniquement et tirer le nombre de reproduction temporel vers le haut.
À part pour les décès, nos estimations indiquent que le nombre de reproduction temporel est passé sous le seuil de 1 depuis au moins trois semaines.
Avantages | Limites |
---|---|
connaissance de la vitesse de propagation de l’épidémie | délai d’au moins une semaine avec l’épidémie |
estimer l’effet des politiques de santé publique | variations d’échantillonnage |
pas besoin d’un modèle mécanistique |
Cet axe de travail est porté par Samuel Alizon, Baptiste Elie et Gonché Danesh.
Grâce aux données génétiques des génomes de virus, il est possible d’accéder à des informations supplémentaires. C’est le travail d’un champ appelé phylodynamique et repose sur l’inférence d’arbres phylogénétiques.
La phylodynamique nous permet d’effectuer des mesures statistiques à propos de l’information contenue dans les génomes de virus. Ainsi, on peut montrer qu’il y a une structure dans la phylogénie française (les séquences issues de mêmes régions ont tendance à être groupées) et il semble aussi y a voir eu plusieurs introductions de l’épidémie en France (plusieurs clades diffèrent depuis la racine de l’arbre à gauche).
Nous avons ainsi daté l’origine des introductions ayant conduit à la majorité de l’épidémie en France. En effet, le hasard jouant un rôle prépondérant dans un début d’épidémie (comme détaillé dans cet article), il est très vraisemblable que les premières introductions aient conduit à des micro-épidémies qui se sont éteintes (chaque introduction avait au minimum 66 % de chances de s’éteindre). Au final, nous trouvons une date de début d’épidémie qui remonte au tout début du mois de février avec un intervalle de confiance qui s’étend de la mi-janvier à la mi-février.
Nous avons pu aussi estimer les variations de vitesse de propagation de l’épidémie. On voit ainsi que le nombre de reproduction temporel (\(\mathcal{R}(t)\)) est le plus élevé entre le 17 février le 7 mars (entre 1,5 et 3,9) mais qu’il baisse ensuite (entre 0,8 et 1,4).
Enfin, nous avons pu estimer le temps de génération, qui permet d’estimer le nombre de jours entre le moment où une personne est infectée et le moment où elle infecte quelqu’un d’autre. L’approche phylodynamique est cohérente avec les données de suivi de contact.
Avantages | Limites |
---|---|
accès à des informations temporelles | peu de séquences virales disponibles en France |
moins de biais d’échantillonnage | vitesse d’évolution inconnue |
Cet axe de travail est porté par Mircea T. Sofonea.
Grâce à notre modèle mécanistique en temps discret, nous avons pu estimer l’effet que le confinement a eu sur le nombre de reproduction de base. Pour cela, nous avons supposé que ce nombre de reproduction était tel que \(\mathcal{R}_0 = 3\).
Nos résultats préliminaires indiquer une division par 4 du \(\mathcal{R}_0\) (et donc du taux de contact), soit un \(\mathcal{R}(t)\) de 0,73 ce qui est cohérent avec le modèle bien plus simple utilisé par notre application en ligne. Ces prévisions sont illustrées sur la figure suivante (à prendre avec précaution du fait de l’absence d’intervalles de confiance pour le moment.)
Notre travail actuel se concentre tout particulièrement sur la production d’intervalles de confiance autour de ces estimations, l’approche statistique étant rendue délicate par l’incertitude sur de nombreux paramètres qu’il faut estimer simultanément du fait du manque de données.
Avantages | Limites |
---|---|
estimation précise car mécanistique | inconnues sur certains paramètres |
facilite les prévisions | difficultés statistiques |
Cet axe de travail est porté par Ramsès Djidjou-Demasse.
Intuitivement, on se demande par combien il faut diviser la transmission pour contrôler l’épidémie. La théorie du contrôle optimal (ou de la commande optimale) permet d’aller plus loin en autorisant cette intensité de contrôle à varier au cours du temps. On cherche donc la meilleure valeur de contrôle à utiliser chaque jour pendant une durée donnée.
Nous avons appliqué cette approche au COVID-19 pour trouver le meilleur contrôle à appliquer sur l’épidémie pendant les 100 premières semaines, soit le temps estimé pour découvrir et mettre en place un traitement ou vaccin. Le modèle sous-jacent est une version en temps continu plus simple que notre modèle discret et qui est détaillé dans notre Rapport n°3. Le modèle de contrôle optimal fait lui l’objet d’un preprint en anglais.
Les résultats sont représentés sur la figure suivante. En cyan, la courbe représente le contrôle optimal prédit par la théorie. En noir, le scénario catastrophe où aucune mesure ne serait prise pour limiter la propagation de l’épidémie. En beige, une stratégie avec un confinement extrêmement fort suivi d’un confinement plus léger. Les panneaux de la figure représentent :
l’intensité du contrôle exercée au cours du temps,
le nombre d’infections sévères au cours du temps pour les 3 scénarios,
le nombre de décès directement liés au COVID-19,
le nombre de décès indirects liés à la réaffectation des ressources pour lutter contre le COVID-19.
Pour simplifier, la stratégie proposée par le contrôle optimal consiste à rapidement contrôler fortement l’épidémie pour ensuite relâcher progressivement ce contrôle. On note plusieurs points à propos de cette stratégie :
le contrôle reste toujours en dessous 50 % de réduction des contacts individuels, ce qui correspond au confinement actuel en France,
on ne relâche jamais complètement le contrôle au cours de l’épidémie,
le contrôle commence dès le début de l’épidémie.
Concrètement, cette stratégie permet d’endiguer/supprimer l’épidémie de manière efficace sur la période considérée. On voit aussi qu’elle confère de bien meilleurs résultats que la stratégie catastrophe (ce qui est logique) mais aussi qu’une stratégie de contrôle constant. À noter qu’afin de pouvoir comparer les choses, l’intensité totale du contrôle effectuée pendant les 100 semaines est identique dans les deux scénarios.
Avantages | Limites |
---|---|
excellente efficacité | difficulté à définir la fonction à maximiser |
facilité à modéliser | les résultats dépendent de l’acceptabilité du contrôle par la population |
difficulté à implémenter la stratégie optimale sur le terrain |
Cet axe de travail est porté par Quentin Richard et Ramsès Djidjou-Demasse.
Une des fortes caractéristiques du COVID-19 est son effet différentiel selon l’âge, tant au niveau des symptômes que de la mortalité.
Nous avons développé un modèle avec une structuration en âge à l’aide d’équations aux dérivées partielles, ce qui permet de bien visualiser les effets des mesures de santé publiques selon qu’elles ciblent un âge en particulier. Ce modèle a été couplé à un modèle de contrôle optimal.
Sur cette figure qui représente des résultats préliminaires, on voit l’intensité du contrôle optimale (en couleurs plus ou moins chaudes) en fonction du nombre de jours depuis le début de l’épidémie (en jours) et en fonction de l’âge des personnes (en années). Dans cet exemple, qui correspond à un coût \(B\) relativement faible du contrôle sur la population, on voit qu’initialement le contrôle est assez large en termes de classes d’âge mais qu’au fur et à mesure que l’épidémie se propage le contrôle se concentre sur les personnes entre 30 et 70 ans.
Avantages | Limites |
---|---|
politiques de santé age-spécifique | structure en EDP un peu lourde à simuler |
Cet axe de travail est porté par Mircea T. Sofonea.
Grâce à notre modèle mécanistique, nous pouvons explorer différents scénarios de contrôle. Afin de les visualiser, nous avons mis en ligne une application permettant de faire varier le nombre de périodes de contrôle et leur intensité (éventuellement différentielle selon les classes d’âges).
Ce programme est accessible à l’adresse : http://bioinfo-shiny.ird.fr:3838/COVIDSIM-FR/
Les principaux enseignements sont disponibles dans la section suivante.
Suivant les dernières annonces de l’exécutif, nous avons tenté d’explorer les effets de la levée du confinement au 11 mai, en utilisant les valeurs que nous avons estimées (division par 4 du \(\mathcal{R}_0\) grâce au confinement notamment), pour trois scénarios. Attention, ce sont des scénarios volontairement simplistes, ils sont avant tout destinés à illustrer le comportement de l’épidémie.
Dans ce scénario, le confinement laisse place pour à un ensemble de mesures qui visent à réduire fortement le nombre de contacts potentiellement infectieux entre les individus, quels que soient leur âge. Ces mesures peuvent comprendre les gestes barrières, la distanciation sociale, le port de masque, le dépistage et l’isolement des cas et de leurs contacts.
À des fins d’illustration, nous avons choisi ici de représenter la situation la moins contraignante possible qui permette malgré tout le maintien du nombre de reproduction \(\mathcal{R}(t)\) en-dessous du plafond 1, jusqu’à la fin de l’année 2020. On peut montrer par le calcul que cela revient à n’autoriser que 30 % de plus de contacts comparé à la période du confinement.
Ce résultat suggère que l’épidémie peut être contrôlée sur le long terme et le rebond évité avec des mesures moins drastiques que le confinement, à condition toutefois de ne pas doubler le taux de contact entre l’avant et l’après 11 mai.
Tout avons ensuite considéré un cas où le contrôle est entièrement levé pour les moins de 50 et maintenu à l’identique pour les plus de 50 ans.
Comme on le voit sur la figure ci-dessous, dans ce scénario l’épidémie devient hors de contrôle aux alentours du mois de juillet et le nombre de décès potentiels est très élevé. Ceci illustre la nécessité de maintenir un contrôle sur l’épidémie sous nos hypothèses (notamment que le confinement des personnes les plus à risque reste identique au confinement moyen actuel).
Dans un troisième scénario, nous avons considéré une situation où un degré de contrôle est maintenu pour les moins de 65 ans (les contacts augmentent de 50 % par rapport au confinement mais restent à 75 % de ce qu’ils étaient avant février) et où les plus de 65 ans prennent plus de précautions que la moyenne de la population en ce moment.
Avec un tel scénario, l’épidémie n’explose pas avant le mois de décembre et le relachage de ces mesures. Toutefois, on note aussi que même si la croissance épidémique semble négligeable, elle se traduit quand même par plus d’une dizaine de milliers de décès d’ici décembre.
Ces scénarios sont à prendre avec précautions du fait des hypothèses de notre modèle. En particulier, nous n’avons pas inclus de structure spatiale. Cette hypothèse est correcte en début d’épidémie, car l’immense majorité de la population est sensible. Toutefois, au fur et à mesure que la proportion de personnes immunisée augmente, on verrait se mettre en place une structure géographique de l’épidémie : certains endroits auraient une proportion suffisante de personnes immunisées pour ralentir la progression de l’épidémie (sans toutefois l’empêcher), alors que d’autres auraient échappé à l’épidémie et seraient plus à risque de connaître une flambée épidémique.
Au sujet de la stratégie esquissée le 13 avril par le Président de la République, nous formulons plusieurs remarques :
l’immunité naturelle construite sera très faible à la levée du confinement,
si le contrôle sur l’épidémie demeure suffisant, il est possible d’empêcher un rebond,
si le contrôle est complètement relâché, l’épidémie exploserait aux alentours du mois de juillet, dans une proportion bien plus importante que celles des mois précédents,
même si l’épidémie reste presque sous contrôle et en maintenant un confinement pour les plus de 65 ans, on peut risquer plus de 10.000 décès supplémentaires d’ici le mois de décembre,
si le contrôle est moins strict pour les plus jeunes ou si l’âge seuil pour d’éventuelles mesures différentielles est supérieur à 50 ans, il faudra des mesures de protection encore plus stringentes pour les personnes les plus à risque pour empêcher un nombre de décès très important.
Il existe deux grandes options pour sortir de l’épidémie de COVID-19 :
endiguement/suppression : qui vise à contrôler le plus possible l’épidémie en attendant d’avoir un traitement (prophylactique ou curatif) ou un vaccin.
atténuation : qui vise à construire une immunité de groupe en laissant de propager l’épidémie sous contrôle.
Aucune option n’est meilleure que l’autre en tant que tel (sinon une majorité des États auraient optée pour elle). Chacune a des avantages et des inconvénients. Chacune nécessite aussi des implémentations un peu différentes. Nous avons tenté de résumer cela dans le tableau suivant.
Stratégie | But | Contrôle | Méthodes | Avantages | Inconvénients | Incertitudes |
---|---|---|---|---|---|---|
Endiguement | vaccin ou traitement | strict pour tous | confinement uniforme ou {dépistage massif + isolement et tracking des cas et suivi des contacts + distanciation sociale forte + contrôle des frontières} | minimise les morts, plus facile à gérer | coût économique et/ou en vie privée, coût social et psychologique | temps avant la découverte d’un vaccin ou traitement, adhésion de la population |
Atténuation | immunité collective naturelle | concentré sur une minorité à risque de complications | confinement fort d’une sous-population à risque ; dépistage PCR et sérologique des personnes en contact avec cette sous-population | permet de lever le contrôle et de relancer l’activité, plus rapide d’arriver à l’immunité de groupe | hétérogénéité de traitement dans la population, risque de rebond épidémique, nécessité d’une micro-gestion sanitaire | mémoire immunitaire efficace et durable |
La majorité des données auxquelles nous avons réussi à avoir accès proviennent du site public data.Gouv.fr. Malheureusement nous n’avons pas pu avoir accès à d’autres données pour calibrer nos modèles.
Les données de séquence génétique proviennent du consortium GISAID - Global Initiative on Sharing All Influenza Data.
Le groupe de modélisation de l’équipe ETE (Laboratoire MIVEGEC, CNRS, IRD, Université de Montpellier) est composée de Samuel Alizon, Thomas Bénéteau, Marc Choisy, Gonché Danesh, Ramsès Djidjou-Demasse, Baptiste Elie, Yannis Michalakis, Bastien Reyné, Quentin Richard, Christian Selinger, Mircea T. Sofonea.
Ce travail n’a reçu aucun financement spécifique à ce jour.
Contribution à ce travail :
conception du travail : ensemble de l’équipe
rédaction : SA, MTS, YM
validation : ensemble de l’équipe
contacts : covid-ete@ouvaton.org
site : covid-ete.ouvaton.org
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d’Utilisation Commerciale 4.0 International.