Academic literature on the topic 'Réduction de modèle (ROM)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Réduction de modèle (ROM).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Réduction de modèle (ROM)"

1

Gillet, Michaël, and Serge Brochu. "Institutionnalisation des stratégies de réduction des méfaits au sein de l’agenda politique canadien : les enjeux et les limites de la conceptualisation actuelle." Drogues, santé et société 4, no. 2 (March 22, 2006): 79–139. http://dx.doi.org/10.7202/012601ar.

Full text
Abstract:
Résumé Le but de cette étude visait à connaître et comprendre la conceptualisation et l’implantation de l’approche de réduction des méfaits (ARDM) au sein des objectifs et des priorités de l’État canadien (agenda politique). Pour ce faire, nous avons effectué une analyse verticale et horizontale des Stratégies canadiennes antidrogue (SCA), soit une analyse du discours fédéral concernant la régulation de l’usage psychotrope au Canada. Au terme de cette analyse, nous avons constaté une récupération abusive de l’approche de réduction des méfaits (RDM) dans le contexte canadien, par l’adoption d’une conceptualisation qui souligne l’absence de réelle coupure par rapport à la notion d’abstinence. Nous avons aussi constaté une perte de l’humanisme engendré par des dérapages conceptuels et l’adoption d’un modèle de « gestion des risques » qui stigmatise les usagers.
APA, Harvard, Vancouver, ISO, and other styles
2

Kistler, Max. "Réduction fonctionnelle et réduction logique." Philosophiques 27, no. 1 (October 2, 2002): 27–38. http://dx.doi.org/10.7202/004938ar.

Full text
Abstract:
RÉSUMÉ Kim attribue aux émergentistes un modèle de « réduction logique » dans lequel la prédiction ou l’explication d’une occurrence de la propriété réduite ne requiert, outre des informations sur le niveau réducteur, que des principes logiques et mathématiques. Sur la base de cette interprétation, je conteste deux thèses de Kim. La première concerne la légitimité du modèle émergentiste de réduction. J’essaie de montrer, à l’aide de l’exemple de l’addition des masses, que l’adoption de la réduction logique rendrait irréductibles certaines propriétés qui sont clairement réductibles. La deuxième est la thèse selon laquelle la réduction fonctionnelle correspond aux exigences émergentistes sur la réduction. Telle que Kim la caractérise, la réduction fonctionnelle comporte, outre une définition fonctionnelle de la propriété à réduire, l’indication des propriétés réalisatrices. Or cette information, qui correspond à la découverte d’une loi de correspondance (locale), est empirique et non seulement logique.
APA, Harvard, Vancouver, ISO, and other styles
3

Le Bihan, Y., V. Martinage, P. Lessard, and E. Paul. "Influence possible des protozoaires sur le taux de mortalité des bactéries autotrophes nitrifiantes." Revue des sciences de l'eau 14, no. 1 (April 12, 2005): 91–108. http://dx.doi.org/10.7202/705411ar.

Full text
Abstract:
Le modèle de l'IAWQ du processus de boues activées représente les mécanismes endogènes de la biomasse nitrifiante par le décès des micro-organismes (équation d'ordre 1 par rapport à la biomasse). La constante de décès, ou taux de mortalité bA, est aujourd'hui encore mal connue, et en particulier les facteurs influants sur sa valeur. De récentes études ont montré que la prédation par la microfaune pourrait être un facteur déterminant sur la valeur de bA. Cette étude se propose donc de quantifier l'effet de la prédation sur la valeur de bA. Deux réacteurs maintenus sans alimentation en substrat ont été caractérisés en parallèle: l'un a reçu une dose d'antibiotique spécifique aux eucaryotes (cycloheximide) afin de diminuer la quantité d'organismes de la microfaune, alors que l'autre n'a reçu aucun antibiotique (témoin). Les résultats obtenus montrent que le cycloheximide inhibe la plupart des organismes de la microfaune sauf les amibes; celles-ci semblent plutôt stimulées par cet antibiotique. En ce qui concerne la nitrification, un ralentissement de la production de nitrate dans le réacteur traité à l'antibiotique est observé à partir du sixième jour. Cette diminution de production de nitrate est probablement causée par une réduction de l'azote nitrifiable (qui est mobilisé par les amibes) couplée à une prédation des organismes nitrifiants par les amibes. D'ailleurs, l'augmentation de la prédation par les amibes à partir du jour 6 a diminué l'activité nitrifiante également mesurée par respirométrie (rO2 Nmax). Cette diminution du taux de respiration indique une augmentation du taux de mortalité (bA) des organismes nitrifiants. En effet, la valeur du taux de mortalité mesurée dans le réacteur témoin est de 0.08 d-1 alors que selon la microfaune présente dans le réacteur inhibé au cycloheximide, la valeur de ce taux de mortalité a varié entre 0.05 d-1 et 0.15 d-1.
APA, Harvard, Vancouver, ISO, and other styles
4

Senou, Marcel, and L. Dempfle. "Simulation Monte-Carlo pour évaluer l’impact des schémas MOET adultes chez les bovins Somba." Revue d’élevage et de médecine vétérinaire des pays tropicaux 61, no. 2 (February 1, 2008): 115. http://dx.doi.org/10.19182/remvt.9997.

Full text
Abstract:
L’impact de la technique de superovulation et du transfert d’embryons (MOET) sur la performance de la race Somba a été évalué à l’aide de simulations du type Monte-Carlo. Des schémas MOET adultes en noyaux fermés ont été simulés et soumis à 20 générations consécutives de sélection en supposant une capacité fixe de testage de 512 femelles connues pour leurs performances laitières, un taux de succès de 70 p. 100 pour le transfert, un taux de survie de 70 p. 100 chez les embryons et des tailles variables de familles (nD = 4, 8, 16). Les valeurs additives génétiques des candidats ont été estimées par la méthode BLUP utilisant le modèle animal réduit (RAM). Pour différents scénarios déterminés par le nombre de donneurs (D = 64, 128, 256) et le nombre de géniteurs (S = 4, 8, 16) à sélectionner, la réponse à la sélection a varié de 0,088 à 0,127 unités standard phénotypiques par an. Ces valeurs correspondaient à un progrès génétique annuel de 2,2 à 3,2 p. 100 par rapport à la moyenne de la population par an (le coefficient de variation de la performance laitière de la race Somba étant de 25 p. 100). Pour toutes les alternatives du point de vue de la structure de la population, le taux de consanguinité obtenu par simulation a varié de 1,32 à 2,93 p. 100 par an, contre une valeur estimée allant de 0,83 à 3,32 p. 100. Comparé au taux annuel de consanguinité de 0,1 à 0,2 p. 100 généralement admis pour le schéma conventionnel de testage sur descendance, les taux de consanguinité prédictibles pour les schémas MOET adultes ont été remarquablement élevés. Pour pallier ce handicap, des stratégies de réduction à court et à moyen terme du taux de consanguinité ont été examinées.
APA, Harvard, Vancouver, ISO, and other styles
5

Oulefki, A., and A. Neveu. "Réduction par amalgame modal d'un modèle thermique." Journal de Physique III 3, no. 2 (February 1993): 303–20. http://dx.doi.org/10.1051/jp3:1993133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Kim, Jaegwon. "L'émergence, les modèles de réduction et le mental." Philosophiques 27, no. 1 (October 2, 2002): 11–26. http://dx.doi.org/10.7202/004937ar.

Full text
Abstract:
RÉSUMÉ Une des doctrines centrales de l’émergentisme est la thèse selon laquelle certaines propriétés d’un tout sont émergentes, en ce sens qu’elles sont irréductibles aux propriétés de base dont elles émergent — c’est-à-dire qu’elles ne peuvent ni être prédites, ni être expliquées à partir de leurs conditions sousjacentes. Pour comprendre et évaluer cette thèse correctement, il est essentiel que nous disposions d’un concept adéquat de réduction. Nous examinons d’abord le modèle classique de la réduction interthéorique de Nagel, et nous soutenons qu’il ne nous fournit pas une base adéquate pour comprendre la thèse émergentiste. Nous proposons ensuite un autre modèle de réduction, celui de la « réduction fonctionnelle », et nous montrons qu’il constitue une base adéquate permettant d’évaluer la thèse émergentiste. Nous concluons avec une brève discussion de la question de savoir si les propriétés phénoménales d’expériences conscientes, ou qualia , sont émergentes.
APA, Harvard, Vancouver, ISO, and other styles
7

Beyrouthy, Joëlle. "Réduction 3D–1D d'un modèle viscoélastique en grandes déformations." Comptes Rendus Mathematique 345, no. 4 (August 2007): 239–43. http://dx.doi.org/10.1016/j.crma.2007.06.027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Pucci, Muriel, Muriel Roger, and Julie Valentin. "Réduction du temps de travail: mise en évidence d’un effet sur l’offre de travail." Recherches économiques de Louvain 65, no. 4 (1999): 393–420. http://dx.doi.org/10.1017/s0770451800004693.

Full text
Abstract:
RésuméLa réduction du temps de travail, recours accru au temps partiel ou baisse de la durée légale, modifie la nature des emplois offerts, ce qui affecte les comportements d’offre de travail. Par exemple, une réduction de l’horaire légal compensée améliore la qualité des offres, ce qui peut accroître l’offre de travail pour chaque niveau de salaire. Cet article étudie ce type d’effets à partir des simulations d’un modèle théorique de prospection d’emploi calibré sur des données individuelles franaises. Les simulations montrent qu’à demande inchangée, la probabilité d’être au chômage augmente suite à un accroissement de la proportion des temps partiel et diminue suite à une réduction de la durée du travail.
APA, Harvard, Vancouver, ISO, and other styles
9

Théoret, Raymond, and Pierre Rostan. "Les bandes de Bollinger comme technique de réduction de la variance des prix d’options sur obligations obtenus par la simulation de Monte-Carlo." Articles 81, no. 4 (April 12, 2007): 693–724. http://dx.doi.org/10.7202/014914ar.

Full text
Abstract:
RésuméDans cet article, nous proposons une nouvelle technique de réduction de la variance d’une simulation : les bandes de Bollinger. Nous montrons comment le recours aux bandes de Bollinger, une procédure utilisée en analyse technique, peut accroître considérablement la performance d’une simulation de Monte-Carlo en termes de réduction de la variance des simulations. La technique des bandes de Bollinger sert à filtrer les variations extrêmes qui s’observent dans une simulation. Nous appliquons cette technique à la simulation des prix de 38 options sur obligations (OBK) transigées à la Bourse de Montréal, ce en tirant profit du modèle de Fong et Vasicek pour simuler les prix des options. L’erreur quadratique moyenne des simulations se voit réduite considérablement à la suite de l’utilisation des bandes de Bollinger. Le modèle de Fong et Vasicek renforcé par les bandes de Bollinger se compare également très favorablement à celui de Black, Derman et Toy, soit le modèle encore le plus utilisé dans la pratique financière pour évaluer les options sur taux d’intérêt et sur obligations.
APA, Harvard, Vancouver, ISO, and other styles
10

Chachuat, B., N. Roche, and M. A. Latifi. "Réduction du modèle ASM 1 pour la commande optimale des petites stations d'épuration à boues activées." Revue des sciences de l'eau 16, no. 1 (April 12, 2005): 5–26. http://dx.doi.org/10.7202/705496ar.

Full text
Abstract:
L'adoption par l'Union Européenne de normes de rejets plus contraignantes implique une meilleure gestion des stations d'épuration. L'utilisation de modèles de simulation dynamique dans des schémas de commande en boucle fermée constitue une alternative intéressante pour répondre à ce problème. Sur la base du modèle ASM 1, un modèle réduit est ici élaboré pour le procédé à boues activées en aération séquentielle, en vue de la commande optimale du système d'aération. Les simplifications considérées sont de deux types : (i) les dynamiques lentes du système sont identifiées au moyen d'une méthode d'homotopie, puis éliminées du modèle ; (ii) des simplifications plus heuristiques consistant à prendre en compte un composé organique unique et à éliminer la concentration des composés organiques azotés sont ensuite appliquées. Elles conduisent à un modèle simplifié de 5 variables. L'application d'une procédure d'identification paramétrique permet alors de démontrer que le comportement dynamique du modèle simplifié est en bonne adéquation avec celui du modèle ASM 1 sur un horizon de prédiction de plusieurs heures, même lorsque les concentrations de l'influent ne sont pas connues. Il est également vérifié que le modèle proposé est observable et structurellement identifiable, sous des conditions d'aérobiose et d'anoxie, à partir des mesures en ligne des concentrations en oxygène dissous, ammoniaque et nitrate. Le modèle simplifié développé présente ainsi toutes les propriétés requises pour une future utilisation au sein de schémas de commande en boucle fermée, en vue de la commande optimale des petites stations d'épuration à boues activées.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Réduction de modèle (ROM)"

1

Dubot, Claire. "Modélisation CFD thermohydraulique des générateurs de vapeur et application de techniques de réduction de modèle." Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS029.

Full text
Abstract:
NAVAL GROUP mène une démarche R&D pour la modélisation et la simulation des échangeurs de chaleur qui a abouti au code de calcul thermohydraulique SIMEC-CFD. Celui-ci repose sur l’analogie entre le faisceau de tubes et un milieu poreux. Le générateur de vapeur est étudié. Il est proposé d’utiliser le modèle de mélange où la vitesse de dérive est reformulée comme une fonction du glissement afin d’implémenter un modèle connu et adapté aux écoulements dans les faisceaux de tubes. SIMEC-CFD est alimenté principalement par des corrélations empiriques. Pour pallier le manque de données dans la littérature, le recours à des techniques de réduction de modèle basées sur la POD est évalué afin de fournir des éléments plus précis à SIMEC-CFD. Celles-ci sont ainsi utilisées pour calculer rapidement l’écoulement et le coefficient d’échange intérieur-tube par un modèle réduit intrusif obtenu par projection de Galerkin des équations sur la base POD et pour définir la perte de charge diphasique par friction extérieur-tube par la méthode d’interpolation des solutions réduites Bi-CITSGM. Enfin, à moyen terme, l’objectif est d’enrichir la simulation de la boucle système à l’aide des simulations de SIMEC-CFD. Cependant, ces simulations CFD étant coûteuses en temps de calcul et en ressources, la réduction de modèle non intrusive par interpolation des coefficients paramétriques de l’échangeur complet est mise en œuvre
NAVAL GROUP has been carrying out a R&D approach for the modeling and simulation of heat exchangers. This led to the thermal-hydraulic calculation code SIMEC-CFD based on the analogy between the tube bundle and a porous medium. In this work, the steam generator is studied. It is proposed here to use the mixture model where the drift velocity is reformulated as a function of slip in order to implement a model from the literature suitable to flows in tube bundles. SIMEC-CFD is defined mainly by correlations or empirical models. To compensate for the lack of data in the literature, this thesis evaluates the use of model reduction techniques based on POD (Proper Orthogonal Decomposition) in order to supply more precise elements to SIMEC-CFD. These are thus used to calculate the flow and for the inside-tube heat exchange coefficient by a intrusive reduced order model obtained by Galerkin projection on the POD basis and to define the outside-tube two-phase friction pressure loss by the interpolation of reduced solutions Bi-CITSGM. Finally, in the near future, the aim is to expand the system simulation of the secondary loop using SIMEC-CFD. However, these CFD simulations being costly in computation time and in resources, the non-intrusive model reduction by interpolation of the parametric coefficients of the whole heat exchanger is implemented
APA, Harvard, Vancouver, ISO, and other styles
2

Mosquera, Meza Rolando. "Interpolation sur les variétés grassmanniennes et applications à la réduction de modèles en mécanique." Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS008/document.

Full text
Abstract:
Ce mémoire de thèse concerne l'interpolation sur les variétés de Grassmann et ses applications à la réduction de modèles en mécanique et plus généralement aux systèmes d'équations aux dérivées partielles d'évolution. Après une description de la méthode POD, nous introduisons les fondements théoriques en géométrie des variétés de Grassmann, qui seront utilisés dans le reste de la thèse. Ce chapitre donne à ce mémoire à la fois une rigueur mathématique au niveau des algorithmes mis au point, leur domaine de validité ainsi qu'une estimation de l'erreur en distance grassmannienne, mais également un caractère auto-contenu "self-contained" du manuscrit. Ensuite, on présente la méthode d'interpolation sur les variétés de Grassmann introduite par David Amsallem et Charbel Farhat. Cette méthode sera le point de départ des méthodes d'interpolation que nous développerons dans les chapitres suivants. La méthode de Amsallem-Farhat consiste à choisir un point d'interpolation de référence, envoyer l'ensemble des points d'interpolation sur l'espace tangent en ce point de référence via l'application logarithme géodésique, effectuer une interpolation classique sur cet espace tangent, puis revenir à la variété de Grassmann via l'application exponentielle géodésique. On met en évidence par des essais numériques l'influence du point de référence sur la qualité des résultats. Dans notre premier travail, nous présentons une version grassmannienne d'un algorithme connu dans la littérature sous le nom de Pondération par Distance Inverse (IDW). Dans cette méthode, l'interpolé en un point donné est considéré comme le barycentre des points d'interpolation où les coefficients de pondération utilisés sont inversement "proportionnels" à la distance entre le point considéré et les points d'interpolation. Dans notre méthode, notée IDW-G, la distance géodésique sur la variété de Grassmann remplace la distance euclidienne dans le cadre standard des espaces euclidiens. L'avantage de notre algorithme, dont on a montré la convergence sous certaines conditions assez générales, est qu'il ne requiert pas de point de référence contrairement à la méthode de Amsallem-Farhat. Pour remédier au caractère itératif (point fixe) de notre première méthode, nous proposons une version directe via la notion de barycentre généralisé. Notons enfin que notre algorithme IDW-G dépend nécessairement du choix des coefficients de pondération utilisés. Dans notre second travail, nous proposons une méthode qui permet un choix optimal des coefficients de pondération, tenant compte de l'auto-corrélation spatiale de l'ensemble des points d'interpolation. Ainsi, chaque coefficient de pondération dépend de tous les points d'interpolation et non pas seulement de la distance entre le point considéré et un point d'interpolation. Il s'agit d'une version grassmannienne de la méthode de Krigeage, très utilisée en géostatique. La méthode de Krigeage grassmannienne utilise également le point de référence. Dans notre dernier travail, nous proposons une version grassmannienne de l'algorithme de Neville qui permet de calculer le polynôme d'interpolation de Lagrange de manière récursive via l'interpolation linéaire entre deux points. La généralisation de cet algorithme sur une variété grassmannienne est basée sur l'extension de l'interpolation entre deux points (géodésique/droite) que l'on sait faire de manière explicite. Cet algorithme ne requiert pas le choix d'un point de référence, il est facile d'implémentation et très rapide. De plus, les résultats numériques obtenus sont remarquables et nettement meilleurs que tous les algorithmes décrits dans ce mémoire
This dissertation deals with interpolation on Grassmann manifolds and its applications to reduced order methods in mechanics and more generally for systems of evolution partial differential systems. After a description of the POD method, we introduce the theoretical tools of grassmannian geometry which will be used in the rest of the thesis. This chapter gives this dissertation a mathematical rigor in the performed algorithms, their validity domain, the error estimate with respect to the grassmannian distance on one hand and also a self-contained character to the manuscript. The interpolation on Grassmann manifolds method introduced by David Amsallem and Charbel Farhat is afterward presented. This method is the starting point of the interpolation methods that we will develop in this thesis. The method of Amsallem-Farhat consists in chosing a reference interpolation point, mapping forward all interpolation points on the tangent space of this reference point via the geodesic logarithm, performing a classical interpolation on this tangent space and mapping backward the interpolated point to the Grassmann manifold by the geodesic exponential function. We carry out the influence of the reference point on the quality of the results through numerical simulations. In our first work, we present a grassmannian version of the well-known Inverse Distance Weighting (IDW) algorithm. In this method, the interpolation on a point can be considered as the barycenter of the interpolation points where the used weights are inversely proportional to the distance between the considered point and the given interpolation points. In our method, denoted by IDW-G, the geodesic distance on the Grassmann manifold replaces the euclidean distance in the standard framework of euclidean spaces. The advantage of our algorithm that we show the convergence undersome general assumptions, does not require a reference point unlike the method of Amsallem-Farhat. Moreover, to carry out this, we finally proposed a direct method, thanks to the notion of generalized barycenter instead of an earlier iterative method. However, our IDW-G algorithm depends on the choice of the used weighting coefficients. The second work deals with an optimal choice of the weighting coefficients, which take into account of the spatial autocorrelation of all interpolation points. Thus, each weighting coefficient depends of all interpolation points an not only on the distance between the considered point and the interpolation point. It is a grassmannian version of the Kriging method, widely used in Geographic Information System (GIS). Our grassmannian Kriging method require also the choice of a reference point. In our last work, we develop a grassmannian version of Neville's method which allow the computation of the Lagrange interpolation polynomial in a recursive way via the linear interpolation of two points. The generalization of this algorithm to grassmannian manifolds is based on the extension of interpolation of two points (geodesic/straightline) that we can do explicitly. This algorithm does not require the choice of a reference point, it is easy to implement and very quick. Furthermore, the obtained numerical results are notable and better than all the algorithms described in this dissertation
APA, Harvard, Vancouver, ISO, and other styles
3

Dumon, Antoine. "Réduction dimensionnelle de type PGD pour la résolution des écoulements incompressibles." Phd thesis, Université de La Rochelle, 2011. http://tel.archives-ouvertes.fr/tel-00644565.

Full text
Abstract:
L'objectif de ce travail consiste à développer la méthode de résolution PGD (Proper Generalized Decomposition), qui est une méthode de réduction de modèle où la solution est recherchée sous forme séparée, à la résolution des équations de Navier-Stokes. Dans un premier temps, cette méthode est appliquée à la résolution d'équations modèles disposant d'une solution analytique. L' équation de diffusion stationnaire 2D et 3D, l'équation de diffusion instationnaire 2D et les équations de Burgers et Stokes sont traitées. Nous montrons que dans tous ces cas la méthode PGD permet de retrouver les solutions analytiques avec une précision équivalente au modèle standard. Nous mettons également en évidence la supériorité de la PGD par rapport au modèle standard en terme de temps de calcul. En effet, dans tous ces cas, laPGD se montre beaucoup plus rapide que le solveur standard (plusieurs dizaine de fois). La résolution des équations de Navier-Stokes isothermes et anisothermes est ensuite effectuée par une discrétisation volumes finis sur un maillage décalé où le couplage vitesse-pression a été géré à l'aide d'un schéma de prédiction-correction. Dans ce cas une décomposition PGD sur les variables d'espaces uniquement a été choisie. Pour les écoulements incompressibles 2D stationnaire ou instationnaire, de type cavité entrainée et/ou différentiellement chauffé, les résultats obtenus par résolution PGD sont similaires à ceux du solveur standard avec un gain de temps significatif (la PGD est une dizaine de fois plus rapide que le solveur standard). Enfin ce travail introduit une première approche de la résolution des équations de transferts par méthode PGD en formulation spectrale. Sur les différents problèmes traités, à savoir l'équation de diffusion stationnaire, l'équation de Darcy et les équations de Navier-Sokes, la PGD a montré une précision aussi bonne que le solveur standard. Un gain de temps a été observé pour le cas de l'équation de Poisson, par contre, concernant le problème de Darcy ou les équations de Navier-Stokes les performances de la PGD en terme de temps de calcul peuvent encore être améliorées.
APA, Harvard, Vancouver, ISO, and other styles
4

Saleh, Marwan. "Étude mathématique et numérique des méthodes de réduction dimensionnelle de type POD et PGD." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS004/document.

Full text
Abstract:
Ce mémoire de thèse est formé de quatre chapitres. Un premier chapitre présente les différentes notions et outils mathématiques utilisés dans le corps de la thèse ainsi qu’une description des résultats principaux que nous avons obtenus. Le second chapitre présente une généralisation d’un résultat obtenu par Rousselet-Chénais en 1990 qui décrit la sensibilité des sous-espaces propres d’opérateurs compacts auto-adjoints. Rousselet-Chénais se sont limités aux sous-espaces propres de dimension 1 et nous avons étendu leur résultat aux dimensions supérieures. Nous avons appliqué nos résultats à la Décomposition par Projection Orthogonale (POD) dans le cas de variation paramétrique, temporelle ou spatiale (Gappy-POD). Le troisième chapitre traite de l’estimation du flot optique avec des énergies quadratiques ou linéaires à l’infini. On montre des résultats mathématiques de convergence de la méthode de Décomposition Progressive Généralisée (PGD) dans le cas des énergies quadratiques. Notre démonstration est basée sur la décomposition de Brézis-Lieb via la convergence presque-partout de la suite gradient PGD. Une étude numérique détaillée est faite sur différents type d’images : sur les équations de transport de scalaire passif, dont le champ de déplacement est solution des équations de Navier-Stokes. Ces équations présentent un défi pour l’estimation du flot optique à cause du faible gradient dans plusieurs régions de l’image. Nous avons appliqué notre méthode aux séquences d’images IRM pour l’estimation du mouvement des organes abdominaux. La PGD a présenté une supériorité à la fois au niveau du temps de calcul (même en 2D) et au niveau de la représentation correcte des mouvements estimés. La diffusion locale des méthodes classiques (Horn & Schunck, par exemple) ralentit leur convergence contrairement à la PGD qui est une méthode plus globale par nature. Le dernier chapitre traite de l’application de la méthode PGD dans le cas d’équations elliptiques variationnelles dont l’énergie présente tous les défis aux méthodes variationnelles classiques : manque de convexité, manque de coercivité et manque du caractère borné de l’énergie. Nous démontrons des résultats de convergence, pour la topologie faible, des suites PGD (lorsqu’elles sont bien définies) vers deux solutions extrémales sur la variété de Nehari. Plusieurs questions mathématiques concernant la PGD restent ouvertes dans ce chapitre. Ces questions font partie de nos perspectives de recherche
This thesis is formed of four chapters. The first one presents the mathematical notions and tools used in this thesis and gives a description of the main results obtained within. The second chapter presents our generalization of a result obtained by Rousselet-Chenais in 1990 which describes the sensitivity of eigensubspaces for self-adjoint compact operators. Rousselet-Chenais were limited to sensitivity for specific subspaces of dimension 1, we have extended their result to higher dimensions. We applied our results to the Proper Orthogonal Decomposition (POD) in the case of parametric, temporal and spatial variations (Gappy- POD). The third chapter discusses the optical flow estimate with quadratic or linear energies at infinity. Mathematical results of convergence are shown for the method Progressive Generalized Decomposition (PGD) in the case of quadratic energies. Our proof is based on the decomposition of Brézis-lieb via the convergence almost everywhere of the PGD sequence gradients. A detailed numerical study is made on different types of images : on the passive scalar transport equations, whose displacement fields are solutions of the Navier-Stokes equations. These equations present a challenge for optical flow estimates because of the presence of low gradient regions in the image. We applied our method to the MRI image sequences to estimate the movement of the abdominal organs. PGD presented a superiority in both computing time level (even in 2D) and accuracy representation of the estimated motion. The local diffusion of standard methods (Horn Schunck, for example) limits the convergence rate, in contrast to the PGD which is a more global approach by construction. The last chapter deals with the application of PGD method in the case of variational elliptic equations whose energy present all challenges to classical variational methods : lack of convexity, lack of coercivity and lack of boundedness. We prove convergence results for the weak topology, the PGD sequences converge (when they are well defined) to two extremal solutions on the Nehari manifold. Several mathematical questions about PGD remain open in this chapter. These questions are part of our research perspectives
APA, Harvard, Vancouver, ISO, and other styles
5

Tissot, Gilles. "Réduction de modèle et contrôle d'écoulements." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2284/document.

Full text
Abstract:
Le contrôle d'écoulements turbulents est un enjeu majeur en aérodynamique. Cependant, la présence d'un grand nombre de degrés de libertés et d'une dynamique complexe rend délicat la modélisation dynamique de ces écoulements qui est pourtant nécessaire à la conception d'un contrôle efficace. Au cours de cette thèse, différentes directions ont été suivies afin de développer des modèles réduits dans des configurations réalistes d'écoulements et d'utiliser ces modèles pour le contrôle.Premièrement, la décomposition en modes dynamiques (DMD), et certaines de ses variantes, ont été exploitées en tant que base réduite afin d'extraire au mieux le comportement dynamique de l'écoulement. Par la suite, nous nous sommes intéressés à l'assimilation de données 4D-Var qui permet de combiner des informations inhomogènes provenant d'un modèle dynamique, d'observations et de connaissances a priori du système. Nous avons ainsi élaboré des modèles réduits POD et DMD d'un écoulement turbulent autour d'un cylindre à partir de données expérimentales PIV. Finalement, nous avons considéré le contrôle d'écoulement dans un contexte d'interaction fluide/structure. Après avoir montré que les mouvements de solides immergés dans le fluide pouvaient être représentés comme une contrainte supplémentaire dans le modèle réduit, nous avons stabilisé un écoulement de sillage de cylindre par oscillation verticale
Control of turbulent flows is still today a challenge in aerodynamics. Indeed, the presence of a high number of active degrees of freedom and of a complex dynamics leads to the need of strong modelling efforts for an efficient control design. During this PhD, various directions have been followed in order to develop reduced-order models of flows in realistic situations and to use it for control. First, dynamic mode decomposition (DMD), and some of its variants, have been exploited as reduced basis for extracting at best the dynamical behaviour of the flow. Thereafter, we were interested in 4D-variational data assimilation which combines inhomogeneous informations coming from a dynamical model, observations and an a priori knowledge of the system. POD and DMD reduced-order models of a turbulent cylinder wake flow have been successfully derived using data assimilation of PIV measurements. Finally, we considered flow control in a fluid-structure interaction context. After showing that the immersed body motion can be represented as an additional constraint in the reduced-order model, we stabilized a cylinder wake flow by vertical oscillations
APA, Harvard, Vancouver, ISO, and other styles
6

Vuong, Thi Thanh Thuy. "Réduction de modèle de crash automobile : application en optimisation." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEC025.

Full text
Abstract:
La simulation numérique est de plus en plus utilisée dans l’industrie pour réduire le coût lié aux essais physiques. Une simulation de crash (préparation + soumission au solveur + traitement) dure environ une à deux journées. Renault utilise l’optimisation, donc de nombreuses simulations de crash, pour dimensionner ses véhicules. Afin de réduire le coût total d’un ensemble de simulations crash, le but de cette thèse est de proposer une ou des méthodes de réduction de modèle applicables dans un espace paramétrique. Les méthodes proposées dans cette thèse sont non-intrusives et n’obligent donc pas à modifier le solveur ni le modèle. La première méthode testée est la Proper Orthogonal Decomposition. Elle permet de réduire le comportement d’une simulation et de comprendre les propriétés du crash mais l’interpolation dans l’espace paramétrique est plus difficile. La deuxième méthode, ReCUR, est une variante de la décomposition CUR classique. Elle sera montrée comme une forme générale des méthodes non-intrusives. Elle permet de surmonter les deux limites importantes des méthodes de réduction actuelles : taille du modèle élevée et interpolation
The numerical simulation is more and more applied in the industry in order to reduce the physical tests costs. A crash simulation (pre-processing, processing and post-processing) takes about one or two days. Renault uses the optimization, so numerous crash simulations, to size cars. To cut back the total cost of a whole crash simulations, the aim of this thesis is to propose a or some Reduced-Order Model (ROM) methods that can be applied in a parametric space. The suggested methods in this thesis are nonintrusive and neither the solver nor the model should not be modified . The first tested method is the Proper Orthogonal Decomposition. This method allows reducing the behavior of a crash simulation and understanding the crash properties but not interpolating in a parametric space. The second method, ReCUR, is a variant of the classical decomposition CUR. It will be demonstrated as a general form of the non-intrusive methods. It allows overcoming two important limits of actual ROM methods : size of the model and the interpolation
APA, Harvard, Vancouver, ISO, and other styles
7

Ventura, Jérôme. "Réduction de modèle en convection forcée par des méthodes d'identification." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2010. http://www.theses.fr/2010ESMA0013.

Full text
Abstract:
Les problèmes aérothermiques typiquement rencontrés en ingénierie imposent un recours à des simulations numériques (CFD) qui, pour être réalistes, doivent nécessairement prendre en compte les phénomènes transitoires. L'emploi de modèles réduits ou de surfaces de réponse offre une alternative rapide et peu coûteuse à ces calculs exigeants en temps de calcul et en espace mémoire. L'objet de cette thèse est d'étoffer l'applicabilité de la méthode d'identification modale (MIM) dans le contexte de la mécanique des fluides. Il s'agit d'une méthode de réduction de modèle qui s'appuie sur la minimisation d'un écart entre les sorties d'un modèle de référence et celles d'un modèle réduit. Les paramètres du modèle réduit sont vus comme les variables d'un problème d'optimisation. Nous développons la méthode dans le cadre d'écoulements turbulents. L'écoulement autour d'un cylindre circulaire constitue le cas d'application principal de ces travaux. Il nous permet de tester nos méthodologies dans diverses configurations incompressibles : stationnaires, instationnaires, écoulements isothermes ou de convection forcée thermique. Ces modèles produisent des champs de vitesse, de température, des densités de flux de chaleur. . . Une autre application concerne un profil d'aile dans un écoulement sub à transsonique. Pour celle-ci, les sorties des modèles sont des coefficients de traînée et de portance, ainsi que des répartitions de coefficients de pression le long de la surface portante. Cet exemple nous permet de mettre en évidence l'impact de l'échantillonnage sur la construction du modèle
Most engineering processes dealing with aerothermics involve numerical simulations (CFD) which need to take transient phenomena into account to be realistic. Low order models and responses surfaces offer the engineer an alternative to the high costs associated with CFD processes, providing him with surrogates for the outputs of his interest. This work is devoted to extend the Modal Identification Method (MIM) in the field of fluid dynamics. MIM is a low order modelling techniques, based on the minimization of the discrepancy between a usually large reference model, and a low order model. It solves an optimization problem whose variables are the low order model parameters. Low order models are built for several kinds of turbulent flows. The circular cylinder in a crossflow provides us with several test cases. We cope with steady flows or unsteady ones, be them in forced convection or isothermal cases. Those models are able to produce outputs as different as velocity and temperature fields, heat fluxes. . . The compressible flow around a wing profile is also considered to investigate the sampling effect. Those models give quick approximates of the pressure distribution or the force coefficients
APA, Harvard, Vancouver, ISO, and other styles
8

Gstalter, Étienne. "Réduction d’ordre de modèle de crash automobile pour l’optimisation masse / prestations." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2576.

Full text
Abstract:
Cette thèse est une contribution à un thème de recherche sur les applications de la réduction de modèle à l’ingénierie RENAULT. Elle fait suite aux travaux du projet IRT SystemX ROM (Réduction de modèles et Optimisation Multidisciplinaire) et aux thèses CIFRE RENAULT [Vuong], [Charrier]. L’application industrielle principale du thème est la mise au point de la structure d’un véhicule sollicité en crash; des travaux sont également en cours sur la combustion, l’acoustique et l’aérodynamique. Les travaux de cette thèse sont à la fois un apport à la méthode générique ReCUR et son adaptation à l’optimisation de la caisse d’un véhicule pour le crash. RENAULT utilise largement l’optimisation pour la mise au point de la caisse en crash, avec un outil d’optimisation numérique basé sur la méthode des plans d’expériences. Cette méthode nécessite beaucoup de calculs crash car cette simulation est considérée comme une boite noire, en utilisant uniquement les entrées et sorties. La méthode ReCUR prend le contre-pied en exploitant un maximum d’informations de chaque simulation crash, dans le but de réduire fortement leur nombre. Les travaux de cette thèse ont permis de remplir cet objectif pour les applications de mise au point au nominal et pour l’optimisation robuste dans des cas complexes comme le choc frontal et arrière
This thesis is a part of a global research work dedicated to reduced-order modelling applications in the Renault engineering direction. It's research topic has been improved in the IRT System)('s project on Reduced Order Model and Multi-disciplinary Optimization. Some previous thesis can help understand the context. ([Vuong], [Charrier]). The main industrial application of the research theme is the focus on a body structure, in a crash loading. Some research works on acoustic, combustion and aerodynamic are currently ongoing. This thesis is both a contribution to the generic ReCUR method, and its application to a car body structure optimization for crash loadings. Engineering teams at Renault uses optimization to obtain the best crash simulation, with a numerical optimization software, based on designs of experiments. It requires a lot of crash simulation because each simulation is considered as unique, with only one response for each parameter. Only Inputs and Outputs are known. The ReCUR method consider that each simulation is a huge mine that needs our attention. We hope that we can decrease the number of crash simulation required to compute a model, by using much more data for each simulation
APA, Harvard, Vancouver, ISO, and other styles
9

Pinto, Marinho Nuno. "Réduction d'un modèle de système électrique pour des études technico-économiques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC051/document.

Full text
Abstract:
La simulation des processus complexes dans des réseaux de transport d'électricité de grande taille nécessite la réduction de la dimension du problème. Comment réduire la complexité spatiale d'un réseau de grande dimension en gardant un bon niveau de précision ? Pour répondre à cette question nous avons divisé ce travail en trois grandes étapes : 1) la réduction par agrégation du nombre de nœuds; 2) la modélisation des liaisons entre ces clusters de nœuds et 3) le calcul des capacités des lignes équivalentes.L'agrégation des nœuds dans un cluster implique que celui-ci sera traité comme une plaque de cuivre par le modèle de marché. En conséquence, pour l'agrégation des nœuds, les congestions récurrentes dans le réseau sont identifiées et placées idéalement aux frontières des clusters. Après la réduction, la même répartition des flux dans le réseau complet et dans le modèle réduit du réseau doit être trouvée. Pour ce fait une méthodologie d'estimation d'une matrice PTDF a été développée. Pour les études économiques la limite thermique des lignes est un paramètre clé. Pour résoudre ce problème, nous proposons une méthodologie qui estime les capacités équivalentes à partir des points de fonctionnement historiques du système complet. Les approches présentées dans ce travail ont été appliquées sur un modèle du réseau continental européen et ont permis d'obtenir un modèle simplifié qui minimise la perte d'information
The simulation of complex processes in large scale power systems needs the reduction of the problem. How to reduce the spatial complexity of a large scale power network while minimizing information loss? To answer this question we have divided this work in three main steps: 1) network buses aggregation; 2) modelling of the clusters' links; 3) defining the equivalent branches maximum exchange capacity.The bus aggregations in a cluster implies that it will be treated as a coppper-plate by the market model. Therefore, the most frequent network congestions must be identified ideally placed at the clusters frontiers. After the reduction, the same power flow repartition must be found in both reduced and complete model. To do that, a methodology to define a PTDF matrix was developed. For economic purpose studies, the branches maximum capacity is a key parameter, to define this value, a methodology is proposed that estimates the equivalent transmission capacities using historical system operating set points.These approaches were applied to the European transmission network and allowed to define a reduced model that minimises the information loss
APA, Harvard, Vancouver, ISO, and other styles
10

Oulefki, Abdelhakim. "Réduction de modèles thermiques par amalgame modal." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00523620.

Full text
Abstract:
On présente la méthode d'amalgame modal. Il s'agit d'une approche pour réduire un modèle d'état modal quelconque. La méthode est ici appliquée dans le cadre de la thermique. Le principe repose sur une partition judicieuse de l'espace d'état modal en quelques sous espaces disjoints. La dynamique de chaque sous espace est ensuite approchée au mieux par un pseudo-élément propre. L'optimalité de la démarche est prouvée au sens d'un critère d'écart quadratique de qualité. Le modèle obtenu conserve des liens formels avec le modèle d'origine. Du point de vue algorithmique, la méthode est automatique : on peut chercher le meilleur modèle réduit respectant une contrainte de précision et/ou de taille. La méthode est performante en temps de calcul. La réduction par amalgame modal est comparée à celles d'autres méthodes. Des exemples de réduction de modèles modaux 1D, 2D et 3D sont donnés.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Réduction de modèle (ROM)"

1

Bernier, Diane. La réduction du stress: Un modèle, une évaluation : rapport de recherche. [Montréal]: Université de Montréal, École de service social, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Predication and Simulation Methods for Geohazard Mitigation: Including CD-ROM. Abingdon: CRC Press [Imprint], 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Weatherford, Larry R., C. P. Schmidt, Jeffrey H. Moore, and F. J. Gould. Introductory Management Science : Decision Modeling With Spreadsheets (with CD-ROM). Prentice Hall, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Weatherford, Larry R., C. P. Schmidt, Jeffrey H. Moore, and F. J. Gould. Introductory Management Science : Decision Modeling With Spreadsheets (with CD-ROM). 5th ed. Prentice Hall, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Réduction de modèle (ROM)"

1

CHIQUET, Julien, Marie-Josée CROS, Mahendra MARIADASSOU, Nathalie PEYRARD, and Stéphane ROBIN. "Le modèle Poisson log-normal pour l’analyse de distributions jointes d’abondance." In Approches statistiques pour les variables cachées en écologie, 175–99. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch8.

Full text
Abstract:
Le modèle Poisson log-normal multivarié propose une modélisation conjointe des abondances des espèces d’une communauté distinguant les effets environnementaux (abiotiques) des interactions entre espèces (biotiques). Ses différentes variantes permettent la visualisation par réduction de dimension ou l’inférence du réseau d’interactions directes entre les espèces. Ces approches sont utilisées pour analyser l’écosystème marin de la forêt de kelp de l’île d’Anacapa.
APA, Harvard, Vancouver, ISO, and other styles
2

DUBREUIL, Sylvain, Nathalie BARTOLI, Christian GOGU, and Thierry LEFEBVRE. "Réduction d’incertitudes en analyse multidisciplinaire basée sur une étude de sensibilité par chaos polynomial." In Ingénierie mécanique en contexte incertain, 121–50. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch4.

Full text
Abstract:
Cette étude présente une approche originale pour l’approximation de systèmes multidisciplinaires comportant des incertitudes de modèle, basée sur la construction de métamodèles par processus gaussiens de chaque solveur disciplinaire. La solution du système d’équations aléatoires est approchée par chaos polynomial creux permettant d’approximer les indices de sensibilité de Sobol et de déterminer ainsi quel métamodèle disciplinaire enrichir. Un exemple d’aéroélasticité statique illustre la démarche.
APA, Harvard, Vancouver, ISO, and other styles
3

FAILLE, Arnaud. "Faune souterraine et biogéographie." In La biogéographie, 159–80. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9060.ch6.

Full text
Abstract:
Le milieu souterrain comprend des vides de toute taille dans lesquels la vie peut se développer dans des conditions aphotiques, souvent déconnectées des fluctuations saisonnières et largement oligotrophes. Une faible proportion d'organismes vivants a pu évoluer et s'adapter à de telles conditions. Certains d'entre eux sont devenus strictement dépendants de cet environnement hostile, au prix d'un ensemble d'adaptations biologiques profondes. Leurs adaptations physiologiques, biologiques et morphologiques ont convergé vers une réduction drastique de la capacité de dispersion et du flux génique entre les populations. Combinés à l'extrême fragmentation de nombreux habitats souterrains, ces traits font de la faune souterraine un modèle particulièrement intéressant par rapport à la faune de surface pour explorer l'impact de la fragmentation de l'habitat sur la spéciation, la diversification et les radiations évolutives, en particulier pour définir et dater les barrières à la dispersion sur la base de preuves géologiques et hydrogéologiques.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Réduction de modèle (ROM)"

1

Dufour, Quentin, David Pontille, and Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Full text
Abstract:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography