Academic literature on the topic 'Calcul de points de fuite'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul de points de fuite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Calcul de points de fuite"

1

François, Paul. "La restitution architecturale et hydraulique du rampant des Massues sur l’aqueduc de la Brévenne à Lyon et ses conséquences sur l’aval du parcours." Gallia 80, no. 1 (2023): 157–66. http://dx.doi.org/10.4000/11ud1.

Full text
Abstract:
Cet article entend proposer une restitution du rampant des Massues, extrémité orientale du siphon d’Écully-Tassin sur le parcours de l’aqueduc de la Brévenne acheminant l’eau jusqu’à Lyon. Outre une restitution architecturale en 3D basée sur les dernières observations archéologiques, il s’agit également d’étudier les conséquences de cette restitution sur le débit admissible de cette structure et sur la suite du parcours de l’aqueduc, depuis le rampant des Massues jusqu’à la colline de Fourvière. En détaillant une méthode accessible de calcul du débit dans un siphon, il est possible de montrer que la restitution choisie, en portant l’altitude du réservoir de fuite à 290 m, autorise un débit maximal de 20 000 à 25 000 m3·jour−1 dans le siphon d’Écully-Tassin selon les estimations de l’altitude du réservoir de chasse. Une telle altitude implique de revoir la morphologie du canal dans la suite du parcours, celui-ci prenant probablement la forme d’une file d’arches de près de 2 000 m avec des hauteurs supérieures à 15 m en plusieurs points. Enfin, en maintenant une pente raisonnable, il serait possible d’atteindre la colline de Fourvière à une altitude de 287,50 m et finalement d’alimenter en eau la fontaine du Verbe Incarné.
APA, Harvard, Vancouver, ISO, and other styles
2

Loukarfi, Larbi, Jean-Louis Carreau, Francis Roger, Benaissa Elandaloussi, and Ahmed Bettahar. "Approche Méthodologique du Diagnostic d’une Fuite dans un Générateur de Vapeur Sodium - Eau: Résultats de Synthèse et Modèles." Journal of Renewable Energies 1, no. 2 (December 31, 1998): 89–97. http://dx.doi.org/10.54966/jreen.v1i2.948.

Full text
Abstract:
L’éventualité d’une fuite de vapeur d’eau à travers la paroi d’un tube d’un échangeur de chaleur, constitue un problème important pour la sécurité des réacteurs des distributions de quantité de mouvement et de l’énergie cinétique du liquide, est proposé. L’influence d’une plaque sur le nucléaire à neutrons rapides au sodium. Le jet formé peut percer les tubes voisins (wastage). Cette étude traite des jets diphasiques du point de vue de leurs formes, radiale et axiale, ainsi que l’entraînement de liquide. Un modèle, basé sur un écoulement bidimensionnel avec glissement, rendant compte jet est étudié parallèlement: des empreintes dues à l’impact de gouttes de soude sont mesurées; leurs forme est comparée à la distribution de l’énergie cinétique du liquide. Quant à l’énergie thermique du jet réactif vapeur d’eau-sodium liquide, une équation est utilisée pour le calcul de la longueur de la zone réactive. Un modèle permet le calcul de l’évolution de la température axiale dans la zone de refroidissement du jet. Ce phénomène de fuite dans les générateurs de vapeur de "Super Phoenix" est appréhendé selon une démarche qui allie différentes expériences en vue d’une modélisation paramétrique du wastage.
APA, Harvard, Vancouver, ISO, and other styles
3

Trépos, Jean-Yves. "Allégories, retrait et points de fuite." Le Portique, Cahiers du Portique n°16 (June 1, 2020): 91–112. http://dx.doi.org/10.4000/leportique.4109.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pouteyo, Michael. "Errances et adolescences : points de fuite et points de repères." Le sociographe N° 53, no. 1 (2016): XV. http://dx.doi.org/10.3917/graph.053.0062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

ROY, STÉPHANE. "Form and referential citation in a work by Francis Dhomont." Organised Sound 1, no. 1 (April 1996): 29–41. http://dx.doi.org/10.1017/s1355771896000155.

Full text
Abstract:
It is common to oppose formalist and referentialist approaches to music. However, in Francis Dhomont's work Points de fuite, these approaches appear complementary when we consider the relationship between sounds and sources. Adopting the analytical approach of the American theorist Leonard B. Meyer, we show how the syntactic flow of Points de fuite generates formal implications through the impact of tension and relaxation archetypes. The piece explores metaphors based upon recurrent anecdotal events – the recorded signifiers of the source. These extra-musical elements define the work's structure to such an extent that they eliminate the traditional gap between formalism and referentialism in music.
APA, Harvard, Vancouver, ISO, and other styles
6

Sahel,, M., and O. Ferrandon-Dusart. "Adsorption dynamique en phase liquide sur charbon actif : comparaison et simplification de différents modèles." Revue des sciences de l'eau 6, no. 1 (April 12, 2005): 63–80. http://dx.doi.org/10.7202/705166ar.

Full text
Abstract:
L'adsorption en phase liquide sur charbon actif est un sujet très travaillé sur le plan expérimental et de plus en plus dans le domaine de la modélisation. Les tentatives de description des courbes de percée ou de fuite des filtres montrant la saturation du matériau adsorbant remontent aux travaux de BOHART et ADAMS en 1920. D'autres équations avec d'autres approximations ont été proposées par la suite (THOMAS 1944 ; DOLE et KLOLZ 1946), HUTCHINS (1973) ; plus récemment, WOLBORSKA (1989) ou CLARK (1987) ont proposé d'autres modèles. Nous avons essayé de faire le point sur ces différents modèles, de montrer leurs origines communes, souvent à partir des équations de BOHART et ADAMS, les approximations apportées limitant leur domaine d'application, les grandeurs qu'ils permettent de déterminer : capacité maximum d'adsorption, constante cinétique d'adsorption, vitesse de déplacement du front d'adsorption. De tous ces modèles, un seul (CLARK 1987) permet une bonne représentation des courbes de percée. Nous en avons proposé une linéarisaüon qui facilite la détermination des paramètres nécessaires au calcul des courbes de fuite. Tous ces modèles ont été testés sur les résultats expérimentaux obtenus pour l'adsorption d'un tensioactif anionique : le décylsulfonate de sodium et ceci sur cinq petites colonnes de hauteurs différentes de charbon actif. Le modèle de CLARK a également été appliqué à des résultats obtenus au laboratoire (El HANI, 1987) sur l'adsorption et la dégradation biologique des acides humiques sur un filtre de charbon de 1m de haut, sur une période beaucoup plus longue (1 mois) et avec des lavages du filtre. Ce modèle permet de calculer la part qui n'est pas simplement de l'adsorption rapide (dégradation biologique et adsorption lente).
APA, Harvard, Vancouver, ISO, and other styles
7

Taieb Brahimi, Abdelhalim, Assia Oauli, and Yves Maréchal. "Inductance de fuite des têtes de bobines des machines asynchrones à cage Calcul par logiciels d'éléments finis 2D et 3D." Revue internationale de génie électrique 10, no. 2-3 (June 28, 2008): 335–71. http://dx.doi.org/10.3166/rige.11.355-371.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Granger, Laurent, François Fleury, and Caroline Chalmel. "Calcul de l'évolution du débit de fuite par une fissure de la paroi interne d'une enceinte de confinement en situation accidentelle." Revue Française de Génie Civil 4, no. 7-8 (January 2000): 875–94. http://dx.doi.org/10.1080/12795119.2000.9692701.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

CRISTINI, P. "Calcul des zéros d'une fonction analytique avec points de branchements." Le Journal de Physique IV 04, no. C5 (May 1994): C5–869—C5–872. http://dx.doi.org/10.1051/jp4:19945189.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Arantes, Urias. "Le roi est mort!: Vive le roi?" Trans/Form/Ação 15 (December 1992): 113–22. http://dx.doi.org/10.1590/s0101-31731992000100006.

Full text
Abstract:
Ce texte examine critiquement les points d'appui et propos philosophiques du projet culturel néomoderne (Habermas, Roùanet), interroge le lien avoué entre modernité et néomodernisme, le débat de celui-ci avec les irrationalismes post-modernes, explicite préssuppositions et inconsistances du projet néomoderne ainsi que ce que le néomodernisme laisse dans l'ombre dans son rachat de la modernité et ce que par conséquent il ne peut pas penser. Sous le fil conducteur de la critique du néomodernisme, on a souligné une sorte de "fuite en avant" qui serait le destin commun des intellectuels brésiliens, la possibilité et la limite de leur existence sociale.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Calcul de points de fuite"

1

Elassam, Abdelkarim. "Learning-based vanishing point detection and its application to large-baseline image registration." Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0084.

Full text
Abstract:
Cette thèse étudie la détection des points de fuite et de la ligne d'horizon ainsi que leur application à des tâches de localisation visuelle en environnement urbain. La localisation visuelle est un problème fondamental de vision par ordinateur qui vise à déterminer la position et l'orientation d'une caméra dans un environnement en se basant uniquement sur des informations visuelles. En environnements urbains et manufacturés, les points de fuite sont des repères visuels qui apportent des informations importantes sur la structure de la scène et leur détection est donc importante pour les tâches de reconstruction et de localisation. La thèse propose de nouvelles méthodes d'apprentissage profond pour surmonter les limites des approches existantes de détection de points de fuite. La première contribution clé introduit une nouvelle approche pour la détection de lignes d'horizon et de points de fuite. Contrairement à la plupart des méthodes existantes, cette méthode infère simultanément la ligne d'horizon et un nombre illimité de points de fuite horizontaux, même ceux s'étendant au-delà du cadre de l'image. La deuxième contribution clé de cette thèse est un détecteur de points de fuite amélioré par les structures de la scène. Cette méthode utilise un cadre d'apprentissage multitâche pour estimer plusieurs points de fuite horizontaux et générer les masques des structures planaires verticales correspondants à chaque point de fuite. Notre méthode fournit ainsi des informations essentielles sur la configuration de la scène. Contrairement aux méthodes existantes, cette approche exploite les informations contextuelles et les structures de la scène pour une estimation précise sans s'appuyer sur les lignes détectées. Les résultats expérimentaux démontrent que cette méthode surpasse les méthodes traditionnelles basées sur les lignes et les méthodes modernes basées sur l'apprentissage profond. La thèse explore ensuite l'utilisation des points de fuite pour la mise en correspondance et le recalage d'images, en particulier dans le cas où les images sont prises depuis des points de vue très différents. Malgré les progrès continus sur les extracteurs et les descripteurs d'indices, ces méthodes sont souvent inopérantes en présence de fortes variations d'échelle ou de points de vue. Les méthodes proposées relèvent ce défi en incorporant les points de fuite et les structures de la scène. L'un des défis majeurs liés à l'utilisation des points de fuite pour le recalage consiste à établir des correspondances fiables, en particulier dans des scénarios à large base. Ce travail relève ce défi en proposant une méthode de détection de points de fuite aidée par la détection des masques de structures verticales de scène correspondant à ces points de fuite. À notre connaissance, il s'agit de la première implémentation d'une méthode pour la mise en correspondance des points de fuite qui exploite le contenu de l'image et non seulement les segments détectés. Cette correspondance de points de fuite facilite l'estimation de la rotation relative de la caméra, en particulier dans les scénarios à large base. De plus, l'incorporation d'informations des structures de la scène permet une correspondance plus fiable des points clés au sein de ces structures. Par conséquent, la méthode facilite l'estimation de la translation relative, qui est contrainte elle-même par la rotation dérivée des points de fuite. La qualité de la rotation peut cependant parfois être impactée par l'imprécision des points de fuite détectés. Nous proposons donc une méthode de mise en correspondance d'image guidée par les points de fuite, qui est beaucoup moins sensible à la précision de détection des points de fuite
This thesis examines the detection of vanishing points and the horizon line and their application to visual localization tasks in urban environments. Visual localization is a fundamental problem in computer vision that aims to determine the position and orientation of a camera in an environment based solely on visual information. In urban and manufactured environments, vanishing points are important visual landmarks that provide crucial information about the scene's structure, making their detection important for reconstruction and localization tasks. The thesis proposes new deep learning methods to overcome the limitations of existing approaches to vanishing point detection. The first key contribution introduces a novel approach for HL and VP detection. Unlike most existing methods, this method directly infers both the HL and an unlimited number of horizontal VPs, even those extending beyond the image frame. The second key contribution of this thesis is a structure-enhanced VP detector. This method utilizes a multi-task learning framework to estimate multiple horizontal VPs from a single image. It goes beyond simple VP detection by generating masks that identify vertical planar structures corresponding to each VP, providing valuable scene layout information. Unlike existing methods, this approach leverages contextual information and scene structures for accurate estimation without relying on detected lines. Experimental results demonstrate that this method outperforms traditional line-based methods and modern deep learning-based methods. The thesis then explores the use of vanishing points for image matching and registration, particularly in cases where images are captured from vastly different viewpoints. Despite continuous progress in feature extractors and descriptors, these methods often fail in the presence of significant scale or viewpoint variations. The proposed methods address this challenge by incorporating vanishing points and scene structures. One major challenge in using vanishing points for registration is establishing reliable correspondences, especially in large-scale scenarios. This work addresses this challenge by proposing a vanishing point detection method aided by the detection of masks of vertical scene structures corresponding to these vanishing points. To our knowledge, this is the first implementation of a method for vanishing point matching that exploits image content rather than just detected segments. This vanishing point correspondence facilitates the estimation of the camera's relative rotation, particularly in large-scale scenarios. Additionally, incorporating information from scene structures enables more reliable keypoint correspondence within these structures. Consequently, the method facilitates the estimation of relative translation, which is itself constrained by the rotation derived from the vanishing points. The quality of rotation can sometimes be impacted by the imprecision of detected vanishing points. Therefore, we propose a vanishing point-guided image matching method that is much less sensitive to the accuracy of vanishing point detection
APA, Harvard, Vancouver, ISO, and other styles
2

Riffaut, Antonin. "Calcul effectif de points spéciaux." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0100/document.

Full text
Abstract:
À partir du théorème d’André en 1998, qui est la première contribution non triviale à la conjecture de André-Oort sur les sous-variétés spéciales des variétés de Shimura, la principale problématique de cette thèse est d’étudier les propriétés diophantiennes des modules singuliers, en caractérisant les points de multiplication complexe (x; y) satisfaisant un type d’équation donné de la forme F(x; y) = 0, pour un polynôme irréductible F(X; Y ) à coefficients complexes. Plus spécifiquement, nous traitons deux équations impliquant des puissances de modules singuliers. D’une part, nous montrons que deux modules singuliers x; y tels que les nombres 1, xm et yn soient linéairement dépendants sur Q, pour des entiers strictement positifs m; n, doivent être de degré au plus 2, ce qui généralise un résultat d’Allombert, Bilu et Pizarro-Madariaga, qui ont étudié les points de multiplication complexe appartenant aux droites de C2 définies sur Q. D’autre part, nous montrons que, sauf cas “évidents”, le produit de n’importe quelles puissances entières de deux modules singuliers ne peut être un nombre rationnel non nul, ce qui généralise un résultat de Bilu, Luca et Pizarro- Madariaga, qui ont ont étudié les points de multiplication complexe appartenant aux hyperboles xy = A, où A 2 Qx. Les méthodes que nous développons reposent en grande partie sur les propriétés des corps de classes engendrés par les modules singuliers, les estimations de la fonction j-invariant et les estimations des formes linéaires logarithmiques. Nous déterminons également les corps engendrés par les sommes et les produits de deux modules singuliers x et y : nous montrons que le corps Q(x; y) est engendré par la somme x + y, à moins que x et y soient conjugués sur Q, auquel cas x + y engendre un sous-corps de degré au plus 2 ; le même résultat demeure pour le produit xy. Nos preuves sont assistées par le logiciel PARI/GP, que nous utilisons pour procéder à des vérifications dans des cas particuliers explicites
Starting for André’s Theorem in 1998, which is the first non-trivial contribution to the celebrated André-Oort conjecture on the special subvarieties of Shimura varieties, the main purpose of this thesis is to study Diophantine properties of singular moduli, by characterizing CM-points (x; y) satisfying a given type of equation of the form F(x; y) = 0, for an irreducible polynomial F(X; Y ) with complex coefficients. More specifically, we treat two different equations involving powers of singular moduli. On the one hand, we show that two distinct singular moduli x; y such that the numbers 1, xm and yn are linearly dependent over Q, for some positive integers m; n, must be of degree at most 2. This partially generalizes a result of Allombert, Bilu and Pizarro-Madariaga, who studied CM-points belonging to straight lines in C2 defined over Q. On the other hand, we show that, with “obvious” exceptions, the product of any two powers of singular moduli cannot be a non-zero rational number. This generalizes a result of Bilu, Luca and Pizarro-Madariaga, who studied CM-points belonging to hyperbolas xy = A, where A 2 Qx. The methods we develop lie mainly on the properties of ring class fields generated by singular moduli, on estimations of the j-function and on estimations of linear forms in logarithms. We also determine fields generated by sums and products of two singular moduli x and y : we show that the field Q(x; y) is generated by the sum x + y, unless x and y are conjugate over Q, in which case x + y generate a subfield of degree at most 2 ; the same holds for the product xy. Our proofs are assisted by the PARI/GP package, which we use to proceed to verifications in particular explicit cases
APA, Harvard, Vancouver, ISO, and other styles
3

Audebaud, Christian-Philippe. "Extension du calcul des constructions par points fixes." Bordeaux 1, 1992. http://www.theses.fr/1992BOR10506.

Full text
Abstract:
S'appuyant sur la these definition recursive=construction par point fixe, constable et smith ont propose une extension de nuprl permettant de typer des termes construits par point fixe. Une analyse critique nous a conduit a en reprendre l'etude dans le calcul des constructions (cc), systeme mathematiquement plus elegant et syntaxiquement plus simple. L'introduction d'un constructeur de point fixe dans cc conduit a une extension, notee cc#+, conservative au-dessus de cc. La construction de schemas par point fixe doit respecter le predicat usuel de positivite. Aucune restriction au niveau des preuves. La definissabilite des fonctions partielles recursives sur les entiers est obtenue. Une definition alternative pour les types concrets introduits par ch. Paulin-mohring est proposee. L'expressivite calculatoire y est ainsi amelioree. Les termes construits ont un meilleur comportement calculatoire. L'expressivite logique n'est pas accrue; le predicat d'induction sur les entiers reste non prouvable, par exemple. La preuve des proprietes de confluence et de normalisation forte est rendue delicate pour cc#+. Une formulation plus synthetique du theoreme de normalisation forte de girard proposee par coquand pour cc, nous permet de montrer ces proprietes de maniere tres uniforme. Cette analyse suggere une approche plus simple de la semantique de cc et cc#+. Une esquisse est proposee dans le cadre d'un topos avec objet reflexif
APA, Harvard, Vancouver, ISO, and other styles
4

Lezama, José. "On grouping theory in dot patterns, with applications to perception theory and 3D inverse geometry." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0009/document.

Full text
Abstract:
Cette thèse porte sur l'étude de deux modèles mathématiques pour une tâchevisuelle élémentaire: le regroupement perceptuel de points 2D. Le premier modèletraite la détection d'alignements de point perceptuellement relevant. Ledeuxième modèle étend ce cadre au cas plus général de la bonne continuation depoints. Dans les deux cas, les modèles proposés sont invariants au changementd'échelle, et non supervisés. Ils sont conçus pour être robustes au bruit,jusqu'au point où les structures à détecter deviennent mathématiquementimpossibles de distinguer du bruit. Les expériences presentées montrent unecohérence entre notre théorie de détéction et les processus de démasquage ayantlieu dans la perception humaine.Les modèles proposés sont basés dans la méthodologie a contrario, uneformalisation du principe de non accidentalité dans la théorie de laperception. Cette thèse fait deux contributions au méthodes a contrario. Une estl'introduction de seuils de détection adaptatifs qui sont conditionnels auxenvirons des structures évaluées. La deuxième contribution est une nouvellestratégie raffinée pour résoudre la redondance de plusieurs détectionssignificatives.Finalement, l'utilité du détecteur d'alignements de points comme outil générald'analyse de données est démontrée avec son application a une problème classiqueen vision par ordinateur: la détection de points de fuite. Le détecteurd'alignements de points proposé, utilisé avec des outils standards, produit desrésultats améliorant l'état de l'art.Visant à la recherche reproductible, toutes les méthodes sont soumis au journalIPOL, en incluant descriptions détaillées des algorithmes, du code sourcecommenté et démonstrations en ligne pour chaque méthode
This thesis studies two mathematical models for an elementary visual task: theperceptual grouping of dot patterns. The first model handles the detection ofperceptually relevant arrangements of collinear dots. The second model extendsthis framework to the more general case of good continuation of dots. In bothcases, the proposed models are scale invariant and unsupervised. They aredesigned to be robust to noise, up to the point where the structures to detectbecome mathematically indistinguishable from noise. The experiments presentedshow a good match of our detection theory with the unmasking processes takingplace in human perception, supporting their perceptual plausibility.The proposed models are based on the a contrario framework, a formalization ofthe non-accidentalness principle in perception theory. This thesis makes twocontributions to the a contrario methodology. One is the introduction ofadaptive detection thresholds that are conditional to the structure's localsurroundings. The second is a new refined strategy for resolving the redundancyof multiple meaningful detections. Finally, the usefulness of the collinear point detector as a general patternanalysis tool is demonstrated by its application to a classic problem incomputer vision: the detection of vanishing points. The proposed dot alignmentdetector, used in conjunction with standard tools, produces improved resultsover the state-of-the-art methods in the literature.Aiming at reproducible research, all methods are submitted to the IPOL journal,including detailed descriptions of the algorithms, commented reference sourcecodes, and online demonstrations for each one
APA, Harvard, Vancouver, ISO, and other styles
5

OKASSA, EUGENE. "Geometrie des points proches et applications." Toulouse 3, 1989. http://www.theses.fr/1989TOU30003.

Full text
Abstract:
On donne une caracterisation du prolongement des champs de vecteurs sur une variete des points proches. On determine le type d'algebres locales pour lesquel certaines relevees de formes symplectiques (respectivement pseudo-riemanniennes) sont symplectiques (respectivement pseudo-riemanniennes). On definit les prolongements d'algebres locales: ce qui permet de definir le complexe differentiel de lagrange sur une variete de points proches
APA, Harvard, Vancouver, ISO, and other styles
6

Dewaghe, Laurent. "Calcul du nombre de points sur une courbe elliptique dans un corps fini." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-354.pdf.

Full text
Abstract:
Ma thèse apporte des résultats théoriques et pratiques concernant le meilleur algorithme connu - algorithme de schoof-elkies-atkin (sea) - pour le calcul du nombre de points sur une courbe elliptique dans un corps fini de très grande caractéristique. Cela a permis de déterminer le nombre de points d'une courbe sur un corps de caractéristique étant un nombre record. Plus précisément, je décris, tout d'abord, quelques propriétés des polynômes intervenants dans sea (et plus généralement associes à la courbe elliptique e : polynômes de division, polynômes de division exacte, polynômes de semi-division et les polynômes modulaires), en particulier, je donne la forme de leur décomposition en facteurs irréductibles sur le corps de base. De plus, je montre le lien entre la réductibilité des polynômes modulaires et des polynômes de division. D'autre part, dans le cas d'un bon nombre premier, je donne la complexité des différentes déterminations d'une valeur propre du Frobenius de la courbe elliptique et j'accélère la phase finale de cette détermination, en évitant le calcul des ordonnées des points sur la courbe, dans certains cas que l'on précise
APA, Harvard, Vancouver, ISO, and other styles
7

Lemarinier, Pierre. "Fiabilité et traitement de la volatilité dans les systèmes de calcul global." Paris 11, 2006. http://www.theses.fr/2006PA112258.

Full text
Abstract:
Les systèmes de calcul agrègent de plus en plus de processeurs et sont par conséquent plus fréquemment affectés par des pannes franches. Les applications de calcul à passage de messages sont en grande partie développées selon la norme MPI. De nombreux travaux sur la tolérance aux pannes automatique et transparente pour les applications ont été menés au sein des librairies MPI. Tous ces travaux sont basés sur des techniques de points de reprise, coordonnés ou non coordonnés. Néanmoins aucune comparaison entre les différents protocoles n'a été réalisée en terme de coût et d'impact sur les performances des applications. Nous proposons dans cette étude la première comparaison entre ces différents protocoles. Dans un premier temps, nous décrivons dans un modèle commun un protocole à enregistrement de message pessimiste distant, un protocole à enregistrement de messages pessimiste sur l'émetteur, un protocole à enregistrement de messages causal ainsi que deux protocoles à points de reprise coordonnés : un protocole non bloquant et un protocole bloquant. La deuxième partie de cette thèse décrit les implémentations des quatre premiers protocoles dans la librairie MPICH et l'implémentation du dernier protocole dans la librairie MPICH2. Nous résumons les résultats des expériences menées sur les protocoles à enregistrement de messages pessimistes puis nous exposons en détail les résultats des mesures de performances réalisées sur les implémentations des protocoles causal et à points de reprise coordonnés à l'aide de micro benchmarks et d'applications numériques, pour différentes plateformes de calcul
The distributed computing systems gather more and more processors and are thus subjected to higher failure frequencies. The message passing applications are now generally written using the MPI interface. Numbers of automatic and transparent fault tolerant protocols for message passing libraries have been proposed and implemented. All these protocols rely on checkpoint/restart mechanisms, coordinated or not. However, no comparison of these protocols have been presented yet, in term of cost on the initial performance of MPI applications. We expose in this paper the first comparison between the different kind of fault tolerant protocols. The first part describes in a common model five protocols: a distant pessimistic message logging protocol, a sender based pessimistic message logging protocol, a causal message logging protocol, a non blocking coordinated checkpoint protocol and finally a blocking coordinated checkpoint protocol. The second part of this thesis presents the implementation of the fourth first protocols in the MPICH library and the fifth protocol in the MPICH2 library. Then we sum up the experiment results we obtained for the pessimistic protocols implementation and detail the performance measurements of the causal implementation and the coordinated checkpoint implementations, using micro benchmarks and NAS applications on different computing systems
APA, Harvard, Vancouver, ISO, and other styles
8

Bataille, Camille. "Topographie multi-échelle et fuite évolutive d'un contact coulissant : approche expérimentale et simulation." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0008.

Full text
Abstract:
Les pompes permettent le transfert d’un produit (colle, lubrifiant, essence, etc.) jusqu’au système de pulvérisation sous pression. Etant présentes dans une multitude de secteur d’activité, leur fiabilité a une importance majeure pour la protection de l’environnement et de la santé. Nous étudions l’impact de l’état de surface sur la fonctionnalité (étanchéité, usure) de différents systèmes, au sein des pompes et systèmes de pulvérisation. Une méthode de caractérisation multi-échelle est ainsi mise en place afin de comprendre l’impact de l’état de surface des pièces sur la fonctionnalité de ces systèmes. Cette méthode est appliquée sur une première étude de caractérisation de l’étanchéité de buses réversibles. Il n’est pas toujours évident d’interpréter l’impact de la morphologie d’une surface sur sa fonctionnalité utilisant les paramètres de rugosité. Un modèle de contact et un outil de visualisation de répartition du contact sont donc développés. L’interface de contact est ainsi calculée pour mieux comprendre la répartition du contact et les chemins de fuite. La suite de la thèse a pour but de caractériser couple étanchéité/usure d’un piston hydraulique. Un banc de test est développé pour caractériser l’usure, l’étanchéité et la topographie des pièces étudiées. Ainsi, la dégradation de l’état de surface d’un piston est analysée en fonction de son étanchéité. Afin d’appliquer l’étude du couplage étanchéité/usure à d’autres contacts similaires, un modèle numérique, capable de calculer la conductance hydraulique d’un contact coulissant entre deux surfaces rugueuses, est en développement. Pour terminer, des revêtements susceptibles de remplacer le chrome dur sont testés en usure. L’utilisation du chromage dur étant fortement réglementée et sera amené à être interdite à l’avenir. Ainsi, l’étude comparative de la dégradation de différents revêtements dans les mêmes conditions d’usure est étudiée
Pumps allow the transfer of a product (glue, lubricant, petrol, etc.) to the pressurised spraying system. Being present in a multitude of industries, their reliability is of major importance for the protection of the environment and health. We study the impact of surface finish on the functionality (tightness, wear) of different systems, within pumps and spraying systems. A multi-scale characterization method is thus implemented in order to understand the impact of the surface finish of parts on the functionality of these systems. This method is applied on a first characterization study of the tightness of reversible nozzles. It is not always easy to interpret the impact of the morphology of a surface on its functionality using roughness parameters. A contact model and a contact distribution visualization tool are therefore developed. The contact interface is thus computed to better understand the contact distribution and leakage paths. The next part of the thesis aims to characterize the seal/wear torque of a hydraulic piston. A test bench is developed to characterize the wear, tightness and topography of the studied parts. Thus, the degradation of the surface state of a piston is analyzed as a function of its tightness. In order to apply the study of the seal/wear coupling to other similar contacts, a numerical model, capable of calculating the hydraulic conductance of a sliding contact between two rough surfaces, is being developed. Finally, coatings that could replace hard chromium are being tested for wear. The use of hard chromium plating is highly regulated and will be banned in the future. Thus, the comparative degradation of different coatings under the same wear conditions is being studied
APA, Harvard, Vancouver, ISO, and other styles
9

Dormoy, Jérôme. "Un algorithme linéaire de calcul de points fixes dans les systèmes de transitions : parallélisation et études expérimentales." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10628.

Full text
Abstract:
Actuellement, le domaine de la verification est confronte au probleme de l'explosion combinatoire des systemes modelises. Les axes de recherche pour lutter contre ce probleme se portent a la fois sur la realisation d'algorithmes rapides, et sur la mise au point de techniques visant a contourner le delicat probleme de la taille de tels systemes. En ce qui concerne, les algorithmes rapides, nous presentons un algorithme de calcul de points fixes dont la complexite est lineaire. D'autre part, plusieurs approches comme par exemple la verification a la volee, ou les representations plus compactes a l'aide de diagrammes binaires de decisions, permettent d'attenuer le probleme de la taille des systemes modelises. Nous avons choisi d'explorer une nouvelle approche qui consiste a repartir le systeme sur plusieurs processeurs. Nous presentons donc egalement une etude sur la parallelisation de l'algorithme lineaire de calcul de points fixes. Pour chaque algorithme, sequentiel et parallele, et c'est un des aspects original de cette etude, nous avons effectue une importante phase d'experimentations. Cette analyse nous a permis de verifier tout d'abord que la complexite de l'implementation sequentielle etait bien conforme au modele theorique, et ensuite la pertinence de l'approche parallele.
APA, Harvard, Vancouver, ISO, and other styles
10

Wallet, Alexandre. "Le problème de décompositions de points dans les variétés Jacobiennes." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066438/document.

Full text
Abstract:
Le problème du logarithme discret est une brique fondamentale de nombreux protocoles de communication sécurisée. Son instantiation sur les courbes elliptiques a permis, grâce à la petite taille des opérandes considérées, le déploiement de primitives asymétriques efficaces sur des systèmes embarqués. De nos jours, les cryptosystèmes utilisant des courbes elliptiques, aussi appelées courbes de genre 1, sont déjà intensément utilisés: il est donc impératif de savoir estimer précisément la robustesse de ces systèmes. L'existence d'attaques mathématiques permettant de transférer un problème de logarithme discret elliptique dans un autre type de courbe algébrique, et la nouvelle compétitivité des courbes de genre 2 imposent de ne pas se restreindre à la seule compréhension du problème sur les courbes elliptiques.Dans cette optique, le sujet de cette thèse se concentre sur les attaques algébriques sur les courbes de genre supérieur à 1. Les algorithmes de type calcul d'indice sont en général préférés pour ce genre d'attaque. Ces algorithmes se déroulent en deux phases: la première, appelée phase de récolte, dispose de nombreuses modélisations algébriques dépendant de la courbe ciblée. Le problème sous-jacent revient à savoir décomposer efficacement des points dans la variété Jacobienne de la courbe en somme d'autres points.On propose dans un premier temps une approche par crible pour la phase de récolte, s'adaptant à tous les types de courbes de genre plus grand que 1, et qui est expérimentalement plus efficaces que les méthodes de l'état de l'art. Cette méthode a l'avantage de proposer une implémentation immédiate, et évite les problèmes usuels de gestion des relations obtenues.Ensuite, on se concentre les variantes de calcul d'indice appelées attaques par décomposition, et ciblant les courbes définies sur des extensions de corps. Dans cette situation, la phase de récolte est effectuée par résolution de nombreux systèmes polynomiaux multivariés. On propose une nouvelle approche de modélisation de ces systèmes, en généralisant la notion de polynômes de sommation elliptique à tout les types de courbes algébriques. Pour cela on fait appel à la théorie de l'élimination, tandis que l'aspect pratique est gérée par des méthodes de bases de Gröbner.Enfin, on fournit des algorithmes d'amélioration du processus de résolution des systèmes lorsque la caractéristique du corps de base est paire. Par le biais d'une présentation théorique générale et en utilisant des méthodes de bases de Gröbner, on propose une analyse fine de l'impact de ces améliorations sur la complexité de la résolution. Cette analyse fine, ainsi qu'une implémentation dédiée, nous permettent d'attaquer une courbe de genre 2 satisfaisant des bornes de sécurité réaliste en pratique
The discrete logarithm problem is a fundamental brick for several protocols for secured communications. Its instantiation over elliptic curves allows the deployment of efficient asymmetric primitives in embedded systems, because of the small size of the parameters considered. Nowadays, elliptic curves cryptosystems are already widely used: it is therefore crucial to precisely understand the hardness of such systems. Because of the existence of mathematical attacks enabling the transfer from an elliptic curve discrete logarithm problem to another algebraic curve, and the upcoming competitivity of genus 2 curves, it is mandatory to study the problem not only for elliptic curves, but for the other curves as well.In this way, this thesis focuses on the algebraic attacks over curves with genus greater than 1. The index calculus family of algorithms is in general preferred for this kind of attacks. Those algorithms run in two phases: the first, called harvesting phase, can be modelled by different algebraic approaches, depending in the targetted curve. The underlying problem amounts to knowing how to decompose efficiently points in the Jacobian variety of the curve into sums of other points.First, we propose a sieving approach to the harvesting, that can be adated to any type of curves with genus greater than 1, and which turns to be experimentally more efficient than state-of-the-art's methods. Moreover, our method allows a close-to-immediate implementation, and avoid complications coming from relations management.Our second focus is on a variant of index calculus called decomposition attack, targetting curves defined over field extensions. In this situation, harvesting is done by solving numerous multivariate polynomial systems. We propose a new approach to this modelling by generalizing the notion of elliptic summation polynomias to any type of algebraic curves. This uses elimination theory, and the computational aspect is handled by Gröbner bases methods.Third, we give algorithms to improve the solving process of the systems arising from a decomposition attacks when the characteristic of the base field is even. By mean of a general theoretical presentation, and using Gröbner bases methods, we give a sharp analysis of the impact of such improvement on the complexity of the resolution process. This sharp analysis together with a dedicated implementation allows us to attack a genus 2 curve satisfying realistic security parameters
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Calcul de points de fuite"

1

Dessiner, Des Outils Pour. Cahier de Croquis Grille de Perspective 2 Points de Fuite 120 Pages: Grille de Perspective 2 Points de Fuite Idéal Pour Dessin en Perspective et Architecture Taille 21. 59 Cm X 21. 59 Cm. Independently Published, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Mon Cahier de Calcul: Jeux d'addition et de Soustraction,labyrinthes,relies les Points,colorier Avec Nombres, Pour les Enfants de 6 Ans. Independently Published, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Editions, Relative. Cahier d'activités Maternelle Grande Section et CP GS 5-6 Ans : 100 Activités et Jeux en Couleurs: Écriture Cursive, Calcul Additions Soustractions, Dessins, Points à Relier, Labyrinthes. Independently Published, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Calcul de points de fuite"

1

Le Dret, Hervé. "Calcul des variations et points critiques." In Mathématiques et Applications, 161–94. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-36175-3_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Cramér, Harald. "Sur Quelques Points Du Calcul Des Probabilites." In Springer Collected Works in Mathematics, 465–67. Berlin, Heidelberg: Springer Berlin Heidelberg, 1994. http://dx.doi.org/10.1007/978-3-642-40986-8_22.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Martin-Löf, Anders. "Sur quelques points du calcul des probabilités." In Harald Cramér Collected Works, 465–67. Berlin, Heidelberg: Springer Berlin Heidelberg, 1994. http://dx.doi.org/10.1007/978-3-642-61221-3_22.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hahn, Hans. "Bemerkungen zu den Untersuchungen des Herrn M. Fréchet: Sur quelques points du calcul fonctionnel." In Hans Hahn Gesammelte Abhandlungen/Collected Works, 369–79. Vienna: Springer Vienna, 1996. http://dx.doi.org/10.1007/978-3-7091-6590-4_23.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Coutant, C., E. Chéreau, C. Bezu, E. Darai, S. Uzan, and R. Rouzier. "Points communs et différences entre les divers nomogrammes validés pour le calcul du risque d’envahissement ganglionnaire." In Cancer du sein, 63–76. Paris: Springer Paris, 2012. http://dx.doi.org/10.1007/978-2-8178-0245-9_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

FELD-PAYET, Sylvia. "Transition endommagement-fissure." In Modélisation numérique en mécanique fortement non linéaire, 309–82. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9081.ch7.

Full text
Abstract:
Ce chapitre présente des outils numériques pour l’insertion d’une fissure discrète à partir d’un modèle d’endommagement continu. Ils permettent de déterminer où placer la discontinuité, quand l’insérer et enfin quelles sont les mesures à prendre pour pouvoir reprendre le calcul après insertion. L’auteur met en évidence l’intérêt de ces outils, leurs points communs et différences afin de guider le choix du lecteur.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Calcul de points de fuite"

1

Dufour, Quentin, David Pontille, and Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Full text
Abstract:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography