Gotowa bibliografia na temat „Mesure moyenne de l'intrication”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Mesure moyenne de l'intrication”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Mesure moyenne de l'intrication"

1

Boyer, Marcel, i Georges Dionne. "Riscophobie et étalement à moyenne constante : analyse et applications". Articles 59, nr 2 (21.07.2009): 208–29. http://dx.doi.org/10.7202/601213ar.

Pełny tekst źródła
Streszczenie:
L’objet de cet article est de montrer que, pour la perspective aléatoire caractérisée par la probabilité p de perdre une valeur h, il existe une mesure adéquate des variations dans le risque engendrées par des variations comparables de p et h, ce qui permet d’isoler le facteur risque et de prédire le comportement des agents riscophobes. Cette mesure résulte d’une application du concept d’étalement à moyenne constante (mean-preserving spread) développé par Rothschild et Stiglitz. Le résultat principal est à l’effet qu’un agent riscophobe préférera toujours une diminution de la perte à une baisse comparable de la probabilité de perte. Nous appliquons ce résultat simple à diverses situations : assurance-chômage, réglementation par enquêtes et amendes, contrôle des prix et des salaires, sécurité routière, stationnement illégal, loteries, autoassurance vs autoprotection. Enfin nous dérivons une mesure de variation compensatoire de richesse reliée au degré de riscophobie.
Style APA, Harvard, Vancouver, ISO itp.
2

Véron, Jacques, i Jean-Marc Rohrbasser. "Leibniz et la mortalité : mesure des « apparences » et calcul de la vie moyenne". Population Vol. 53, nr 1 (1.01.1998): 29–44. http://dx.doi.org/10.3917/popu.p1998.53n1-2.0044.

Pełny tekst źródła
Streszczenie:
Résumé Rohrbasser (Jean-Marc), Véron (Jacques).- Leibniz et la mortalité : Mesure des « apparences » et calcul de la vie moyenne Gottfried Wilhelm Leibniz a consacré une série de manuscrits datés de 1680 au calcul de l'espérance de vie, afin d'estimer la juste valeur des rentes viagères. Pour calculer ce qu'il appelle « vie moyenne et présomptive », il adopte deux hypothèses fondamentales d'égale vitalité des hommes et d'années également fatales. Celles-ci lui permettent de mo- déliser le processus de mortalité. Recourant à une démarche à la fois probabiliste et empirique, Leibniz élabore une table de mortalité fondée sur des données quantitatives et diverses estimations de nature qualitative. Il détermine ainsi la valeur de la vie moyenne à différents âges. Comme dans ses autres textes, Leibniz s'efforce de concilier une approche théorique des phénomènes avec une observation attentive de leur réalité, ce qui ne va pas parfois sans une certaine ambiguïté. Mais dans ces manuscrits, Leibniz aborde et traite avec un grand souci de rigueur des questions fondamentales de la démographie.
Style APA, Harvard, Vancouver, ISO itp.
3

Boivin2, Rémi. "Une mesure de la gravité moyenne des crimes enregistrés par la police1". Criminologie 46, nr 2 (13.12.2013): 221–41. http://dx.doi.org/10.7202/1020994ar.

Pełny tekst źródła
Streszczenie:
Cet article part du principe que l’analyse de la criminalité doit traiter d’au moins deux dimensions : le volume et la gravité des infractions. Le taux de criminalité traditionnel mesure exclusivement le volume de criminalité commis à un endroit ou à un moment précis. Statistique Canada a récemment développé un Indice de gravité de la criminalité visant à tenir compte de la gravité des infractions enregistrées par la police. L’analyse de la construction de l’indice révèle qu’il s’agit en fait d’un taux pondéré influencé à la fois par le volume et la gravité. L’article présente un nouvel indicateur qui vise à mesurer uniquement la gravité des infractions enregistrées. Cette mesure de la gravité moyenne des infractions criminelles enregistrées par la police est simple à calculer et facile à interpréter. Elle permet de conclure que les infractions enregistrées au Canada au cours des années 2000 sont moins graves que celles enregistrées durant les années 1980 et 1990. La mesure vient aussi nuancer le classement des provinces et des villes canadiennes les plus « dangereuses » puisqu’il est démontré qu’un taux de criminalité élevé ne signifie pas nécessairement un niveau de gravité élevé, et vice versa. L’analyse des données policières sous l’angle de la gravité offre une vision plus complète du phénomène de la criminalité.
Style APA, Harvard, Vancouver, ISO itp.
4

Nardin, M., E. Papirer i J. Schultz. "Me´thode de mesure de la taille moyenne d'agglomerats de particules". Powder Technology 44, nr 2 (listopad 1985): 141–43. http://dx.doi.org/10.1016/0032-5910(85)87020-0.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Philippe, Julien. "À la recherche d’une ligne céphalométrique de référence". L'Orthodontie Française 83, nr 3 (wrzesień 2012): 217–23. http://dx.doi.org/10.1051/orthodfr/2012018.

Pełny tekst źródła
Streszczenie:
La variabilité des lignes céphalométriques de référence est examinée à la lumière de la typologie, de l’orientation naturelle de la tête, de l’orientation vestibulaire et de l’anatomie. Il apparaît que ces lignes ont une orientation propre au sujet, c’est-à-dire qu’elle n’est pas la même chez celui-ci et chez le modèle théorique qui exprime les valeurs moyennes. Il s’en suit que l’écart observé entre la mesure du patient et la moyenne peut provenir aussi bien des variations de la ligne de référence que de celles de la structure étudiée. Une telle mesure ne peut alors servir de base à un diagnostic morphologique. Un autre système céphalométrique de référence est évoqué. Il présente, pour le diagnostic orthognathique, bien des avantages sur le système classique, mais reste imparfait.
Style APA, Harvard, Vancouver, ISO itp.
6

Pénard, Thierry, i Michel Sollogoub. "Les politiques françaises d'emploi en faveur des jeunes : une évaluation économétrique." Revue économique 46, nr 3 (1.05.1995): 549–59. http://dx.doi.org/10.3917/reco.p1995.46n3.0549.

Pełny tekst źródła
Streszczenie:
Résumé Cette étude s'attache à analyser les effets des politiques menées en faveur des jeunes sur leur durée moyenne d'emploi dans l'entreprise qui les accueille et sur leur trajectoire professionnelle à l'issue de cet emploi. Nous estimons des modèles de durée et de recherche d'emploi pour tester l'efficacité des mesures "jeunes" par rapport aux contrats d'emploi classiques. Les résultats économétri­ques montrent qu'à expérience et à formation égales, un jeune embauché au titre d'une mesure jeunes (hors TUC) a une probabilité plus élevée de rester durable­ment chez son employeur qu'un autre embauché avec un CDD. En revanche, un jeune qui est passé par une mesure jeunes et qui est à la recherche d'un nouvel emploi mettra plus de temps pour obtenir cet emploi que le même jeune ayant une expérience d'emploi non aidé.
Style APA, Harvard, Vancouver, ISO itp.
7

Martin, Céline, Pierre Bouletreau, Paul Cresseaux, Renaud Lucas i Sarah Gebeile-Chauty. "Latéromandibulie : détermination d’une mesure cutanée fiable". L'Orthodontie Française 89, nr 2 (czerwiec 2018): 199–212. http://dx.doi.org/10.1051/orthodfr/2018016.

Pełny tekst źródła
Streszczenie:
Introduction : Les mesures cliniques sur photographie de face sous-évaluent le décalage du menton dans les latéromandibulies. L’objectif de cette étude descriptive est de rechercher une méthode fiable de mesure du décalage du menton cutané, la téléradiographie de face servant de référence. Matériel et méthode : Soixante-dix patients présentant une latéromandibulie ayant consulté un chirurgien maxillo-facial ont été systématiquement inclus. L’âge, le genre, les caractéristiques céphalométriques, le motif de consultation des patients et le type de chirurgie ont été collectés. Deux méthodes céphalométriques comparant l’angle photographique et téléradiographique ont été testées par rapport au plan sagittal médian (PSM). Résultats : Les patients inclus sont en moyenne jeunes (26 ans +/− 9), de sexe féminin (pour 75 % des cas), hyperdivergents (FMA moyen : 28° +/− 8°), tendance classe III squelettique, avec un décalage du menton à gauche (63 % des cas). Ils consultent pour des raisons à la fois esthétique et fonctionnelle (51 % des cas) et nécessitent une chirurgie bi-maxillaire (66 % des cas). La comparaison entre les angles photographiques comparant l’angle photographique formé par le PSM et la droite passant par le nasion et rejoignant le point menton et l’angle radiographique formé par le PSM et la droite passant par le processus Crista Galli et le point menton osseux ne montre pas de différence significative (p=0,937) et s’avère fiable.
Style APA, Harvard, Vancouver, ISO itp.
8

Frankhauser, Pierre. "La formation fractale des tissus urbains". Cahiers de géographie du Québec 42, nr 117 (12.04.2005): 379–98. http://dx.doi.org/10.7202/022764ar.

Pełny tekst źródła
Streszczenie:
L'article développe la question de savoir dans quelle mesure l'approche fractale représente un apport nouveau permettant de reconstituer la morphologie des tissus agglomérés. L'approche fractale introduit un nouveau paradigme pour concevoir la façon dont de tels tissus répondent à des critères d'optimisation. Sont explicitées les méthodes d'analyses de dilatation et radiale, ainsi que la reconstitution des courbes du comportement scalant. Ces méthodes complémentaires sont appliquées à des études de divers cadres densément bâtis: vastes zones métropolitaines et agglomérations de taille moyenne en Franche-Comté.
Style APA, Harvard, Vancouver, ISO itp.
9

Paré, Guy, i Louis Raymond. "Mesure de la sophistication des technologies de l'information dans les PME". Revue internationale P.M.E. 4, nr 1 (16.02.2012): 81–106. http://dx.doi.org/10.7202/1008026ar.

Pełny tekst źródła
Streszczenie:
Le présent article présente une étude méthodologique relative au concept de sophistication de la technologie de l'information dans le contexte spécifique de la petite et moyenne entreprise. Si l'on désire identifier les effets de la technologie de l'information sur la structure, la stratégie ou encore la performance de ces organisations, if faut être capable de la caractériser dans un but d'opératio- nalisation en tant que variable indépendante, dépendante ou modératrice à l'intérieur d'un cadre conceptuel de recherche. Une première étape consiste donc à élaborer et à valider un instrument de mesure ayant trait au niveau de sophistication de la technologie de l'information dans les PME. Pour cet objectif, une étude empirique fut réalisée auprès de 101 PME manufacturières québécoises.
Style APA, Harvard, Vancouver, ISO itp.
10

Rohrbasser, Jean-Marc, Jacques Véron i Jacques Veron. "Leibniz et la mortalité: Mesure des "apparences" et calcul de la vie moyenne". Population (French Edition) 53, nr 1/2 (styczeń 1998): 29. http://dx.doi.org/10.2307/1534235.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Mesure moyenne de l'intrication"

1

Amouzou, Grâce Dorcas Akpéné. "Etude de l’intrication par les polynômes de Mermin : application aux algorithmes quantiques". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCK063.

Pełny tekst źródła
Streszczenie:
Cette thèse explore la mesure de l'intrication dans certains états hypergraphiques, dans certains algorithmes quantiques tels que les algorithmes quantiques d'estimation de phase et de comptage, ainsi que dans les circuits d'agents réactifs, à l'aide de la mesure géométrique de l'intrication, d'outils issus des polynômes de Mermin et des matrices de coefficients. L'intrication est un concept présent en physique quantique qui n'a pas d'équivalent connu à ce jour en physique classique.Le coeur de notre recherche repose sur la mise en place de dispositifs de détection et de mesure de l'intrication afin d'étudier des états quantiques du point de vue de l'intrication.Dans cette optique, des calculs sont d'abord effectués numériquement puis sur simulateur et ordinateur quantiques. Effectivement, trois des outils exploités sont implémentables sur machine quantique, ce qui permet de comparer les résultats théoriques et "réels"
This thesis explores the measurement of entanglement in certain hypergraph states, in certain quantum algorithms like the Quantum Phase estimation and Counting algorithms as well as in reactive agent circuits, using the geometric measurement of entanglement, tools from Mermin polynomials and coefficient matrices. Entanglement is a concept present in quantum physics that has no known equivalent to date in classical physics.The core of our research is based on the implementation of entanglement detection and measurement devices in order to study quantum states from the point of view of entanglement.With this in mind, calculations are first carried out numerically and then on a quantum simulator and computer. Indeed, three of the tools used can be implemented on a quantum machine, which allows us to compare theoretical and "real" results
Style APA, Harvard, Vancouver, ISO itp.
2

Debesse, Philippe. "Vers une mesure du vent thermoacoustique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00445461.

Pełny tekst źródła
Streszczenie:
Les phénomènes non-linéaires présents dans les systèmes thermoacoustiques sont responsables de l'apparition des écoulements continus secondaires qui se superposent aux oscillations acoustiques dominantes, pénalisant l'efficacité des systèmes. L'objectif de cette étude est de caractériser le champ acoustique dans un résonateur contenant un générateur d'onde thermoacoustique et de mettre en évidence les écoulements secondaires. Nous mesurons le champ de vitesse par vélocimétrie par images de particules (PIV). Les premières mesures enregistrées sans relation de phases avec la période acoustique, permettent de reconstruire la composante acoustique sur une période, en réordonnant les vitesses suivant leur phase avec une technique de projection par décomposition aux valeurs singulières (SVD). Celle-ci fait partie d'une batterie de post-traitements qui permettent d'obtenir des résultats concordant avec l'acoustique linéaire. Ils mettent en évidence un contenu harmonique important et le caractère non-linéaire de l'écoulement acoustique. Le calcul du champ de vitesse moyenné en temps montre l'existence d'un écoulement continu différent de celui de Rayleigh-Schlichting. Dans la fenêtre de mesure, il est composé de cellules de convection dont l'extension radiale tend à croître avec le rapport moteur. Il fait aussi apparaître un caractère tridimensionnel. Un deuxième type de mesures PIV synchronisées aux mesures de pression, apporte un complément d'information sur les écoulements secondaires et confirme globalement les résultats obtenus à partir des premières mesures. Cependant ces mesures synchronisées se révèlent moins précises que les premières.
Style APA, Harvard, Vancouver, ISO itp.
3

Joyeux, Sylvie. "Mesure de l'heterogeneite ecologique des milieux riverains de la moyenne vallee de la garonne". Toulouse 3, 1986. http://www.theses.fr/1986TOU30120.

Pełny tekst źródła
Streszczenie:
A partir d'une etude floristique de base completee par une analyse phytogeographique, il est propose d'utiliser l'indice d'equitabilite pour mesurer l'heterogeneite ecologique des milieux instables et complexes de la basse terrasse alluviale. Dans un fond de vegetation ubiquiste demontrant cette instabilite naturelle (crues) ou d'origine anthropique (exploitation de sables et graviers), de fortes corrections edapho-topographiques et biotiques (structure de la vegetation) permettent a la plupart des elements floristiques du contexte phytogeographqiue regional de se melanger a la vegetation du bord des eaux omnipresente mais irregulierement distributee, par suite des variations dans l'espace et dans le temps de facteur eau, organisateur principal des caracteristiques structurales de la couverture vegetale des milieux riverains
Style APA, Harvard, Vancouver, ISO itp.
4

Joyeux, Sylvie. "Mesure de l'hétérogénéité écologique des milieux riverains de la moyenne vallée de la Garonne". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37598573k.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Bussiere, William. "Mesure des grandeurs (T,Ne,P) au sein du plasma d'arc des fusibles Moyenne Tension". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2000. http://tel.archives-ouvertes.fr/tel-00011683.

Pełny tekst źródła
Streszczenie:
Ce travail traite de la détermination expérimentale des grandeurs électriques et physiques lors du mécanisme de coupure dans les fusibles en moyenne tension.
Les résultats sont présentés dans deux parties : la première traite de l'influence de la pression sur les grandeurs électriques et physiques caractérisant un arc dans une atmosphère sous pression, la seconde présente l'étude des mécanismes de création et d'extinction de l'arc.
L'étude relative à l'influence de la pression repose sur trois dispositifs de mesure des grandeurs électriques et spectroscopiques. Une méthode de détermination de la pression à partir des paramètres des profils des transitions Si II (2) est présentée, et appliquée à l'évaluation de la pression au sein du fusible en moyenne tension.
L'étude du fonctionnement du fusible en moyenne tension concerne trois points : la vitesse de "burn-back", l'influence des propriétés du sable de silice sur le mécanisme de coupure, et l'évolution de la température et de la densité électronique au sein du plasma d'arc pendant la coupure.
La vitesse de "burn-back" est déterminée par imagerie ultra-rapide. Une dissymétrie sensible entre les vitesses à la cathode et à l'anode apparaît dès le début du régime d'arc ; la masse volumique de compactage et la granulométrie du sable conditionnent l'efficacité des mécanismes de transfert de l'énergie depuis la colonne d'arc vers la périphérie. La diffusion du fluide dans les interstices joue un rôle prépondérant dans le mécanisme de coupure, et explique pourquoi les plus grandes granulométries étudiées impliquent les coupures les plus brèves ; les évolutions de la température et de la densité électronique montrent une dynamique de variation importante sur l'ensemble du phénomène. Les coefficients d'établissement et d'extinction des deux grandeurs sont dépendants des propriétés du sable.
Style APA, Harvard, Vancouver, ISO itp.
6

ABI, NADER MARIO. "L'electrocardiogramme moyenne (ecg-mha) applique a la mesure de la masse ventriculaire gauche chez l'hypertendu". Lille 2, 1993. http://www.theses.fr/1993LIL2M310.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

FALL, THIEYACINE. "Mesure de la charge moyenne ionique, par le rayonnement bremsstrahlung dans le visible, sur tore supra". Paris 11, 1991. http://www.theses.fr/1991PA112209.

Pełny tekst źródła
Streszczenie:
La charge effective du plasma zeff (taux d'impuretes dans un plasma) joue un role essentiel dans le domaine de la fusion controlee par confinement magnetique, car elle intervient pour la condition d'auto-entretien (ignition) du plasma. A partir de la theorie hydrogenoide du rayonnement bremsstrahlung dans le visible, on montre comment on peut deduire la charge effective du plasma. Un critere de validite est etabli sur les mesures experimentales (rayonnement dans le visible a =5235 a) pour l'obtention du profil de zeff. On procure aussi, par une methode generale, l'estimation des erreurs sur ce meme profil. Ce profil permet de calculer des profils de resistivites issus de theories differentes qui sont compares a celui provenant d'un code magnetohydrodynamique. Le temps de depouillement pour decrire l'evolution temporelle du profil etant assez long, une methode rapide d'analyse a partir de parametres globaux a ete developpee: elle donne l'evolution temporelle de zeff. C'est essentiellement cette derniere mesure qui a contribue le plus aux resultats experimentaux du programme physique de tore supra
Style APA, Harvard, Vancouver, ISO itp.
8

Bussière, William. "Mesure des grandeurs (T,Nc,P) au sein du plasma d'arc des fusibles en moyenne tension". Clermont-Ferrand 2, 2000. http://www.theses.fr/2000CLF22258.

Pełny tekst źródła
Streszczenie:
Ce travail traite de la détermination expérimentale des grandeurs électriques et physiques pendant le mécanisme de coupure d'un fusible en moyenne tension. Les résultats sont présentés dans deux parties : la première traite de l'influence de la pression sur les grandeurs électriques et physiques caractérisant un arc dans une atmosphère sous pression ; la seconde présente l'étude des mécanismes de création et d'extinction de l'arc. L'étude relative à l'influence de la pression repose sur trois dispositifs de mesure des grandeurs électriques et spectroscopiques. Une méthode de détermination de la pression à partir des paramètres des profils de transition Si II (2) est présentée, et appliquée à l'évaluation de la pression au sein du fusible en moyenne tension. L'étude du fonctionnement du fusible en moyenne tension concerne trois points : la vitesse de "burn-back", l'influence des propriétés du sable de silice sur le mécanisme de coupure, et l'évolution de la température et de la densité électronique au sein du plasma d'arc pendant la coupure. -La vitesse de "burn-back" est déterminée par imagerie ultra-rapide. Une dissymétrie sensible entre les vitesses côté cathode et anode apparaît dès le début du régime d'arc ; -la masse volumique de compactage et la granulométrie du sable conditionnent l'efficacité des mécanismes de transfert de l'énergie depuis la colonne d'arc vers la péripherie. La diffusion du fluide dans les interstices joue un rôle prépondérant dans le mécanisme de coupure, et explique pourquoi les plus grandes granulométries impliquent les coupures les plus brèves. -Les évolutions de la température et de la densité électronique montrent une dynamique de variation importante sur l'ensemble du phénomène. Les coefficients d'établissement et d'extinction des deux grandeurs sont dépendants des sable
Style APA, Harvard, Vancouver, ISO itp.
9

GARNIER, BALTENBERGER ANNE. "Etude, developpement et premiers resultats d'un nouveau lidar doppler destine a la mesure des vents dans la moyenne atmosphere". Paris 11, 1990. http://www.theses.fr/1990PA112107.

Pełny tekst źródła
Streszczenie:
Afin de mieux comprendre l'interaction entre les ondes et le vent moyen dans le domaine d'altitude 25-65 km, ou les champs de vent sont encore mal connus, nous avons developpe un nouveau lidar doppler specialement concu pour couvrir cette region, et qui de ce fait utilise la retrodiffusion rayleigh. La vitesse du vent est donnee par le decalage doppler subi par les photons reemis par retrodiffusion rayleigh sur les molecules de l'air en mouvement par rapport au sol. Notre etude se limite a la determination de sa composante principale, c'est-a-dire horizontale. La methode de mesure necessite l'utilisation d'une source laser pulsee et monomode, en l'occurrence un laser nd:yad double. Elle consiste a analyser la raie retrodiffusee grace a un double interferometre de fabry perot dont les deux bandes passantes sont centrees sur les flancs de la raie retrodiffusee. On determine le rapport entre les energies transmises par ces deux filtres, successivement pour une direction de visee inclinee et pour un pointe au zenith qui correspond a un decalage doppler nul et tient donc lieu de reference. On deduit alors de la variation de rapport observee la vitesse du vent dans la direction de visee. La determination complete de la vitesse horizontale du vent est obtenue en effectuant cette mesure dans deux azimuts orthogonaux. La faisabilite de la mesure du vent grace a ce nouveau lidar doppler a ete demontree a l'observatoire de haute-provence ou l'instrument nouvellement concu a ete installe. On a egalement demontre qu'il est possible d'etendre la methode au-dessous de 25 km ou les aerosols sont presents
Style APA, Harvard, Vancouver, ISO itp.
10

Charpenel, Philippe. "Effets d'irradiations aux électrons de basse et moyenne énergie sur des isolants MOS issus de différentes technologies". Montpellier 2, 1992. http://www.theses.fr/1992MON20240.

Pełny tekst źródła
Streszczenie:
Dans la premiere partie, nous presentons une methode originale permettant une determination precise de l'energie de non charge des isolants en microscopie electronique a balayage. Elle est basee sur l'etude de la variation du potentiel de la surface d'un isolant induite par un depot de charges. Elle utilise pour cela l'analyse des spectres energetiques des electrons secondaires reemis. De plus, elle permet un acces qualitatif au rendement de charge. Elle est appliquee avec succes a divers oxydes de silicium ainsi qu'a des resines lithographiques. Les resultats obtenus sont correles avec d'autres methodes utilisees en metrologie et une generalisation de theories existant dans la litterature. Dans la deuxieme partie, dans le cas de composants mos, nous caracterisons divers processus technologiques a partir des densites de charge d'oxyde de grille et d'etats d'interface induites par les irradiations aux electrons basse ou moyenne energie. Les composants sont issus de technologies a lithographie optique et a faisceau d'electrons, a un et deux niveaux de metal. Un comportement original est observe sur des transistors a canal p a un niveau de metal. Il s'agit d'une deformation de la caracteristique de transfert avec la dose d'electrons incidents et d'une augmentation de la transconductance. Ce phenomene est interprete et modelise comme la mise en serie, sous l'effet de l'irradiation electronique, de plusieurs transistors. Les simulations realisees a partir d'un modele a une dimension sont en excellent accord avec l'experience. Nous avons de plus, mis en evidence, sur des composants a deux niveaux de metal, les effets de sur-irradiation en cours de processus technologique
Style APA, Harvard, Vancouver, ISO itp.

Książki na temat "Mesure moyenne de l'intrication"

1

Inoussa, N. Incidence de la mauvaise déclaration de l'âge sur la mesure des indices de la mortalité infantile et juvénile dans une ville moyenne du Cameroun: Sangmélima. [Yaoundé]: Institut de formation et de recherche démographiques, 1990.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Części książek na temat "Mesure moyenne de l'intrication"

1

VIGNY, Christophe, i Emilie KLEIN. "Cycle sismique de la subduction chilienne : méga-séismes, gap sismique et couplage". W Le cycle sismique, 169–86. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9038.ch5.

Pełny tekst źródła
Streszczenie:
Le Chili est un pays sismique. A cause de la convergence rapide entre deux grandes plaques tectoniques, beaucoup de séismes s’y produisent. En moyenne une fois par décennie l’un d’entre eux dépasse la magnitude 8. Les segments susceptibles de produire ces grands séismes sont révélés par la mesure précise de la déformation de la surface terrestre au moyen de la géodésie spatiale.
Style APA, Harvard, Vancouver, ISO itp.
2

GAILLER, Lydie, Jean-François LÉNAT i Franck DONNADIEU. "La surveillance gravimétrique des volcans". W Aléas et surveillance de l’activité volcanique 3, 235–62. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9046.ch4.

Pełny tekst źródła
Streszczenie:
L'activité volcanique en profondeur et en surface est associée à des transferts de matière (magma, gaz, fluides) qui peuvent être détectés par des mesures microgravimétriques. Les variations engendrées sont en général très faibles par rapport à la pesanteur moyenne et leur mesure requiert donc des instruments, des procédures et des calculs spécifiques. Ce chapitre décrit ces méthodes et leurs applications en volcanologie. Une méthode en développement, basée sur les flux naturels de muons atmosphériques, est aussi décrite.
Style APA, Harvard, Vancouver, ISO itp.

Raporty organizacyjne na temat "Mesure moyenne de l'intrication"

1

Dostie, Jade, Maurice Doyon i Laure Saulais. Création d’un outil de mesure de la littératie concernant la gestion de l’offre et d’évaluation de son impact. CIRANO, czerwiec 2023. http://dx.doi.org/10.54932/tygi8452.

Pełny tekst źródła
Streszczenie:
La présente étude s’inscrit dans un processus de développement d’un outil de mesure des connaissances en agroéconomie, plus précisément au sujet de la gestion de l’offre, et ce, au niveau pancanadien. La gestion de l’offre est une politique agricole unique au Canada et dont les effets ne font pas l’unanimité parmi les experts. Puisque les divergences d’opinion concernant la gestion de l’offre ont été portées jusque dans les médias destinés au grand public (éditoriaux, articles d’opinion, etc.), il semble intéressant de mesurer le niveau de connaissance de la population canadienne sur ces principaux éléments. En outre, les consommateurs canadiens manifestent un intérêt croissant vis-à-vis de certains attributs sociaux de leur consommation alimentaire sur lesquels la gestion de l’offre peut avoir un impact indirect – en particulier l’équité, le bien-être animal et l’impact environnemental. Cependant, très peu d’études explorent la connaissance et la compréhension de ces aspects par les consommateurs Nous avons recensé peu de littérature sur le développement d’indicateurs de littératie en agriculture et encore moins en agroéconomie. Cette étude développe dans un premier temps un outil de mesure de la littératie concernant la gestion de l’offre, puis dans un deuxième temps un outil d’évaluation de la perception de la gestion de l’offre par les Canadiens. Les étapes de création des deux outils sont décrites et l’analyse des résultats du prétest de l’outil de mesure de la littératie est présentée et discutée. Le prétest a été complété par 119 répondants, dont 62 évoluant dans le milieu agricole. Les répondants ont en moyenne un score de littératie de 56,4%. L’échantillon étant surreprésenté en ce qui concerne la connaissance du milieu agricole, on estime que ce niveau de littératie relativement faible est plus élevé que celui de la population générale.
Style APA, Harvard, Vancouver, ISO itp.
2

Guidati, Gianfranco, i Domenico Giardini. Synthèse conjointe «Géothermie» du PNR «Energie». Swiss National Science Foundation (SNSF), luty 2020. http://dx.doi.org/10.46446/publication_pnr70_pnr71.2020.4.fr.

Pełny tekst źródła
Streszczenie:
La géothermie de faible profondeur avec des pompes à chaleur correspond à l’état actuel de la technique et est déjà largement répandue en Suisse. Au sein du futur système énergétique, la géothermie de moyenne à grande profondeur (1 à 6 km) devrait également jouer un rôle important, notamment en matière de fourniture de chaleur pour les bâtiments et les process industriels. Cette forme d’utilisation de la chaleur géothermique nécessite un sous-sol bien perméable, permettant à un fluide – généralement de l’eau – d’engranger la chaleur naturellement présente dans la roche et de la transporter jusqu’à la surface. Dans les roches sédimentaires, cette condition est généralement vérifiée du fait de la structure naturelle, tandis que dans les granites et les gneiss la perméabilité doit être générée artificiellement par injection d’eau. La chaleur ainsi récupérée augmente au fur et à mesure de la profondeur de forage : la température souterraine atteint environ 40°C à 1 km de profondeur et environ 100°C à 3 km de profondeur. Pour entraîner une turbine à vapeur en vue de produire de l’électricité, des températures supérieures à 100°C sont nécessaires. Étant donné que cela implique de forer à des profondeurs de 3 à 6 km, le risque de sismicité induite augmente en conséquence. Le sous-sol peut également servir à stocker de la chaleur ou des gaz, par exemple de l’hydrogène ou du méthane, ou encore à enfouir de façon permanente du CO2. À cet effet, les mêmes exigences que pour l’extraction de chaleur doivent être vérifiées et le réservoir doit en outre être surmonté d’une couche étanche, empêchant le gaz de s’échapper. Le projet conjoint « Énergie hydroélectrique et géothermique » du PNR « Énergie » était avant tout consacré à la question de savoir où en Suisse trouver des couches de sol appropriées, répondant de manière optimale aux exigences des différentes utilisations. Un deuxième grand axe de recherche concernait les mesures visant à réduire la sismicité induite par les forages profonds et les dommages aux structures qui en résultent. Par ailleurs, des modèles et des simulations ont été élaborés dans le but de mieux comprendre les processus souterrains qui interviennent dans la mise en œuvre et l’exploitation des ressources géothermiques. En résumé, les résultats de recherche montrent que la Suisse jouit de bonnes conditions pour l’utilisation de la géothermie de moyenne profondeur (1-3 km), tant pour le parc de bâtiments que pour les processus industriels. L’optimisme est également de mise en ce qui concerne le stockage saisonnier de chaleur et de gaz. Le potentiel de stockage définitif de CO2 dans des quantités pertinentes s’avère en revanche plutôt limité. Concernant la production d’électricité à partir de la chaleur issue de la géothermie profonde (> 3 km), il n’existe pas encore de certitude définitive quant à l’importance du potentiel économiquement exploitable du sous-sol. Des installations de démonstration exploitées industriellement sont absolument nécessaires à cet égard, afin de renforcer l’acceptation par la population et les investisseurs.
Style APA, Harvard, Vancouver, ISO itp.
3

Meloche, Jean-Philippe, François Vaillancourt, Martin Trépanier, Brigitte Milord i Feriel Grine. Encadrer les livraisons à domicile pour réduire les impacts négatifs du commerce de détail électronique dans les villes. CIRANO, styczeń 2025. https://doi.org/10.54932/fjrk1446.

Pełny tekst źródła
Streszczenie:
Ce projet de recherche vise à documenter les défis urbains associés au commerce de détail électronique, notamment en ce qui a trait aux impacts environnementaux, à la congestion et aux conflits d’usage des voies publiques causés par les livraisons de colis à domicile. Il vise à répertorier les pistes de solutions pour en atténuer les impacts. Pour ce faire, trois types d’informations sont mobilisés. La première source d’information repose sur une revue de littérature exploratoire portant sur la littérature scientifique et la littérature grise associées aux livraisons à domicile qui découlent du commerce en ligne et leurs répercussions locales. La deuxième provient d’une collecte de données primaires effectuée par une enquête inédite auprès de la population de la région métropolitaine de recensement (RMR) de Montréal au printemps 2024. La troisième source d’information provient d’une activité de consultation des principaux acteurs de l’industrie de la livraison sur le territoire de Montréal réalisée à l’hiver 2024. Les données et les études que nous avons consultées montrent que la consommation en ligne est un phénomène en croissance et que les livraisons à domicile sont en augmentation. La livraison de colis demeure toutefois un objet de recherche relativement peu documenté. Les impacts nets sur l’environnement et sur l’économie de la consommation en ligne et des livraisons sont également complexes et parfois ambigus. Notre enquête auprès de la population de la région métropolitaine de Montréal a permis de déterminer que les habitant∙es du secteur reçoivent en moyenne 0,26 colis par jour, pour un total de plus de 900 000 livraisons par jour. Nos estimations incluent notamment les livraisons de repas à domicile, les journaux livrés à domicile et les colis livrés à des fins de consommation personnelle sur des lieux d’emploi. Ces éléments sont généralement négligés dans les enquêtes sur le sujet. Nos estimations montrent que l’effet combiné des habitudes de consommation des nouvelles générations et de leur vieillissement éventuel devrait accroître le recours à la consommation en ligne dans les prochaines années. En dépit de l’importante croissance observée dans le secteur du commerce électronique, les modes de consommation traditionnels demeurent toutefois dominants dans les habitudes de consommation et devraient le demeurer à moyen terme. Parmi les solutions pour favoriser des modes de livraison durables, les redevances sur les livraisons suscitent peu d’enthousiasme auprès des entreprises de livraison de la région de Montréal et celles-ci ne font pas confiance aux gouvernements locaux pour gérer ce type de mesure. Les investissements dans les infrastructures de logistique urbaine offrent quant à eux des bénéfices intéressants, et font davantage consensus auprès des transporteurs. Une base de données fiable apparait dans tous les cas être une condition essentielle pour suivre les pratiques, en mesurer adéquatement les impacts et proposer éventuellement des mesures adaptées et consensuelles pour favoriser la transition vers une mobilité plus durable. Les mesures mises en place devraient viser l’atteinte de cet objectif.
Style APA, Harvard, Vancouver, ISO itp.
4

BACCELLI, François, Sébastien CANDEL, Guy PERRIN i Jean-Loup PUGET. Grandes Constellations de Satellites : Enjeux et Impacts. Académie des sciences, marzec 2024. http://dx.doi.org/10.62686/2.

Pełny tekst źródła
Streszczenie:
Le nouvel âge spatial (NewSpace) marque l’avènement d’une ère nouvelle dans l’utilisation de l’espace caractérisée par une ouverture de l’espace à de nouveaux acteurs fondée sur de nouvelles technologies spatiales, par de nouvelles fonctionnalités pour les satellites mis en orbite et par le développement de constellations de satellites, principalement dans les domaines des communications et de l’observation de la Terre. Ces développements s’appuient sur des avancées scientifiques et technologiques de premier plan ainsi que sur des investissements publics et privés considérables, notamment aux États-Unis, en Chine et dans une moindre mesure en Europe. Des flottes de petits satellites en orbite basse ou moyenne viennent remplacer ou s’ajouter aux grands satellites géostationnaires qui prédominaient dans la phase précédente. Alors que l’espace était auparavant réservé à un petit nombre d’États et de grands groupes industriels, on observe actuellement l’émergence de nouveaux États spatiaux, de nouveaux groupes industriels comme SpaceX ou Amazon, ainsi que d’un grand nombre de jeunes pousses. On note l’émergence d’entreprises disposant de capacités de lancement, de fabrication de satellites et qui prennent également le rôle d’opérateurs de télécommunications et de producteurs de contenu. Le résultat le plus visible du déploiement de ces nouveaux réseaux spatiaux est de permettre des connexions Internet à haut débit et faible latence en tout point du globe terrestre. Combinés à des capacités d’observation de la Terre, ces nouveaux moyens de communications permettent aussi d’agir en temps-réel dans toute région, y compris dans celles dépourvues d’équipements autres que les terminaux. Ces réseaux spatiaux ont, de plus, de remarquables propriétés de résilience en comparaison des réseaux terrestres. Des considérations géostratégiques et militaires se combinent donc avec des modèles économiques en évolution rapide pour expliquer les investissements massifs en cours dans ce domaine. Toutefois, l’absence de régulation internationale du domaine conduit à une course pour l’occupation des orbites et des fréquences, course qui a déjà de graves conséquences sur tout un ensemble de domaines. Ces constellations auront potentiellement un impact très négatif sur l’astronomie dans le domaine optique visible et infrarouge ainsi que sur la radioastronomie. Elles posent aussi un problème majeur qui est celui de l’encombrement de l’espace avec l’augmentation du nombre des débris satellisés issus des lancements ou des collisions entre satellites et avec la possible atteinte d’une phase de collisions en chaîne. De plus, d’un point de vue environnemental, les conséquences d’une multiplication des lancements et des rentrées incontrôlées dans l’atmosphère sont, elles aussi, préoccupantes. Par ailleurs, cette absence de régulation du domaine conduit aussi à une perte de souveraineté puisque ces nouveaux réseaux de communications satellitaires n’appliquent aucune des règles que les États imposent aux réseaux de communications terrestres opérant sur leurs territoires. Une solution durable et globale doit être apportée à ces problèmes, avant que des dommages majeurs et potentiellement irréversibles soient infligés à l’environnement de la planète, aux équilibres géostratégiques, à la démocratie et à la science. Si l’Académie des sciences considère que la France et l’Europe doivent renforcer leurs actions scientifiques et industrielles dans ce domaine pour pouvoir bénéficier des avancées remarquables de ces nouveaux réseaux et disposer à terme d’un réseau de communication résilient et sécurisé, elle recommande aussi de travailler en parallèle au renforcement de la régulation du domaine dans le but de garantir un accès durable aux ressources orbitales et fréquentielles, ainsi qu’une protection des domaines négativement impactés, au premier rang desquels l’astronomie et l’environnement.
Style APA, Harvard, Vancouver, ISO itp.
5

Busque, Marc-Antoine, Jaunathan Bilodeau, Martin Lebeau i Daniel Côté. Portrait statistique des lésions professionnelles chez les immigrants au Québec. IRSST, wrzesień 2024. http://dx.doi.org/10.70010/zshi6028.

Pełny tekst źródła
Streszczenie:
La population immigrante connaît une croissance importante au Québec depuis plusieurs années. La proportion d’immigrants dans la population en emploi a augmenté de 8,3 points de pourcentage entre 2006 et 2021, passant de 10,9 % à 19,2 %. Cette augmentation de la représentativité des immigrants sur le marché du travail pose divers défis, notamment ceux liés à leur intégration ainsi qu'à leur santé et sécurité au travail (SST). Malgré l’intérêt croissant porté aux enjeux de la SST touchant les personnes issues de l’immigration, il n’existe pas de portrait statistique détaillé des lésions professionnelles indemnisées chez les immigrants au Québec. Dans ce contexte, cette étude vise à brosser un portrait statistique des lésions professionnelles chez les immigrants admis au Québec depuis 1980 ainsi qu’à identifier les groupes de travailleurs immigrants les plus fortement associés à la présence et la gravité de ces lésions. Des données du recensement de 2016 et de l’Enquête sur la population active (EPA) de 2015 à 2017 ont permis de documenter les caractéristiques sociodémographiques des travailleurs immigrants ainsi que les caractéristiques des emplois occupés par ces derniers. De plus, puisque les données administratives de la CNESST ne contiennent pas d’information permettant d’identifier les travailleurs issus de l’immigration, un appariement couplant des données du ministère de l’Immigration, de la Francisation et de l’Intégration (MIFI) et de la Régie de l’assurance maladie du Québec (RAMQ) à celles de la CNESST a été réalisé. Les analyses ont d’abord montré que les immigrants présentent un niveau de diplomation plus élevé que celui des non-immigrants, davantage de surqualification, une proportion plus élevée de travail à temps partiel involontaire, une plus grande proportion de travailleurs autonomes et un taux de présence syndicale moins élevé. Ces disparités sont susceptibles d'influer sur les risques d'accident du travail. De 2012 à 2017, la proportion des accidents acceptés à la CNESST qui surviennent à des immigrants est passée de 8,9 % à 12,2 %, une augmentation plus importante que l’augmentation de leur représentativité dans la population en emploi. De façon générale, les caractéristiques des lésions professionnelles chez les immigrants sont similaires à celles des non-immigrants. Les immigrants semblent toutefois avoir moins de lésions de courte durée et plus de lésions de longue durée que les non-immigrants. On rapporte d’ailleurs une durée moyenne d’indemnisation plus longue chez les immigrants Les résultats des régressions binomiales négatives, sur l’ensemble des accidents acceptés, révèlent un risque accru de blessures chez certains groupes d’immigrants, notamment les immigrants récents (admis il y a moins de cinq ans). Les analyses suggèrent que le risque d’accident devient similaire aux non-immigrants à mesure que le nombre d’années depuis l’admission augmente. Des analyses ont aussi été réalisées en ciblant uniquement les accidents avec perte de temps indemnisée de plus de 90 jours. Ces cas, dont la gravité est considérée comme plus élevée, sont moins susceptibles d’être influencés par la sous-déclaration. Les résultats obtenus en utilisant ce sousensemble d’accidents, et à l’aide d’un modèle ajusté qui tient compte du sexe, de l’industrie et de la catégorie professionnelle, suggèrent que les immigrants ont un plus grand risque d’accident que les non-immigrants, et ce, pour toutes les catégories de nombre d’années depuis l’admission. Des analyses par stratification apportent des nuances en démontrant que les résultats obtenus dépendent de l'âge et du sexe. Ce rapport confirme certaines conclusions établies dans la littérature, tout en ajoutant de nouvelles perspectives. Il met en lumière que les différences observées entre les immigrants et les non-immigrants, en termes de caractéristiques sociodémographiques et d'emplois ainsi que d’accidents du travail, sont principalement constatées entre les immigrants récents et les non-immigrants. Le nombre d’années depuis l'admission apparaît donc comme un facteur plus significatif que le simple statut d'immigrant. Les immigrants récents, et particulièrement certains groupes d'âge, semblent effectivement être plus à risque d’accident du travail que les non-immigrants. Ce rapport apporte également une contribution significative en mettant en évidence l’importance de cibler les accidents du travail plus graves, afin d’analyser les écarts de risque de lésions professionnelles entre les immigrants et les non-immigrants. En se concentrant sur les cas les plus graves, cela permet de réduire les biais potentiels liés à la sous-déclaration des accidents chez les travailleurs immigrants. De plus, il souligne l’importance d'adopter une perspective intersectionnelle pour comprendre la problématique des accidents du travail chez les immigrants et propose des orientations pour cibler les interventions visant à réduire ce risque.
Style APA, Harvard, Vancouver, ISO itp.
6

Dufour, Quentin, David Pontille i Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, kwiecień 2021. http://dx.doi.org/10.52949/2.

Pełny tekst źródła
Streszczenie:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii