Littérature scientifique sur le sujet « Mesures complexes »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Mesures complexes ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Mesures complexes"

1

Rockwood, Kenneth. « Integration of Research Methods and Outcome Measures : Comprehensive Care for the Frail Elderly ». Canadian Journal on Aging / La Revue canadienne du vieillissement 14, S1 (1995) : 151–64. http://dx.doi.org/10.1017/s0714980800005481.

Texte intégral
Résumé :
RÉSUMÉLes instruments de recherche peuvent être intégrées dans les soins de routine si ceux-ci sont utiles aux pourvoyeurs de soins. Ainsi, ils sont utiles s'ils facilitent la prestation de soins et si ce qu'ils mesurent reflètent des résultats qui importent aux patients. Bon nombre de mesures actuelles sont moins utiles parce qu'elles ne peuvent servir dans le quotidien ou mesurent de façon inadéquate les résultats pertinents. Au plan des soins auprès des personnes âgées frêles, qui ont des besoins complexes, ces défis sont particulièrement difficiles à relever. Les techniques d'évalutation gériatrique complète et l'établissement d'une échelle de l'atteinte des objectifs (Goal Attainment Scaling — GAS) sont proposées comme des moyens d'englober la complexité des besoins des personnes âgées frêles et de mesurer l'efficacité des interventions spécialisées. L'échelle GAS est conforme à la définition de la qualité de la vie de l'instrument Health-Related Quality of Life. Ce qui suggère que son utilisation dans le quotidien offre des avantages tant au niveau de la gestion que de la mesure des résultats.
Styles APA, Harvard, Vancouver, ISO, etc.
2

DESMOULIN, B., P. ECOLAN et M. BONNEAU. « Estimation de la composition tissulaire des carcasses de porcs : récapitulatif de diverses méthodes utilisables en expérimentation ». INRAE Productions Animales 1, no 1 (11 février 1988) : 59–64. http://dx.doi.org/10.20870/productions-animales.1988.1.1.4435.

Texte intégral
Résumé :
La mesure directe de la composition tissulaire des carcasses, par dissection anatomique complète, est longue et coûteuse. On se contente donc en général d’estimer les teneurs en muscles et en gras à partir de mesures indirectes : épaisseurs de gras ou de muscles, poids des pièces de découpe, résultats de dissections partielles et/ou simplifiées. A partir des données mesurées sur deux échantillons de carcasses porcines, nous avons élaboré quatre scénarios de mesures, de complexité et de coût croissant. Ils permettent d’estimer avec une précision croissante les poids et proportions de muscles et de gras dans la demi carcasse ainsi que le pourcentage de muscles dans la carcasse entière, correspondant à la norme européenne à la base du classement commercial des carcasses porcines. En fonction de ses objectifs et de l’enveloppe financière dont il dispose, l’expérimentateur peut choisir l’une ou l’autre des méthodes proposées. Les équations des 2 scénarios les plus simples sont bien adaptées aux carcasses dont les teneurs en muscles sont aux alentours de 50 %, mais devront être réévaluées pour s’adapter aux types génétiques produisant des carcasses au-delà de 52-53 % de muscles. Les 2 scénarios les plus complexes ont par contre un domaine de validité plus large.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Alaoui Mhamdi, M., L. Aleya, S. Rachiq et J. Devaux. « Étude préliminaire sur les échanges de phosphore à l'interface eau- sédiment au sein de la retenue d'Al Massira (Maroc) ». Revue des sciences de l'eau 7, no 2 (12 avril 2005) : 115–30. http://dx.doi.org/10.7202/705192ar.

Texte intégral
Résumé :
Les échanges de phosphore à l'interface eau-sédiment ont été étudiés dans la retenue Al Massira. La campagne de prélèvements a été menée pendant la faible oxygénation des eaux profondes au mois d'octobre 1991. Les mesures des échanges de phosphore ont été réalisées in situ en chambre benthique. Les valeurs de pH sont élevées et reflètent clairement l'influence de la nature géologique du bassin versant sur la composition chimique des eaux. Ce bassin versant, formé essentiellement de roches sédimentaires calcaires, est vraisemblablement à l'origine des concentrations élevées en calcium mesurées dans les chambres benthiques. En période de faible oxygénation, on note une augmentation des teneurs en phosphore particulaire dans les eaux surnageantes en raison de la présence de complexes calcium-phosphore, fer-phosphore et manganèse-phosphore. En période d'anoxie, la réduction de ces complexes est accompagnée d'une aug- mentation des teneurs en phosphore. La densité bactérienne et la concentration en phosphore total et notamment en orthophosphates suivent une évolution temporelle comparable. Une fraction non négligeable du phosphore particulaire serait liée aux bactéries. Des mesures drastiques de déphosphatation du tributaire Oum Errbia doivent être prises pour éviter la dissociation des complexes Ca, Fe, Mn-Phosphore et le relargage de phosphore biodisponible.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Scherman, Michael, Joanna Barros, Rosa Santagata, Alexandre Bresson et Brigitte Attal-Tretout. « Thermométrie Raman cohérente pour l'étude de la combustion ». Photoniques, no 96 (mai 2019) : 23–29. http://dx.doi.org/10.1051/photon/20199623.

Texte intégral
Résumé :
La combustion est un sujet d’intérêt pour une large variété de domaines d’applications civils ou militaires. Comprendre les phénomènes physico-chimiques à l’oeuvre dans ces milieux complexes, et les décrire à l’aide de modèles éprouvés, sont des enjeux majeurs qui requièrent des mesures fiables et quantitatives. La spectroscopie par diffusion Raman anti-Stokes cohérente (DRASC ou CARS en anglais) a démontré des performances inégalées pour la mesure de température. Cette technique a été implémentée avec de nombreuses architectures laser, et appliquée avec succès à un large éventail de milieux.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Vasel, J. L., P. Warnier, H. Jupsin et P. Schrobiltgen. « Automatisation et comparaison de différentes méthodes respirométriques d'estimation rapide de la DBO ». Revue des sciences de l'eau 4, no 3 (12 avril 2005) : 415–35. http://dx.doi.org/10.7202/705108ar.

Texte intégral
Résumé :
II est bien connu que la DBO peut étre mesurée par des méthodes respiromédriques. Les manipulations sont ainsi rendues plus aisées mais la durée de la mesure reste inchangée. La demande biologique en oxygène à court terme (DBOACT) a été proposée pour évaluer rapidement la DBO. Habituellement, ces mesures étaient réalisées dans un respiromètre fermé avec une boue acclimatée et en état de respiration endogène. Récemment on a suggéré de travailler avec un respiromètre ouvert, aéré continuellement durant le test. Nous avons réalisé un tel appareil avec une acquisition et un traitement automatique des données, en utilisant un micro-ordinateur. De cette façon, il est facile de tester différentes méthodes (intégration de la courbe en sac, hauteur de pic, comparaison à des étalons, usage d'étalons internes) pour évaluer la DBO. Nous avons également examiné l'influence du type de substrat, de l'âge et des caractéristiques des boues. Notre conclusion est que aucune des méthodes testées ne fournit une détermination précise de la DBO5 pour des substrats complexes. La méthode reste utile pour contrôler la variabilité de l'influent dans une station d'épuration, lorsque la biomasse est acclimatée au substrat et qu'on ne désire pas une mesure très précise.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Giuntini, J. C., A. Jabobker et J. V. Zanchetta. « Etude de l'interaction eau-kaolinite par mesure des permittivites complexes ». Clay Minerals 20, no 3 (septembre 1985) : 347–65. http://dx.doi.org/10.1180/claymin.1985.020.3.07.

Texte intégral
Résumé :
RésuméDans le cadre de l'étude de l'interaction eau-kaolinite, des mesures de conductivité (pertes diélectriques) et de permittivités réelles ont été entreprises à fréquence variable (103–107 Hz) et en fonction de la température (27–80°C). La conductivité croît avec la fréquence et la température de mesures. L'utilisation d'un modèle de conduction par déplacement de protons par sauts discrets entre sites localisés est applicable. La loi σ′(ω) ∼ Aωs est vérifiée. L'évolution du paramètre s en fonction de la pression de vapeur d'eau permet de déterminer le mécanisme d'établissement de la monocouche d'eau sur le solide. La permittivité réelle décroît avec la fréquence. C'est une fonction croissante de la pression de vapeur d'eau. Un calcul simple permet de retrouver la loi expérimentale relative à la permittivité ɛ′ ∼ exp(K√P).
Styles APA, Harvard, Vancouver, ISO, etc.
7

Castetbon, A., M. Corralès, M. Potin-Gauthier et M. Astruc. « Etude cinétique de la complexation du cuivre en milieu hydrogénocarbonate par électrochimie ». Revue des sciences de l'eau 4, no 2 (12 avril 2005) : 239–52. http://dx.doi.org/10.7202/705098ar.

Texte intégral
Résumé :
La détermination de la capacité complexante des eaux naturelles est généralement effectuée par titrage ampérométrique du cuivre à pH fixé. Beaucoup, sinon tous les tampons classiques utilisés perturbent les études de spéciation du cuivre par formation de complexes peu stables. Dans ce travail nous nous sommes intéressés à la complexation du cuivre par les ions carbonates généralement présents dans les eaux naturelles. Afin de mener à bien notre étude, nous avons mesuré, dans un milieu synthétique de force ionique et pH contrôlés (KNO3 0,02 M + NaHCO3 2,38.10-3 M) toutes les constantes des divers équilibres prévisibles : produits de solubilité de l'hydroxyde de cuivre Cu(OH)2 et de la malachite Cu2 (OH)2 CO3, constante de formation du carbonate de cuivre dissous CuCO3. A des valeurs de pH suffisamment faibles, la formation du complexe CUOH+ peut étre négligée. Les trois autres réactions ont été suivies race aux mesures combinées, d'une part du pH et, d'autre part, de l'activité en ion Cu2+ libre ou hydraté par ionométrie. Compte tenu des propriétés acido-basiques des diverses espèces, les mesures ont été effectuées à divers pH compris entre 5,5 et 8. Le complexe CuCO30étant l'espèce majoritaire dans ces solutions, sa labilité, pouvant perturber follement les déterminations des capacités complexantes par titrage ampérométrique, a été étudiée par diverses méthodes électrochimiques. La polarographie à tension sinusoïdale surimposée (AC) a indiqué une réduction rapide du cuivre (II) sur électrode de mercure. Deux vagues ont été obtenues en voltampérométrie sur électrode tournante à disque de platine (RDE), ce dédoublement étant d'origine cinétique compte tenu de l'évolution de ces vagues avec la température. Une estimation des valeurs des constantes de vitesse de formation kf et de dissociation kb, a permis de montrer la rapidité des réactions mises en jeu et la labilité du complexe CuCO30.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Villeneuve, Valérie, Stéphane Légaré, Jean Painchaud et Warwick Vincent. « Dynamique et modélisation de l’oxygène dissous en rivière ». Revue des sciences de l'eau 19, no 4 (17 janvier 2007) : 259–74. http://dx.doi.org/10.7202/014414ar.

Texte intégral
Résumé :
Résumé La concentration en oxygène dissous en milieu fluvial varie selon un cycle diurne (24 h) qu’il est essentiel de considérer dans l’évaluation de l’état d’oxygénation d’un cours d’eau. En principe, seules des mesures en continu recueillies au cours de cycles de 24 h permettent d’évaluer correctement l’état d’oxygénation d’une rivière, ce que, en pratique, les contraintes logistiques et budgétaires ne permettent pas de réaliser. Le présent article vise à faire la synthèse des connaissances sur les facteurs de contrôle et la modélisation des variations diurnes de la concentration en oxygène dissous en rivière. Parmi les facteurs biologiques et physico-chimiques, les activités autotrophe et hétérotrophe sont les facteurs dominants responsables des variations diurnes de l’oxygène dissous. Certains modèles de qualité de l’eau permettent de modéliser la teneur en oxygène et, dans certains cas, la variation diurne. Toutefois, ces modèles sont souvent complexes, d’utilisation ardue et impliquent la mesure directe sur des cycles de 24 h des variables qui régissent la concentration en oxygène dans le milieu. Une démarche est proposée pour l’élaboration d’un modèle et a été appliquée dans une étude de cas réalisée dans la rivière Saint-Charles (Québec, Canada). Un modèle simple (une fonction sinusoïdale) dont les paramètres ont été corrélés à la température et à la concentration moyenne en nitrate a permis de générer des valeurs simulées d’oxygène dissous très proches des valeurs observées in situ. Un modèle alternatif utilisant des valeurs ponctuelles de température et de concentration de nitrate a donné des résultats équivalents. L’approche proposée constitue donc une alternative simple et pratique à la mesure en continu de l’oxygène et permet une évaluation plus réaliste de l’état réel d’oxygénation d’une rivière que la prise de mesures ponctuelles.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Manjeli, Y., R. M. Njwe, J. Tchoumboué, S. Abba et A. Teguia. « Evaluation des pertes d'agneaux et de chevreaux par abattage des femelles gravides ». Revue d’élevage et de médecine vétérinaire des pays tropicaux 49, no 3 (1 mars 1996) : 253–55. http://dx.doi.org/10.19182/remvt.9522.

Texte intégral
Résumé :
Les pertes d'agneaux et de chevreaux dues à l'abattage des femelles gravides ont été évaluées entre 1993 et 1995 aux abattoirs de Garoua et de Maroua, Cameroun. Sur un total de 3 150 chèvres et 1 757 brebis examinées après abattage, 1 216 chèvres soit 38,6 % et 1 040 brebis soit 59,2 % étaient en état de gravidité plus ou moins avancé. Les pertes étaient respectivement de l'ordre de 0,6 chevreau et 1 agneau par femelle abattue. Ces pertes économiques sont importantes et coïncident avec des déficits en viande qui ne cessent de s'aggraver. Des mesures urgentes doivent être envisagées pour en diminuer l'ampleur. Cependant, des mesures efficaces de prévention risquent d'être complexes si le contexte socio-économique encore axé sur l'économie de subsistance et le système d'élevage extensif des petits ruminants reste prédominant.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Rigneault, Hervé. « Imagerie moléculaire vibrationnelle un nouvel outil pour la biologie et la médecine ». Photoniques, no 96 (mai 2019) : 18–22. http://dx.doi.org/10.1051/photon/20199618.

Texte intégral
Résumé :
Les biomolécules peuvent être visualisées directement en microscopie optique en mesurant leurs modes vibratoires, et ceci dans des environnements complexes comme les cellules et les tissus.Cependant le passage des mesures spectroscopiques en cuvette à l’imagerie des systèmes vivants a nécessité des efforts tout particuliers qui ont aujourd’hui atteint une maturité capable d’apporter des solutions novatrices en biologie et en médecine. Cet article présente les grandes lignes des recherches et réalisations en imagerie spectroscopique vibrationnelle en partant des concepts de base pour aller vers les applications.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Mesures complexes"

1

Rampon, Jean-Xavier. « Mesures de concurrence et extensions d'intervalles ». Montpellier 2, 1991. http://www.theses.fr/1991MON20024.

Texte intégral
Résumé :
Cette these est principalement dediee a l'etude des proprietes algorithmiques et combinatoires des ensembles ordonnes. Les travaux qui y sont exposes peuvent etre regrouper suivant quatre principaux themes: -les executions reparties: nous definissons un cadre adapte au calcul de mesurs attachees a une execution repartie. Puis nous proposons une mesure de concurrence et nous etudions ses proprietes combinatoires; -les extensions d'intervalles d'un ensemble ordonne: nous caracterisons les extensions d'intervalles minimales d'un ordre, nous etudions leurs proprietes et nous proposons des algorithmes permettant d'en calculer le nombre; -le nombre chromatique du diagramme d'un ensemble ordonne: nous exhibons des classes d'ordres pour lesquelles le nombre chromatique cherche est borne et d'autres pour lesquelles ce nombre est arbitrairement grand; -la reduction et la fermeture transitive d'un graphe oriente sans circuit: nous proposons des algorithmes permettant de calculer la reduction ou la fermeture transitive en temps lineaire sur certaines classes de graphes
Styles APA, Harvard, Vancouver, ISO, etc.
2

Manon, Yannick. « Etude de milieux de culture complexes et évolutifs par développement de mesures physiques en ligne ». Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0015/document.

Texte intégral
Résumé :
Durant les cultures cellulaires en bioréacteur, la physiologie des micro-organismes et les paramètres physico-chimiques (alimentations en gaz et en substrat, agitation, température, pH, pression) interagissent très fortement. La spécificité des bioréactions microbiennes, en relation avec les couplages irréductibles entre les transferts de chaleur, de matière et de quantité de mouvement, réside dans la complexité (milieu triphasique) et la dynamique (bioréaction autocatalysé) de ces systèmes. L’objectif de ce travail est de progresser dans la compréhension et le contrôle dynamique des intéractions entre les aspects biologiques et les aspects physiques à différentes échelles (macro, micro et moléculaire) pour conduire la réaction biologique vers l’objectif défini (production de biomasse, de métabolites intra ou extra cellulaires, …) et l’optimiser. Les cellules (concentration, forme, dimension, physiologie, …) affectent fortement les propriétés physico-chimiques des moûts et par conséquent, les performances des bioprocédés (vitesses spécifiques, rendements, productivité). Le comportement rhéologique particulier du moût est souvent utilisé pour comprendre l’impact de la biomasse microbienne sur le rendement et les performances du bioprocédé.Dans ce travail, des cultures axéniques, définies comme des cultures pures de microorganismes unicellulaires procaryote et eucaryote, sont considérées. Notre approche s’appuie sur des mesures physiques et physico-chimiques en ligne et hors ligne réalisées sur un bioréacteur instrumenté, mesures qui sont mises en place de façon à respecter les conditions imposées par les contraintes biologiques propres aux microorganismes et à la stratégie de culture choisie. Des cultures d’Escherichia coli et d’Yarrowia. lipolytica, à taux de croissance controlé par l’apport de substrat, ont été réalisées dans une gamme de concentration allant de 0.1 à 100 g l-1. Le bilan qui peut être dressé pour ce travail, tant sur les aspects scientifiques que technologiques, est le suivant :- conception et réalisation d’un outil d’investigation original construit sur la base d’un bioréacteur (20 l) et pourvu d’une boucle de recirculation instrumentée pour la mesure,- identification hydrodynamique (courbes de frottement) de conduites calibrées permettant la viscosimétrie en ligne durant une culture cellulaire, - conception, développement et validation d’un code, LoCoPREL, permettant simultanément le contrôle de la culture cellulaire suivant une stratégie définie, la gestion de séquences de débit dans la boucle de dérivation et l’acquisition des données issues de l’instrumentation spécifique employée,- comparaison des mesures réalisées en ligne à débit constant ou selon des séquences de débit,- mise en évidence du comportement non newtonien des moûts et d’écarts entre les mesures en ligne et hors ligne,- analyse des mesures physiques réalisées en ligne et hors ligne, en lien avec les performances de la culture
During cell cultures in bioreactors, micro-organism physiology closely interacts with physico-chemical parameters such as gas and feed flowrates, mixing, temperature, pH, pressure. The specificity of microbial bioreactions in relation with irreductible couplings between heat and mass transfers and fluid mechanics, led into complex (three-phase medium) and dynamic (auto-biocatalytics reaction) systems. Our scientific approach aims to investigate, understand and control dynamic interactions between physical and biological systems at different scales (macro, micro and molecular) for molecules, strains and/or bioprocess innovation. Cells (concentration, shape, dimension, physiology…) strongly affect physico-chemical properties of broth. Then the modification of these characteristics interacts with bioprocess performances (specific rates, yields…) with an improvement or, more frequently, a decrease of yields. Among these properties, rheological behaviour is a strategy widely used to understand the impact of cells and the derivation of bioprocess performances.In this manuscript, axenic cultures, defined as cultures of a pure and unicellular Prokaryote and Eukaryote microorganisms in bioreactors, are considered. Our approach is based on physical and physico-chemical on-line and off-line measurements in respect with accurate and stringent conditions imposed by cell culture strategy. Escherichia coli and Yarrowia lipolytica cultures were investigated with a control of growth rate by carbon feed in the range from 0.1 up to 100 g l-1. Our scientific and technical actions and results led:- to design and realize an original pilot based on a bioreactor (20 l) with a derivation loop including a specific on-line rheometric device as well as additional physical and biological measurements,- to identify, from a hydrodynamic standpoint, the generalized friction curves of calibrated ducts enabling on-line viscosimetry during cell cultures,- to conceive and validate a homemade software, named LoCoPREL, enabling simultaneously to control cell cultures under defined strategy and to manage flow sequences within the derivation loop,- to discuss and compare on-line physical measurements under constant flow rate and various sequence strategy related to investigated shear-rates,- to highlight about the non-newtonian rheological behaviour of broths and the gap between on-line and off-line measurements,- to analyse on-line and off-line physical measurements in the light of biological performances during fed-batch cultures (mass balance, specific rate, yield)
Styles APA, Harvard, Vancouver, ISO, etc.
3

Blondel, Damien. « Conception et réalisation d'une sonde de métrologie optique pour l'étude de milieux industriels complexes ». Rouen, 1999. http://www.theses.fr/1999ROUES016.

Texte intégral
Résumé :
L'anémométrie phase Doppler est une technique de diagnostic optique, utilisée pour l'étude des milieux diphasiques. Cependant, la géométrie et l'encombrement des systèmes classiques en limitent l'utilisation, notamment dans les installations de nature industrielle. La théorie de Lorenz-Mie généralisée décrit rigoureusement la diffusion de la lumière par les particules et permet ainsi la définition et la réalisation de nouvelles géométries de sondes en rétrodiffusion. Elles réunissent, derrière une unique lentille, l'émission et la collection et sont donc monobloc et autoalignées. Ces sondes phase Doppler miniaturisables sont adaptées à l'étude de milieux jusque-là inaccessibles. Dans cette thèse, deux versions de sonde ont été validées expérimentalement. Elles ont été définies pour deux applications différentes : l'étude d'un injecteur Diesel en chambre haute pression et la mesure de bulles à l'aide d'une sonde immergée. L'anémométrie phase Doppler pose comme hypothèse que les particules sont sphériques et homogènes. L'étude de milieux triphasiques contenant des particules irrégulières a nécessité le développement d'un traitement du signal permettant de distinguer, sans modifier l'optique de la sonde, les particules irrégulières des particules régulières. Ce traitement a été valide expérimentalement sur des écoulements de grain de sable et de bulles et permet d'obtenir, en une seule mesure, la vitesse des particules de sable et pour les bulles, leur taille et leur vitesse. L'utilisation de ce traitement sur différents écoulements de bulles a montré qu'il était possible d'obtenir des informations qualitatives sur la déformation de particules.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Wileveau, Yannick. « Mesures du champ de contrainte dans les milieux complexes par la methode htpf. Naissance d'une sonde ». Paris 7, 1997. http://www.theses.fr/1997PA077159.

Texte intégral
Résumé :
Dans des contextes geologiques tres divers et complexes, nous avons recueilli des donnees par la methode htpf (hydraulic test on preexisting fractures) pour tenter de mieux connaitre le champ de contrainte et ses variations dans le volume etudie. Les mesures s'effectuent a l'aide d'une sonde htpf qui couple un systeme d'obturateurs et un dispositif d'imagerie electrique place entre les obturateurs. Sur le site du mayet de montagne (massif central, france), une etude a permis de montrer que certains mecanismes au foyer de la microsismicite induite par des injections de fluide sont en desaccord avec le champ de contrainte calcule par la methode htpf. A partir d'une vingtaine de mesures, nous avons mis en evidence deux perturbations superieures a 10 mpa localisees proches de la zone la plus significative d'un point de vue hydraulique. Ces resultats soulevent le probleme de la modelisation du couplage hydromecanique. Dans le bassin sedimentaire de lodeve (herault, france), l'application de la methode htpf a permis de determiner le champ de contrainte entre 90 m et 210 m de profondeur. L'extrapolation du modele en profondeur nous a permis de comparer ces resultats avec ceux obtenus a merifons 15 km plus a l'est en 1988. Ces comparaisons soulevent des questions interessantes concernant la neotectonique regionale. Dans le massif granitique de l'argentera (mercantour, italie), nous avons effectue les mesures de contrainte a 1900 m d'altitude dans un forage incline long de 1150 m et de diametre 102 mm. Ce forage de petit diametre a necessite la realisation d'une nouvelle sonde htpf plus fine que les precedentes. Les 20 mesures effectuees nous ont permi de definir le champ de contrainte a l'aide d'une methode d'inversion par couplage algorithme genetique / monte carlo. Il s'avere que l'amplitude de la contrainte principale maximum decroit avec la profondeur assez rapidement. Une modelisation elastique tridimensionnelle du champ de contrainte par elements finis a ete effectuee pour estimer le role de la topographie dans la zone de mesures. En conclusion, nous avons valide l'efficacite de la methode htpf et son adaptation a des milieux tres differents tels que les massifs montagneux, les terrains sedimentaires ou les zones de failles actives.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Contri, Alexandre. « Qualité géométrique de la mesure de surfaces complexes par moyens optiques ». Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0025.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Sid-Ali, Ahmed. « Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes ». Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/33730.

Texte intégral
Résumé :
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019
On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles.
This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ruffine, Livio. « Équilibres de phases à basse température de systèmes complexes CO2 - hydrocarbures légers - méthanol - eau : mesures et modélisation ». Lyon 1, 2005. http://www.theses.fr/2005LYO10160.

Texte intégral
Résumé :
Le besoin de développer et d'améliorer les procédés de traitement de gaz est réel. Or la complexité des équilibres mis en jeu a pour conséquence une rareté des données dans la littérature qui limite le développement des modèles thermodynamiques. La première partie de ce travail est consacrée à l'étude expérimentale de systèmes constitués d'hydrocarbures légers, de méthanol, d'eau et de gaz acides. Nous présentons un nouvel appareillage de mesure d'équilibres liquide-vapeur et liquide-liquide-vapeur. Il nous a permis d'une part d'acquérir de nouvelles données compositionnelles du binaire éthane-méthanol et de différents mélanges, et d'autre part de déterminer une partie de l'enveloppe d'équilibre triphasique de ces mêmes systèmes. Dans la deuxième partie de ce travail, nous développons un modèle thermodynamique basé sur l'équation d'état CPA. Grâce à son terme associatif, il prend en compte les associations moléculaires dues à la présence d'eau, du méthanol et du sulfure d'hydrogène. Un tel modèle est nécessaire pour dimensionner correctement les unités de traitement de gaz et pour déterminer les conditions opératoires optimales. Il permet de prédire les équilibres multiphasiques de nombreux systèmes binaires et restitue de façon satisfaisante les équilibres de phase de systèmes complexes
Styles APA, Harvard, Vancouver, ISO, etc.
8

Hirata-Kohno, Noriko. « Approximation diophantienne de valeurs et de périodes de fonctions complexes ». Paris 6, 1989. http://www.theses.fr/1989PA066244.

Texte intégral
Résumé :
Le theme central de cette these est l'etude de l'approximation diophantienne des valeurs de fonctions analytiques, ainsi que des periodes de telles fonctions. Le premier texte concerne la dependance lineaire de fonctions dont les valeurs sont presque entieres, qui donne un raffinement quantitatif du theoreme de polya. Le seul enonce anterieur de ce genre ne concernait qu'une seule fonction; du a pisot, par une methode tres differente. Nous donnons ensuite une version effective du critere de schneider-lang par un enonce tres general, mais dans les cas particuliers les plus interessants, on peut faire mieux. Ainsi dans le troisieme article (dont une version va paraitre dans les proc. D'une conference internationale au quebec), nous obtenons des mesures de transcendance de nombres lies a fonctions periodiques. Le pas suivant, le plus important, est accompli dans le quatrieme article. On ameliore sensiblement les resultats precedents de transcendance, pour le quotient de deux periodes d'une fonction elliptique sans multiplication complexe, ou de deux periodes de deux fonctions elliptiques, ou encore du quotient d'une periode par. L'une de ces estimations n'a pas ete amelioree depuis 1974. L'idee originale de ce quatrieme article s'etend a une situation beaucoup plus generale. Nous terminons en enoncant deux resultats d'approximation diophantienne sur les groupes algebriques commutatifs, qui peuvent etre obtenus par la meme methode
Styles APA, Harvard, Vancouver, ISO, etc.
9

Li, Xiang. « Un modèle hybride statistique-déterministe du canal LMS en environnements complexes ». Poitiers, 2010. http://theses.edel.univ-poitiers.fr/theses/2010/Li-Xiang/2010-Li-Xiang-These.pdf.

Texte intégral
Résumé :
Ce travail de thèse concerne l'étude des canaux de propagation entre un satellite et un mobile terrestre se déplaçant dans des milieux contraints de type urbain dense, urbain et suburbain. L'objectif est de produire une modélisation efficace des comportements de signaux reçus, et en particulier les évanouissements rapides et lents. La méthode proposée est illustrée en bande L mais peut s'étendre directement à la bande S. Elle est basée sur une approche hybride associant un modèle déterministe basé sur une méthode à rayons et un modèle statistique. Le premier chapitre présente le contexte de cette thèse ainsi qu'un état de l'art des modèles existants. En dégageant leurs avantages et inconvénients respectifs, le principe d'une modélisation hybride est proposé. Le deuxième chapitre est consacré à identifier de façon performante une loi de probabilité permettant de décrire une donnée acquise. Les travaux sont basés sur les tests de Kolmogorov–Smirnov et de Kullback–Liebler avec des histogrammes optimaux construits à l'aide de critères d'information. Le cas de plusieurs lois candidates est étudié. Le troisième chapitre est composé de deux études complémentaires : la modélisation en zones LOS et NLOS avec différentes lois de probabilité. L'étude a été basée sur des simulations déterministes dans des environnements de l'agglomération de Toulouse. Globalement, l'approche consiste à proposer un paramétrage dynamique des modèles statistiques évoluant selon les spécificités du milieu de réception du mobile terrestre et de la position du satellite. Dans le quatrième chapitre, les performances de la méthode proposée sont évaluées en termes de précision et de temps de calcul par rapport à des techniques déterministes. Pour la précision, la référence est fournie par un calcul purement déterministe, des mesures n'ayant pas été disponibles durant la thèse. Une extension de l'approche est proposée pour le cas de satellites défilants pouvant contribuer à une simulation dynamique du canal de propagation
This PhD research focuses on the modeling and simulation of mobile satellite radio propagation channels in constrained areas, e. G. , build-up, urban and suburban areas. More precisely, the aim of the work is to develop a high performance model to predict the received signal behavior, in particular, the slow-fading and fast-fading. Based on a hybrid concept, we propose a novel channel model combining a deterministic approach (raytracing) and two statistical models : Nakagami-m and lognormal. The model was developed at L-band but is easily extensible to S-band. The context of this study and a state of art of the existing channel models are first introduced in chapter 1 of this thesis. After describing their advantages and drawbacks, we present the hybrid concept of our channel model. The work of chapter 2 aims at the selection of the fast-fading model. We use the Kolmogorov–Smirnov test and Kullback–Leibler test (with optimal histograms base on information theory) to compare the goodness of fit of different statistical models regarding to simulated sample signals. The third chapter is divided into two complementary studies as LOS and NLOS areas need to be modeled using optimum statistical laws. Based on deterministic simulations in Toulouse city areas using geosynchronous satellites, the channel behavior is studied from which we deduce our semi-deterministic model. It takes into account of the receiving site’s specificities and leads to dynamic statistical parameter setup. Finally, the use of the hybrid model is presented in chapter 4. We show the interest of our model by comparing the hybrid simulated signals to purely deterministically simulated ones in terms of precision and simulation time. In addition, the extensibility of our model is studied in order to use non-geosynchronous satellites
Styles APA, Harvard, Vancouver, ISO, etc.
10

Rifi, Mouna. « Modélisation et Analyse des Réseaux Complexes : application à la sûreté nucléaire ». Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCD049.

Texte intégral
Résumé :
Ce travail propose une modélisation adéquate en graphes pour les systèmes et séquences accidentelles de sûreté nucléaire. Ces systèmes et séquences proviennent des "Etudes Probabilistes de Sûreté" (EPS) qui consistent à analyser de façon exhaustive tous les scénarios accidentels envisageables, d’estimer leurs probabilités d’occurrence (en les regroupant par famille) et les conséquences associées.Ensuite une analyse des réseaux complexes résultants est effectuée par des mesures de centralités.Une première application consiste à la prédiction du Facteur d’Accroissement du Risque nucléaire en utilisant les algorithmes d’apprentissages supervisé : méthodes à base d’arbre de classification, régression logistique et méthodes ensemblistes, sur des données déséquilibrées.Par ailleurs, un nouveau coefficient synthétique de centralité et une mesure de similarité sont conçus pour comparer les structures de réseaux, indépendamment de leurs caractéristiques topologiques, en se basant sur les interdépendances entre leurs vecteurs de centralités.Cette nouvelle approche utilise des techniques statistiques (échantillonnage, corrélation ethomogénéité).La pertinence et l’efficacité de cette nouvelle mesure de similarité sont validées sur le clustering de graphes théoriques classiques et la prédiction du type de graphes. Enfin, une application de cette approche est réalisée pour le clustering des réseaux complexes des systèmes de sûreté nucléaire
This work aims to propose an adequate graph modeling approach for nuclear safety accident systems and sequences.These systems and sequences come from "Probabilistic Safety Analysis" (PSA) which is an exhaustive analysis of all possible accident scenarios, to estimate their probabilities of occurrence (by grouping them by families) and the associated consequences.Then, an analysis of the resulting networks is performed by network centrality measures. A first application consists on predicting the nuclear Risk Increase Factor, which is a PSA importance factor, using supervised learning algorithms : classification tree methods, logistic regression and ensemble learning methods, on un balanced data. Furthermore, a new synthetic centrality coefficient and a similarity measure are developed to compare the networks structures and their topological characteristics, based on their centrality vectors interdependencies. This new approach uses statistical techniques (sampling,correlation and homogeneity).The relevance and appreciation of this new measure of similarity are validated on the clustering of most popular theoretical graphs and on the prediction of the type of these graphs. Finally, an application of this approach has been conducted for the clustering of nuclear safety systems networks
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Mesures complexes"

1

Optical rheometry of complex fluids. New York : Oxford University Press, 1995.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Deed, Martha. The last collaboration : A weird and not-very-funny story about a death in a glitzy glassy hospital that just completed a 64 million dollar modernization program. London : Friends of Spork, 2012.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Martell, Arthur. Inorganic Complexes. Springer, 1995.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Optical Rheometry of Complex Fluids. Oxford University Press, Incorporated, 1995.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Guillabert-Madinier, Tiphaine. Les Combats de Carnaval et Réformation. De l’instrumentalisation à l’interdiction du carnaval dans les Églises luthériennes du Saint-Empire au XVIe siècle. Éditions Alphil-Presses universitaires suisses, 2021. http://dx.doi.org/10.33055/alphil.03159.

Texte intégral
Résumé :
Dans le siècle de la Réformation, des guerres de religion, et de la confessionnalisation, le carnaval n’est pas resté un élément anodin, en dehors des conflits et des recompositions qui se mettaient en place. L’investissement originel de cette fête par Luther et les siens n’a pourtant pas conduit à une alliance heureuse avec le protestantisme. Que s’est-il passé d’une borne à l’autre du siècle ? Dans quelle mesure la rupture religieuse s’est-elle accompagnée d’une rupture culturelle vis-à-vis du carnaval ? L’interdiction progressive du carnaval a-t-elle fait consensus, témoignant d’un ethos luthérien particulier ? De pamphlets en traités, d’ordonnances religieuses en prédication, l’enquête menée ici révèle le questionnement continuel des clercs sur la nature du carnaval et en dit long sur sa complexité et le désarroi des contemporains : s’agit-il d’un rite agraire, d’une survivance des fêtes païennes, ou plutôt d’une coutume catholique ? Ce livre restitue ainsi un jalon manquant de l’histoire du carnaval et dessine une anthropologie du corps et du rire dans le monde protestant. À travers les questions du langage polémique, du rituel, ou de la discipline, il permet de réviser les relations complexes entre christianisme, rire et sérieux, mais aussi les opérations de différenciation entre confessions, et met au jour une période décisive avant que se fige le topos d’une fête païenne et révolutionnaire.
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Mesures complexes"

1

Dinh, Tien-Cuong. « Mesures orthogonales à support compact de longueur finie et applications ». Dans Complex Analysis and Geometry, 163–72. Basel : Birkhäuser Basel, 2000. http://dx.doi.org/10.1007/978-3-0348-8436-5_11.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

ANDRE, Sylvère, Ludovic DUPONCHEL, Jordane LALLEMAND et Sylvie ROUSSEL. « La chimiométrie appliquée à la spectroscopie ». Dans Spectroscopies vibrationnelles, 155–96. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.4200.

Texte intégral
Résumé :
La chimiométrie, ou l'analyse de données multivariées, est la science qui applique des méthodes mathématiques et statistiques optimales pour traiter des données issues de mesures au sens large. La chimiométrie comprend la conception d'expériences en amont et l'analyse des données afin d'obtenir des informations pertinentes à partir des mesures effectuées. Le besoin d'outils chimiométriques puissants provient principalement du développement de l'instrumentation qui offre de grandes quantités de données de plus en plus complexes et non spécifiques. Le domaine scientifique de la chimiométrie se compose d'une grande variété de méthodes mathématiques, visant à atteindre divers objectifs.
Styles APA, Harvard, Vancouver, ISO, etc.
3

El Kissi, N., S. Nigen et F. Pignon. « Chapitre 3 : Glissement et fracturation dans les fluides complexes. Interpréter les essais rhéométriques ». Dans La mesure en rhéologie, 49–96. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1150-2-007.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

El Kissi, N., S. Nigen et F. Pignon. « Chapitre 3 : Glissement et fracturation dans les fluides complexes. Interpréter les essais rhéométriques ». Dans La mesure en rhéologie, 49–96. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1150-2.c007.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

VERRIER, Nicolas, Matthieu DEBAILLEUL, Bertrand SIMON et Olivier HAEBERLÉ. « Microscopie tomographique diffractive en transmission ». Dans Imageries optiques non conventionnelles pour la biologie, 143–75. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9132.ch5.

Texte intégral
Résumé :
La microscopie tomographique est une extension de l’holographie numérique, présentant une meilleure résolution. Sans marquage, et donc complémentaire à l’imagerie de fluorescence, elle permet de mesurer quantitativement l’indice optique complexe d’un échantillon. Ce chapitre décrit les configurations courantes, et détaille les principes physiques permettant l’acquisition des données et les approches numériques pour la reconstruction des images.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bodiguel, Luc. « L’alimentation entre éthique, science et innovation ». Dans L’alimentation entre éthique, science et innovation, 41–54. ESKA, 2024. http://dx.doi.org/10.3917/jibes.344.0041.

Texte intégral
Résumé :
L’agroécologie est devenue un mot à la mode dans le discours politique et médiatique et fait l’objet de débats internationaux, mais sa signification reste floue. Cet article définit cette science expérimentale et en explique la substance, puis examine comment et dans quelle mesure le droit agricole lui a permis d’entrer dans l’arène politique. Il explique pourquoi le droit agricole français et la politique agricole européenne peinent à offrir un cadre sécurisé favorable à l’agroécologie alors que cette science pluridisciplinaire, complexe et systémique est directement tournée vers l’avenir et protectrice des générations futures.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Chevrier, Sylvie. « Management des services ». Dans Management des services, 20–40. Presses universitaires de Grenoble, 2015. http://dx.doi.org/10.3917/pug.abram.2015.01.0020.

Texte intégral
Résumé :
Ce chapitre montre que la conception d’un service est plus complexe qu’un travail d’identification des attentes des clients puis de conception d’un service adapté. En effet, les clients ne sont pas toujours en mesure d’exprimer fidèlement leurs attentes et il s’agit alors de convoquer des connaissances en sciences sociales pour mieux saisir leur besoin. Plus encore, les nouveaux services doivent être légitimes aux yeux de la société et la conception d’un service par une entreprise doit mobiliser des parties prenantes externes susceptibles de contribuer à forger cette légitimité. En analysant le cas de services funéraires, ce chapitre montre le processus complexe de conception et de légitimation qui a été mis en œuvre par le leader français du secteur pour parvenir à une innovation réussie.
Styles APA, Harvard, Vancouver, ISO, etc.
8

« Doutes sur la mesure des forces motrices et sur leur nature ». Dans Œuvres complètes de Voltaire (Complete Works of Voltaire) 20A, sous la direction de David Beeson et Robert L. Walters, 359–448. Voltaire Foundation, 2003. http://dx.doi.org/10.2307/jj.10704283.16.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

PICHENOT, Évelyne. « Société civile européenne et enjeux des algorithmes ». Dans Algorithmes et Société, 141–54. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4621.

Texte intégral
Résumé :
Aux différentes étapes de la recherche de régulation de l'intelligence artificielle (IA), le Comité économique et social européen, fort de son expérience du consensus entre les Parties prenantes, joue un rôle de relais au niveau européen, pour l'instauration d'un dialogue Science et Société sur ce sujet techniquement complexe aux fortes incidences sociétales. Ce compendium retrace aussi l'approche autonome des Partenaires sociaux au sein du Dialogue social européen qui vise à mesurer l'impact sur les métiers et les emplois de ces innovations technologiques. En parallèle, la société civile européenne veille à faire prendre en compte les principes éthiques de l'IA définis au niveau européen par les organismes internationaux en cours d'élaboration de normes sur l'IA.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Prévost, Gérard. « Du « Printemps de Prague » au « Printemps arabe » : homologies, constantes cachées et formation socio-historique ». Dans North Africa in the Process of Change : Political, Legal, Social and Economic Transformations, 51–70. Ksiegarnia Akademicka Publishing, 2015. http://dx.doi.org/10.12797/9788376386553.04.

Texte intégral
Résumé :
Les mouvements de transformation sociopolitique en Europe centrale et orientale puis en Méditerranée renvoient à des ensembles sociopolitiques homologues, de même portée historique et dans des formations territoriales, sociales et politiques hétérogènes. Ils se sont déclenchés selon des processus équivalents, marqués par des interactions attachées à des relations historiques dans la courte et moyenne durée. Ils ont produit des effets selon les particularités sociales, politiques et culturelles de chaque pays, que l’on peut mesurer aujourd’hui. Certains ont été, ou sont encore le théâtre de guerres civiles, d’autres de configurations coagulées reconduites dans les mêmes terme, d’autres prolongent les résistances, les engagements ponctuels et les luttes multiformes, ou sont dans la distanciation. L’hypothèse suggère donc que les deux événements ont un rapport, certes complexe l’un avec l’autre, en symbiose avec leur production historique. Ainsi, les équivalences homologiques entre les deux événements permettent-elles de dégager les constantes cachées manifestant tout autant leurs causes, les facteurs historiques, socioculturels et politiques ayant conduit les processus de transformation sur le moyen et long terme. Ce dévoilement met l’accent sur les continuités, tout autant que sur les singularités des liaisons historiques ayant formé un espace commun comme champ d’altercation historicisé à l’interface entre Nord et Sud qui prétend définir le conflit Nord- Sud par le manichéisme d’affrontement de l’Islam et de l’Occident. Dans cette perspective, il s’agit d’identifier les facteurs qui ont produit les changements, de mesurer leur apport quant au champs théorique concernant les rapports État/société, quant à celui des « issues révolutionnaires » et des constructions politiques qu’elles accompagnent par rapport aux deux formes de « populisme dans lesquelles elles se sont inscrites, en Europe centrale, en Méditerranée et au Maghreb.
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Mesures complexes"

1

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros et D. Tardivo. « Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Texte intégral
Résumé :
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Catros, S. « A quoi servent les Bio-Imprimantes 3D ? » Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Texte intégral
Résumé :
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Mesures complexes"

1

Hrynick, Tabitha, et Megan Schmidt-Sane. Note d’Orientation sur l’Engagement Communautaire Concernant la Riposte Contre la Flambée Epidémique de Choléra dans la Région Afrique de l’Est et Australe. Institute of Development Studies, mai 2023. http://dx.doi.org/10.19088/sshap.2023.008.

Texte intégral
Résumé :
Les flambées épidémiques de choléra s’intensifient dans la région Afrique de l’Est et australe (ESAR) depuis janvier 2023, avec une transmission généralisée et étendue au Malawi et au Mozambique, ainsi que des flambées épidémiques signalées en Tanzanie, en Afrique du Sud, au Zimbabwe, au Burundi et en Zambie.1 Il existe un risque de propagation accrue causée par les effets du cyclone Freddy, qui a frappé Madagascar, le Malawi et le Mozambique en mars 2023. Les flambées épidémiques se poursuivent en Somalie, en Éthiopie, au Kenya et au Soudan du Sud, où les pays sont confrontés à la sécheresse suite à plusieurs saisons des pluies consécutives lors desquelles les précipitations n’ont pas été assez abondantes.1 Le contexte de riposte dans la région ESAR est complexe. Cela est dû aux ressources limitées en santé publique, y compris les pénuries de vaccins par voie orale contre le choléra, et aux nombreuses urgences sanitaires et humanitaires simultanées, y compris la réapparition du poliovirus sauvage. L’engagement communautaire dans les ripostes contre les flambées épidémiques de choléra est essentiel, en particulier lorsque l’impact de la COVID-19 continuent de se faire sentir dans la région, notamment en ce qui concerne la confiance dans la santé publique et les mesures liées à la vaccination.2,3 La présente note d’orientation a pour objectif d’aider les ministères de la Santé, l’UNICEF et d’autres partenaires de la riposte à concevoir et à mettre en œuvre un engagement communautaire efficace, axé sur la communauté et basé sur des données afin de répondre à la flambée épidémique de choléra. Cette note d’orientation a été rédigée en avril 2023 par Megan Schmidt-Sane et Tabitha Hrynick (IDS), avec la contribution de Stellar Murumba (Internews), Ngonidzashe Macdonald Nyambawaro (IFRC), Eva Niederberger (Anthrologica), Santiago Ripoll (IDS), Nadine Beckmann (LSHTM), Mariana Palavra (UNICEF), et Rachel James (UNICEF). Cette note d’orientation s’inspire de travaux antérieurs sur le choléra réalisés par la Plateforme Social Science in Humanitarian Action (SSHAP).
Styles APA, Harvard, Vancouver, ISO, etc.
2

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, décembre 2022. http://dx.doi.org/10.54932/wodt6646.

Texte intégral
Résumé :
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Dufour, Quentin, David Pontille et Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, avril 2021. http://dx.doi.org/10.52949/2.

Texte intégral
Résumé :
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie