Auswahl der wissenschaftlichen Literatur zum Thema „Contrôle prédictif de modèle“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Contrôle prédictif de modèle" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Contrôle prédictif de modèle"

1

Heddam, Salim, Abdelmalek Bermad und Noureddine Dechemi. „Modélisation de la dose de coagulant par les systèmes à base d’inférence floue (ANFIS) application à la station de traitement des eaux de Boudouaou (Algérie)“. Revue des sciences de l’eau 25, Nr. 1 (28.03.2012): 1–17. http://dx.doi.org/10.7202/1008532ar.

Der volle Inhalt der Quelle
Annotation:
La coagulation est l’une des étapes les plus importantes dans le traitement des eaux. La difficulté principale est de déterminer la dose optimale de coagulant à injecter en fonction des caractéristiques de l’eau brute. Un mauvais contrôle de ce procédé peut entraîner une augmentation importante des coûts de fonctionnement et le non-respect des objectifs de qualité en sortie de la station de traitement. Le sulfate d’aluminium (Al2SO4.18H2O) est le réactif coagulant le plus généralement utilisé. La détermination de la dose de coagulant se fait au moyen de l’essai dit de « Jar Test » conduit en laboratoire. Ce type d’approche a le désavantage d’avoir un temps de retard relativement long et ne permet donc pas un contrôle automatique du procédé de coagulation. Le présent article décrit un modèle neuro flou de type Takagi Sugeno (TK), développé pour la prédiction de la dose de coagulant utilisée lors de la phase de clarification dans la station de traitement des eaux de Boudouaou qui alimente la ville d’Alger en eau potable. Le modèle ANFIS (système d’inférence flou à base de réseaux de neurones adaptatifs), qui combine les techniques floues et neuronales en formant un réseau à apprentissage supervisé, a été appliqué durant la phase de calage et testé en période de validation. Les résultats obtenus par le modèle ANFIS ont été comparés avec ceux obtenus avec un réseau de neurones de type perceptron multicouche (MLP) et un troisième modèle à base de regression linéaire multiple (MLR). Un coefficient de détermination (R2) de l’ordre de 0,92 en période de validation a été obtenu avec le modèle ANFIS, alors que pour le MLP, il est de l’ordre de 0,75, et que pour le modèle MLR, il ne dépasse pas 0,35. Les résultats obtenus sont d’une grande importance pour la gestion de l’installation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Parent-Rocheleau, Xavier, Gilles Simard, Kathleen Bentein und Michel Tremblay. „L’interaction entre facteurs organisationnels et locus de contrôle dans la prédiction de l’engagement organisationnel affectif“. Articles 71, Nr. 1 (29.03.2016): 109–32. http://dx.doi.org/10.7202/1035904ar.

Der volle Inhalt der Quelle
Annotation:
Nombreuses sont les études ayant répertorié les facteurs susceptibles de favoriser l’engagement affectif des employés envers leur organisation. Toutefois, davantage de recherches sont requises afin de comprendre les mécanismes par lesquels ces facteurs agissent sur le niveau d’engagement organisationnel affectif (EOA), et de cerner dans quel contexte et sous quelles conditions leurs effets s’avèrent les plus puissants (Becker, Klein, et Meyer, 2009). La présente étude s’inscrit dans la lignée des études récentes qui visent à surmonter cette limite en investiguant l’interaction entre les facteurs organisationnels et les caractéristiques individuelles dans la prédiction de l’EOA, soutenant que des dispositions individuelles modulent les perceptions des expériences de travail, influençant par le fait même les réactions attitudinales et comportementales. Plusieurs études démontrent que le locus de contrôle, défini comme la tendance des individus à croire qu’ils contrôlent ou non leur environnement et le cours des évènements (Rotter, 1954), joue notamment un rôle sur la façon dont les individus perçoivent leur environnement. Appuyant son raisonnement sur la théorie de l’échange social (Blau, 1964) et sur le modèle de l’engagement au groupe (Tyler et Blader, 2003), l’objectif de cette étude est d’examiner l’effet de l’interaction entre le locus de contrôle (interne/externe) et les perceptions de justice procédurale ainsi que la fierté organisationnelle des employés sur leur niveau d’engagement affectif. Les résultats indiquent que le locus de contrôle exerce un effet modérateur entre l’EOA et les deux antécédents proposés. Ainsi, en vertu de la norme de réciprocité, la tendance des individus à croire que la fierté organisationnelle et la justice procédurale sont le produit de leurs actions les conduiraient à s’engager affectivement auprès de cette dernière. En plus de souligner le rôle important du locus de contrôle dans les réactions attitudinales aux facteurs organisationnels, les résultats démontrent la pertinence d’étudier l’effet modérateur d’autres traits individuels susceptibles de moduler l’adoption de certains comportements et attitudes, ce qui peut représenter un avantage pour les salariés et les dirigeants.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nazoumou, Y., und M. Besbes. „Simulation de la recharge artificielle de nappe en oued par un modèle à réservoirs“. Revue des sciences de l'eau 13, Nr. 4 (12.04.2005): 379–404. http://dx.doi.org/10.7202/705399ar.

Der volle Inhalt der Quelle
Annotation:
Dans la zone semi-aride de Tunisie centrale, un grand barrage a été construit en 1982 sur l'oued Zeroud, dont l'infiltration des crues naturelles constituait jadis la principale source d'alimentation des nappes de la plaine de Kairouan. Ce barrage est destiné à l'écrêtement des crues, l'irrigation et à la recharge des nappes à l'aval de la retenue. Entre 1988 et 1996, plus de 70 millions de m3 d'eau ont été mobilisés sous forme d'ondes de lâchers à partir du barrage pour la recharge artificielle par infiltration dans le lit de l'oued. Le suivi des ondes de lâchers est effectué sur 3 stations de contrôle disposées sur une distance de 40 km le long du lit. L'analyse de l'évolution des débits a révélé que la capacité d'infiltration du lit augmente progressivement avant de se stabiliser, mettant en évidence l'effet de l'air sur le processus de recharge. Un modèle conceptuel à réservoirs conjuguant fonctions de production et de transfert avec discrétisation spatiale a permis de modéliser la propagation et l'infiltration des ondes de lâchers le long de l'oued. Son ajustement sur un échantillon de six événements de lâchers a fourni des résultats satisfaisants. Même si la validation reste insuffisante en raison de la rareté des données, ce modèle peut constituer un premier outil d'évaluation de l'efficacité de la recharge et de prédiction de son impact sur la nappe souterraine de la plaine de Kairouan.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Renard, E., P. Benhamou, S. Franc, A. Farret, S. Lablanche, I. Xhaard, J. Place, M. Antoniakos, P. Jallon und G. Charpentier. „CO-64: Évaluation multicentrique randomisée de la faisabilité et de la sécurité d'un algorithme de contrôle de la perfusion d'insuline en boucle fermée selon un modèle prédictif associé à un module réducteur d'hypoglycémie chez des patients diabétiques de type 1“. Diabetes & Metabolism 42 (März 2016): A19. http://dx.doi.org/10.1016/s1262-3636(16)30082-9.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gilliot, Jean-Marc, Emmanuelle Vaudour, Joël Michelin und Sabine Houot. „Estimation des teneurs en carbone organique des sols agricoles par télédétection par drone“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (26.04.2017): 105–15. http://dx.doi.org/10.52638/rfpt.2017.193.

Der volle Inhalt der Quelle
Annotation:
La matière organique (MO) est un élément important de la fertilité des sols cultivés. Les mesures de réflectance ont déjàété utilisées avec succès pour prédire la teneur en carbone organique (CO) des sols agricoles, soit au laboratoire surdes échantillons de sols séchés, soit directement au champ à l'aide de spectro-radiomètres de terrain ou grâce à desimages satellitaires. Cette étude propose une méthode de prédiction spatialisée du CO des sols, à partir d'imageriedrone. Une parcelle agricole de 13 ha « la Grande Borne », située dans la plaine de Versailles (78), a été suivie en avril2013, peu avant le semis alors qu'elle était encore en sol nu. Le drone AIRINOV® utilisé était équipé de la caméramultispectrale quadri-bande multiSPEC 4C® (550nm, 660nm, 735 nm et 790 nm) et évoluait à une altitude de 150 m.Vingt-trois placettes de contrôle au sol, réparties dans la parcelle, ont été délimitées par des cibles géolocaliséescentimétriquement par DGPS et ont fait l'objet de mesures synchrones au vol drone : mesures spectrales de terrain(ASD FieldSpec 3®), mesures de rugosité par une méthode photogrammétrique, prélèvements d'échantillons de solpour analyse de la composition chimique et de la teneur en eau. Les images obtenues d'une résolution de 15cm ont étégéoréférencées avec une précision infra-pixellaire. Les spectres de terrain ont été agrégés sur les bandes spectrales de2la multiSPEC® 4C afin de valider par régression linéaire la qualité des données de réflectance du drone. Les Robtenus, entre 0,8 et 0,9 selon les bandes, ainsi que l'erreur comprise entre 1 et 3% en réflectance, ont montrés lafiabilité du capteur multiSPEC 4C®. La teneur en CO a ensuite été estimée par régression des moindres carrés partiels(PLSR) à partir des mesures spectrales sur les 23 placettes. L'erreur quadratique moyenne de validation croisée(RMSECV) par la méthode LOO (Leave One Out) était de 1,97 g de CO par kg de sol. Un second modèle intégrant lacorrection des effets de l'humidité et de la rugosité sur la réflectance, a permis d'améliorer la qualité de la prédiction de18% avec une RMSECV de 1,61 g/kg. Le modèle a enfin été spatialisé sous SIG et comparé à de simples interpolationsspatiales des analyses de sol.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

BEIGHAU, S., A. JOUVION, D. CORNET, R. C. BERTHELOT, F. BELOT DE SAINT-LÉGER und E. SAGUI. „Profils de température corporelle au cours d’un exercice physique intense chez des militaires ayant présenté un coup de chaleur d’exercice“. Médecine et Armées Vol.49 No.2, Volume 49, Numéro 2 (21.06.2023): 187–208. http://dx.doi.org/10.17184/eac.7802.

Der volle Inhalt der Quelle
Annotation:
Le coup de chaleur d’exercice (CCE) est défini par la survenue de signes d’encéphalopathie variés, en contexte hyperthermique supérieur à 40 °C, au cours ou au décours d’un exercice physique intense et prolongé. Sa physiopathologie, imparfaitement comprise, aboutit à une ascension incontrôlée de la température corporelle (Tco). Chez le sujet ayant présenté un CCE, une défaillance des mécanismes de contrôle de la Tco pourrait être en cause, soit par augmentation incontrôlée de la production de chaleur, soit par défaut de dissipation. Toutefois, l’évolution de la Tco à l’effort n’a jamais été étudiée chez ces sujets. L’objectif de notre étude est de décrire l’évolution de la Tco au cours d’un effort intense et prolongé, chez des sujets ayant un antécédent de CCE. Quarante sujets (38 hommes, âgés de 28,4 ± 4,9 ans, avec un indice de masse corporelle à 24,9 ± 2,4 kg/m2) ayant déjà présenté un CCE ont effectué une marche-course de huit kilomètres en tenue de combat. Un monitorage continu de la Tco et de la fréquence cardiaque (FC) était réalisé respectivement par une capsule thermique ingérée et un cardiofréquencemètre. La consommation maximale en oxygène (VO2max) était mesurée la veille de la course. La performance moyenne était de 44,6 ± 6,6 minutes, sous les conditions environnementales suivantes : température ambiante 17,1 ± 4 °C et hygrométrie 71,1 ± 13,9 %. Aucun trouble neurologique n’avait été observé. Le pourcentage moyen du temps de course où la FC mesurée de chaque sujet était inférieure à la FC du premier seuil ventilatoire était de 0,75 % [minimum-maximum: 0–2 %]. La Tco maximale était de 39,9 ± 0,5 °C. Trois profils ont été identifiés : (1) une montée en température lente, inférieure à 39 °C à la 20e minute de course, sans phase de plateau ; (2) une montée en température rapide, supérieure ou égale à 39 °C à la 20e minute, suivie d’un plateau ; (3) une montée en température rapide, supérieure à 39 °C à la 20e minute, sans phase de plateau, atteignant des valeurs de Tco supérieures à 40 °C. Les sujets ayant un antécédent de CCE présentent différents profils de Tco à l’exercice maximal. Une montée rapide de la Tco sans plateau (profil 3) pourrait représenter un modèle de thermolyse altérée et un facteur prédictif de récidive de CCE. Cependant, un suivi longitudinal est nécessaire pour affirmer cette hypothèse. Une Tco supérieure ou égale à 40,1 °C en fin de course serait un outil fiable et accessible sur le terrain pour dépister ces sujets à risque.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Perdrix, Jean, und Denis Graf. „Modèle prédictif d’une cause syncopale“. Revue Médicale Suisse 4, Nr. 144 (2008): 445a. http://dx.doi.org/10.53738/revmed.2008.4.144.445a.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

-TEISSIER, Philippe. „Contrôle prédictif de la production de levains“. Revue de l'Electricité et de l'Electronique -, Nr. 07 (1996): 82. http://dx.doi.org/10.3845/ree.1996.089.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Baki, S., G. El Mghari und N. El Ansari. „P1002 La rétinopathie diabétique : vers un modèle prédictif“. Diabetes & Metabolism 39 (März 2013): A33. http://dx.doi.org/10.1016/s1262-3636(13)71748-8.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Mollard, R., P. Cabon, S. Bougrine und F. Mourey. „La fatigue en aéronautique : vers un modèle prédictif“. Neurophysiologie Clinique/Clinical Neurophysiology 26, Nr. 6 (Januar 1996): 438–39. http://dx.doi.org/10.1016/s0987-7053(97)89192-7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Contrôle prédictif de modèle"

1

Artiges, Nils. „De l'instrumentation au contrôle optimal prédictif pour la performance énergétique du bâtiment“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT003/document.

Der volle Inhalt der Quelle
Annotation:
Face aux forts besoins de réduction de la consommation énergétique et de l’impact environnemental,le bâtiment d’aujourd’hui vise la performance en s’appuyant sur des sourcesd’énergie de plus en plus diversifiées (énergies renouvelables), une enveloppe mieux conçue(isolation) et des systèmes de gestion plus avancés. Plus la conception vise la basse consommation,plus les interactions entre ses composants sont complexes et peu intuitives. Seule unerégulation plus intégrée permettrait de prendre en compte cette complexité et d’optimiser lefonctionnement pour atteindre la basse consommation sans sacrifier le confort.Les techniques de commande prédictive, fondées sur l’utilisation de modèles dynamiqueset de techniques d’optimisation, promettent une réduction des consommations et de l’inconfort.Elles permettent en effet d’anticiper l’évolution des sources et des besoins intermittentstout en tirant parti de l’inertie thermique du bâtiment, de ses systèmes et autres élémentsde stockage. Cependant, dans le cas du bâtiment, l’obtention d’un modèle dynamique suffisammentprécis présente des difficultés du fait d’incertitudes importantes sur les paramètresdu modèle et les sollicitations du système. Les avancées récentes dans le domaine de l’instrumentationdomotique constituent une opportunité prometteuse pour la réduction de cesincertitudes, mais la conception d’un tel système pour une telle application n’est pas triviale.De fait, il devient nécessaire de pouvoir considérer les problématiques de monitoring énergétique,d’instrumentation, de commande prédictive et de modélisation de façon conjointe.Cette thèse vise à identifier les liens entre commande prédictive et instrumentation dansle bâtiment, en proposant puis exploitant une méthode générique de modélisation du bâtiment,de simulation thermique et de résolution de problèmes d’optimisation. Cette méthodologiemet en oeuvre une modélisation thermique multizone du bâtiment, et des algorithmesd’optimisation reposant sur un modèle adjoint et les outils du contrôle optimal. Elle a étéconcrétisée dans un outil de calcul permettant de mettre en place une stratégie de commandeprédictive comportant des phases de commande optimale, d’estimation d’état et decalibration.En premier lieu, nous étudions la formulation et la résolution d’un problème de commandeoptimale. Nous abordons les différences entre un tel contrôle et une stratégie de régulationclassique, entre autres sur la prise en compte d’indices de performance et de contraintes. Nousprésentons ensuite une méthode d’estimation d’état basée sur l’identification de gains thermiquesinternes inconnus. Cette méthode d’estimation est couplée au calcul de commandeoptimale pour former une stratégie de commande prédictive.Les valeurs des paramètres d’un modèle de bâtiment sont souvent très incertaines. Lacalibration paramétrique du modèle est incontournable pour réduire les erreurs de prédictionet garantir la performance d’une commande optimale. Nous appliquons alors notreméthodologie à une technique de calibration basée sur des mesures de températures in situ.Nous ouvrons ensuite sur des méthodes permettant d’orienter le choix des capteurs à utiliser(nombre, positionnement) et des paramètres à calibrer en exploitant les gradients calculéspar la méthode adjointe.La stratégie de commande prédictive a été mise en oeuvre sur un bâtiment expérimentalprès de Chambéry. Dans le cadre de cette étude, l’intégralité du bâtiment a été modélisé,et les différentes étapes de notre commande prédictive ont été ensuite déployées de mainière séquentielle. Cette mise en oeuvre permet d’étudier les enjeux et les difficultés liées àl’implémentation d’une commande prédictive sur un bâtiment réel.Cette thèse est issue d’une collaboration entre le CEA Leti, l’IFSTTAR de Nantes et leG2ELab, et s’inscrit dans le cadre du projet ANR PRECCISION
More efficient energy management of buildings through the use of Model Predictive Control(MPC) techniques is a key issue to reduce the environmental impact of buildings. Buildingenergy performance is currently improved by using renewable energy sources, a betterdesign of the building envelope (insulation) and the use of advanced management systems.The more the design aims for high performance, the more interactions and coupling effectsbetween the building, its environment and the conditions of use are important and unintuitive.Only a more integrated regulation would take in account this complexity, and couldhelp to optimize the consumption without compromising the comfort.Model Predictive Control techniques, based on the use of dynamic models and optimizationmethods, promise a reduction of consumption and discomfort. They can generate energysavings by anticipating the evolution of renewable sources and intermittent needs, while takingadvantage of the building thermal inertia and other storage items. However, in the caseof buildings, obtaining a good dynamic model is tough, due to important uncertainties onmodel parameters and system solicitations.Recent advances in the field of wireless sensor networks are fostering the deployment ofsensors in buildings, and offer a promising opportunity to reduce these errors. Nevertheless,designing a sensor network dedicated to MPC is not obvious, and energy monitoring,instrumentation, modeling and predictive control matters must be considered jointly.This thesis aims at establishing the links between MPC and instrumentation needs inbuildings. We propose a generic method for building modeling, thermal simulation andoptimization. This methodology involves a multi-zone thermal model of the building, andefficient optimization algorithms using an adjoint model and tools from the optimal controltheory. It was implemented in a specific toolbox to develop a predictive control strategywith optimal control phases, state estimation phases and model calibration.At first, we study the formulation and resolution of an optimal control problem. We discussthe differences between such a control and a conventional regulation strategy, throughperformance indicators. Then, we present a state estimation method based on the identificationof unknown internal gains. This estimation method is subsequently coupled with theoptimal control method to form a predictive control strategy.As the parameters values of a building model are often very uncertain, parametric modelcalibration is essential to reduce prediction errors and to ensure the MPC performance. Consequently,we apply our methodology to a calibration technique based on in situ temperaturemeasurements. We also discuss how our approach can lead to selection techniques in orderto choose calibrated parameters and sensors for MPC purposes.Eventually, the predictive control strategy was implemented on an experimental building,at CEA INES, near Chambéry. The entire building was modeled, and the different steps ofthe control strategy were applied sequentially through an online supervisor. This experimentgave us a useful feedback on our methodology on a real case.This thesis is the result of a collaboration between CEA Leti, IFSTTAR Nantes andG2ELab, and is part of the ANR PRECCISION project
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ghosn, Stéphanie. „Développement d'un modèle animal prédictif de la réponse immunitaire de l'homme aux vaccins“. Paris 7, 2014. http://www.theses.fr/2014PA077119.

Der volle Inhalt der Quelle
Annotation:
L'existence d'un modèle préclinique prédictif de la réponse immunitaire de l'homme aux vaccins devient une nécessité. Le premier objectif de cette étude est de comparer la validité de deux modèles de souris humanisée basés respectivement sur la reconstitution de souris NOD-SCID-Gamma null (NSG) avec des lymphocytes du sang périphérique (Hu-PBL-NSG) ou avec des splénocytes humains (Hu-SPL-NSG). Le second objectif est d'utiliser le meilleur modèle pour évaluer et sélectionner les candidats vaccins les plus prometteurs contre le paludisme à Plasmodium falciparum. Des souris NSG sont greffées avec des lymphocytes circulants ou des splénocytes et immunisées avec différentes préparations vaccinales. Les résultats montrent que les cellules humaines greffées sont fonctionnelles dans les deux modèles et sécrètent des IgG, ainsi que des anticorps spécifiques de l'antigène injecté. Cependant, dans le modèle Hu-PBL-NSG, on observe un taux élevé de mortalité et de morbidité des souris. De plus, la réponse spécifique contre les antigènes reste majoritairement de type IgM, même après plusieurs rappels. Le modèle Hu-SPL-NSG, ne présentant pas ces inconvénients, a donc été sélectionné pour étudier la réponse immunitaire humaine contre la construction vaccinale de P. Falciparum LSA3-FL (Liver Stage Antigen 3-Full Length). Les résultats obtenus corroborent ceux observés chez l'homme au cours d'un essai clinique de LSA3-FL et sont dissemblables à ceux obtenus chez les rongeurs et les primates. En conclusion, nous proposons la souris humanisée Hu-SPL-NSG comme modèle préclinique prometteur de la réponse aux vaccins
In the field of vaccine development, a predictive preclinical model is most needed. In this study, our first objective was to compare the validity, for preclinical evaluation of vaccines, of two humanized mouse models, based on the engraftment of NOD-SCID-Gamma null (NSG) mice with either peripheral blood lymphocytes (Hu-PBL-NSG) or human spleen lymphocytes (Hu-SPL-NSG). The second objective was to use the best model to evaluate different vaccine candidates against Plasmodium falciparum malaria in order to select the most promising ones. NSG mice were engrafted with either peripheral blood lymphocytes or spleen lymphocytes and immunized with different vaccine preparations. Our resuits show that the engrafted human lymphocytes remain functional in both models, and secrete IgG, as well as specific antibodies against the injected antigens. However, the Hu-PBL-NSG model exhibits high morbidity and mortality rates. Moreover, human specific antibody responses elicited in this model remain predominantly of the IgM isotype even aliter repeated booster immunizations. These limitations were completely absent in the Hu-SPL-NSG model that has thus been selected to study the human immune response induced by a P. Falciparum liver stage construct LSA3-FL (Liver Stage Antigen 3-Full Length). Our findings corroborate the resuits observed in a clinical trial conducted with LSA3-FL and diverge from those obtained in rodents and primates. In conclusion, we propose that the Hu-SPL-NSG mouse is a cost efficient and time saving preclinical model that allows optimal screening of potentially protective vaccine candidates prior to clinical trials
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Guyot, Dimitri. „Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones“. Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Der volle Inhalt der Quelle
Annotation:
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Homsi, Saed Al. „Online generation of time- optimal trajectories for industrial robots in dynamic environments“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT027/document.

Der volle Inhalt der Quelle
Annotation:
Nous observons ces dernières années un besoin grandissant dans l’industrie pour des robots capables d’interagir et de coopérer dans des environnements confinés. Cependant, aujourd’hui encore, la définition de trajectoires sûres pour les robots industriels doit être faite manuellement par l’utilisateur et le logiciel ne dispose que de peu d’autonomie pour réagir aux modifications de l’environnement. Cette thèse vise à produire une structure logicielle innovante pour gérer l’évitement d’obstacles en temps réel pour des robots manipulateurs évoluant dans des environnements dynamiques. Nous avons développé pour cela un algorithme temps réel de génération de trajectoires qui supprime de façon automatique l’étape fastidieuse de définition d’une trajectoire sûre pour le robot.La valeur ajoutée de cette thèse réside dans le fait que nous intégrons le problème de contrôle optimal dans le concept de hiérarchie de tâches pour résoudre un problème d’optimisation non-linéaire efficacement et en temps réel sur un système embarqué aux ressources limitées. Notre approche utilise une commande prédictive (MPC) qui non seulement améliore la réactivité de notre système mais présente aussi l’avantage de pouvoir produire une bonne approximation linéaire des contraintes d’évitement de collision. La stratégie de contrôle présentée dans cette thèse a été validée à l’aide de plusieurs expérimentations en simulations et sur systèmes réels. Les résultats démontrent l’efficacité, la réactivité et la robustesse de cette nouvelle structure de contrôle lorsqu’elle est utilisée dans des environnements dynamiques
In the field of industrial robots, there is a growing need for having cooperative robots that interact with each other and share work spaces. Currently, industrial robotic systems still rely on hard coded motions with limited ability to react autonomously to dynamic changes in the environment. This thesis focuses on providing a novel framework to deal with real-time collision avoidance for robots performing tasks in a dynamic environment. We develop a reactive trajectory generation algorithm that reacts in real time, removes the fastidious optimization process which is traditionally executed by hand by handling it automatically, and provides a practical way of generating locally time optimal solutions.The novelty in this thesis is in the way we integrate the proposed time optimality problem in a task priority framework to solve a nonlinear optimization problem efficiently in real time using an embedded system with limited resources. Our approach is applied in a Model Predictive Control (MPC) setting, which not only improves reactivity of the system but presents a possibility to obtain accurate local linear approximations of the collision avoidance constraint. The control strategies presented in this thesis have been validated through various simulations and real-world robot experiments. The results demonstrate the effectiveness of the new control structure and its reactivity and robustness when working in dynamic environments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Darure, Tejaswinee. „Contribution à l’optimisation de la performance énergétique des bâtiments de grande dimension : une approche intégrée diagnostic / commande économique et coopérative à horizon glissant“. Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0142/document.

Der volle Inhalt der Quelle
Annotation:
Au cours des deux dernières décennies, la prise de conscience du changement climatique et des conséquences du réchauffement climatique a incité diverses institutions à prendre de nouvelles directives. Ces directives portent principalement sur le contrôle des émissions des gaz à effet de serre, sur l'utilisation des ressources énergétiques non conventionnelles et l'optimisation de la consommation d'énergie dans les systèmes existants. L'Union européenne a proposé de nombreux projets dans le cadre du 7e PCRD pour réaliser jusqu'à 20% d’économies d'énergie d’ici 2020. En particulier, selon la directive sur l'efficacité énergétique, les bâtiments sont majoritairement responsables de 40% des dépenses énergétiques en Europe et de 36% des émissions de CO2 ; c’est la raison pour laquelle un ensemble d’initiatives européennes dans le cadre du 7ième PCRD favorise l'utilisation de technologie intelligente dans les bâtiments et rationalise les règles existantes. Energy IN TIME est l'un des projets axés sur l'élaboration d'une méthode de contrôle basée sur la simulation intelligente de l'énergie qui permettra de réduire la consommation des bâtiments non résidentiels. Ce mémoire de thèse propose plusieurs solutions novatrices pour réaliser les objectifs du projet mandaté à l'Université de Lorraine. Les solutions développées dans le cadre de ce projet devraient être validées sur différents sites européens de démonstration. Une première partie présente l'analyse détaillée de ces sites de démonstration et leurs contraintes respectives. Un cadre général correspondant à la construction type de ces sites a été élaboré pour simuler leur comportement. Ce cadre de construction de référence sert de banc d'essai pour la validation des solutions proposées dans ce travail de thèse. Sur la base de la conception de la structure de construction de référence, nous présentons une formulation de contrôle économique utilisant un modèle de contrôle prédictif minimisant la consommation d'énergie. Ce contrôle optimal possède des propriétés de contrôle conscientes de la maintenance. En outre, comme les bâtiments sont des systèmes complexes, les occurrences de pannes peuvent entraîner une détérioration de l'efficacité énergétique ainsi que du confort thermique pour les occupants à l'intérieur des bâtiments. Pour résoudre ce problème, nous avons élaboré une stratégie de diagnostic des dysfonctionnements et une stratégie de contrôle adaptatif des défauts basé sur le modèle économique ; les résultats en simulation ont été obtenus sur le bâtiment de référence. En outre, l'application des solutions proposées peut permettre de relever des défis ambitieux en particulier dans le cas de bâtiments à grande échelle. Dans la partie finale de cette thèse, nous nous concentrons sur le contrôle économique des bâtiments à grande échelle en formulant une approche novatrice du contrôle prédictif de mode réparti. Cette formule de contrôle distribué présente de nombreux avantages tels que l'atténuation de la propagation des défauts, la flexibilité dans la maintenance du bâtiment et les stratégies simplifiées de contrôle du plug-and-play. Enfin, une attention particulière est accordée au problème d'estimation des mesures dont le nombre est limité sur des bâtiments à grande échelle. Les techniques d'estimation avancées proposées sont basées sur les méthodologies de l'horizon mobile. Leur efficacité est démontrée sur les systèmes de construction de référence
Since the last two decades, there has been a growing awareness about the climate change and global warming that has instigated several Directorate initiatives from various administrations. These initiatives mainly deal with controlling greenhouse gas emissions, use of non-conventional energy resources and optimization of energy consumption in the existing systems. The European Union has proposed numerous projects under FP7 framework to achieve the energy savings up to 20% by the year 2020. Especially, stated by the Energy Efficiency Directive, buildings are majorly responsible for 40% of energy resources in Europe and 36% of CO2 emission. Hence a class of projects in the FP7 framework promotes the use of smart technology in the buildings and the streamline existing rules. Energy IN TIME is one of the projects focused on developing a Smart Energy Simulation Based Control method which will reduce the energy consumption in the operational stage of existing non-residential buildings. Essentially, this thesis proposes several novel solutions to fulfill the project objectives assigned to the University of Lorraine. The developed solutions under this project should be validated on the demonstration sites from various European locations. We design a general benchmark building framework to emulate the behavior of demonstration sites. This benchmark building framework serves as a test bench for the validation of proposed solutions given in this thesis work. Based on the design of benchmark building layout, we present an economic control formulation using model predictive control minimizing the energy consumption. This optimal control has maintenance-aware control properties. Furthermore, as in buildings, fault occurrences may result in deteriorating the energy efficiency as well as the thermal comfort for the occupants inside the buildings. To address this issue, we design a fault diagnosis and fault adaptive control techniques based on the model predictive control and demonstrate the simulation results on the benchmark building. Moreover, the application of these proposed solutions may face great challenges in case of large-scale buildings. Therefore, in the final part of this thesis, we concentrate on the economic control of large-scale buildings by formulating a novel approach of distributed model predictive control. This distributed control formulation holds numerous advantages such as fault propagation mitigation, flexibility in the building maintenance and simplified plug-and-play control strategies, etc... Finally, a particular attention is paid to the estimation problem under limited measurements in large-scale buildings. The suggested advanced estimation techniques are based on the moving horizon methodologies and are demonstrated on the benchmark building systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Monjo, Florian. „Contrôle prédictif des effets mécaniques de la fatigue musculaire : implication dans l'étude des modèles internes et des modes de coordination entre posture et mouvement“. Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET014T.

Der volle Inhalt der Quelle
Annotation:
La fatigue musculaire est un phénomène transitoire communément expérimenté dans la vie quotidienne. Principalement associée à un déficit de production de force, elle s’accompagne également d’une augmentation de l’effort mental à fournir pour déployer un niveau de force particulier. L’augmentation du taux de décharge des afférences nociceptives de petit diamètre (groupes III et IV) lors de contractions fatigantes modifie l’expression des commandes motrices – notamment en raison de processus inhibiteurs associés à leur intégration aux niveaux spinal et supraspinal – ce qui affecte finalement la production motrice. C’est la raison pour laquelle une intention motrice similaire avec et sans fatigue se traduira par des formes gestuelles différentes. Une problématique qui n’a jusque-là jamais été abordée dans la littérature concerne la capacité du Système Nerveux Central (SNC) à anticiper les effets de la fatigue musculaire de façon prédictive. Cette capacité prédictive sera étudiée dans ce travail de thèse au moyen de paradigmes expérimentaux faisant intervenir des processus de contrôle prédictifs de la posture, i.e. les Ajustements Posturaux Anticipés (APAs). Du fait que de nombreux travaux montrent que les APAs sont modulés en fonction des caractéristiques mécaniques du mouvement à venir, l’altération des capacités des muscles focaux grâce à des protocoles de fatigue maîtrisés nous a permis d’apprécier la capacité du SNC à en prédire les effets. Nous verrons que cette capacité est condition-dépendante, à savoir qu’elle dépend de la nature des contractions effectuées (volontaires vs. électro-induites) et du niveau de contraintes cognitives et temporelles imposées lors de la préparation du mouvement
Muscle fatigue is a transient and commonly experienced phenomenon. It is mainly associated with loss of force and leads to higher effort to produce a particular force level. The increased discharge rate of the nociceptive afferents (group III and IV) during fatiguing contractions alters motor command expression and finally motor production. An issue that has never been addressed in the literature is the Central Nervous System (CNS) capacity to anticipate muscle fatigue effects in a predictive fashion. This predictive capacity will be investigated thanks to experimental paradigms involving postural predictive processes of control, namely Anticipatory Postural Adjustments (APAs). Because numerous works show that APAs are modulated as a function of the mechanical properties of the upcoming movement, the induction of muscle fatigue at the levels of the focal muscles allowed us to appreciate the CNS capacity to predict muscle fatigue effects. We will demonstrate that this capacity is condition-dependent, i.e. it depends on the nature of the fatiguing contractions performed (voluntary vs. electro-induced) and on the level of cognitive and temporal constraints during movement preparation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Benazet, Marc. „Atténuation des réafférences visuelles de la main dans le cortex pariétal lors d’un mouvement d’atteinte vers une cible“. Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9901.

Der volle Inhalt der Quelle
Annotation:
Résumé : Il semble que le cerveau atténuerait les stimuli provenant de nos actions par rapport aux stimuli d’origine externe, ceci afin d’augmenter la pertinence des informations environnementales. Lors de la production d’un mouvement, la copie de la commande motrice serait utilisée pour anticiper les conséquences sensorielles. Les conséquences sensorielles prédites permettraient ainsi d’atténuer les réafférences réelles du mouvement. Plusieurs évidences montrent que l’activité corticale liée aux réafférences somatosensorielles et auditives est atténuée lorsque celles-ci résultent de nos propres mouvements par rapport à lorsqu’elles proviennent d’une cause externe. L’étude présentée dans ce mémoire a investigué l’existence d’une atténuation des réafférences visuelles lors d’un mouvement d’atteinte du bras vers une cible. L’expérience consistait en une tâche de pointage de la main vers une cible visuelle, pendant laquelle l’activité EEG des sujets était enregistrée. L’intervalle de temps entre la position réelle de la main et le curseur visuel associé à celle-ci était manipulé. De fait, le retour visuel était fourni soit en temps réel soit avec un retard de 150 ms. Le délai créait ainsi un décalage entre les conséquences visuelles prédites et réelles du mouvement. Les résultats montrent que l’amplitude de la composante N1 du Potentiel Évoqué Visuel (PEV) associé au retour visuel de la main était réduite dans le cortex pariétal lorsque le retour visuel était fourni en temps réel par rapport à lorsqu’il était présenté en retard. Conséquemment, ces données suggèrent que les réafférences visuelles du membre en mouvement sont atténuées au niveau cortical lorsqu’elles correspondent aux prédictions. L’association des résultats comportementaux et électrophysiologiques supportent également d’autres études qui montrent que les processus sensorimoteurs sont plus fins que la perception consciente. À la lumière de la littérature, la modulation de la composante N1 enregistrée aux électrodes pariéto-occipitales suggère l’implication des régions pariétales dans l’intégration des retours sensoriels et des prédictions motrices. En discussion, nous proposons que les retours visuels liés au contrôle en ligne du membre soient modulés au niveau pariétal en raison des prédictions motrices cérébelleuses, à l’instar des retours tactiles.
Abstract : It is well established that the cortical processing of somatosensory and auditory signals is attenuated when they result from self-generated actions as compared to external events. This phenomenon is thought to result from an efference copy of motor commands used to predict the sensory consequences of an action through a forward model. The present work examined whether attenuation also takes place for visual reafferent signals from the moving limb during voluntary reaching movements. To address this issue, EEG activity was recorded in a condition in which visual feedback of the hand was provided in real time and compared to a condition in which it was presented with a 150 ms delay, thus creating a mismatch between the predicted and actual visual consequences of the movement. Results revealed that the amplitude of the N1 component of the visual ERP evoked by hand visual feedback over the parietal cortex was significantly smaller when presented in real time as compared to when it was delayed. These data suggest that the cortical processing of visual reafferent signals is attenuated when they are correctly predicted, likely as a result of a forward model.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Elobaid, Mohamed. „A sampled-data approach in control problems involving partial dynamics cancellation“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG014.

Der volle Inhalt der Quelle
Annotation:
De nombreux problèmes de contrôle se ramènent à imposer que la sortie du système suive un signal donné, tout en rejetant les effets de perturbations. Dans ce vaste contexte de problématiques traitées principalement en temps continu, l’utilisation de techniques de contrôle reposant sur l’inversion est bien connue. Cependant, la présence incontournable de capteurs et d’actionneurs numériques nécessite une conception ad hoc en temps discret. Plus précisément, il s’agit de contrôler des systèmes dits échantillonnés, dont les mesures sont acquises à des instants échantillonnés dans le temps et pour lesquels les variables de commande sont maintenues constantes sur un intervalle de temps donné, la période d’échantillonnage. Dans ce domaine des systèmes échantillonnés, des systèmes supposés en temps continu à déphasage minimal, perdent cette propriété sous échantillonnage; le système en temps discret équivalent n’est plus à déphasage minimal. L’objet de cette thèse est d’établir des résultats constructifs, procédures et algorithmes permettant de réduire les effets dus à l’inversion dans le contexte échantillonné. Une première contribution propose une procédure d’inversion stable pour une classe de systèmes à déphasage non minimal multi-input multi-output (MIMO). L’approche repose sur le linéarisé tangent du système et une factorisation de la dynamique des zéros dont une partie seulement est à déphasage minimal. Les contributions suivantes concernent la commande prédictive (MPC) et la linéarisation transverse par bouclage (TFL), deux stratégies de commande concernées par la pertede la propriété de déphasage minimal sous échantillonnage. Concernant la commande prédictive deux problématiques utilisant des techniques de discrétisation à échelles de temps multiques sont étudiées pour des objectifs de prédiction puis de planification de trajectoire. Les solutions développées sont validées sur plusieurs exemples allant de la conduite et poursuite de systèmes admettant des formes chainées jusqu’au maintien des quasi Halo orbites du système terre-lune. Concernant la linéarisation transverse par bouclage, deux solutions préservant l’invariance dessous espaces caractérisant les objectifs de contrôle sont proposées. L’une repose sur des techniques d’échantillonnage simple et, quoique solution approchée, est très simple de calcul et présente des performances bien supérieures à une implantation classique par bloqueur d’ordre zéro. La deuxième solution, proposée au sens exact, fait appel à des techniques d’échantillonnage multiple et propose aussi des solutions par bouclage statique dans des cas ou seul un bouclage dynamique résout le problème en temps continu. Les deux approches sont validées sur des exemples académiques et appliquées à la résolution de problèmes de poursuite de trajectoires pour des robots mobiles ou déstabilisation d’orbites périodiques pour des systèmes mécaniques sous actionnés
Several well studied control problems reduce to asking the output of a given process to track a desired signal while rejecting effects of undesired perturbations. In the rich body of knowledge dealing with problems of this type in continuous-time, the use of partial inversion-based controllers (i.e controllers that cancel part of the dynamics in the sense of rendering it unobservable) and their effectiveness is well established. Nowadays, however, sensing and actuation is done through digital devices so necessitating a suitable control design. In this setting, the control engineer works with systems referred to as sampled-data systems where measures of the output are available only at sporadic discrete-time instants while the control is piecewise constant over a fixed time interval. In this sampled-data context, systems that are originally minimum phase in continuous-time, and because of sampling and holding, may lose this property. The general argument of this thesis contributes to establishing constructive results, procedures and algorithms to the purpose of mitigating the issues caused by sampled-data design under partial inversion-based controllers. Since partial inversion-based controllers typically cancel the zero dynamics, the central idea is to mitigate the loss of the minimum-phase property. A first contribution in this direction stands in proposing a procedure for stable partial inversion for a class of continuous-time non-minimum phase Multi-Input Multi-Output systems. The procedure proposed, generalizing a previous result, works over the linear tangent model of a system factorizing a sub-set of the zero dynamics known to be minimum-phase a priori. This preliminary result is at the basis of control strategies which are herein proposed for model predictive control and digital transverse feedback linearization. Both control strategies under sampling are affected by the above-mentioned pathology linked to the loss of the minimum-phase property. In particular, for model predictive control, two solutions based on multi-rate sampling techniques, employed at the prediction, or the trajectory planning level are proposed and compared. Their validity is established through several case studies ranging from steering and tracking in systems admitting chained forms to quasi Halo orbits station-keeping for space-crafts in the Earth-Moon system. Concerning transverse feedback linearization, two sampled-data solutions preserving the in-variant subset specifying the control objectives are proposed. The former is based on single-rate sampling and, albeit approximate in nature, is computationally simple and outperforms zero-order holding of the continuous-time design. The later, an exact solution based on multi-rate sampling, improves upon the former solution and provides, in special cases, static state feedback solutions even when the problem is only solvable via dynamic feedback in continuous-time. Both solutions are validated over academic case studies as well as in solving path following for mobile robots and periodic orbits stabilization for underactuated mechanical systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Fusco, Franco. „Dynamic Visual Servoing for Fast Robotics Arms“. Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0031.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de l’augmentation de la productivité des robots manufacturiers, lors de l’exécution de tâches référencées capteurs. De telles tâches peuvent provenir de la cible non positionnée de manière absolue ou d’un environnement mal connu. Les commandes par asservissement visuel sont bien connues pour leur robustesse et leur précision, mais nécessitent généralement de longs temps d’exécution en raison de différents facteurs. La commande est généralement formulée uniquement à un niveau cinématique et caractérisée par des vitesses décroissantes de façon exponentielle. De plus, l’application non linéaire de l’espace opérationnel à l’espace des capteurs peut conduire à des chemins sous-optimaux et plus longs. Pour augmenter les performances de commande et réduire le temps nécessaire à la réalisation d’une tâche, cette thèse étudie l’utilisation de modèles d’interaction de second ordre. Leur utilisation dans une commande au niveau dynamique est étudiée et comparée aux approches classiques. Ils sont ensuite utilisés dans des schémas de commande par modèle prédictif, permettant d’obtenir des vitesses plus élevées tout en générant de meilleures trajectoires. Cependant, un inconvénient des techniques prédictives est leur charge de calcul. Afin d’obtenir de pallier ce défaut, un nouveau type de commande prédictive est étudié. Il conduit à une réduction du nombre de variables impliquées dans les problèmes d’optimisation grâce à l’utilisation d’un paramétrage des séquences d’entrée
This thesis deals with increasing the productivity in manufacturing robots, when performing sensor-based tasks. Such tasks may be coming from the target not being absolutely positioned. Visual servoing control schemes are well known for their robustness and precision, but generally require long execution times due to differentfactors.Control laws are generally formulated only at a kinematic level and characterized by exponentially decreasing velocities. Moreover, the nonlinear map from the operational space to the sensor space can lead to sub-optimal and longer paths. To increase control performances and reduce the time required to complete a task, this thesis investigates the use of second-order interaction models. Their use in dynamic feedback control laws is investigated and compared to classical controllers. They are then employed in Model Predictive Control (MPC) schemes, allowing to obtain higher velocities and better sensor trajectories. However, a drawback of MPC techniques is their computational load. In order to obtain even better results, a new type of predictive control is thus investigated, leading to a reduced number of variables involved in MPC optimization problems thanks to the use of a parameterization of the control input sequences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Colin, Guillaume. „Contrôle des systèmes rapides non linéaires - Application au moteur à allumage commandé turbocompressé à distribution variable“. Phd thesis, Université d'Orléans, 2006. http://tel.archives-ouvertes.fr/tel-00110228.

Der volle Inhalt der Quelle
Annotation:
Le contrôle des moteurs à allumage commandé est devenu capital pour satisfaire la législation sur les émissions polluantes tout en garantissant un bon agrément de conduite et une consommation réduite.

Le downsizing, c'est-à-dire la réduction de la cylindrée du moteur, est une des voies prometteuses pour réduire la consommation de carburant et les émissions de CO2 qui en découlent. Combinant plusieurs technologies existantes telles que la turbocompression et la distribution variable, le downsizing est un exemple typique des problèmes rencontrés dans le contrôle des motorisations : systèmes non linéaires avec saturations d'actionneurs ; nombreuses grandeurs physiques importantes non mesurables ; temps de calcul limité ; objectifs du contrôle (consommation, pollution, performance) souvent concurrents.

Une démarche de modélisation et de contrôle à base de modèle (par modèle interne et prédictif) pour ces systèmes est alors proposée et appliquée au contrôle de la chaîne d'air du moteur à essence à cylindrée réduite. Des estimateurs, physiques et génériques, sont construits pour la masse d'air dans le cylindre, la masse de gaz brûlés résiduels et la masse d'air balayé de l'admission vers l'échappement. L'architecture complète et générique du contrôle en couple pour le moteur à allumage commandé turbocompressé à déphaseurs d'arbre à cames a été testée en simulation puis expérimentalement (sur moteur et véhicule).
Ces essais ont alors montré que de nouvelles possibilités étaient offertes pour diminuer les émissions polluantes et optimiser le rendement du moteur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Contrôle prédictif de modèle"

1

Brown, Angus. Registre international des armes de petit calibre: Questions et modèle. Ottawa, Ont: Ministère des affaires étrangères et du commerce international, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

W, Moore James. Le contrôle des armements conventionnels et le désarmement en Europe: Un modèle pour l'appréciation de l'efficacité du système de vérification. Ottawa, Ont: Ministère des affaires extérieures, 1990.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Association, Canadian Standards. Quality systems: Model for quality assurance in final inspection and test = Systèmes qualité : modèle pour l'assurance de la qualité en contrôle et essais finals. Rexdale, Ont: Canadian Standards Association, 1994.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

M, Milanese, Hrsg. Bounding approaches to system identification. New York: Plenum Press, 1996.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Les Modèles productifs. La Découverte, 2000.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Milanese, M. Bounding Approaches to System Identification. Springer, 2013.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Process Improvement with CMMI v1.2 and ISO Standards. AUERBACH, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Piet-Lahanier, H., É. Walter, J. Norton und M. Milanese. Bounding Approaches to System Identification. Springer, 2013.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Mutafelija, Boris, und Harvey Stromberg. Process Improvement with CMMI V1. 2 and ISO Standards. Auerbach Publishers, Incorporated, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Mutafelija, Boris, und Harvey Stromberg. Process Improvement with CMMI V1. 2 and ISO Standards. Auerbach Publishers, Incorporated, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Contrôle prédictif de modèle"

1

Defert, S., S. Bendifallah, V. Lavoué, N. Maurin, J. Chopier, M. Antoine, S. Lorand et al. „Application d’un modèle prédictif de malignité en cas d’hyperplasie canalaire atypique diagnostiquée par une macrobiopsie : étude de validation“. In Cancer du sein : surdiagnostic, surtraitement, 343–44. Paris: Springer Paris, 2012. http://dx.doi.org/10.1007/978-2-8178-0249-7_101.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Arnoud, Justine, und Philippe Lorino. „À la recherche d’alternatives au modèle du contrôle“. In Pratiques de travail et dynamiques organisationnelles, 181–85. Les Presses de l’Université de Laval, 2022. http://dx.doi.org/10.1515/9782763756776-014.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

„Bibliographie“. In Le modèle cybernétique du contrôle de gestion, 255–60. EMS Editions, 2020. http://dx.doi.org/10.3917/ems.pige.2020.01.0255.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

MARTIN, Patrick, Maroua NOUIRI und Ali SIADAT. „Transiter vers un modèle durable : sociétal, économique et environnemental“. In Digitalisation et contrôle des systèmes industriels cyber-physiques, 27–47. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch2.

Der volle Inhalt der Quelle
Annotation:
Le concept de développement durable répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs besoins. Aussi un modèle durable doit assurer un équilibre entre les impacts économiques, environnementaux et sociaux. L’objectif de ce chapitre est de montrer comment les systèmes cyber physique industriel CPIS possèdent les caractéristiques permettant de répondre aux défis du développement durable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

BORANGIU, Theodor, Silviu RĂILEANU und Octavian MORARIU. „La virtualisation des ressources, des produits et du système d’information“. In Digitalisation et contrôle des systèmes industriels cyber-physiques, 85–114. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9085.ch5.

Der volle Inhalt der Quelle
Annotation:
La virtualisation dans la commande automatique industrielle avec des systèmes informatisés crée des versions virtuelles des plateformes matérielles de calcul, des réseaux informatiques, des équipements industriels et des systèmes de pilotage. La virtualisation est aussi la technologie permettant d’étendre Cloud Computing dans le domaine industriel aux services qui font l’orchestration des éléments matériel et logiciel, i.e. les technologies opérationnelles qui transposent dans le modèle Cloud Manufacturing des groupes de ressources (machines, robots) en services de production sur demande.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Pétrequin, Pierre, und Olivier Weller. „12. L’exploitation préhistorique des sources salées dans le Jura français. Application et critiques d’un modèle prédictif“. In Sel, eau, forêt. D’hier à aujourd’hui, 255–79. Presses universitaires de Franche-Comté, 2008. http://dx.doi.org/10.4000/books.pufc.25652.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Marques, José M., und Darío Paez. „Bilans et perspectives en psychologie sociale“. In Bilans et perspectives en psychologie sociale, 71–116. Presses universitaires de Grenoble, 2008. http://dx.doi.org/10.3917/pug.joule.2008.01.0071.

Der volle Inhalt der Quelle
Annotation:
Les auteurs présentent un modèle explicatif du processus par lequel l’hostilité des individus à l’égard des déviants de leur propre groupe concourt au maintien d’une identité sociale positive. Ce modèle intègre trois approches théoriques complémentaires : la psychologie sociale des petits groupes, l’approche de l’identification sociale (y compris la théorie de l’identité sociale et la théorie de l’auto-catégorisation) et l’approche durkheimienne du contrôle social. Les auteurs présentent un programme de recherches concernant les effets de différents facteurs cognitifs (focalisation prescriptive ou descriptive des individus), contextuels (menace des normes endogroupales, statut des déviants) et socioculturels (partage de valeurs individualistes ou collectivistes) sur les jugements émis par les individus à l’égard d’individus déviants appartenant à l’endogroupe ou à l’exogroupe.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

KHALIL, Ahmad, Nader MBAREK und Olivier TOGNI. „Optimisation de la consommation énergétique des dispositifs IoT“. In La gestion et le contrôle intelligents des performances et de la sécurité dans l’IoT, 79–106. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9053.ch4.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre s’intéresse à l’optimisation de la consommation énergétique dans un environnement IoT. Il décrit différents travaux et projets de recherche proposant des mécanismes adaptés qui permettent de prolonger les durées de vie des dispositifs IoT. Dans ce contexte, un mécanisme intelligent d’auto-optimisation de la consommation énergétique des objets IoT basé sur un modèle de logique floue est présenté.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Passaglia, Paolo. „Modèle concentré et ancrage de la Constitution dans l’évolution du contrôle incident en Italie“. In Le contrôle de constitutionnalité des décisions de justice : une nouvelle étape après la QPC ?, 309–56. DICE Éditions, 2017. http://dx.doi.org/10.4000/books.dice.5700.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Cussó, Roser. „V. La démographie dans le modèle de développement de la Banque mondiale : entre l’étude scientifique, le contrôle de la population et les politiques néolibérales“. In L'Invention des populations, 141–60. Odile Jacob, 2000. http://dx.doi.org/10.3917/oj.lebr.2000.02.0141.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Contrôle prédictif de modèle"

1

Sicard, L., und R. Khonsari. „Conséquences dentaires de la dysjonction pterygo-maxillaire pendant les chirugies d’avancée fronto-faciale monobloc dans le traitement des syndromes de Crouzon“. In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602001.

Der volle Inhalt der Quelle
Annotation:
Le syndrome de Crouzon est une faciocraniosténose qui peut s’exprimer par une retrusion fronto-faciale sévère associée à des répercussions fonctionnelles importantes : un exorbitisme sévère peut mener à une mise en jeux du pronostic visuel et les troubles de la ventilation mettre en cause le pronostic vital. La procédure de choix du traitement primaire de cette faciocraniosténose est l’avancée monobloc fronto-faciale avec distraction par voie interne ou externe. Cette technique nécessite la réalisation d’une disjonction ptérygo-maillaire, pratiquée par voie supérieure ou intra-orale. Cette disjonction est associée à un risque de lésion des germes des dents temporaires et permanentes. 15 patients atteints du syndromes de Crouzon, opérés par avancée monobloc fronto-faciale, par le même chirurgien et avec disjonction pterygo-maxillaire par voie supérieure en passant par la fosse temporale, ont été aléatoirement choisis parmi les patients atteint du syndrome de Crouzon suivis dans le service. La formule dentaire de chaque patient a été relevée sur les scanners pré-opératoires, post-opératoires et de contrôle, ainsi que les différentes anomalies et stades de Nolla des premières et deuxièmes molaires permanentes maxillaires. L’étude confirme que cette technique chirurgicale cause des dommages dentaires notables et montre que la survenues de ces dommages est corrélée à l’âge auquel est réalisée la chirurgie. Elle montre que l’existence de dommage au niveau de la première molaire permanente est un facteur prédictif de séquelles au niveau de la 2ème molaire permanente lors de son évolution. Le stade radiographique de Nolla peut être un indicateur plus fiable que l’âge civil pour évaluer les risques dentaire lors de cette chirurgie chez ces patients. Si les indications de chirurgie précoce par avancée fronto- faciale monobloc chez les patients atteints d’un syndrome de Crouzon avec répercussion fonctionnelles sévère ne se discutent pas, il sera intéressant de comparer ces résultats avec les séquelles dentaires de cette chirurgie réalisée avec disjonction ptérygo-palatine par voie endobuccale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Contrôle prédictif de modèle"

1

Dufour, Quentin, David Pontille und Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie