Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Contrôle prédictif de modèle.

Dissertationen zum Thema „Contrôle prédictif de modèle“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Contrôle prédictif de modèle" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Artiges, Nils. „De l'instrumentation au contrôle optimal prédictif pour la performance énergétique du bâtiment“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT003/document.

Der volle Inhalt der Quelle
Annotation:
Face aux forts besoins de réduction de la consommation énergétique et de l’impact environnemental,le bâtiment d’aujourd’hui vise la performance en s’appuyant sur des sourcesd’énergie de plus en plus diversifiées (énergies renouvelables), une enveloppe mieux conçue(isolation) et des systèmes de gestion plus avancés. Plus la conception vise la basse consommation,plus les interactions entre ses composants sont complexes et peu intuitives. Seule unerégulation plus intégrée permettrait de prendre en compte cette complexité et d’optimiser lefonctionnement pour atteindre la basse consommation sans sacrifier le confort.Les techniques de commande prédictive, fondées sur l’utilisation de modèles dynamiqueset de techniques d’optimisation, promettent une réduction des consommations et de l’inconfort.Elles permettent en effet d’anticiper l’évolution des sources et des besoins intermittentstout en tirant parti de l’inertie thermique du bâtiment, de ses systèmes et autres élémentsde stockage. Cependant, dans le cas du bâtiment, l’obtention d’un modèle dynamique suffisammentprécis présente des difficultés du fait d’incertitudes importantes sur les paramètresdu modèle et les sollicitations du système. Les avancées récentes dans le domaine de l’instrumentationdomotique constituent une opportunité prometteuse pour la réduction de cesincertitudes, mais la conception d’un tel système pour une telle application n’est pas triviale.De fait, il devient nécessaire de pouvoir considérer les problématiques de monitoring énergétique,d’instrumentation, de commande prédictive et de modélisation de façon conjointe.Cette thèse vise à identifier les liens entre commande prédictive et instrumentation dansle bâtiment, en proposant puis exploitant une méthode générique de modélisation du bâtiment,de simulation thermique et de résolution de problèmes d’optimisation. Cette méthodologiemet en oeuvre une modélisation thermique multizone du bâtiment, et des algorithmesd’optimisation reposant sur un modèle adjoint et les outils du contrôle optimal. Elle a étéconcrétisée dans un outil de calcul permettant de mettre en place une stratégie de commandeprédictive comportant des phases de commande optimale, d’estimation d’état et decalibration.En premier lieu, nous étudions la formulation et la résolution d’un problème de commandeoptimale. Nous abordons les différences entre un tel contrôle et une stratégie de régulationclassique, entre autres sur la prise en compte d’indices de performance et de contraintes. Nousprésentons ensuite une méthode d’estimation d’état basée sur l’identification de gains thermiquesinternes inconnus. Cette méthode d’estimation est couplée au calcul de commandeoptimale pour former une stratégie de commande prédictive.Les valeurs des paramètres d’un modèle de bâtiment sont souvent très incertaines. Lacalibration paramétrique du modèle est incontournable pour réduire les erreurs de prédictionet garantir la performance d’une commande optimale. Nous appliquons alors notreméthodologie à une technique de calibration basée sur des mesures de températures in situ.Nous ouvrons ensuite sur des méthodes permettant d’orienter le choix des capteurs à utiliser(nombre, positionnement) et des paramètres à calibrer en exploitant les gradients calculéspar la méthode adjointe.La stratégie de commande prédictive a été mise en oeuvre sur un bâtiment expérimentalprès de Chambéry. Dans le cadre de cette étude, l’intégralité du bâtiment a été modélisé,et les différentes étapes de notre commande prédictive ont été ensuite déployées de mainière séquentielle. Cette mise en oeuvre permet d’étudier les enjeux et les difficultés liées àl’implémentation d’une commande prédictive sur un bâtiment réel.Cette thèse est issue d’une collaboration entre le CEA Leti, l’IFSTTAR de Nantes et leG2ELab, et s’inscrit dans le cadre du projet ANR PRECCISION
More efficient energy management of buildings through the use of Model Predictive Control(MPC) techniques is a key issue to reduce the environmental impact of buildings. Buildingenergy performance is currently improved by using renewable energy sources, a betterdesign of the building envelope (insulation) and the use of advanced management systems.The more the design aims for high performance, the more interactions and coupling effectsbetween the building, its environment and the conditions of use are important and unintuitive.Only a more integrated regulation would take in account this complexity, and couldhelp to optimize the consumption without compromising the comfort.Model Predictive Control techniques, based on the use of dynamic models and optimizationmethods, promise a reduction of consumption and discomfort. They can generate energysavings by anticipating the evolution of renewable sources and intermittent needs, while takingadvantage of the building thermal inertia and other storage items. However, in the caseof buildings, obtaining a good dynamic model is tough, due to important uncertainties onmodel parameters and system solicitations.Recent advances in the field of wireless sensor networks are fostering the deployment ofsensors in buildings, and offer a promising opportunity to reduce these errors. Nevertheless,designing a sensor network dedicated to MPC is not obvious, and energy monitoring,instrumentation, modeling and predictive control matters must be considered jointly.This thesis aims at establishing the links between MPC and instrumentation needs inbuildings. We propose a generic method for building modeling, thermal simulation andoptimization. This methodology involves a multi-zone thermal model of the building, andefficient optimization algorithms using an adjoint model and tools from the optimal controltheory. It was implemented in a specific toolbox to develop a predictive control strategywith optimal control phases, state estimation phases and model calibration.At first, we study the formulation and resolution of an optimal control problem. We discussthe differences between such a control and a conventional regulation strategy, throughperformance indicators. Then, we present a state estimation method based on the identificationof unknown internal gains. This estimation method is subsequently coupled with theoptimal control method to form a predictive control strategy.As the parameters values of a building model are often very uncertain, parametric modelcalibration is essential to reduce prediction errors and to ensure the MPC performance. Consequently,we apply our methodology to a calibration technique based on in situ temperaturemeasurements. We also discuss how our approach can lead to selection techniques in orderto choose calibrated parameters and sensors for MPC purposes.Eventually, the predictive control strategy was implemented on an experimental building,at CEA INES, near Chambéry. The entire building was modeled, and the different steps ofthe control strategy were applied sequentially through an online supervisor. This experimentgave us a useful feedback on our methodology on a real case.This thesis is the result of a collaboration between CEA Leti, IFSTTAR Nantes andG2ELab, and is part of the ANR PRECCISION project
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ghosn, Stéphanie. „Développement d'un modèle animal prédictif de la réponse immunitaire de l'homme aux vaccins“. Paris 7, 2014. http://www.theses.fr/2014PA077119.

Der volle Inhalt der Quelle
Annotation:
L'existence d'un modèle préclinique prédictif de la réponse immunitaire de l'homme aux vaccins devient une nécessité. Le premier objectif de cette étude est de comparer la validité de deux modèles de souris humanisée basés respectivement sur la reconstitution de souris NOD-SCID-Gamma null (NSG) avec des lymphocytes du sang périphérique (Hu-PBL-NSG) ou avec des splénocytes humains (Hu-SPL-NSG). Le second objectif est d'utiliser le meilleur modèle pour évaluer et sélectionner les candidats vaccins les plus prometteurs contre le paludisme à Plasmodium falciparum. Des souris NSG sont greffées avec des lymphocytes circulants ou des splénocytes et immunisées avec différentes préparations vaccinales. Les résultats montrent que les cellules humaines greffées sont fonctionnelles dans les deux modèles et sécrètent des IgG, ainsi que des anticorps spécifiques de l'antigène injecté. Cependant, dans le modèle Hu-PBL-NSG, on observe un taux élevé de mortalité et de morbidité des souris. De plus, la réponse spécifique contre les antigènes reste majoritairement de type IgM, même après plusieurs rappels. Le modèle Hu-SPL-NSG, ne présentant pas ces inconvénients, a donc été sélectionné pour étudier la réponse immunitaire humaine contre la construction vaccinale de P. Falciparum LSA3-FL (Liver Stage Antigen 3-Full Length). Les résultats obtenus corroborent ceux observés chez l'homme au cours d'un essai clinique de LSA3-FL et sont dissemblables à ceux obtenus chez les rongeurs et les primates. En conclusion, nous proposons la souris humanisée Hu-SPL-NSG comme modèle préclinique prometteur de la réponse aux vaccins
In the field of vaccine development, a predictive preclinical model is most needed. In this study, our first objective was to compare the validity, for preclinical evaluation of vaccines, of two humanized mouse models, based on the engraftment of NOD-SCID-Gamma null (NSG) mice with either peripheral blood lymphocytes (Hu-PBL-NSG) or human spleen lymphocytes (Hu-SPL-NSG). The second objective was to use the best model to evaluate different vaccine candidates against Plasmodium falciparum malaria in order to select the most promising ones. NSG mice were engrafted with either peripheral blood lymphocytes or spleen lymphocytes and immunized with different vaccine preparations. Our resuits show that the engrafted human lymphocytes remain functional in both models, and secrete IgG, as well as specific antibodies against the injected antigens. However, the Hu-PBL-NSG model exhibits high morbidity and mortality rates. Moreover, human specific antibody responses elicited in this model remain predominantly of the IgM isotype even aliter repeated booster immunizations. These limitations were completely absent in the Hu-SPL-NSG model that has thus been selected to study the human immune response induced by a P. Falciparum liver stage construct LSA3-FL (Liver Stage Antigen 3-Full Length). Our findings corroborate the resuits observed in a clinical trial conducted with LSA3-FL and diverge from those obtained in rodents and primates. In conclusion, we propose that the Hu-SPL-NSG mouse is a cost efficient and time saving preclinical model that allows optimal screening of potentially protective vaccine candidates prior to clinical trials
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Guyot, Dimitri. „Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones“. Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Der volle Inhalt der Quelle
Annotation:
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Homsi, Saed Al. „Online generation of time- optimal trajectories for industrial robots in dynamic environments“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT027/document.

Der volle Inhalt der Quelle
Annotation:
Nous observons ces dernières années un besoin grandissant dans l’industrie pour des robots capables d’interagir et de coopérer dans des environnements confinés. Cependant, aujourd’hui encore, la définition de trajectoires sûres pour les robots industriels doit être faite manuellement par l’utilisateur et le logiciel ne dispose que de peu d’autonomie pour réagir aux modifications de l’environnement. Cette thèse vise à produire une structure logicielle innovante pour gérer l’évitement d’obstacles en temps réel pour des robots manipulateurs évoluant dans des environnements dynamiques. Nous avons développé pour cela un algorithme temps réel de génération de trajectoires qui supprime de façon automatique l’étape fastidieuse de définition d’une trajectoire sûre pour le robot.La valeur ajoutée de cette thèse réside dans le fait que nous intégrons le problème de contrôle optimal dans le concept de hiérarchie de tâches pour résoudre un problème d’optimisation non-linéaire efficacement et en temps réel sur un système embarqué aux ressources limitées. Notre approche utilise une commande prédictive (MPC) qui non seulement améliore la réactivité de notre système mais présente aussi l’avantage de pouvoir produire une bonne approximation linéaire des contraintes d’évitement de collision. La stratégie de contrôle présentée dans cette thèse a été validée à l’aide de plusieurs expérimentations en simulations et sur systèmes réels. Les résultats démontrent l’efficacité, la réactivité et la robustesse de cette nouvelle structure de contrôle lorsqu’elle est utilisée dans des environnements dynamiques
In the field of industrial robots, there is a growing need for having cooperative robots that interact with each other and share work spaces. Currently, industrial robotic systems still rely on hard coded motions with limited ability to react autonomously to dynamic changes in the environment. This thesis focuses on providing a novel framework to deal with real-time collision avoidance for robots performing tasks in a dynamic environment. We develop a reactive trajectory generation algorithm that reacts in real time, removes the fastidious optimization process which is traditionally executed by hand by handling it automatically, and provides a practical way of generating locally time optimal solutions.The novelty in this thesis is in the way we integrate the proposed time optimality problem in a task priority framework to solve a nonlinear optimization problem efficiently in real time using an embedded system with limited resources. Our approach is applied in a Model Predictive Control (MPC) setting, which not only improves reactivity of the system but presents a possibility to obtain accurate local linear approximations of the collision avoidance constraint. The control strategies presented in this thesis have been validated through various simulations and real-world robot experiments. The results demonstrate the effectiveness of the new control structure and its reactivity and robustness when working in dynamic environments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Darure, Tejaswinee. „Contribution à l’optimisation de la performance énergétique des bâtiments de grande dimension : une approche intégrée diagnostic / commande économique et coopérative à horizon glissant“. Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0142/document.

Der volle Inhalt der Quelle
Annotation:
Au cours des deux dernières décennies, la prise de conscience du changement climatique et des conséquences du réchauffement climatique a incité diverses institutions à prendre de nouvelles directives. Ces directives portent principalement sur le contrôle des émissions des gaz à effet de serre, sur l'utilisation des ressources énergétiques non conventionnelles et l'optimisation de la consommation d'énergie dans les systèmes existants. L'Union européenne a proposé de nombreux projets dans le cadre du 7e PCRD pour réaliser jusqu'à 20% d’économies d'énergie d’ici 2020. En particulier, selon la directive sur l'efficacité énergétique, les bâtiments sont majoritairement responsables de 40% des dépenses énergétiques en Europe et de 36% des émissions de CO2 ; c’est la raison pour laquelle un ensemble d’initiatives européennes dans le cadre du 7ième PCRD favorise l'utilisation de technologie intelligente dans les bâtiments et rationalise les règles existantes. Energy IN TIME est l'un des projets axés sur l'élaboration d'une méthode de contrôle basée sur la simulation intelligente de l'énergie qui permettra de réduire la consommation des bâtiments non résidentiels. Ce mémoire de thèse propose plusieurs solutions novatrices pour réaliser les objectifs du projet mandaté à l'Université de Lorraine. Les solutions développées dans le cadre de ce projet devraient être validées sur différents sites européens de démonstration. Une première partie présente l'analyse détaillée de ces sites de démonstration et leurs contraintes respectives. Un cadre général correspondant à la construction type de ces sites a été élaboré pour simuler leur comportement. Ce cadre de construction de référence sert de banc d'essai pour la validation des solutions proposées dans ce travail de thèse. Sur la base de la conception de la structure de construction de référence, nous présentons une formulation de contrôle économique utilisant un modèle de contrôle prédictif minimisant la consommation d'énergie. Ce contrôle optimal possède des propriétés de contrôle conscientes de la maintenance. En outre, comme les bâtiments sont des systèmes complexes, les occurrences de pannes peuvent entraîner une détérioration de l'efficacité énergétique ainsi que du confort thermique pour les occupants à l'intérieur des bâtiments. Pour résoudre ce problème, nous avons élaboré une stratégie de diagnostic des dysfonctionnements et une stratégie de contrôle adaptatif des défauts basé sur le modèle économique ; les résultats en simulation ont été obtenus sur le bâtiment de référence. En outre, l'application des solutions proposées peut permettre de relever des défis ambitieux en particulier dans le cas de bâtiments à grande échelle. Dans la partie finale de cette thèse, nous nous concentrons sur le contrôle économique des bâtiments à grande échelle en formulant une approche novatrice du contrôle prédictif de mode réparti. Cette formule de contrôle distribué présente de nombreux avantages tels que l'atténuation de la propagation des défauts, la flexibilité dans la maintenance du bâtiment et les stratégies simplifiées de contrôle du plug-and-play. Enfin, une attention particulière est accordée au problème d'estimation des mesures dont le nombre est limité sur des bâtiments à grande échelle. Les techniques d'estimation avancées proposées sont basées sur les méthodologies de l'horizon mobile. Leur efficacité est démontrée sur les systèmes de construction de référence
Since the last two decades, there has been a growing awareness about the climate change and global warming that has instigated several Directorate initiatives from various administrations. These initiatives mainly deal with controlling greenhouse gas emissions, use of non-conventional energy resources and optimization of energy consumption in the existing systems. The European Union has proposed numerous projects under FP7 framework to achieve the energy savings up to 20% by the year 2020. Especially, stated by the Energy Efficiency Directive, buildings are majorly responsible for 40% of energy resources in Europe and 36% of CO2 emission. Hence a class of projects in the FP7 framework promotes the use of smart technology in the buildings and the streamline existing rules. Energy IN TIME is one of the projects focused on developing a Smart Energy Simulation Based Control method which will reduce the energy consumption in the operational stage of existing non-residential buildings. Essentially, this thesis proposes several novel solutions to fulfill the project objectives assigned to the University of Lorraine. The developed solutions under this project should be validated on the demonstration sites from various European locations. We design a general benchmark building framework to emulate the behavior of demonstration sites. This benchmark building framework serves as a test bench for the validation of proposed solutions given in this thesis work. Based on the design of benchmark building layout, we present an economic control formulation using model predictive control minimizing the energy consumption. This optimal control has maintenance-aware control properties. Furthermore, as in buildings, fault occurrences may result in deteriorating the energy efficiency as well as the thermal comfort for the occupants inside the buildings. To address this issue, we design a fault diagnosis and fault adaptive control techniques based on the model predictive control and demonstrate the simulation results on the benchmark building. Moreover, the application of these proposed solutions may face great challenges in case of large-scale buildings. Therefore, in the final part of this thesis, we concentrate on the economic control of large-scale buildings by formulating a novel approach of distributed model predictive control. This distributed control formulation holds numerous advantages such as fault propagation mitigation, flexibility in the building maintenance and simplified plug-and-play control strategies, etc... Finally, a particular attention is paid to the estimation problem under limited measurements in large-scale buildings. The suggested advanced estimation techniques are based on the moving horizon methodologies and are demonstrated on the benchmark building systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Monjo, Florian. „Contrôle prédictif des effets mécaniques de la fatigue musculaire : implication dans l'étude des modèles internes et des modes de coordination entre posture et mouvement“. Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET014T.

Der volle Inhalt der Quelle
Annotation:
La fatigue musculaire est un phénomène transitoire communément expérimenté dans la vie quotidienne. Principalement associée à un déficit de production de force, elle s’accompagne également d’une augmentation de l’effort mental à fournir pour déployer un niveau de force particulier. L’augmentation du taux de décharge des afférences nociceptives de petit diamètre (groupes III et IV) lors de contractions fatigantes modifie l’expression des commandes motrices – notamment en raison de processus inhibiteurs associés à leur intégration aux niveaux spinal et supraspinal – ce qui affecte finalement la production motrice. C’est la raison pour laquelle une intention motrice similaire avec et sans fatigue se traduira par des formes gestuelles différentes. Une problématique qui n’a jusque-là jamais été abordée dans la littérature concerne la capacité du Système Nerveux Central (SNC) à anticiper les effets de la fatigue musculaire de façon prédictive. Cette capacité prédictive sera étudiée dans ce travail de thèse au moyen de paradigmes expérimentaux faisant intervenir des processus de contrôle prédictifs de la posture, i.e. les Ajustements Posturaux Anticipés (APAs). Du fait que de nombreux travaux montrent que les APAs sont modulés en fonction des caractéristiques mécaniques du mouvement à venir, l’altération des capacités des muscles focaux grâce à des protocoles de fatigue maîtrisés nous a permis d’apprécier la capacité du SNC à en prédire les effets. Nous verrons que cette capacité est condition-dépendante, à savoir qu’elle dépend de la nature des contractions effectuées (volontaires vs. électro-induites) et du niveau de contraintes cognitives et temporelles imposées lors de la préparation du mouvement
Muscle fatigue is a transient and commonly experienced phenomenon. It is mainly associated with loss of force and leads to higher effort to produce a particular force level. The increased discharge rate of the nociceptive afferents (group III and IV) during fatiguing contractions alters motor command expression and finally motor production. An issue that has never been addressed in the literature is the Central Nervous System (CNS) capacity to anticipate muscle fatigue effects in a predictive fashion. This predictive capacity will be investigated thanks to experimental paradigms involving postural predictive processes of control, namely Anticipatory Postural Adjustments (APAs). Because numerous works show that APAs are modulated as a function of the mechanical properties of the upcoming movement, the induction of muscle fatigue at the levels of the focal muscles allowed us to appreciate the CNS capacity to predict muscle fatigue effects. We will demonstrate that this capacity is condition-dependent, i.e. it depends on the nature of the fatiguing contractions performed (voluntary vs. electro-induced) and on the level of cognitive and temporal constraints during movement preparation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Benazet, Marc. „Atténuation des réafférences visuelles de la main dans le cortex pariétal lors d’un mouvement d’atteinte vers une cible“. Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9901.

Der volle Inhalt der Quelle
Annotation:
Résumé : Il semble que le cerveau atténuerait les stimuli provenant de nos actions par rapport aux stimuli d’origine externe, ceci afin d’augmenter la pertinence des informations environnementales. Lors de la production d’un mouvement, la copie de la commande motrice serait utilisée pour anticiper les conséquences sensorielles. Les conséquences sensorielles prédites permettraient ainsi d’atténuer les réafférences réelles du mouvement. Plusieurs évidences montrent que l’activité corticale liée aux réafférences somatosensorielles et auditives est atténuée lorsque celles-ci résultent de nos propres mouvements par rapport à lorsqu’elles proviennent d’une cause externe. L’étude présentée dans ce mémoire a investigué l’existence d’une atténuation des réafférences visuelles lors d’un mouvement d’atteinte du bras vers une cible. L’expérience consistait en une tâche de pointage de la main vers une cible visuelle, pendant laquelle l’activité EEG des sujets était enregistrée. L’intervalle de temps entre la position réelle de la main et le curseur visuel associé à celle-ci était manipulé. De fait, le retour visuel était fourni soit en temps réel soit avec un retard de 150 ms. Le délai créait ainsi un décalage entre les conséquences visuelles prédites et réelles du mouvement. Les résultats montrent que l’amplitude de la composante N1 du Potentiel Évoqué Visuel (PEV) associé au retour visuel de la main était réduite dans le cortex pariétal lorsque le retour visuel était fourni en temps réel par rapport à lorsqu’il était présenté en retard. Conséquemment, ces données suggèrent que les réafférences visuelles du membre en mouvement sont atténuées au niveau cortical lorsqu’elles correspondent aux prédictions. L’association des résultats comportementaux et électrophysiologiques supportent également d’autres études qui montrent que les processus sensorimoteurs sont plus fins que la perception consciente. À la lumière de la littérature, la modulation de la composante N1 enregistrée aux électrodes pariéto-occipitales suggère l’implication des régions pariétales dans l’intégration des retours sensoriels et des prédictions motrices. En discussion, nous proposons que les retours visuels liés au contrôle en ligne du membre soient modulés au niveau pariétal en raison des prédictions motrices cérébelleuses, à l’instar des retours tactiles.
Abstract : It is well established that the cortical processing of somatosensory and auditory signals is attenuated when they result from self-generated actions as compared to external events. This phenomenon is thought to result from an efference copy of motor commands used to predict the sensory consequences of an action through a forward model. The present work examined whether attenuation also takes place for visual reafferent signals from the moving limb during voluntary reaching movements. To address this issue, EEG activity was recorded in a condition in which visual feedback of the hand was provided in real time and compared to a condition in which it was presented with a 150 ms delay, thus creating a mismatch between the predicted and actual visual consequences of the movement. Results revealed that the amplitude of the N1 component of the visual ERP evoked by hand visual feedback over the parietal cortex was significantly smaller when presented in real time as compared to when it was delayed. These data suggest that the cortical processing of visual reafferent signals is attenuated when they are correctly predicted, likely as a result of a forward model.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Elobaid, Mohamed. „A sampled-data approach in control problems involving partial dynamics cancellation“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG014.

Der volle Inhalt der Quelle
Annotation:
De nombreux problèmes de contrôle se ramènent à imposer que la sortie du système suive un signal donné, tout en rejetant les effets de perturbations. Dans ce vaste contexte de problématiques traitées principalement en temps continu, l’utilisation de techniques de contrôle reposant sur l’inversion est bien connue. Cependant, la présence incontournable de capteurs et d’actionneurs numériques nécessite une conception ad hoc en temps discret. Plus précisément, il s’agit de contrôler des systèmes dits échantillonnés, dont les mesures sont acquises à des instants échantillonnés dans le temps et pour lesquels les variables de commande sont maintenues constantes sur un intervalle de temps donné, la période d’échantillonnage. Dans ce domaine des systèmes échantillonnés, des systèmes supposés en temps continu à déphasage minimal, perdent cette propriété sous échantillonnage; le système en temps discret équivalent n’est plus à déphasage minimal. L’objet de cette thèse est d’établir des résultats constructifs, procédures et algorithmes permettant de réduire les effets dus à l’inversion dans le contexte échantillonné. Une première contribution propose une procédure d’inversion stable pour une classe de systèmes à déphasage non minimal multi-input multi-output (MIMO). L’approche repose sur le linéarisé tangent du système et une factorisation de la dynamique des zéros dont une partie seulement est à déphasage minimal. Les contributions suivantes concernent la commande prédictive (MPC) et la linéarisation transverse par bouclage (TFL), deux stratégies de commande concernées par la pertede la propriété de déphasage minimal sous échantillonnage. Concernant la commande prédictive deux problématiques utilisant des techniques de discrétisation à échelles de temps multiques sont étudiées pour des objectifs de prédiction puis de planification de trajectoire. Les solutions développées sont validées sur plusieurs exemples allant de la conduite et poursuite de systèmes admettant des formes chainées jusqu’au maintien des quasi Halo orbites du système terre-lune. Concernant la linéarisation transverse par bouclage, deux solutions préservant l’invariance dessous espaces caractérisant les objectifs de contrôle sont proposées. L’une repose sur des techniques d’échantillonnage simple et, quoique solution approchée, est très simple de calcul et présente des performances bien supérieures à une implantation classique par bloqueur d’ordre zéro. La deuxième solution, proposée au sens exact, fait appel à des techniques d’échantillonnage multiple et propose aussi des solutions par bouclage statique dans des cas ou seul un bouclage dynamique résout le problème en temps continu. Les deux approches sont validées sur des exemples académiques et appliquées à la résolution de problèmes de poursuite de trajectoires pour des robots mobiles ou déstabilisation d’orbites périodiques pour des systèmes mécaniques sous actionnés
Several well studied control problems reduce to asking the output of a given process to track a desired signal while rejecting effects of undesired perturbations. In the rich body of knowledge dealing with problems of this type in continuous-time, the use of partial inversion-based controllers (i.e controllers that cancel part of the dynamics in the sense of rendering it unobservable) and their effectiveness is well established. Nowadays, however, sensing and actuation is done through digital devices so necessitating a suitable control design. In this setting, the control engineer works with systems referred to as sampled-data systems where measures of the output are available only at sporadic discrete-time instants while the control is piecewise constant over a fixed time interval. In this sampled-data context, systems that are originally minimum phase in continuous-time, and because of sampling and holding, may lose this property. The general argument of this thesis contributes to establishing constructive results, procedures and algorithms to the purpose of mitigating the issues caused by sampled-data design under partial inversion-based controllers. Since partial inversion-based controllers typically cancel the zero dynamics, the central idea is to mitigate the loss of the minimum-phase property. A first contribution in this direction stands in proposing a procedure for stable partial inversion for a class of continuous-time non-minimum phase Multi-Input Multi-Output systems. The procedure proposed, generalizing a previous result, works over the linear tangent model of a system factorizing a sub-set of the zero dynamics known to be minimum-phase a priori. This preliminary result is at the basis of control strategies which are herein proposed for model predictive control and digital transverse feedback linearization. Both control strategies under sampling are affected by the above-mentioned pathology linked to the loss of the minimum-phase property. In particular, for model predictive control, two solutions based on multi-rate sampling techniques, employed at the prediction, or the trajectory planning level are proposed and compared. Their validity is established through several case studies ranging from steering and tracking in systems admitting chained forms to quasi Halo orbits station-keeping for space-crafts in the Earth-Moon system. Concerning transverse feedback linearization, two sampled-data solutions preserving the in-variant subset specifying the control objectives are proposed. The former is based on single-rate sampling and, albeit approximate in nature, is computationally simple and outperforms zero-order holding of the continuous-time design. The later, an exact solution based on multi-rate sampling, improves upon the former solution and provides, in special cases, static state feedback solutions even when the problem is only solvable via dynamic feedback in continuous-time. Both solutions are validated over academic case studies as well as in solving path following for mobile robots and periodic orbits stabilization for underactuated mechanical systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Fusco, Franco. „Dynamic Visual Servoing for Fast Robotics Arms“. Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0031.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de l’augmentation de la productivité des robots manufacturiers, lors de l’exécution de tâches référencées capteurs. De telles tâches peuvent provenir de la cible non positionnée de manière absolue ou d’un environnement mal connu. Les commandes par asservissement visuel sont bien connues pour leur robustesse et leur précision, mais nécessitent généralement de longs temps d’exécution en raison de différents facteurs. La commande est généralement formulée uniquement à un niveau cinématique et caractérisée par des vitesses décroissantes de façon exponentielle. De plus, l’application non linéaire de l’espace opérationnel à l’espace des capteurs peut conduire à des chemins sous-optimaux et plus longs. Pour augmenter les performances de commande et réduire le temps nécessaire à la réalisation d’une tâche, cette thèse étudie l’utilisation de modèles d’interaction de second ordre. Leur utilisation dans une commande au niveau dynamique est étudiée et comparée aux approches classiques. Ils sont ensuite utilisés dans des schémas de commande par modèle prédictif, permettant d’obtenir des vitesses plus élevées tout en générant de meilleures trajectoires. Cependant, un inconvénient des techniques prédictives est leur charge de calcul. Afin d’obtenir de pallier ce défaut, un nouveau type de commande prédictive est étudié. Il conduit à une réduction du nombre de variables impliquées dans les problèmes d’optimisation grâce à l’utilisation d’un paramétrage des séquences d’entrée
This thesis deals with increasing the productivity in manufacturing robots, when performing sensor-based tasks. Such tasks may be coming from the target not being absolutely positioned. Visual servoing control schemes are well known for their robustness and precision, but generally require long execution times due to differentfactors.Control laws are generally formulated only at a kinematic level and characterized by exponentially decreasing velocities. Moreover, the nonlinear map from the operational space to the sensor space can lead to sub-optimal and longer paths. To increase control performances and reduce the time required to complete a task, this thesis investigates the use of second-order interaction models. Their use in dynamic feedback control laws is investigated and compared to classical controllers. They are then employed in Model Predictive Control (MPC) schemes, allowing to obtain higher velocities and better sensor trajectories. However, a drawback of MPC techniques is their computational load. In order to obtain even better results, a new type of predictive control is thus investigated, leading to a reduced number of variables involved in MPC optimization problems thanks to the use of a parameterization of the control input sequences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Colin, Guillaume. „Contrôle des systèmes rapides non linéaires - Application au moteur à allumage commandé turbocompressé à distribution variable“. Phd thesis, Université d'Orléans, 2006. http://tel.archives-ouvertes.fr/tel-00110228.

Der volle Inhalt der Quelle
Annotation:
Le contrôle des moteurs à allumage commandé est devenu capital pour satisfaire la législation sur les émissions polluantes tout en garantissant un bon agrément de conduite et une consommation réduite.

Le downsizing, c'est-à-dire la réduction de la cylindrée du moteur, est une des voies prometteuses pour réduire la consommation de carburant et les émissions de CO2 qui en découlent. Combinant plusieurs technologies existantes telles que la turbocompression et la distribution variable, le downsizing est un exemple typique des problèmes rencontrés dans le contrôle des motorisations : systèmes non linéaires avec saturations d'actionneurs ; nombreuses grandeurs physiques importantes non mesurables ; temps de calcul limité ; objectifs du contrôle (consommation, pollution, performance) souvent concurrents.

Une démarche de modélisation et de contrôle à base de modèle (par modèle interne et prédictif) pour ces systèmes est alors proposée et appliquée au contrôle de la chaîne d'air du moteur à essence à cylindrée réduite. Des estimateurs, physiques et génériques, sont construits pour la masse d'air dans le cylindre, la masse de gaz brûlés résiduels et la masse d'air balayé de l'admission vers l'échappement. L'architecture complète et générique du contrôle en couple pour le moteur à allumage commandé turbocompressé à déphaseurs d'arbre à cames a été testée en simulation puis expérimentalement (sur moteur et véhicule).
Ces essais ont alors montré que de nouvelles possibilités étaient offertes pour diminuer les émissions polluantes et optimiser le rendement du moteur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Murali, madhavan rathai Karthik. „Synthesis and real-time implementation of parameterized NMPC schemes for automotive semi-active suspension systems“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT052.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de la synthèse et de la mise en œuvre en temps réel (RT) de schémas de contrôle prédictif non linéaire paramétré (pNMPC) pour les systèmes de suspension semi-active des automobiles. Le schéma pNMPC est basé sur une technique d'optimisation par simulation en boîte noire. Le point essentiel de la méthode est de paramétrer finement le profil d'entrée et de simuler le système pour chaque entrée paramétrée et d'obtenir la valeur approximative de l'objectif et de la violation des contraintes pour le problème pNMPC. Avec les résultats obtenus de la simulation, l'entrée admissible (si elle existe) ayant la valeur objective minimale ou, à défaut, la valeur de violation de contrainte la plus faible est sélectionnée et injectée dans le système et ceci est répété indéfiniment à chaque période de décision. La méthode a été validée expérimentalement sur dSPACE MicroAutoBoX II (MABXII) et les résultats montrent de bonnes performances de l'approche proposée. La méthode pNMPC a également été étendue à une méthode pNMPC parallélisée et la méthode proposée a été mise en œuvre pour le contrôle du système de suspension semi-active d'un demi-véhicule. Cette méthode a été mise en œuvre grâce à des unités de traitement graphique (GPU) qui servent de plate-forme modèle pour la mise en œuvre d'algorithmes parallèles par le biais de ses processeurs multi-cœurs. De plus, une version stochastique de la méthode pNMPC parallélisée est proposée sous le nom de schéma pNMPC à Scénario-Stochastique (SS-pNMPC). Cette méthode a été mise en œuvre et testée sur plusieurs cartes NVIDIA embarquées pour valider la faisabilité de la méthode proposée pour le contrôle du système de suspension semi-active d'un demi-véhicule. En général, les schémas pNMPC parallélisés offrent de bonnes performances et se prêtent bien à un large espace de paramétrage en entrée. Enfin, la thèse propose un outil logiciel appelé "pNMPC - A code generation software tool for implementation of derivative free pNMPC scheme for embedded control systems". L'outil logiciel de génération de code (S/W) a été programmé en C/C++ et propose également une interface avec MATLAB/Simulink. Le logiciel de génération de code a été testé pour divers exemples, tant en simulation que sur du matériel embarqué en temps réel (MABXII), et les résultats semblent prometteurs et viables pour la mise en œuvre de la RT pour des applications réelles. L'outil de génération de code S/W comprend également une fonction de génération de code GPU pour une mise en œuvre parallèle. Pour conclure, la thèse a été menée dans le cadre du projet EMPHYSIS et les objectifs du projet s'alignent sur cette thèse et les méthodes pNMPC proposées sont compatibles avec la norme eFMI
This thesis discusses the synthesis and real-time (RT) implementation of parameterized Nonlinear Model Predictive Control (pNMPC) schemes for automotive semi-active suspension systems. The pNMPC scheme uses a black-box simulation-based optimization method. The crux of the method is to finitely parameterize the input profile and simulate the system for each parameterized input and obtain the approximate objective and constraint violation value for the pNMPC problem. With the obtained results from the simulation, the input with minimum objective value or the least constraint violation value is selected and injected into the system and this is repeated in a receding horizon fashion. The method was experimentally validated on dSPACE MicroAutoBoX II (MABXII) and the results display good performance of the proposed approach. The pNMPC method was also augmented to parallelized pNMPC and the proposed method was implemented for control of semi-active suspension system for a half car vehicle. This method was implemented by virtue of Graphic Processing Units (GPUs) which serves as a paragon platform for implementation of parallel algorithms through its multi-core processors. Also, a stochastic version of the parallelized pNMPC method is proposed which is termed as Scenario-Stochastic pNMPC (SS-pNMPC) scheme and the method was implemented and tested on several NVIDIA embedded boards to verify and validate the RT feasibility of the proposed method for control of semi-active suspension system for a half car vehicle. In general, the parallelized pNMPC schemes provide good performance and also, fares well for large input parameterization space. Finally, the thesis proposes a software tool termed “pNMPC – A code generation software tool for implementation of derivative free pNMPC scheme for embedded control systems”. The code generation software (S/W) tool was programmed in C/C++ and also, provides interface to MATLAB/Simulink. The S/W tested for variety of examples both in simulation as well as on RT embedded hardware (MABXII) and the results looks promising and viable for RT implementation for real world applications. The code generation S/W tool also includes GPU code generation feature for parallel implementation. To conclude, the thesis was conducted under the purview of the EMPHYSIS project and the goals of the project align with this thesis and the proposed pNMPC methods are amenable with eFMI standard
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Elgharib, Ahmed Omar Ahmed. „Différentes stratégies de contrôle pour le système d'éolienne connecté PMSG“. Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0647.

Der volle Inhalt der Quelle
Annotation:
L'énergie éolienne est l'une des sources d'énergie renouvelables les plus attrayantes et prometteuses. Celle-ci offre un excellent substitut à la production d'énergie électrique traditionnelle. Les éoliennes basées sur un PMSG sont les mieux adaptées aux applications autonomes en raison de leur fiabilité et de leur haute efficacité. L'énergie éolienne a continué à jouer un rôle important et peut être considérée comme la source d'énergie renouvelable la plus déployée. Ce travail de recherche propose quelques méthodes de contrôle efficaces associées au contrôle de l'énergie éolienne. Il porte principalement sur le réajustement de certaines approches de contrôle disponibles, comme l'amélioration du NSSFC et du NDSFC, afin d'augmenter les performances du contrôleur pour un tel système. En parallèle, ce travail traite le contrôleur NPIC qui a été ajouté au système en présentant une technique de contrôle sans capteur d'une éolienne PMSG à entraînement direct. Ensuite, le contrôleur PI est étudié dans ce travail en intégrant un algorithme génétique qui a un impact significatif sur l'efficacité et l'exécution des applications éoliennes et de leur système entier. Le MPC est le dernier contrôleur qui a été exploré avec ses résultats de simulation pour le système. Tous ces contrôleurs utilisent PMSG. Plusieurs tests expérimentaux ont été appliqués à une grande variété de configurations, afin de valider les résultats de simulation obtenus. Cette thèse de recherche servira comme référence pour les études futures sur le contrôle des systèmes d'éoliennes
Renewable energy is considered as a viable alternative to conventional fossil fuel generators globally. One of the appealing and promising renewable energy sources is wind energy. This renewable energy source offers an excellent substitute for the generation of traditional electricity. Wind turbines based on PMSG are best suited for stand-alone applications due to their reliability. This research work proposes some efficient control methods associated with wind energy control. It is focused more on the readjustment of some available control approaches as the improvement of NSSFC (nonlinear static state feedback controller) and NDSFC (nonlinear dynamic state feedback controller) to increase the controller performance for such a system. In sequence with that, this work moves forward to another controller(NPIC) which has been added to this system by presenting a sensor-less control technique of direct driven PMSG wind turbine. Afterwards, PI Controller is studied in this work by integrating genetic algorithm that has significant impact on the efficiency and execution of wind turbine applications and their whole system. Model predictive control (MPC) is thelast controller that has been explored. All of these controllers are using PMSG, discussed under different operating ranges of wind speed. Several experimental tests were applied to wide variety of configurations in order to validate the simulation results produced. This research aims to serve as a detailed reference for future studies on the control of wind turbine systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Chabert, Isabelle. „Développement et validation d’un modèle de sources virtuelles adapté à la prédiction d’images EPID pour le contrôle qualité des traitements de RCMI“. Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112016/document.

Der volle Inhalt der Quelle
Annotation:
L’essor des nouvelles techniques de traitement en radiothérapie externe a rendu nécessaire la mise en place de nouveaux contrôles qualité (CQ). Il est en effet capital de s’assurer que la dose délivrée au patient est bien conforme à celle qui lui a été prescrite. Les détecteurs EPID, initialement utilisés pour contrôler l’exactitude du positionnement du patient, sont de plus en plus employés pour vérifier la conformité du traitement. L’image qu’ils enregistrent au cours d’une irradiation peut par exemple être comparée à une image de référence, qui correspond à ce qui aurait été mesuré si le traitement s’était déroulé dans les conditions de sa planification. Le succès de ce CQ repose (1) sur la précision avec laquelle on peut prédire l’image EPID (ou portale) de référence et (2) sur les performances de l’outil de comparaison d’image utilisé. Nous avons étudié au cours de cette thèse ces deux points clés. Nous nous sommes tout d’abord tournés vers une méthode de prédiction d’images EPID haute résolution basée sur le couplage de simulations Monte-Carlo (MC) et de la technique de débruitage DGPLM. Pour la mettre en œuvre, nous avons modélisé un accélérateur linéaire d’électrons à usage médical (linac) dans le code MC PENELOPE et optimisé les paramètres de sa source d’électrons primaires pour des calculs de dose dans l’eau. L’analyse d’un fichier d’espace des phases (PSF) de 71 Go stocké sous le cône égalisateur nous a ensuite permis de développer un modèle de sources virtuelles (MSV) représenté par des histogrammes corrélés (environ 200 Mo). Ce nouveau MSV, plus compact que le PSF, est tout aussi précis pour les calculs de dose dans l’eau si son maillage est déterminé selon une méthode adaptative. La modélisation du détecteur EPID dans PENELOPE suggère que les hypothèses faites sur les propriétés de la tâche focale du linac sont trop simplistes et doivent être reconsidérées. L’évaluation du MSV pour la prédiction d’images EPID haute résolution a quant à elle conduit à d’excellents résultats. Une fois la chaine de prédiction de l’image portale de référence validée, nous l’avons utilisée pour détecter des irrégularités dans les traitements de RCMI. Dans une étude préliminaire, nous avons volontairement introduit des erreurs de traitement dans le calcul d’images EPID (dérive du faisceau d’irradiation, modification de la morphologie ou de la position du patient). Le γ-index traditionnellement utilisé en routine s’est avéré moins performant que le χ-index pour les détecter. Une étude plus approfondie aura pour objet de déterminer des seuils de détection d’erreurs en fonction de leur nature et d’éprouver les performances d’autres tests
Advanced techniques used in radiotherapy for cancer treatment, such as Intensity-Modulated Radiation Therapy (IMRT), require extensive verification procedures to ensure the correct dose delivery. Electronic Portal Imaging Devices (EPIDs) are widely used for quality assurance in radiotherapy, and also for dosimetric verifications. For this latter application, the images obtained during the treatment session can be compared to a pre-calculated reference image in order to highlight dose delivery errors. The quality control performance depends (1) on the accuracy of the pre-calculated reference image (2) on the ability of the tool used to compare images to detect errors. These two key points were studied during this PhD work. We chose to use a Monte Carlo (MC)-based method developed in the laboratory and based on the DPGLM (Dirichlet process generalized linear model) denoising technique to predict high-resolution reference images. A model of the studied linear accelerator (linac Synergy, Elekta, Crawley, UK) was first developed using the PENELOPE MC codes, and then commissioned using measurements acquired in the Hôpital Nord of Marseille. A 71 Go phase space file (PSF) stored under the flattening filter was then analyzed to build a new kind of virtual source model based on correlated histograms (200 Mo). This new and compact VSM is as much accurate as the PSF to calculate dose distributions in water if histogram sampling is based on adaptive method. The associated EPID modelling in PENELOPE suggests that hypothesis about linac primary source were too simple and should be reconsidered. The use of the VSM to predict high-resolution portal images however led to excellent results. The VSM associated to the linac and EPID MC models were used to detect errors in IMRT treatment plans. A preliminary study was conducted introducing on purpose treatment errors in portal image calculations (primary source parameters, phantom position and morphology changes). The γ-index commonly used in clinical routine appears to be less effective than the χ-index. A future in-depth study will be dedicated to determine error detection threshold according to their nature and to evaluate other comparison test robustness. The developed portal image prediction method associated to robust analysis tools will then constitute an adapted way to assure treatment quality control
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Li, Zhongmou. „Theoretical developments and experimental evaluation of a novel collaborative multi-drones grasping and manipulation system Zof large objects“. Thesis, Ecole centrale de Nantes, 2021. http://www.theses.fr/2021ECDN0019.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose un nouveau concept de robot de manipulation aérienne appelé Flying Gripper. Ce robot est un manipulateur aérien, destiné à la saisie, la manipulation et le transport de grands objets de manière autonome. Le robot Flying Gripper est composé de quatre quadrotors, de quatre doigts auto-adaptatifs et d'un châssis. Les principaux apports de ces travaux sont: (1) un concept mécanique original reposant sur l'utilisation de plusieurs quadrotors et tirant parti de la rotation en lacet des quadrotors pour actionner un mécanisme de préhension auto-adaptatif et intrinsèquement sûr (2) une méthode pour analyser des torseurs disponibles en tenant compte des contraintes d'égalité et d'inégalité imposées par les limites d'actionnement, les butées mécaniques et les relations d'équilibre; (3) une commande prédictive permettant de manipuler l'objet saisie avec une masse, des inerties et un centre de masse inconnus; (4) un algorithme d'allocation de contrôle dynamique pour la distribution de l'effort de contrôle, de manière à optimiser l'efficacité énergétique et à assurer la continuité de la commande, en considérant les limites mécaniques du robot.Des simulations numériques et des tests expérimentaux ont été effectués pour valider les performances du contrôleur
This thesis proposes a new concept of aerial manipulation robot named Flying Gripper that is intended to perform grasping, manipulating, and transporting of large objects autonomously. The Flying Gripper robot is composed of four quadrotors, four self-adaptive fingers and a body structure. The main contributions of these works are: (1) an original mechanical concept using multiple quadrotors to obtain full manipulability in SE(3) and taking advantage of their yaw rotations to actuate a self-adaptive and intrinsically safe grasping mechanism; (2) a wrench capability analysis method taking into account the equality and inequality constraints imposed by actuation limits, mechanical stops and equilibrium relations; (3) a model predictive controller to deal with unknown mass, inertia and center of mass due to the grasped object; (4) a Dynamic Control Allocation algorithm to distribute the control output in a way that guarantees the continuity of actuator's velocity, improves the energy efficiency and satisfies the robot mechanical limits.Numerical simulations and experimental tests have been carried out to validate the controller performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Burnol, Stéphane. „Modèle prédictif d'évolution des Accidents Vasculaires Cérébraux“. Thesis, Saint-Etienne, 2010. http://www.theses.fr/2010STET005T.

Der volle Inhalt der Quelle
Annotation:
Les lésions résultantes d’un Accident Ischémique Cérébral (AIC) restent invisibles pendant plusieurs heures voire dizaines d’heures sur les techniques conventionnelles d’imagerie médicale (scanner X ou IRM). De nouvelles séquences d’IRM (pondérées en diffusion et en perfusion) permettent de visualiser les atteintes immédiatement. Les images de diffusion et de perfusion sont le reflet de mécanismes physiopathologiques complexes et contiennent aussi des informations sur le devenir tissulaire. Un modèle probabiliste d’évolution des lésions visibles au stade précoce a été développé de manière à prédire les extensions et rétrécissements des dommages. Le résultat se présente sous la forme d’une cartographie probabiliste de nécrose où la valeur de chaque voxel de l’image représente le risque de mort cellulaire au stade chronique. Cette cartographie pourra être, ensuite, prise en compte dans la décision thérapeutique. Deux types d’approche ont été mises en place : une méthode de segmentation, permettant d’extraire les régions à risque, et une méthode de prédiction des voxels à risque de nécrose, de type régression logistique. Ces modèles fournissent des performances similaires par rapport aux quelques modèles décrits dans la littérature, mais sont plus performants sur les petites lésions et présentent une grande amélioration en raison de leur caractère entièrement automatique
The lesions resulting from an ischemic stroke remain invisible for several hours or even tens of hours on conventional techniques of medical imaging (CT scan or MRI). New MRI sequences (diffusion-weighted and perfusion-weighted images) reveal the damages immediately. The diffusion and perfusion images reflect complex pathophysiological mechanisms and also contain some information on the fate of the tissue. A probabilistic model of evolution of the lesions visible at an early stage was set up so as to predict expansions and contractions of the damages. The result is presented as a probabilistic mapping of necrosis where the value of each voxel of the image represents the risk of cellular death in the chronic phase. This mapping can then be taken into account in the therapeutic decision. We implemented two types of approach: a segmentation method, allowing extracting regions atrisk, and a prediction method, type of logistic regression, to predict voxels at risk of necrosis. These models provide similar performances with regard to the few models described in the literature, but are more efficient for small lesions and show a big improvement because they are fully automatic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Patel, Raj Haresh. „Autonomous cars' coordination among legacy vehicles applied to safe braking“. Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS468.

Der volle Inhalt der Quelle
Annotation:
Le comportement d'un véhicule autonome peut être affecté par divers facteurs internes tels que défaillance du système de bord, capteur, etc., ou par des facteurs externes tels que manœuvres risquées de la part de voisins immédiats menaçant une collision, des changements brusques de l'état des routes, etc. Cela peut entraîner une défaillance de la manœuvre de coordination, telle que le croisement de plusieurs véhicules à une intersection. Dans de telles situations, lorsque les conditions changent de manière dynamique et que la condition de fonctionnement nominale est violée par des influences internes ou externes, un véhicule autonome doit avoir la capacité d'atteindre la condition de risque minimal. Arrêter le véhicule est l’un des moyens d’atteindre un niveau de risque minimal. La thèse introduit un algorithme d'arrêt sécurisé qui génère des commandes pour véhicules autonomes en tenant compte de la présence de véhicules traditionnels. Un algorithme basé sur un modèle de contrôle prédictif est proposé, qui résiste aux erreurs provenant de la communication, la localisation, la mise en œuvre du contrôle et à la disparité des modèles. Les collisions évitées et la gêne ressentie par le conducteur sont deux paramètres d'évaluation. Les simulations montrent que le contrôleur robuste sous l'influence d'erreurs peut fonctionner aussi bien que le contrôleur non-robuste en l'absence d'erreurs
The behaviour of an autonomous vehicle can be impacted by various internal factors like onboard system failure, sensor failure, etc. or by external factors like risky maneuvers by immediate neighbors threatening a collision, sudden change in road conditions, etc. This can result in a failure of coordination maneuver like multi-vehicle intersection clearance. In such situations when conditions dynamically change and the nominal operational condition is violated by internal or external influences, an autonomous vehicle must have the capability to reach the minimal risk condition. Bringing the vehicle to a halt is one of the ways to achieve minimal risk condition. This thesis introduces a safe stop algorithm which generates controls for multiple autonomous vehicles considering the presence of legacy manually driven vehicles on the road. A Model Predictive Control based algorithm is proposed which is robust to errors in communication, localization, control implementation, and model mismatch. Collisions avoided and discomfort faced by the driver are two evaluation parameters. Simulations show that the robust controller under the influence of errors can perform as well as the non-robust controller in the absence of these errors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Polack, Philip. „Cohérence et stabilité des systèmes hiérarchiques de planification et de contrôle pour la conduite automatisée“. Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM025/document.

Der volle Inhalt der Quelle
Annotation:
La voiture autonome pourrait réduire le nombre de morts et de blessés sur les routes tout en améliorant l'efficacité du trafic. Cependant, afin d'assurer leur déploiement en masse sur les routes ouvertes au public, leur sécurité doit être garantie en toutes circonstances. Cette thèse traite de l'architecture de planification et de contrôle pour la conduite automatisée et défend l'idée que l'intention du véhicule doit correspondre aux actions réalisées afin de garantir la sécurité à tout moment. Pour cela, la faisabilité cinématique et dynamique de la trajectoire de référence doit être assurée. Sinon, le contrôleur, aveugle aux obstacles, n'est pas capable de la suivre, entraînant un danger pour la voiture elle-même et les autres usagers de la route. L'architecture proposée repose sur la commande à modèle prédictif fondée sur un modèle bicyclette cinématique afin de planifier des trajectoires de référence sûres. La faisabilité de la trajectoire de référence est assurée en ajoutant une contrainte dynamique sur l'angle au volant, contrainte issue de ces travaux, afin d'assurer que le modèle bicyclette cinématique reste valide. Plusieurs contrôleurs à haute-fréquence sont ensuite comparés afin de souligner leurs avantages et inconvénients. Enfin, quelques résultats préliminaires sur les contrôleurs à base de commande sans modèle et leur application au contrôle automobile sont présentés. En particulier, une méthode efficace pour ajuster les paramètres est proposée et implémentée avec succès sur la voiture expérimentale de l'ENSIAME en partenariat avec le laboratoire LAMIH de Valenciennes
Autonomous vehicles are believed to reduce the number of deaths and casualties on the roads while improving the traffic efficiency. However, before their mass deployment on open public roads, their safety must be guaranteed at all time.Therefore, this thesis deals with the motion planning and control architecture for autonomous vehicles and claims that the intention of the vehicle must match with its actual actions. For that purpose, the kinematic and dynamic feasibility of the reference trajectory should be ensured. Otherwise, the controller which is blind to obstacles is unable to track it, setting the ego-vehicle and other traffic participants in jeopardy. The proposed architecture uses Model Predictive Control based on a kinematic bicycle model for planning safe reference trajectories. Its feasibility is ensured by adding a dynamic constraint on the steering angle which has been derived in this work in order to ensure the validity of the kinematic bicycle model. Several high-frequency controllers are then compared and their assets and drawbacks are highlighted. Finally, some preliminary work on model-free controllers and their application to automotive control are presented. In particular, an efficient tuning method is proposed and implemented successfully on the experimental vehicle of ENSIAME in collaboration with the laboratory LAMIH of Valenciennes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Guenot, Sophie. „Développement d’un modèle prédictif de l’énantiosélectivité des lipases“. Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000347/.

Der volle Inhalt der Quelle
Annotation:
L’étude a porté sur le développement d’un modèle prédictif de l’énantiopréférence de la lipase de Burkholderia cepacia ATCC 21808 et plus particulièrement sur la relation pouvant exister entre l’accessibilité au site actif des énantiomères dérivés du (R,S)-alpha-bromo-phényl acétate d’éthyle et l’énantiosélectivité. Une approche mixte, couplant des techniques de modélisation moléculaire classiques à de nouvelles techniques algorithmiques de planification de mouvements issues de la robotique, a été utilisée pour modéliser les trajectoires de différents esters dérivés de l’alpha-bromo-phényl acétate d’éthyle. Les résultats obtenus in silico ont montré que les recherches de trajectoires sont plus rapides avec l’énantiomère (R) qu’avec l’énantiomère (S) pour 7 substrats synthétisés par voie chimique. De manière qualitative, ces résultats corrèlent avec l’énantiosélectivité de l’enzyme, obtenue expérimentalement, indiquant que celle-ci pourrait être associée à une plus ou moins grande difficulté d’accès. De plus, l’analyse des trajectoires a permis d’identifier des cibles privilégiées de mutagénèse (points de collision fréquemment rencontrés pour tous les substrats) parmi lesquels trois positions ont été retenues : Leu-17, Val-266 et Leu-287. Afin de générer et caractériser ces mutants ponctuels, un système d’expression recombinante de la lipase de B. Cepacia chez E. Coli et un protocole de purification par chromatographie d’affinité ont été développés. Les gènes lip et hp codant respectivement pour la lipase et sa protéine chaperonne ont été clonés dans différents vecteurs d’expression sous le contrôle de différents promoteurs. Le plus haut niveau d’activité lipase sous forme soluble jamais décrit dans la littérature concernant cette enzyme a été obtenu en utilisant le vecteur pFLAG-ATS sous le contrôle du promoteur tac (6679 U/Lculture). Les mutants ponctuels ont été construits par mutagénèse dirigée en remplaçant chaque position par les 19 autres acides aminés possibles. Les mutants V266, présentant les plus hautes activités lipase lors d’un crible au para-nitrophényl butyrate, ont été sélectionnés dans un premier temps afin de mesurer leurs énantiosélectivités lors de l’hydrolyse de l’α-bromo phényl acétate de 2-chloro éthyle. Parmi ces mutants, le V266G, présente une inversion d’énantiosélectivité en faveur de l’énantiomère (S) (E=18). L’absence de chaîne latérale de la glycine diminue l’encombrement stérique au niveau de la position 266 permettant ainsi à l’énantiomère (S) soit d’accéder plus facilement au site catalytique, soit de mieux se positionner pour former l’intermédiaire tétraédrique. En parallèle, un protocole de production de la lipase de B. Cepacia à l’échelle microplaque a été développé et validé sur la banque de mutants V266, afin de disposer, à terme, d’un outil de criblage pour de plus larges banques de mutants créées par évolution dirigée
The study focused on the development of a predictive model of Burkholderia cepacia ATCC 21808 lipase enantioselectivity and more specifically on the relationship that may exist between enantioselectivity and the accessibility to the active site of (R/S)-alpha-bromo phenyl acetic acid ethyl ester derivatives. A mixed approach, combining molecular modelling techniques and path planning algorithms issued from robotics research, was used to compute the geometrically allowed trajectories of various alpha-bromo phenyl acetic acid ethyl ester derivatives. In silico results indicated that the pathways are computed faster for the (R) enantiomer than the (S) enantiomer for 7 substrates synthesized by chemical synthesis. These results are in qualitative agreement with the enzyme enantioselectivity experimentally determined, indicating that enantioselectivity could be associated with a greater or lesser difficulty of access. In addition, the analysis of trajectories allowed to identify targets for mutagenesis (collision points frequently encountered for all substrates), amongst which three positions were selected: Leu-17, Val-266 and Leu-287. In order to generate and characterize these rational mutants, a recombinant expression system of B. Cepacia lipase in E. Coli and a purification protocol by affinity chromatography have been developed. Genes lip and hp encoding respectively for the lipase and its chaperone protein were cloned in different expression vectors under the control of different promoters. The highest level of lipase activity in soluble form ever described in the literature for this enzyme was obtained by using the vector pFLAG-ATS under the control of the tac promoter (6679 U / Lculture). Rational mutants were constructed by site-directed mutagenesis by replacing each position by the 19 other possible amino acids. Mutants V266, displaying the highest lipase activities in screening with para-nitrophenyl butyrate, were selected to measure their enantioselectivity during hydrolysis of the (R,S)- a-bromo phenyl acetic acid 2-chloro ethyl ester. Among these mutants, V266G displayed an inverted enantioselectivity in favour of the (S)-enantiomer (E=18). The absence of side chain in glycine decreases the steric hindrance at position 266, allowing thus the (S)-enantiomer to (a) access more easily to the catalytic site or (b) adopt a more easily productive conformation in order to form the tetrahedral intermediate. In parallel, a protocol for the production of B. Cepacia lipase at microplate scale has been developed and validated on the library of V266 mutants, in order to dispose of a screening tool for larger mutants libraries created by directed evolution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Afsi, Nawel. „Contrôle des procédés représentés par des équations aux dérivées partielles“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1033.

Der volle Inhalt der Quelle
Annotation:
L’objectif de ce travail est le contrôle des procédés représentés par des équations aux dérivées partielles. Deux procédés ont été considérés. Le premier procédé est un procédé de cristallisation en batch. L’objectif du contrôle est la génération d’une distribution des tailles de cristaux (DTC) ayant une taille moyenne adéquate. Tout d’abord, nous avons utilisé observateur à grand gain en cascade pour estimer cette taille moyenne en utilisant que la température du cristallisoir et la concentration du soluté. Ensuite, différents scénarios ont été testés afin de comparer les performances des différentes structures de la commande sans modèle. Le deuxième procédétraité est un procédé de polymérisation par ouverture de cycle du lactide. Cette réaction est très sensible aux impuretés. Alors, deux stratégies de contrôle ont été proposé afin de rétablir les conditions nominales en cas de dérive qui sont l’optimisation dynamique et la commande prédictive
This work aims to control the processes represented by partial differential equations. Two processes were considered. The first process is a batch crystallization process. The aim of the control is to generate a crystal size distribution (CSD) with an appropriate mean size. First, we used a high gain cascade observer to estimate this average size using only the crystallizer temperature and solute concentration. Then, different scenarios were tested to compare the performance of the different structures of the control system without a model. The second process treated is a lactide polymerization process. This reaction is very sensitive to impurities. So, two control strategies were proposed to restore the nominal conditions in case of drift, which are the dynamic optimization and predictive control
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Da, Silva Bruno. „Contribution au contrôle de la distribution de la taille des particules lors d'un procédé de polymérisation en émulsion“. Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00347760.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de ce travail a été de développer des solutions pour le contrôle de la distribution de la taille des particules (DTP) lors d'un procédé de polymérisation en émulsion. La DTP affecte les propriétés rhéologiques, et optiques du polymère ou encore sa stabilité. Pour ces raisons la DTP apparaît comme une caractéristique importante à contrôler. Le modèle décrivant l'évolution de la DTP est régi par des équations aux dérivées partielles (EDP) non linéaires. L'étude numérique du modèle a permis de dresser un modèle de commande. Deux types de stratégie de commande prédictive par modèle interne ont été définis, l'une basée sur un modèle de commande non linéaire et l'autre basée sur un modèle linéaire temps variant. La DTP étant difficilement mesurable en ligne, notre choix s'est porté vers d'autres mesures, les concentrations de tensioactif libre et de monomère. Il a été possible de définir des profils de concentration afin d'obtenir un produit final avec une DTP spécifique. Les résultats de simulations ont montré la faisabilité de cette approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Litalien, David. „Persévérance aux études de doctorat (Ph.D.) : Modèle prédictif des intentions d'abandon“. Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30573/30573.pdf.

Der volle Inhalt der Quelle
Annotation:
Malgré une importante augmentation des effectifs universitaires de 3e cycle dans la plupart des pays de l’OCDE, les taux de diplomation demeurent faibles, estimés entre 40 et 60% pour les canadiens et les américains. À notre connaissance, les recherches qui portent attention à la persévérance aux études de doctorat sont insuffisantes et les modèles théoriques proposés pour étudier ce phénomène sont difficiles à opérationnaliser et par conséquent ont fait l’objet de très peu d’études empiriques. S’appuyant sur la théorie de l’autodétermination (Deci & Ryan, 1985, 2012a, 2012b), cette thèse a pour objectif général d’offrir une meilleure compréhension de la persévérance aux études de doctorat. Celle-ci comporte deux articles. Le premier article vise l’élaboration et la validation de l’Échelle de motivation aux études de doctorat, qui évalue cinq types de motivation (intrinsèque, intégrée, identifiée, introjectée et externe). Les résultats des deux études (N = 244 et N = 1061) soutiennent la structure factorielle de l'échelle, sa fidélité et sa validité convergente et discriminante. Le deuxième article a pour objectif l’élaboration et la validation d’un modèle des intentions d’abandonner les études de doctorat. Le modèle postule que la perception de compétence diminue les intentions d'abandon. Pour sa part, la perception de compétence est expliquée par les motivations autodéterminée et contrôlée qui, en retour, sont prédites par le soutien offert par le directeur de recherche, le corps professoral et les autres étudiants de cycles supérieurs en ce qui a trait aux besoin psychologiques de l’étudiant. Deux études ont été réalisées dans cet article : 1) une étude rétrospective comparative entre des étudiants non persévérants et des étudiants diplômés (N = 422) et 2) une étude prospective évaluant les intentions d’abandon chez des étudiants inscrits sur deux sessions et (N = 1060). Dans l’ensemble, les résultats des deux études convergent et soutiennent le modèle proposé. Plus précisément, la perception de compétence semble être la pierre angulaire de la persévérance aux études de doctorat, étant prédite par les motivations autodéterminée et contrôlée et le soutien du directeur de recherche. Les implications théoriques, méthodologiques et pratiques sont abordées et des pistes de recherches futures sont proposées.
In most OECD countries, there is a significant increase in doctoral studies enrollment. Nevertheless, completion rates remain low and are estimated between 40 and 60% for Canadians and Americans. To our knowledge, there is a lack of research on doctoral student’s persistence and available theoretical models to comprehend this phenomenon are difficult to operationalize. Based on self-determination theory (Deci & Ryan, 1985, 2012a, 2012b), the purpose of this dissertation is to provide a general understanding of doctoral studies persistence. It includes two articles. The first article aims to develop and validate a scale to assess five types of regulation (intrinsic, integrated, identified, introjected, and external) toward PhD studies. Results of two studies (N = 244 and N = 1061) support the scale’s reliability, factor structure, and convergent and discriminant validity. The purpose of the second article is to develop and validate a predictive model of dropout intentions. This model posits that perceived competence decreases dropout intentions, and that perceived competence is explained by autonomous and controlled regulations, which are in turn predicted by perceived psychological needs support provided by the student’s advisor, faculties as well as other graduate students. A two-step approach was used: 1) a retrospective comparison of completers and noncompleters (N = 422), and 2) a prospective examination of enrolled PhD students over two semesters to assess dropout intentions (N = 1060). Overall, the findings of the two studies are similar and support the proposed model. Specifically, perceived competence appears to be the cornerstone of doctoral studies persistence intentions, and is predicted mainly by autonomous and controlled regulations and advisor support. Theoretical, methodological, and practical implications are discussed and directions for further research are proposed.
Tableau d'honneur de la FÉSP
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Turki, Marwa. „Synthèse de contrôleurs prédictifs auto-adaptatifs pour l'optimisation des performances des systèmes“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR064.

Der volle Inhalt der Quelle
Annotation:
Bien que la commande prédictive fasse appel à des paramètres ayant une signification concrète, la valeur de ces derniers impacte fortement les performances obtenues du système à contrôler. Leur réglage n’étant pas trivial, la littérature fait état d’un nombre conséquent de méthodes de réglage. Celles-ci ne garantissent cependant pas des valeurs optimales. L’objectif de cette thèse est de proposer une approche analytique et originale de réglage de ces paramètres. Initialement applicable aux systèmes MIMO linéaires, l’approche proposée a été étendue aux systèmes non linéaires avec ou sans contraintes et pour lesquels il existe un modèle Takagi-Sugeno (T-S). La classe des systemès non linéaires considérés ici est écrite sous la forme quasi-linéaire paramétrique (quasi-LPV). Sous l’hypothese que le système soit commandable et observable, la méthode proposée garantit la stabilité optimale de ce système en boucle fermée. Pour ce faire, elle s’appuie, d’une part, sur une technique d’amélioration du conditionnement de la matrice hessienne et, d’autre part, sur le concept de rang effectif. Elle présente également l’avantage de requérir une charge calculatoire moindre que celle des approches identifiées dans la littérature. L’intérêt de l’approche proposée est montré à travers l’application en simulation à différents systèmes de complexité croissante. Les travaux menés ont permis d’aboutir à une stratégie de commande prédictive auto-adaptative dénommée "ATSMPC" (Adaptive Takagi-Sugeno Model-based Predictive Control)
Even though predictive control uses concrete parameters, the value of these latter has a strong impact on the obtained performances from the system to be controlled. Their tuning is not trivial. That is why the literature reports a number of adjustment methods. However, these ones do not always guarantee optimal values. The goal of this thesis is to propose an analytical and original tuning tuning approach of these parameters. Initially applicable to linear MIMO systems, the proposed approach has been extended to non-linear systems with or without constraints and for which a Takagi-Sugeno (T-S) model exists. The class of nonlinear systems considered here is written in quasi-linear parametric form (quasi-LPV). Assuming that the system is controllable and observable, the proposed method guarantees the optimal stability of this closed-loop system. To do this, it relies, on the one hand, on a conditioning improving technique of the Hessian matrix and, on the other hand, on the concept of effective rank. It also has the advantage of requiring a lower computational load than the approaches identified in the literature. The interest of the proposed approach is shown through the simulation on different systems of increasingcomplexity. The work carried out has led to a self-adaptive predictive control strategy called "ATSMPC" (Adaptive Takagi-Sugeno Model-based Predictive Control)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Litalien, David. „Persévérance aux études de doctorat (Ph. D.) : modèle prédictif des intentions d'abandon“. Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25099.

Der volle Inhalt der Quelle
Annotation:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014.
Malgré une importante augmentation des effectifs universitaires de 3e cycle dans la plupart des pays de l’OCDE, les taux de diplomation demeurent faibles, estimés entre 40 et 60% pour les canadiens et les américains. À notre connaissance, les recherches qui portent attention à la persévérance aux études de doctorat sont insuffisantes et les modèles théoriques proposés pour étudier ce phénomène sont difficiles à opérationnaliser et par conséquent ont fait l’objet de très peu d’études empiriques. S’appuyant sur la théorie de l’autodétermination (Deci & Ryan, 1985, 2012a, 2012b), cette thèse a pour objectif général d’offrir une meilleure compréhension de la persévérance aux études de doctorat. Celle-ci comporte deux articles. Le premier article vise l’élaboration et la validation de l’Échelle de motivation aux études de doctorat, qui évalue cinq types de motivation (intrinsèque, intégrée, identifiée, introjectée et externe). Les résultats des deux études (N = 244 et N = 1061) soutiennent la structure factorielle de l'échelle, sa fidélité et sa validité convergente et discriminante. Le deuxième article a pour objectif l’élaboration et la validation d’un modèle des intentions d’abandonner les études de doctorat. Le modèle postule que la perception de compétence diminue les intentions d'abandon. Pour sa part, la perception de compétence est expliquée par les motivations autodéterminée et contrôlée qui, en retour, sont prédites par le soutien offert par le directeur de recherche, le corps professoral et les autres étudiants de cycles supérieurs en ce qui a trait aux besoin psychologiques de l’étudiant. Deux études ont été réalisées dans cet article : 1) une étude rétrospective comparative entre des étudiants non persévérants et des étudiants diplômés (N = 422) et 2) une étude prospective évaluant les intentions d’abandon chez des étudiants inscrits sur deux sessions et (N = 1060). Dans l’ensemble, les résultats des deux études convergent et soutiennent le modèle proposé. Plus précisément, la perception de compétence semble être la pierre angulaire de la persévérance aux études de doctorat, étant prédite par les motivations autodéterminée et contrôlée et le soutien du directeur de recherche. Les implications théoriques, méthodologiques et pratiques sont abordées et des pistes de recherches futures sont proposées.
In most OECD countries, there is a significant increase in doctoral studies enrollment. Nevertheless, completion rates remain low and are estimated between 40 and 60% for Canadians and Americans. To our knowledge, there is a lack of research on doctoral student’s persistence and available theoretical models to comprehend this phenomenon are difficult to operationalize. Based on self-determination theory (Deci & Ryan, 1985, 2012a, 2012b), the purpose of this dissertation is to provide a general understanding of doctoral studies persistence. It includes two articles. The first article aims to develop and validate a scale to assess five types of regulation (intrinsic, integrated, identified, introjected, and external) toward PhD studies. Results of two studies (N = 244 and N = 1061) support the scale’s reliability, factor structure, and convergent and discriminant validity. The purpose of the second article is to develop and validate a predictive model of dropout intentions. This model posits that perceived competence decreases dropout intentions, and that perceived competence is explained by autonomous and controlled regulations, which are in turn predicted by perceived psychological needs support provided by the student’s advisor, faculties as well as other graduate students. A two-step approach was used: 1) a retrospective comparison of completers and noncompleters (N = 422), and 2) a prospective examination of enrolled PhD students over two semesters to assess dropout intentions (N = 1060). Overall, the findings of the two studies are similar and support the proposed model. Specifically, perceived competence appears to be the cornerstone of doctoral studies persistence intentions, and is predicted mainly by autonomous and controlled regulations and advisor support. Theoretical, methodological, and practical implications are discussed and directions for further research are proposed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Kovaltchouk, Thibaut. „Contributions à la co-optimisation contrôle-dimensionnement sur cycle de vie sous contrainte réseau des houlogénérateurs directs“. Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0033/document.

Der volle Inhalt der Quelle
Annotation:
Les Energies Marines Renouvelables (EMR) se développent aujourd’hui très vite tant au niveau de la recherche amont que de la R&D, et même des premiers démonstrateurs à la mer. Parmi ces EMR, l'énergie des vagues présente un potentiel particulièrement intéressant. Avec une ressource annuelle brute moyenne estimée à 40 kW/m au large de la côte atlantique, le littoral français est plutôt bien exposé. Mais l’exploitation à grande échelle de cette énergie renouvelable ne sera réalisable et pertinente qu'à condition d'une bonne intégration au réseau électrique (qualité) ainsi que d'une gestion et d'un dimensionnement optimisé au sens du coût sur cycle de vie. Une première solution de génération tout électrique pour un houlogénérateur a d’abord été évaluée dans le cadre de la thèse de Marie RUELLAN menée sur le site de Bretagne du laboratoire SATIE (ENS de Cachan). Ces travaux ont mis en évidence le potentiel de viabilité économique de cette chaîne de conversion et ont permis de poser la question du dimensionnement de l’ensemble convertisseur-machine et de soulever les problèmes associés à la qualité de l’énergie produite. Puis une seconde thèse a été menée par Judicaël AUBRY dans la même équipe de recherche. Elle a consisté, entre autres, en l’étude d’une première solution de traitement des fluctuations de la puissance basée sur un système de stockage par supercondensateurs. Une méthodologie de dimensionnement de l’ensemble convertisseur-machine et de gestion de l’énergie stockée fut également élaborée, mais en découplant le dimensionnement et la gestion de la production d’énergie et de ceux de son système de stockage. Le doctorant devra donc : 1. S’approprier les travaux antérieurs réalisés dans le domaine de la récupération de l’énergie des vagues ainsi que les modèles hydrodynamiques et mécaniques réalisés par notre partenaire : le LHEEA de l’Ecole Centrale de Nantes - 2. Résoudre le problème du couplage entre dimensionnement/gestion de la chaîne de conversion et dimensionnement/gestion du système de stockage. 3. Participer à la réalisation d’un banc test à échelle réduite de la chaine électrique et valider expérimentalement les modèles énergétiques du stockage et des convertisseurs statiques associés - 4. Proposer une méthodologie de dimensionnement de la chaine électrique intégrant le stockage et les lois de contrôle préalablement élaborées 5. Déterminer les gains en termes de capacités de stockage obtenus grâce à la mutualisation de la production (parc de machines) et évaluer l’intérêt d’un stockage centralisé - 6. Analyser l’impact sur le réseau d’une production houlogénérée selon divers scenarii, modèles et outils développés par tous les partenaires dans le cadre du projet QUALIPHE. L’exemple traité sera celui de l’Ile d’Yeu (en collaboration avec le SyDEV
The work of this PhD thesis deals with the minimization of the per-kWh cost of direct-drive wave energy converter, crucial to the economic feasibility of this technology. Despite the simplicity of such a chain (that should provide a better reliability compared to indirect chain), the conversion principle uses an oscillating system (a heaving buoy for example) that induces significant power fluctuations on the production. Without precautions, such fluctuations can lead to: a low global efficiency, an accelerated aging of the fragile electrical components and a failure to respect power quality constraints. To solve these issues, we firstly study the optimization of the direct drive wave energy converter control in order to increase the global energy efficiency (from wave to grid), considering conversion losses and the limit s from the sizing of an electrical chain (maximum force and power). The results point out the effect of the prediction horizon or the mechanical energy into the objective function. Production profiles allow the study of the flicker constraint (due to grid voltage fluctuations) linked notably to the grid characteristics at the connection point. Other models have also been developed to quantify the aging of the most fragile and highly stressed components, namely the energy storage system used for power smoothing (with super capacitors or electrochemical batteries Li-ion) and power semiconductors.Finally, these aging models are used to optimize key design parameters using life-cycle analysis. Moreover, the sizing of the storage system is co-optimized with the smoothing management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Jungman, Elsa. „Développement d'un modèle prédictif de la pénétration percutanée par approches chromatographiques et spectroscopiques“. Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00819391.

Der volle Inhalt der Quelle
Annotation:
Le stratum corneum (SC), couche supérieure de l'épiderme, est composé principalement de cornéocytes entourés d'une matrice lipidique. Cette structure particulière confère au SC son rôle de barrière et protège l'organisme de la perte en eau, de la pénétration de substances exogènes et de l'irradiation ultra-violette (UV). La matrice lipidique du SC est constituée de trois lipides majeurs : les céramides, les acides gras et le cholestérol organisés en phase cristalline. Cette matrice est la principale voie de pénétration des molécules exogènes à travers la peau. L'estimation de l'absorption cutanée pour l'analyse du risque des produits cosmétiques est basée sur les recommandations de l'Organisation de Coopération et de Développement Économiques (OCDE) qui prend en compte les propriétés physicochimiques des molécules i.e. Log Pow (lipophilie) et MW (masse moléculaire). En effet, l'OCDE considère une absorption de 100% pour une molécule ayant une MW inférieure à 500g/mol et un Log Pow compris en -1 et +4. En dehors de ces valeurs, l'OCDE applique une estimation de 10%. Hors, cette estimation est bien souvent loin de la réalité et a besoin d'être affinée. Notre travail s'est focalisé sur le développement d'un critère d'évaluation de la pénétration cutanée afin de moduler les données de l'OCDE par trois approches différentes : chromatographie d'affinité, spectroscopie de fluorescence et microspectroscopie infra-rouge à transformée de Fourier (FTIR) avec une source synchrotron. Etant donné que les propriétés barrières de la peau sont étroitement liées à la composition en céramides du SC, les méthodes développées en chromatographie d'affinité et spectroscopie de fluorescence se sont focalisées sur l'interaction céramide-molécules. Un critère prédictif de la pénétration percutanée a été défini avec chacune de ces méthodes :  et I. La troisième méthodologie a consisté à développer un autre critère (Sindex) par microspectroscopie FTIR avec une source synchrotron. La distribution cutanée des molécules a été suivie sur coupes microtomées de biopsies humaines. A partir de Sindex, une cartographie prédictive de la pénétration percutanée des molécules a été établie. Notre design expérimental comprenait des molécules (filtres UV, conservateurs, actifs cosmétiques) avec des Log Pow et MW variés (cf annexe 1). La pénétration cutanée de ces molécules a été étudiée avec une méthode de référence : cellules de Franz couplées à la chromatographie. Ces données de référence ont servi à valider les modèles et critères prédictifs développés. Ce travail a permis d'explorer de nouvelles pistes pour l'étude prédictive de la pénétration percutanée et de développer ainsi de nouveaux critères. Utilisés en complément des propriétés physicochimiques des molécules, ces nouveaux critères permettent d'affiner l'estimation de la pénétration cutanée de molécules exogènes pour l'analyse du risque.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Raad, Ali. „Modèle prédictif à base d'approches qualitatives pour la contribution à la radiothérapie adaptative“. Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10166.

Der volle Inhalt der Quelle
Annotation:
Le sujet de thèse s’inscrit dans le cadre de la lutte contre le cancer. La radiothérapie externe est une technique de traitement de cibles tumorales par des particules radioactives, sous guidage d’un système d’imagerie. L’efficacité de ce traitement à ciblage macroscopique dépend en partie de l’évolution de la cible biologique au cours du traitement, qui se programme sur plusieurs séances. Dans notre travail, nous nous sommes concentrés sur l’évolution temporelle de la cible biologique séance par séance. Le but est d’estimer l’espace couvert par son mouvement, et permettant de prédire le positionnement futur de la cible et corriger ou adapter le plan de traitement. Notre cible biologique microscopique dans le cas du cancer ORL est décrite par la glande parotide qui est sensible aux radiations. L’objectif est de minimiser l’accessibilité des rayons à cet organe lorsque la cible tumorale se trouve dans sa périphérie. Nous avons proposé deux méthodes de reconstruction en 3D de la parotide, à savoir B-Spline de Bézier bi-cubique et Marching cubes. Une fois la reconstruction est effectuée, le volume de la glande parotide, à chaque session est calculé. Une zone de sécurité autour de la glande parotide a été définie. Enfin, une classification des patients a été réalisée en se basant sur le dosage associé au traitement. A un niveau macroscopique, nous avons développé une approche d'aide à la décision pour affiner la position relative du patient sur la table de traitement. Cette approche est basée sur la modélisation par réseaux de neurones et spécifiquement MLP et RBF. La performance entre ces deux techniques a été analysée, suivant les positionnements géométriques des patients
The thesis subject is defined in the framework of the fight against cancer. External radiation therapy is a technical treatment of tumor targets by radioactive particles, under guidance of an imaging system. The effectiveness of this macroscopic targeting treatment depends in part on the evolution and movement of the biological target during the treatment, which is planned over several sessions. In our work, we focused to the temporal evolution of the biological target session by session. The goal is to estimate the space covered by the target movement in each session, and to predict the future position of the target and thus to correct or adapt the treatment plan. Our microscopic biological target in the case of head and neck cancer is described by the parotid gland which is sensitive to the radiation. The objective is to minimize avoid radiating the parotid, when the tumor is in its periphery. We proposed two 3D reconstruction methods of the parotid, namely B-Spline Bezier bi-cubic and Marching cubes. Once the reconstruction is performed, the volume of the parotid gland, at each session of treatment is calculated. A safety zone around the parotid gland was defined. Finally, a classification of the patients was performed based on the associated dose for the treatment.At a macroscopic level, we have developed a decision-support approach to refine the relative position of the patient on the treatment table. This approach is based on a modeling of Neural Network and especially MLP and RBF. The performance between two neuronal approximation techniques was analyzed, according to the geometrical positioning of patients
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Tissot, Gilles. „Réduction de modèle et contrôle d'écoulements“. Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2284/document.

Der volle Inhalt der Quelle
Annotation:
Le contrôle d'écoulements turbulents est un enjeu majeur en aérodynamique. Cependant, la présence d'un grand nombre de degrés de libertés et d'une dynamique complexe rend délicat la modélisation dynamique de ces écoulements qui est pourtant nécessaire à la conception d'un contrôle efficace. Au cours de cette thèse, différentes directions ont été suivies afin de développer des modèles réduits dans des configurations réalistes d'écoulements et d'utiliser ces modèles pour le contrôle.Premièrement, la décomposition en modes dynamiques (DMD), et certaines de ses variantes, ont été exploitées en tant que base réduite afin d'extraire au mieux le comportement dynamique de l'écoulement. Par la suite, nous nous sommes intéressés à l'assimilation de données 4D-Var qui permet de combiner des informations inhomogènes provenant d'un modèle dynamique, d'observations et de connaissances a priori du système. Nous avons ainsi élaboré des modèles réduits POD et DMD d'un écoulement turbulent autour d'un cylindre à partir de données expérimentales PIV. Finalement, nous avons considéré le contrôle d'écoulement dans un contexte d'interaction fluide/structure. Après avoir montré que les mouvements de solides immergés dans le fluide pouvaient être représentés comme une contrainte supplémentaire dans le modèle réduit, nous avons stabilisé un écoulement de sillage de cylindre par oscillation verticale
Control of turbulent flows is still today a challenge in aerodynamics. Indeed, the presence of a high number of active degrees of freedom and of a complex dynamics leads to the need of strong modelling efforts for an efficient control design. During this PhD, various directions have been followed in order to develop reduced-order models of flows in realistic situations and to use it for control. First, dynamic mode decomposition (DMD), and some of its variants, have been exploited as reduced basis for extracting at best the dynamical behaviour of the flow. Thereafter, we were interested in 4D-variational data assimilation which combines inhomogeneous informations coming from a dynamical model, observations and an a priori knowledge of the system. POD and DMD reduced-order models of a turbulent cylinder wake flow have been successfully derived using data assimilation of PIV measurements. Finally, we considered flow control in a fluid-structure interaction context. After showing that the immersed body motion can be represented as an additional constraint in the reduced-order model, we stabilized a cylinder wake flow by vertical oscillations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Boivin, Eric. „Contrôle coopératif et prédictif d'avions sans pilote en présence d'obstacles ellipsoïdaux statiques et inconnus“. Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25849/25849.pdf.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de ce projet de maîtrise est de développer un algorithme de commande prédictive permettant aux aéronefs sans pilote (UAVs) de se rendre à des cibles immobiles dont les positions sont connues. Il faut toutefois que les aéronefs évitent, en cours de route, des obstacles ellipsoïdaux statiques qui sont détectés par les aéronefs lorsqu'ils en sont assez près. De plus, l'information sur les obstacles détectés doit ^etre transmisse aux autres aéronefs. Pour chacun de ces aéronefs, l'information est reçue seulement s'il est à portée de communication. Il est présumé que chaque aéronef possède un pilote automatique, système de commande à bord, qui le stabilise. Ainsi, l'algorithme doit déterminer les commandes à transmettre au pilote automatique. L'algorithme développé a été testé avec succès en simulation et l'aide d'un système "Hardware-In-the-Loop" (HIL).
The main objective of this master's project is to develop a predictive control algorithm that will allow unmanned aerial vehicles (UAVs) to intercept static targets of known position. UAVs must however avoid static ellipsoidal obstacles detected on-route, when they are in close proximity to the aircrafts. Information on the detected obstacles must also be transmitted to fellow UAVs. Each aircraft can receive information from another aircraft, only if they are in communication range. Moreover, it is assumed that each aircraft is equipped with an autopilot (on-board control device) to stabilize the UAV in-flight. The predictive control algorithm must thus determine the commands to transmit to the autopilot. The developed algorithm was tested in simulation and with a Hardware-In-the-Loop (HIL) system, both of which yielded successful results.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

El, Koujok Mohamed. „Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou“. Phd thesis, Université de Franche-Comté, 2010. http://tel.archives-ouvertes.fr/tel-00542230.

Der volle Inhalt der Quelle
Annotation:
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est dicile de construire un outil de pronostic ecace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-ou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-ou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-ou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la conance au processus de pronostic. Enn, les mécanismes d'évaluation de la abilité d'un bien sont adaptés au cas prédictif an de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Dzeutouo, Zapa Donard. „Développement d’un modèle prédictif de la productivité spatio-temporelle des plants de bleuets sauvages“. Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11331.

Der volle Inhalt der Quelle
Annotation:
En été, la cueillette des bleuets sauvages est une activité de loisir ou une activité génératrice de revenus, qui est très répandue au Saguenay-Lac-Saint-Jean ainsi que dans d’autres régions du Canada. Aucun modèle prédictif validé de présence ou de production en fonction des caractéristiques des peuplements forestiers et des facteurs climatiques n’est disponible actuellement. La présente étude se base sur les données d’une campagne d’échantillonnage en 2016 qui a documenté 13 variables environnementales de 157 sites, pour analyser les liens avec la présence des plants de bleuets sauvages. À l’issue de ces analyses, les variables telles que le type de perturbation, l’âge depuis la dernière perturbation, la densité du couvert forestier, la hauteur du couvert, et le type écologique se sont avérées pertinentes pour prédire le pourcentage de recouvrement en plants de bleuets sauvages. De plus, les données météorologiques de sept stations couvrant la période de 2009 à 2016 ont permis de développer un modèle prédictif de la productivité relative annuelle qui peut servir de modèle d’aide à la décision pour la planification de la cueillette. Les résultats montrent que l’intégration des variables environnementales issues des tests statistiques permet d’augmenter de façon significative la capacité de prédiction du potentiel de présence des plants de bleuets sauvages. Sur les 126 sites retenus pour les analyses, le nouveau modèle qui utilise les variables issues des tests statistiques a prédit avec exactitude le potentiel de présence de 70 sites, contrairement à l’ancien modèle basé sur les connaissances théoriques des experts, qui prédit avec exactitude le potentiel de présence de 46 sites, soit une augmentation de 19 %. De plus, les modalités qui favorisent la présence des plants de bleuets sauvages comme : (1) une faible densité du couvert forestier, (2) une faible hauteur du peuplement, et (3) une perturbation récente due à un feu ou à une coupe forestière, démontrent que le bleuet sauvage n’est pas une plante compétitrice. De plus, le lien établi entre le rendement moyen annuel et les variables climatiques démontrent que la variabilité interannuelle du rendement est étroitement liée à la quantité de neige accumulée pendant la période hivernale, à la température minimale moyenne entre mai et juin et au nombre de jours du mois de juin ou les températures minimales sont négatives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Giraud, Laurent. „Modèle prédictif pour le développement d'un système embarqué de vidange des lubrifiants pour transmission“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0021/NQ48980.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

El, Koujoc Mohamed. „Contribution au pronostic industriel : intégration de la confiance à un modèle prédictif neuro-flou“. Besançon, 2010. http://www.theses.fr/2010BESA2024.

Der volle Inhalt der Quelle
Annotation:
Le pronostic industriel est aujourd'hui reconnu comme un processus clef pour renforcer la sûreté de fonctionnement des matériels tout en réduisant les coûts de maintenance. Cependant, il est difficile de construire un outil de pronostic efficace, prenant en compte l'incertitude inhérente aux processus de défaillance mal appréhendés. L'objet de cette thèse est de proposer un système de pronostic qui, partant des données capteurs, permette de générer les indicateurs utiles à l'optimisation des stratégies de maintenance. Le travail vise en outre à pallier certains problèmes inhérents au manque de connaissance sur les phénomènes de dégradation (quantité de données, expertise dans la construction d'un modèle). Les développements sont fondés sur l'utilisation du système neuro-flou évolutif exTS comme outil permettant de prédire la dégradation d'un bien. Une procédure de sélection automatique des entrées du système prédictif est proposée. L'approche est basée sur le principe de parcimonie. Elle permet de déterminer la structure du réseau neuro-flou en regard d'exigences de performance de prédiction. Une méthode d'estimation a priori de la distribution des erreurs de prédiction du système neuro-flou, ainsi que de propagation de cette erreur pour tout horizon est ensuite proposée et illustrée. Cette contribution permet d'intégrer la confiance au processus de pronostic. Enfin, les mécanismes d'évaluation de la fiabilité d'un bien sont adaptés au cas prédictif afin de générer les métriques de pronostic permettant d'optimiser les stratégies de maintenance, notamment le temps résiduel avant défaillance (Remaining Useful Life - RUL)
Industrial prognostic is nowadays recognized as a key feature to reinforce the dependability of equipments while reducing maintenance costs. However, it can be dfficult to implement an efficient prognostic tool since the lack of knowledge on the behaviour of an equipment can impede the development of classical dependability analysis. In this context, the general purpose of the work is to propose a prognostic system that starts from monitoring data and goes through useful indicators to optimize maintenance strategies. The work also aims at mitigating some problems that follow from the lack of knowledge on the degradation phenomena (amount of data, expertise in building a model). Developments are based on the use of the neuro-fuzzy system exTS as a tool to predict the state of degradation of an equipment. Its structure is partially determined, on one side, thanks to its evolving capability, and on the other side, thanks to parsimony principle : a procedure to automatically generate an accurate exTS prediction system that reaches a compromise between complexity and generalization capability is proposed. Following that, a method to firstly, a priori estimate the probability density function (pdf) of the error of prediction of the neuro-fuzzy system, and secondly propagate it to any prediction step, is also proposed and illustrated. This contribution enables to provide a confidence measure on predictions and thereby to integrate uncertainty to the prognostic process. Finally, mechanisms of reliability evaluation are adapted to the predictive case in order to generate the prognostic metrics that allows optimizing maintenance strategies, notably the Remaining Useful Life (RUL)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Descoins, Médéric [François]. „Etude du contrôle prédictif de la force de préhension lors de la manipulation rythmique d'objet“. Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX22033.

Der volle Inhalt der Quelle
Annotation:
Durant la manipulation d’objet, la force de préhension doit contrebalancer la charge de l’objet qui résulte en partie du mouvement pour éviter que l’objet ne glisse. Les études comportementales portant sur le contrôle de la force de préhension lors de mouvements volontaires ont mis en évidence un mode de contrôle prédictif permettant de moduler en parallèle la force de préhension aux variations de charge sur l’objet. L’objectif de nos travaux de doctorat était de préciser les processus permettant le couplage entre les mouvements du bras (générant la charge sur l’objet) et la force de préhension lors de la manipulation rythmique d’objet. Dans les expériences 1 et 2, cela a été réalisé chez l’Homme sain, jeune et âgé. En dissociant les forces s’appliquant sur le bras et sur l’objet, nous avons pu montrer que le système nerveux central utilise des représentations distinctes des forces s’appliquant sur le bras et sur l’objet pour prédire les variations de charge sur l’objet. Quand la charge sur l’objet varie à deux fois la fréquence du mouvement, le couplage entre la force de préhension et la charge sur l’objet est altéré chez les sujets jeunes et plus encore chez les sujets âgés. La dernière contribution de notre travail (étude 3) s’est focalisée sur l’effet de la fréquence du mouvement, et sur celui du ratio entre la fréquence du mouvement et la charge sur l’objet. Nos résultats montrent que lorsque ce ratio vaut 2, l’augmentation de la fréquence du mouvement altére significativement le couplage entre la force de préhension et la charge sur l’objet, au contraire des conditions où le ratio vaut 1. Ces derniers résultats sont discutés dans le cadre de l’approche dynamique des coordinations
During object manipulation, grip force must overcome the external load force that threaten grasp stability. Behavorial studies have revealed that grip force, during volontary movement, involves predictive control. Grip force is regulated in parallel or slighttly ahead of load force variations. This thesis investigates the neural processes engaged in the coupling between arm movement (generating the load force on the object) and grip force during rhythmic object manipulation. In experiments 1 and 2, we showed in young and elderly healthy adults, that the central nervous system uses distinct representations of the external force applied on the arm and on the object to predict load force variations. In external force fields in which load force varies at twice the frequency of movement (coordination 1 /2), the grip/load force coupling was altered in all subjects and especially in the elderly one. The last experiment focussed on the effects of the movement frequency and on the ratio between movement frequency and load force frequency (1/1 and 1/2 coordination). Interestingly the grip/load force coupling was significantly altered by movement frequency in the 1/2 coordination mode, but was not the case in the 1/1 coordination mode. Those last results are discussed in the context of coordination dynamic approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Touzeau, Suzanne. „Modèle de contrôle en gestion des pêches“. Nice, 1997. http://www.theses.fr/1997NICE5051.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est d'appliquer des outils issus de l'automatique pour résoudre des problèmes associes a la gestion de pêcherie. Elle s'articule selon deux axes: la modélisation et le contrôle. Nous avons établi et étudié un modèle de population halieutique structure en stades. L'accent a été mis sur le bouclage d'un tel modèle, de la reproduction au recrutement dans la phase exploitable. Ce bouclage est réalisé soit explicitement, en modélisant la ponte et le développement des pré-recrutes ; soit grâce a une fonction non autonome très générale entre le stock fécond et le recrutement. Nous avons montré que ces deux approches permettent des comportements plus riches que l'utilisation de relations stock-recrutement classiques. En outre, une étude de stabilité de ces modèles a été menée, par des méthodes issues des systèmes coopératifs et grâce au critère du cercle. Par ailleurs, un système de pêcherie plus complet est présent, sous forme d'un modèle fonctionnel décrivant les étapes intervenant de l'élaboration des stratégies de gestion aux captures. Un modèle global a été retenu pour mener une étude de régulation d'un stock exploite. Nous avons cherché a contrôler la pêche, de manière a réduire les fluctuations de la capture et de l'effort de pêche. Ainsi, on garantit aux pêcheurs des revenus et des couts relativement stables. Deux techniques sont employées: le contrôle optimal pour dégager des tendances sur un stock précis, le flétan du pacifique ; l'approche par domaine invariant, plus robuste et permettant de déterminer des stratégies de gestion admissibles, selon l'état de la pêcherie. Pour plus de vraisemblance, le comportement du pêcheur, dicte par des contraintes de rentabilité, est pris en compte dans la modélisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Zhang, Fan. „Développement d’un dispositif expérimental original et d’un modèle prédictif pour l’étude thermodynamique des composés soufrés“. Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0069.

Der volle Inhalt der Quelle
Annotation:
Les composés soufrés sont répandus dans divers secteurs industriels comme la chimie. La conception et/ou l'optimisation des procédés impliquant ces composés nécessite de connaître leurs propriétés thermodynamiques (corps purs et mélanges). Etant donnée la complexité des mélanges et pour des raisons économiques, des modèles thermodynamiques « prédictifs » sont souvent privilégiés. Le développement et la validation de ces modèles nécessitent des données expérimentales. Notre étude bibliographique ciblant les sulfures (R-S-R'), les 1-mercaptans (R-SH) et leurs éventuels solvants (les n-alcanes et les 1-alcools) nous a permis de mettre en évidence un manque de données concernant ces composés. De plus nous avons également observé un manque de techniques expérimentales adaptés, et de ce fait le besoin de développer un nouveau dispositif expérimental.Au cours de cette thèse, nous avons conçu un dispositif expérimental innovant permettant la mesure des équilibres liquide-vapeur à des pressions comprises entre 0,1 et 10 bar. Ce dispositif est basé sur la méthode « statique-analytique ». Nous avons mis en place deux adaptations spécifiques aux échantillonneurs capillaires ROLSITM pour permettre l'échantillonnage à ces pressions. De nouvelles données des mélanges binaires et ternaires d'intérêt ont été ainsi mesurées.Le modèle thermodynamique prédictif choisi est PC-SAFT couplé avec une méthode de Contribution de Groupes (GC-PC-SAFT). Un terme polaire a été introduit. Le travail s'est focalisé sur l'étude de deux familles représentatives de composés soufrés : les sulfures et les 1-mercaptans. Le modèle GC-PC-SAFT a montré sa capacité de bien corréler et prédire les propriétés thermodynamiques des corps purs. L'ajustement des paramètres s'est appuyé sur les données de la littérature et celles obtenues par le nouvel équipement. Les diagrammes de phases des mélanges binaires (sulfure + n-alcane, sulfure + 1-alcool, 1-mercaptan + n-alcane et 1-mercaptan + 1-alcool) et ternaires (1-mercaptan + n-alcane + 1-alcool) ont été prédits
Sulfur compounds are widespread in various industrial fields. Design and/or optimization of the processes involving these compounds require accurate knowledge of thermodynamic properties of the concerned mixtures. Considering the complexity of industrial mixtures and for economical reasons, one may look to thermodynamic models with predictive features. To develop and validate these models, a minimum number of experimental data are required. Our literature review on sulfides (R-S-R'), 1-thiols (R-SH) and their possible solvents (n-alkanes and 1-alkanols) has shown a lack of data and of adapted experimental method. This observation leads to the need of developing a new experimental apparatus.In this work, we designed an innovative experimental apparatus for vapor-liquid-equilibrium measurements in the pressure range of [0.1 – 10] bar. The new apparatus is based on the “static-analytic” method. The key improvements are the two adaptations made for ROLSITM capillary samplers to achieve phase sampling in this pressure range. After validating the newly developed apparatus, new data of binary and ternary mixtures of interest were measured in order to develop a new predictive thermodynamic model focusing on sulfur compounds.The proposed predictive model is the PC-SAFT equation of state combined with a group contribution method (GC-PC-SAFT). We incorporated a polar term into PC-SAFT and investigated two representative families of sulfur compounds: sulfides and 1-thiols. The GC-PC-SAFT model proved reliable in correlating and predicting thermodynamic properties of pure compounds. Model parameters were fitted to the data found in the literature, as well as to those obtained through the new apparatus. Phase diagrams of some binary (sulfide + n-alkane, sulfide + 1-alkanol, 1-thiol + n-alkane and 1-thiol + 1-alkanol) and ternary (1-mercaptan + n-alkane + 1-alcool) mixtures were predicted
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Chetouani, Mohamed. „Codage neuro-prédictif pour l'extraction de caractéristiques de signaux de parole“. Paris 6, 2004. http://www.theses.fr/2004PA066528.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Lebahar, Julie. „Etude de la variabilité intraindividuelle du contrôle cognitif chez la personne âgée : formes et apport prédictif“. Thesis, Rennes 2, 2014. http://www.theses.fr/2014REN20045/document.

Der volle Inhalt der Quelle
Annotation:
Les recherches sur le vieillissement ont montré que la variabilité intra-individuelle (VII) du fonctionnement cognitif (dispersion et inconsistance) augmente avec l’âge. La VII pourrait jouer un rôle central dans la compréhension des changements cognitifs observés chez la personne âgée. Le but de cette recherche a été d’évaluer l’apport de la VII pour expliquer les différences d’efficience cognitive entre personnes âgées. Les relations entre deux formes de VII, dispersion (VII des scores entre plusieurs tests cognitifs) et inconsistance (VII des temps de réponse (TR) entre les essais à une tâche de contrôle cognitif), et l’efficience cognitive, ont été évaluées auprès d’un groupe d’adultes âgés de 61 ans et plus. La tâche de contrôle AX-cpt utilisée dans cette étude permet l’évaluation de processus de contrôle cognitif distincts (contrôle réactif et contrôle proactif). L’augmentation de la dispersion était associée à une diminution de la vitesse de traitement, de la capacité de la mémoire épisodique et de l’état cognitif plus général. L’augmentation de l’inconsistance semble traduire une difficulté supérieure associée à des capacités de maintien de l’information contextuelle et de résistance à l’interférence moins préservées. Toutefois, l’inconsistance pourrait exprimer une évolution positive de la cognition. Les fluctuations intra-individuelles du comportement paraissent être les caractéristiques d’un fonctionnement normal. L’irrégularité de l’instabilité temporelle des TR aux essais successifs d’une même tâche semble être un indicateur pertinent dans l’étude de la VII pour rendre compte d’une diminution de l’efficience cognitive. L’étude de la VII de la performance semble donc être une approche fructueuse pour expliquer la variabilité interindividuelle chez la personne âgée et prédire d’éventuels changements cognitifs
Aging research shows an age-related increase in intraindividual variability in cognitive functioning (dispersion and inconsistency). Intraindividual variability would play a central role in understanding cognitive changes in older adults. The purpose of the present research was to examine the contribution of the intraindividual variability study, in order to explain differences in cognitive efficiency between older adults. The relationship between two forms of intraindividual variability, dispersion (variability in scores across several cognitive tests) and inconsistency (variability in response time (RT) across trials in a cognitive control task), and the cognitive efficiency, was estimated in a sample of adults aged from 61 years and older. The control task AX-cpt used in this study allows the evaluation of distinct cognitive control process (proactive and reactive control). The increase in dispersion was associated with a decrease in processing speed, episodic memory ability and the more general cognitive state. The increase in inconsistency seems related to a difficulty of a cognitive system whose capacities of context information maintenance, and resistance to interference, are less preserved. However, the inconsistency could also reveal a positive evolution of cognition. Intraindividual fluctuations in behavior appear to be the characteristics of normal functioning. The irregularity of temporal instability of successive trials response times, seems to be a valid cue of the decrease in cognitive efficiency. The study of intraindividual variability in performance seems to be a fruitful approach to explain the variability between individuals observed in the elderly, and to predict possible cognitive changes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Rozot, Jose Manuel. „Modèle prédictif de l'apparition de la microporosité de retrait durant la solidification d'un alliage Aluminium-Silicium“. Bordeaux 1, 2005. http://www.theses.fr/2005BOR13017.

Der volle Inhalt der Quelle
Annotation:
Dans le système de freinage l'utilisation de pièces en alliage d'aluminium de fonderie est courante. Ce type de système nécessite une fiabilité des éléments qui se traduit par un besoin de maîtrise de la santé matière des produits. Le modèle proposé a pour but de prédire l'apparition de micro-défauts : les microporosités de retrait. Ceux-ci apparaissent lors de la solidification et diminuent la durée de vie des systèmes. Ce travail propose la modélisation de l'apparition de ces défauts lors d'une solidification d'un alliage Aluminium Silicium. Cette contribution se démarque des travaux traitant des phénomènes liés à la variation de solubilité des gaz dans l'aluminium lors de la solidification. Ce travail s'intéresse aux phénomènes de retrait dans le cas où il n'y a pas rupture d'alimentation. Le milieu semi-solide est considéré comme un milieu poreux. Lorsque la perméabilité de ce milieu est trop faible le retrait de solidification ne peut être compensé par déplacement de liquide. Ce modèle s'appuie sur un couplage entre la thermique de la solidification et le transfert de masse (écoulement interdendritique). Le modèle proposé utilise peu de paramètre. Ce caractère parcimonieux du modèle et l'incertitude sur la valeur de certains paramètres a permis l'identification des dits paramètres. Ce travail d'identification par méthode inverse a nécessité des expérimentations, dans une configuration permettant de maîtriser les conditions aux limites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Gousseau, Simon. „Caractérisation in operando de l’endommagement par électromigration des interconnexions 3D : Vers un modèle éléments finis prédictif“. Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0015/document.

Der volle Inhalt der Quelle
Annotation:
L'intégration 3D, mode de conception par empilement des puces, vise à la fois la densification des systèmes et la diversification des fonctions. La réduction des dimensions des interconnexions 3D et l'augmentation de la densité de courant accroissent les risques liés à l'électromigration. Une connaissance précise de ce phénomène est requise pour développer un modèle numérique prédictif de la défaillance et ainsi anticiper les difficultés dès le stade de la conception des technologies. Une méthode inédite d'observation in operando dans un MEB de l'endommagement par électromigration des interconnexions 3D est conçue. La structure d'étude avec des vias traversant le silicium (TSV) « haute densité » est testée à 350 °C avec une densité de courant injectée de l'ordre de 1 MA/cm², et simultanément caractérisée. La réalisation régulière de micrographies informe sur la nucléation des cavités, forcée dans la ligne de cuivre au-dessus des TSV, et sur le scénario de leur évolution. La formation d'ilots et la guérison des cavités sont également observées au cours des essais (quelques dizaines à centaines d'heures). Une relation claire est établie entre l'évolution des cavités et celle de la résistance électrique du dispositif. Les différents essais, complétés par des analyses post-mortem (FIB-SEM, EBSD, MET) démontrent l'impact de la microstructure sur le mécanisme de déplétion. Les joints de grains sont des lieux préférentiels de nucléation et influencent l'évolution des cavités. Un effet probable de la taille des grains et de leur orientation cristalline est également révélé. Enfin, l'étude se consacre à l'implémentation d'un modèle multiphysique dans un code éléments finis de la phase de nucléation des cavités. Ce modèle est constitué des principaux termes de gestion de la migration
3D integration, conception mode of chips stacking, aims at both systems densification and functions diversification. The downsizing of 3D interconnects dimensions and the increase of current density rise the hazard related to electromigration. An accurate knowledge of the phenomenon is required to develop a predictive modeling of the failure in order to anticipate the difficulties as soon as the stage of technologies conception. Thus, a hitherto unseen SEM in operando observation method is devised. The test structure with “high density” through silicon vias (TSV) is tested at 350 °C with an injected current density of about 1 MA/cm², and simultaneously characterized. Regular shots of micrographs inform about the voids nucleation, forced in copper lines above the TSV, and about the scenario of their evolution. Islets formation and voids curing are also observed during the tens to hundreds hours of tests. A clear relation is established between voids evolution and the one of the electrical resistance. The different tests, completed by post-mortem analyses (FIB-SEM, EBSD, TEM), demonstrate the impact of microstructure on the depletion mechanism. Grains boundaries are preferential voids nucleation sites and influence the voids evolution. A probable effect of grains size and crystallographic orientation is revealed. Finally, the study focuses on the implementation of a multiphysics modeling in a finite elements code of the voids nucleation phase. This modeling is constituted of the main terms of the migration management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Rahmani, Mustapha Amine. „Gestion de l'énergie d'une micro-centrale solaire thermodynamique“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT077/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre du projet collaboratif MICROSOL, mené par Schneider Electric, et qui oeuvre pour le développement de micros centrales solaires thermodynamiques destinées à la production d'électricité en sites isolés (non connectés au réseau électrique) en exploitant l'énergie thermique du soleil. Le but de cette thèse étant le développement de lois de commande innovantes et efficaces pour la gestion de l'énergie de deux types de micros centrales solaires thermodynamiques : à base de moteur à cycle de Stirling et à base de machines à Cycle de Rankine Organique (ORC). Dans une première partie, nous considérons une centrale solaire thermodynamique à base de machine à cycle de Stirling hybridée à un supercondensateur comme moyen de stockage d'énergie tampon. Dans ce cadre, nous proposons une première loi de commande validée expérimentalement, associée au système de conversion d'énergie du moteur Stirling, qui dote le système de performances quasi optimales en termes de temps de réponse ce qui permet de réduire la taille du supercondensateur utilisé. Une deuxième loi de commande qui gère explicitement les contraintes du système tout en dotant ce dernier de performances optimales en terme de temps de réponse, est également proposée. Cette dernière loi de commande est en réalité plus qu'un simple contrôleur, elle constitue une méthodologie de contrôle applicable pour une famille de systèmes de conversion de l'énergie.Dans une deuxième partie, nous considérons une centrale solaire thermodynamique à base de machine à cycle de Rankine Organique (ORC) hybridée à un banc de batteries comme moyen de stockage d'énergie tampon. Etant donné que ce système fonctionne à vitesse de rotation fixe pour la génératrice asynchrone qui est connectée à un système de conversion d'énergie commercial, nous proposons une loi de commande prédictive qui agit sur la partie thermodynamique de ce système afin de le faire passer d'un point de fonctionnement à un autre, lors des appels de puissance des charges électriques, le plus rapidement possible (pour réduire le dimensionnement des batteries) tout en respectant les contraintes physiques du système. La loi de commande prédictive développée se base sur un modèle dynamique de la machine ORC identifié expérimentalement grâce à un algorithme d'identification nonlinéaire adéquat
This Ph.D thesis was prepared in the scope of the MICROSOL project, ledby Schneider Electric, that aims at developing Off-grid solar thermodynamic micro powerplants exploiting the solar thermal energy. The aim of this thesis being the development of innovative and efficient control strategies for the energy management of two kinds of solar thermodynamic micro power plants: based on Stirling engine and based and Organic RankineCycle (ORC) machines.In a first part, we consider the Stirling based solar thermodynamic micro power planthybridized with a supercapacitor as an energy buffer. Within this framework, we propose afirst experimentally validated control strategy, associated to the energy conversion system ofthe Stirling engine, that endows the system with quasi optimal performances in term of settlingtime enabling the size reduction of the supercapacitor. A second control strategy that handlesexplicitly the system constraints while providing the system with optimal performances interm of settling time , is also proposed. This control strategy is in fact more than a simplecontroller, it is a control framework that holds for a family of energy conversion systems.In a second part, we consider the Organic Rankine Cycle (ORC) based thermodynamicmicro power plant hybridized with a battery bank as an energy buffer. Since this system worksat constant speed for the asynchronous generator electrically connected to a commercial energyconversion system, we propose a model predictive controller that acts on the thermodynamicpart of this system to move from an operating point to another, during the load power demandtransients, as fast as possible (to reduce the size of the battery banks) while respecting thephysical system constraints. The developed predictive controller is based upon a dynamicmodel, for the ORC power plant, identified experimentally thanks to an adequate nonlinearidentification algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Meyer, Yann. „Contrôle actif de micro-composants électroniques“. Besançon, 2005. http://www.theses.fr/2005BESA2083.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Roy, Isabelle. „Contribution à la mise en place d'un modèle "in vitro" prédictif de l'absorption et du métabolisme intestinal“. Paris 5, 1994. http://www.theses.fr/1994PA05P159.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Payan, Yohan. „Modèle biomécanique et contrôle de la langue en parole“. Grenoble INPG, 1996. http://www.theses.fr/1996INPG0221.

Der volle Inhalt der Quelle
Annotation:
Cette these traite de l'etude de la production de la parole, a partir de modeles aussi realistes que possible de l'appareil de production et de son controle, en relation avec la commande linguistique. L'enjeu de ce travail est de proposer des correlats moteurs et physiques (acoustiques et articulatoires) de la commande de type phonologique. Deux grandes etapes ont ete definies: (1) l'elaboration d'un modele biomecanique de la langue, decrivant l'anatomie et la malleabilite de cet articulateur. (2) la recherche d'une theorie pour le controle de la langue en parole, apte a faire le lien entre les niveaux physique et phonologique. Le modele 2d de la langue integre les muscles principalement recrutes lors des productions vocaliques. La methode des elements finis modelise l'elasticite et la quasi-incompressibilite des tissus linguaux. Les equations du mouvement sont alors resolues pour chaque nud de la structure, et simulent les deformations linguales. Le controle de la structure suit l'hypothese du point d'equilibre, qui propose que le systeme nerveux central controle le deplacement du point d'equilibre mecanique du systeme musculaire, d'une posture a une autre. Chaque posture est specifiee centralement, et l'allure de la transition depend de l'interaction entre les commandes centrales et les proprietes physiques des articulateurs. Pour un contexte phonetique donne, chaque phoneme est associe a une position equilibre cible, tandis que les commandes prosodiques sont liees a la parametrisation dynamique du mouvement. Des transitions vocaliques ont alors ete generees par le modele, et les trajectoires formantiques correspondantes calculees. Ces simulations ont ete comparees a des donnees reelles collectees sur un sujet humain. Sont ainsi mis en evidence la qualite du signal de synthese, ainsi que l'influence potentielle des proprietes anatomiques et dynamiques de la langue, sur les patrons cinematiques observes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Markelova, Ekaterina. „Interprétation du potentiel redox et évaluation de la mobilité des oxyanions contaminants (As, Sb,Cr) au cours de cycles redox successifs“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU028/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse démontre qu'une approche expérimentale systématique de complexité croissante permet de réévaluer le sens du potentiel redox (EH), et fournit une mise à jour sur l'interprétation de sa valeur dans les assemblages complexes de matrices minérales, des consortiums microbiens, des nutriments et des contaminants sous dynamique, oxydoréduction oscillant conditions. Pour étudier l'utilité des mesures EH dans les systèmes environnementaux saturés d'eau une cascade complète redox 500 à -350 mV (pH ~7.4) a été reproduit dans le laboratoire. Les expériences ont révélé que l'électrode de Pt classique redox répond à des processus microbiens dans une mesure différente en fonction de l'oxygénation et de la présence d'un tampon d'oxydo-réduction physique, chimique et. Les mesures du EH dans des matrices argileuses appauvris dans le tampon redox, tels que le couple électroactif Fe3 + / Fe2 +, par conséquent, se révèlent avoir une utilité limitée. Dans de tels environnements, les couples redox sensible abondantes, cependant, non électroactif, tels que O2 / H2O, CrO42- / Cr (OH) 3, NO3- / NO2- / NH 4 +, Sb (OH) 6- / Sb2O3, et HAsO42 - / H3AsO3 ne pas d'impact mesuré EH. Pour quantifier l'effet de l'oxydation des perturbations sur la mobilité des oxyanions dans la matrice argileuse, j'ai effectué des expériences de traitement par lots sous oscillations redox contrôlées. cycles successifs de conditions oxiques et anoxiques ont été imposées sur les suspensions argileuses modifiées avec un mélange d'oxyde As (V), Sb (V), Cr (VI) et N (V). la mobilité des oxyanions a été étudiée dans des conditions stériles, avec l'addition de carbone organique labile (éthanol), et avec l'addition de microbienne du sol inoculum. Spéciation analyses ont révélé des réactions irréversibles de réduction avec ou sans ajouts d'éthanol. Fraîchement réduite As (III), Sb (III), Cr (III) et N (III) ne sont pas ré-oxydée pendant les périodes subséquentes oxiques démontrant un comportement non-oscillant. Microbiologiquement induit des transformations de réduction a diminué les concentrations aqueuses de Sb et Cr par précipitation, enlevés N par volatilisation, alors préservé Comme dans la solution. En fonction de la diversité microbienne, altérées par l'addition d'inoculum dans le sol, deux types de contaminants imbrications sont caractérisés comme inhibiteurs de réduction et de non-inhibiteurs. Ces données, le représentant de l'environnement souterrain saturé (sous-sol> 20 m), est en outre par rapport à oxyanion mobilité dans l'environnement proche de la surface (la couche arable <0,15 m). Les principales différences entre les systèmes de la couche arable et du sous-sol sont dans la fraction d'oxyhydroxyde Fe-, Mn- et minéraux Al-, la diversité microbienne, pCO2, et la gamme des valeurs EH développées au cours des cycles d'oxydo-réduction. Par exemple, la gamme EH de plus de 900 mV (500 à -300 mV) dans la suspension de la couche arable est opposée à la gamme EH de 100 mV (350-250 mV) dans la suspension du sous-sol. En outre, dans la suspension de la couche arable, fort cycle redox de Fe et Mn coïncide avec la mobilité d'oscillation de As et Sb. Cette corrélation suggère le rôle crucial des minéraux oxyhydroxyde agissant non seulement comme principaux sorbants, mais aussi comme catalyseurs pour des réactions d'oxydation éventuellement contrôlant la réversibilité de la séquestration des contaminants. Par conséquent, appauvri en minéraux oxyhydroxyde, matrice argileuse est révélée environnement propice à la rétention des contaminants, car il peut supporter des oscillations périodiques redox sans libérer les contaminants de retour à la phase aqueuse sur l'échelle de temps expérimental
This thesis demonstrates that a systematic experimental approach of increasing complexity allows reassessing the meaning of the redox potential (EH), and provides an update on the interpretation of its value in complex assemblages of mineral matrices, microbial consortiums, nutrients, and contaminants under dynamic, redox-oscillating conditions. To study the usefulness of EH measurements in water-saturated environmental systems a full redox cascade from +500 to -350 mV (pH ∼7.4) was reproduced in the laboratory. The experiments revealed that conventional Pt redox electrode responds to physical, chemical, and microbial processes to a different extent depending on oxygenation and on the presence of a redox buffer. The measurements of EH in argillaceous matrices depleted in the redox buffer, such as the electroactive Fe3+/Fe2+ couple, thus, are shown to have limited usefulness. In such environments, the abundant redox-sensitive couples, yet non-electroactive, such as O2/H2O, CrO42-/Cr(OH)3, NO3-/NO2-/NH4+, Sb(OH)6-/Sb2O3, and HAsO42-/H3AsO3 do not impact measured EH. To quantify the effect of oxidizing perturbations on the mobility of oxyanions in the argillaceous matrix, I performed batch experiments under controlled redox oscillations. Successive cycles of oxic and anoxic conditions were imposed on the argillaceous suspensions amended with a mixture of oxidized As(V), Sb(V), Cr(VI), and N(V). Oxyanion mobility was investigated under sterile conditions, with the addition of labile organic carbon (ethanol), and with the addition of soil microbial inoculum. Speciation analyses revealed irreversible reduction reactions with and without ethanol additions. Freshly reduced As(III), Sb(III), Cr(III), and N(III) were not re-oxidized during subsequent oxic periods demonstrating non-oscillating behavior. Microbially induced reduction transformations decreased aqueous concentrations of Sb and Cr via precipitation, removed N via volatilization, while preserved As in the solution. Depending on microbial diversity, altered by the addition of soil inoculum, two types of contaminant interplays are characterized as inhibitory and non-inhibitory reductions. These data, the representative of saturated subsurface environment (subsoil > 20 m), is further compared to oxyanion mobility in the near-surface environment (topsoil < 0.15 m). The key differences between the topsoil and subsoil systems are in the fraction of oxyhydroxide Fe-, Mn-, and Al- minerals, microbial diversity, pCO2, and the range of EH values developed during redox cycles. For example, the EH range over 900 mV (from +500 to -300 mV) in the topsoil suspension is contrasted to the EH range of 100 mV (from +350 to +250 mV) in the subsoil suspension. Furthermore, in the topsoil suspension, strong redox cycling of Fe and Mn is coincident with the oscillating mobility of As and Sb. This correlation suggests the crucial role of oxyhydroxide minerals acting not only as major sorbents, but also as catalysts for oxidation reactions eventually controlling the reversibility of contaminant sequestration. Therefore, depleted in oxyhydroxide minerals, argillaceous matrix is shown to be suitable environment for contaminant retention, as it can stand periodical redox oscillations without releasing contaminants back to the aqueous phase on the experimental time scale
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bellemare, Laurent. „Un modèle multiphasique de prédiction du comportement d'un feu de végétation“. Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX11008.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur la modelisation numerique des flammes de diffusion turbulentes instationnaires, caracteristiques des feux de vegetation. Le but est de mieux comprendre les differents mecanismes responsables de la propagation. Le modele bidimensionnel multiphasique propose tient compte des principaux phenomenes qui regissent l'eclosion et la propagation du feu. Il contient des sous modeles de turbulence (rng ) et de combustion turbulente (modele eddy dissipation concept). La methode des ordonnees discretes, etendue aux milieux multiphasiques est utilisee pour le rayonnement. Le gaz considere est non transparent, et ses proprietes tiennent compte de la formation des suies. Le sous modele de degradation thermique comprends la deshydratation, la pyrolyse et la combustion des residus charbonneux du combustible heterogene. Nous avons mis en uvre une methode numerique de type volumes finis qui utilise un algorithme direct derive de la methode des projections de chorin. Nous pouvons ainsi predire le developpement du feu de la phase d'initiation a la phase de propagation quasi-stationnaire, et la comparaison avec des resultats experimentaux est encourageante. Le modele developpe est ensuite applique a la description du comportement d'un feu se propageant a travers une vegetation comportant des discontinuites horizontales dans la distribution du combustible (coupures anti-feu), et une etude parametrique est menee de maniere a determiner les parametres sensibles du modele. On observe finalement le role determinant joue par le rayonnement dans l'evaluation de l'efficacite d'une coupure pour des conditions de pente et de vent variees.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Dika, Nguea Hermine. „La culture de macrophages comme modèle prédictif de la toxicité et de la biopersistance des fibres minérales artificielles“. Nancy 1, 2005. http://www.theses.fr/2005NAN11310.

Der volle Inhalt der Quelle
Annotation:
La toxicité des fibres minérales artificielles (FMA) est couramment évaluée par des tests de biopersistance sur des animaux. Les toxicologues et les industriels sont à la recherche de nouveaux tests prédictifs in vitro pour limiter les tests in vivo. Pour aborder l'étude in vitro de la toxicité des FMA, notre tâche a été d'élaborer un test pour étudier leur persistance au contact d'une lignée de macrophages humains (U-937). Avec des extraits bactériens et des cytokines synthétiques, nous avons modélisé in vitro l'interaction fibres/macrophage permettant l'étude de leur dégradation physique et chimique. L'analyse du transcriptome du macrophage, dans les conditions de ce test, à l'aide de puces à ADN nous a permis d'avancer l'hypothèse que les espèces réactives générées par le stress oxydant seraient responsables de cette dégradation. Cette dégradation obtenue in vitro seulement après 7 jours, est identique à celle observée après expérimentation in vivo et prédit la clearance pulmonaire des FMA obtenue chez le rat. Nous avons établi les bases d'un test in vitro discriminatif permettant un criblage préliminaire de nouvelles compositions de fibres minérales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Boutin, Victor. „Etude d’un algorithme hiérarchique de codage épars et prédictif : vers un modèle bio-inspiré de la perception visuelle“. Thesis, Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0028.

Der volle Inhalt der Quelle
Annotation:
La représentation concise et efficace de l'information est un problème qui occupe une place centrale dans l'apprentissage machine. Le cerveau, et plus particulièrement le cortex visuel, ont depuis longtemps trouvé des solutions performantes et robustes afin de résoudre un tel problème. A l'échelle locale, le codage épars est l'un des mécanismes les plus prometteurs pour modéliser le traitement de l'information au sein des populations de neurones dans le cortex visuel. A l'échelle structurelle, le codage prédictif suggère que les signaux descendants observés dans le cortex visuel modulent l'activité des neurones pour inclure des détails contextuels au flux d'information ascendant. Cette thèse propose de combiner codage épars et codage prédictif au sein d'un modèle hiérarchique et convolutif. D'un point de vue computationnel, nous démontrons que les connections descendantes, introduites par le codage prédictif, permettent une convergence meilleure et plus rapide du modèle. De plus, nous analysons les effets des connections descendantes sur l'organisation des populations de neurones, ainsi que leurs conséquences sur la manière dont notre algorithme se représente les images. Nous montrons que les connections descendantes réorganisent les champs d'association de neurones dans V1 afin de permettre une meilleure intégration des contours. En outre, nous observons que ces connections permettent une meilleure reconstruction des images bruitées. Nos résultats suggèrent que l'inspiration des neurosciences fournit un cadre prometteur afin de développer des algorithmes de vision artificielles plus performants et plus robustes
Building models to efficiently represent images is a central and difficult problem in the machine learning community. The neuroscientific study of the early visual cortical areas is a great source of inspiration to find economical and robust solutions. For instance, Sparse Coding (SC) is one of the most successful frameworks to model neural computation at the local scale in the visual cortex. At the structural scale of the ventral visual pathways, the Predictive Coding (PC) theory has been proposed to model top-down and bottom-up interaction between cortical regions. The presented thesis introduces a model called the Sparse Deep Predictive Coding (SDPC) that combines Sparse Coding and Predictive Coding in a hierarchical and convolutional architecture. We analyze the SPDC from a computational and a biological perspective. In terms of computation, the recurrent connectivity introduced by the PC framework allows the SDPC to converge to lower prediction errors with a higher convergence rate. In addition, we combine neuroscientific evidence with machine learning methods to analyze the impact of recurrent processing at both the neural organization and representational level. At the neural organization level, the feedback signal of the model accounted for a reorganization of the V1 association fields that promotes contour integration. At the representational level, the SDPC exhibited significant denoising ability which is highly correlated with the strength of the feedback from V2 to V1. These results from the SDPC model demonstrate that neuro-inspiration might be the right methodology to design more powerful and more robust computer vision algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Penet, Maxime. „Robust Nonlinear Model Predictive Control based on Constrained Saddle Point Optimization : Stability Analysis and Application to Type 1 Diabetes“. Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00968899.

Der volle Inhalt der Quelle
Annotation:
This thesis deals with the design of a robust and safe control algorithm to aim at an artificial pancreas. More precisely we will be interested in controlling the stabilizing part of a classical cure. To meet this objective, the design of a robust nonlinear model predictive controller based on the solution of a saddle point optimization problem is considered. Also, to test the controller performances in a realistic case, numerical simulations on a FDA validated testing platform are envisaged.In a first part, we present an extension of the usual nonlinear model predictive controller designed to robustly control, in a sampled-data framework, systems described by nonlinear ordinary differential equations. This controller, which computes the best control input by considering the solution of a constrained saddle point optimization problem, is called saddle point model predictive controller (SPMPC). Using this controller, it is proved that the closed-loop is Ultimately Bounded and, with some assumptions on the problem structure, Input-to State practically Stable. Then, we are interested in numerically solving the corresponding control problem. To do so, we propose an algorithm inspired from the augmented Lagrangian technique and which makes use of adjoint model.In a second part, we consider the application of this controller to the problem of artificial blood glucose control. After a modeling phase, two models are retained. A simple one will be used to design the controller and a complex one will be used to simulate realistic virtual patients. This latter is needed to validate our control approach. In order to compute a good control input, the SPMPC controller needs the full state value. However, the sensors can only provide the value of blood glucose. That is why the design of an adequate observer is envisaged. Then, numerical simulations are performed. The results show the interest of the approach. For all virtual patients, no hypoglycemia event occurs and the time spent in hyperglycemia is too short to induce damageable consequences. Finally, the interest of extending the SPMPC approach to consider the control of time delay systems in a sampled-data framework is numerically explored.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Perrault-Hébert, Maude. „Modélisation de la régénération de l’épinette noire suite au passage d’un feu en forêt boréale fermée“. Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9460.

Der volle Inhalt der Quelle
Annotation:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Brenon, Alexis. „Modèle profond pour le contrôle vocal adaptatif d'un habitat intelligent“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM057/document.

Der volle Inhalt der Quelle
Annotation:
Les habitats intelligents, résultants de la convergence de la domotique, de l'informatique ubiquitaire et de l'intelligence artificielle, assistent leurs habitants dans les situations du quotidien pour améliorer leur qualité de vie.En permettant aux personnes dépendantes et âgées de rester à domicile plus longtemps, ces habitats permettent de fournir une première réponse à des problèmes de société comme la dépendance due au vieillissement de la population.En nous plaçant dans un habitat contrôlé par la voix, l'habitat doit répondre aux requêtes d’un utilisateur concernant un ensemble d’actions pouvant être automatisées (contrôle des lumières, des volets, des dispositifs multimédia, etc.).Pour atteindre cet objectif, le système de contrôle de l'habitat a besoin de prendre en compte le contexte dans lequel un ordre est donné mais également de connaitre les habitudes et préférences de l’utilisateur.Pour cela, le système doit pouvoir agréger les informations issues du réseau de capteurs domotiques hétérogènes et prendre en compte le comportement (variable) de l'utilisateur.La mise au point de systèmes de contrôle intelligent d'un habitat est particulièrement ardue du fait de la grande variabilité concernant aussi bien la topologie des habitats que les habitudes des utilisateurs.Par ailleurs, l'ensemble des informations contextuelles doivent être représentées dans un référentiel commun dans un objectif de raisonnement et de prise de décision.Pour répondre à ces problématiques, nous proposons de développer un système qui d'une part modifie continuellement son modèle de manière à s'adapter à l'utilisateur, et qui d'autre part utilise directement les données issues des capteurs à travers une représentation graphique. L'intérêt et l'originalité de cette méthode sont de ne pas nécessiter d'inférence pour déterminer le contexte.Notre système repose ainsi sur une méthode d'apprentissage par renforcement profond qui couple un réseau de neurones profond du type convolutif permettant l'extraction de données contextuelles, avec un mécanisme d'apprentissage par renforcement pour la prise de décision.Ce mémoire présente alors deux systèmes, un premier reposant uniquement sur l'apprentissage par renforcement et montrant les limites de cette approche sur des environnements réels pouvant comporter plusieurs milliers d'états possibles.L'introduction de l'apprentissage profond a permis la mise au point du second système, ARCADES, dont les bonnes performances montrent la pertinence d'une telle approche, tout en ouvrant de nombreuses voies d'améliorations
Smart-homes, resulting of the merger of home-automation, ubiquitous computing and artificial intelligence, support inhabitants in their activity of daily living to improve their quality of life.Allowing dependent and aged people to live at home longer, these homes provide a first answer to society problems as the dependency tied to the aging population.In voice controlled home, the home has to answer to user's requests covering a range of automated actions (lights, blinds, multimedia control, etc.).To achieve this, the control system of the home need to be aware of the context in which a request has been done, but also to know user habits and preferences.Thus, the system must be able to aggregate information from a heterogeneous home-automation sensors network and take the (variable) user behavior into account.The development of smart home control systems is hard due to the huge variability regarding the home topology and the user habits.Furthermore, the whole set of contextual information need to be represented in a common space in order to be able to reason about them and make decisions.To address these problems, we propose to develop a system which updates continuously its model to adapt itself to the user and which uses raw data from the sensors through a graphical representation.This new method is particularly interesting because it does not require any prior inference step to extract the context.Thus, our system uses deep reinforcement learning; a convolutional neural network allowing to extract contextual information and reinforcement learning used for decision-making.Then, this memoir presents two systems, a first one only based on reinforcement learning showing limits of this approach against real environment with thousands of possible states.Introduction of deep learning allowed to develop the second one, ARCADES, which gives good performances proving that this approach is relevant and opening many ways to improve it
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie