Дисертації з теми "Contrôle basée sur la platitude"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Contrôle basée sur la platitude.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Contrôle basée sur la platitude".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Akrami, Milad. "Design and implementation of electric motor drive for automotive cooling water pump." Electronic Thesis or Diss., Strasbourg, 2023. http://www.theses.fr/2023STRAD048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose une méthode de planification de trajectoire pour le contrôle basé sur la platitude des entraînements PMSM pour les pompes à eau des véhicules électriques. Cette approche vise principalement à garantir que le courant du moteur PMSM reste dans les limites permises grâce à un contrôle indirect basé sur la platitude, tout en conservant les avantages du contrôle en boucle unique. Une fonction de planification de trajectoire basée sur une fenêtre est utilisée pour l'entraînement PMSM dans cette méthode. La fonction de trajectoire est calculée à l'aide d'un algorithme d'optimisation prenant en compte les contraintes de dépassement de vitesse, de courant moteur et de tension de commutation. Contrairement à la planification conventionnelle de la trajectoire, qui est une fonction de second ordre, cette méthode prend en compte les limites du contrôleur tout en utilisant un contrôle basé sur la platitude en boucle unique
A trajectory planning method for flatness-based control of PMSM drives for EV water pump application is proposed in this thesis. This approach is primarily intended to ensure PMSM motor current remains within permissible limits through indirect flatness-based control while still having the advantages of one-loop control. Furthermore, the constraint on switching voltage has been taken into account in the proposed trajectory planning method to maintain the proper operation of the PMSM drive system in steady-state mode as well as during transients. A window-based trajectory planning function is used for the PMSM drive in this method. The trajectory function is generated using an optimization algorithm considering the speed overshoot, motor current, and switching voltage constraints. Unlike conventional trajectory planning, which is a second-order function, this method takes controller limits into account while using one-loop flatness-based control
2

Navarrete, Gutierrez Tomas. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00758118.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances.
3

Navarrete, Gutiérrez Tomás. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0165/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances
Complex systems are present everywhere in our environment: internet, electricity distribution networks, transport networks. This systems have as characteristics: a large number of autonomous entities, dynamic structures, different time and space scales and emergent phenomena. This thesis work is centered on the problem of control of such systems. The problem is defined as the need to determine, based on a partial perception of the system state, which actions to execute in order to avoid or favor certain global states of the system. This problem comprises several difficult questions: how to evaluate the impact at the global level of actions applied at a global level, how to model the dynamics of an heterogeneous system (different behaviors issue of different levels of interactions), how to evaluate the quality of the estimations issue of the modeling of the system dynamics. We propose a control architecture based on an ``equation-free'' approach. We use a multi-agent model to evaluate the global impact of local control actions before applying the most pertinent set of actions. Associated to our architecture, an experimental platform has been developed to confront the basic ideas or the architecture within the context of simulated ``free-riding'' phenomenon in peer to peer file exchange networks. We have demonstrated that our approach allows to drive the system to a state where most peers share files, despite given initial conditions that are supposed to drive the system to a state where no peer shares. We have also executed experiments with different configurations of the architecture to identify the different means to improve the performance of the architecture
4

Navarrete, Gutiérrez Tomás. "Une architecture de contrôle de systèmes complexes basée sur la simulation multi-agent." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0165.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes complexes sont présents partout dans notre environnement : internet, réseaux de distribution d'électricité, réseaux de transport. Ces systèmes ont pour caractéristiques d'avoir un grand nombre d'entités autonomes, des structures dynamiques, des échelles de temps et d'espace différentes, ainsi que l'émergence de phénomènes. Ce travail de thèse se focalise sur la problématique du contrôle de tels systèmes. Il s'agit de déterminer, à partir d'une perception partielle de l'état du système, quelle(s) actions(s) effectuer pour éviter ou au contraire favoriser certains états globaux du système. Cette problématique pose plusieurs questions difficiles : pouvoir évaluer l'impact au niveau collectif d'actions appliqués au niveau individuel, modéliser la dynamique d'un système hétérogène (plusieurs comportements différents en interaction), évaluer la qualité des estimations issues de la modélisation de la dynamique du système. Nous proposons une architecture de contrôle selon une approche " equation-free ". Nous utilisons un modèle multi-agents pour évaluer l'impact global d'actions de contrôle locales avant d'appliquer la plus pertinente. Associée à cette architecture, une plateforme a été développée pour confronter ces idées à l'expérimentation dans le cadre d'un phénomène simulé de " free-riding " dans les réseaux d'échanges de fichiers pair à pair. Nous avons montré que cette approche permettait d'amener le système dans un état où une majorité de pairs partagent alors que les conditions initiales (sans intervention) feraient évoluer le système vers un état où aucun pair ne partage. Nous avons également expérimenté avec différentes configurations de l'architecture pour identifier les différents moyens d'améliorer ses performances
Complex systems are present everywhere in our environment: internet, electricity distribution networks, transport networks. This systems have as characteristics: a large number of autonomous entities, dynamic structures, different time and space scales and emergent phenomena. This thesis work is centered on the problem of control of such systems. The problem is defined as the need to determine, based on a partial perception of the system state, which actions to execute in order to avoid or favor certain global states of the system. This problem comprises several difficult questions: how to evaluate the impact at the global level of actions applied at a global level, how to model the dynamics of an heterogeneous system (different behaviors issue of different levels of interactions), how to evaluate the quality of the estimations issue of the modeling of the system dynamics. We propose a control architecture based on an ``equation-free'' approach. We use a multi-agent model to evaluate the global impact of local control actions before applying the most pertinent set of actions. Associated to our architecture, an experimental platform has been developed to confront the basic ideas or the architecture within the context of simulated ``free-riding'' phenomenon in peer to peer file exchange networks. We have demonstrated that our approach allows to drive the system to a state where most peers share files, despite given initial conditions that are supposed to drive the system to a state where no peer shares. We have also executed experiments with different configurations of the architecture to identify the different means to improve the performance of the architecture
5

Ramamonjisoa, David. "Architecture de copilotage et de contrôle d'exécution basée sur un système expert temps réel." Compiègne, 1993. http://www.theses.fr/1993COMP574S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement croissant du trafic routier, le besoin de confort et d'information des conducteurs et l'exigence générale d'une plus grande sécurité sont actuellement le grand souci des laboratoires de recherches et constructeurs automobiles des pays industrialisés. Le projet européen PROMETHEUS a pour objectif d'améliorer la sécurité de la circulation routière de 30% et l'efficacité de 20%. Dans le cadre de ce projet, une application de système d'aide au copilotage a été réalisée avec la mise au point d'un système de contrôle d'exécution des manoeuvres et de surveillance des environnements. Des outils à base de techniques d'intelligence artificielle et d'automatique ont été développés pour la réalisation d'un tel système. La démarche suivie est de spécifier une architecture de contrôle pour diminuer le temps de réponse du système et pour structurer les tâches de façon modulaire. Les modules de décision et de contrôle ont été développés à l'aide d'un système expert temps réel SUPER-TR. Une phase de simulation a permis de tester la rapidité et d'évaluer la base de connaissances du système. La mise à jour des stratégies et des modèles utilisés dans le copilotage est également effectuée au cours de cette phase.
6

Roquemaurel, Marie de. "Planification de coût optimal basée sur les CSP pondérés." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/520/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des challenges actuels de la planification est la résolution de problèmes pour lesquels on cherche à optimiser la qualité d'une solution telle que le coût d'un plan-solution. Dans cette thèse, nous développons une méthode originale pour la planification de coût optimal dans un cadre classique non temporel et avec des actions valuées. Pour cela, nous utilisons une structure de longueur fixée appelée graphe de planification. L'extraction d'une solution optimale, à partir de ce graphe, est codée comme un problème de satisfaction de contraintes pondérées (WCSP). La structure spécifique des WCSP obtenus permet aux solveurs actuels de trouver, pour une longueur donnée, une solution optimale dans un graphe de planification contenant plusieurs centaines de nœuds. Nous présentons ensuite plusieurs méthodes pour déterminer la longueur maximale des graphes de planification nécessaire pour garantir l'obtention d'une solution de coût optimal. Ces méthodes incluent plusieurs notions universelles comme par exemple la notion d'ensembles d'actions indispensables pour lesquels toutes les solutions contiennent au moins une action de l'ensemble. Les résultats expérimentaux effectués montrent que l'utilisation de ces méthodes permet une diminution de 60% en moyenne de la longueur requise pour garantir l'obtention d'une solution de coût optimal. La comparaison expérimentale avec d'autres planificateurs montre que l'utilisation du graphe de planification et des CSP pondérés pour la planification optimale est possible en pratique même si elle n'est pas compétitive, en terme de temps de calcul, avec les planificateurs optimaux récents
For planning to come of age, plans must be judged by a measure of quality, such as the total cost of actions. This thesis describes an optimal-cost planner in the classical planning framework except that each action has a cost. We code the extraction of an optimal plan, from a planning graph with a fixed number k of levels, as a weighted constraint satisfaction problem (WCSP). The specific structure of the resulting WCSP means that a state-of-the-art exhaustive solver was able to find an optimal plan in planning graphs containing several thousand nodes. We present several methods for determining a tight bound on the number of planning-graph levels required to ensure finding a globally optimal plan. These include universal notions such as indispensable sets S of actions: every valid plan contains at least one action in S. Different types of indispensable sets can be rapidly detected by solving relaxed planning problems related to the original problem. On extensive trials on benchmark problems, the bound on the number of planning-graph levels was reduced by an average of 60% allowing us to solve many instances to optimality. Thorough experimental investigations demonstrated that using the planning graph in optimal planning is a practical possibility, although not competitive, in terms of computation time, with a recent state-of-the-art optimal planner
7

Lefort, Antoine. "Un gestionnaire énergétique du bâtiment compatible smartgrid basée sur une commande prédéctive." Phd thesis, Supélec, 2014. http://tel.archives-ouvertes.fr/tel-01061522.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'intégration des énergies renouvelables produites par un bâtiment et les réseaux de fourniture, qui sont amenés à proposer des tarifications et des puissances disponibles variables au cours de la journée, entraînent une grande variabilité de la disponibilité de l'énergie. Mais les besoins des utilisateurs ne sont pas forcément en accord avec cette disponibilité. La gestion de l'énergie consiste alors à faire en sorte que les moments de consommation des installations coïncident avec les moments où celle-ci est disponible. Notre objectif a été de proposer une stratégie de commande prédictive, distribuée et hiérarchisée, pour gérer efficacement l'énergie de l'habitat. Les aspects prédictifs de notre approche permettent d'anticiper les besoins et les variations de la tarification énergétique. L'aspect distribué va permettre d'assurer la modularité de la structure de commande, pour pouvoir intégrer différents usages et différentes technologies de manière simple et sans faire exploser la combinatoire du problème d'optimisation résultant.
8

Griche, Karim-Cyril. "Génération automatique de bouchons pour le test structurel basée sur l'analyse du flot de contrôle." Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10098.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Lors du développement d'un logiciel, plusieurs phases de test sont mises en oeuvre. Dans cette thèse, nous nous intéressons particulièrement à deux d'entre elles : les test unitaire et le test d'intégration. Dans le test unitaire, les entités du logiciel sont testées individuellement. Elles sont ensuite intégrée au sein d'un agrégat qui est soumis à un test d'intégration. Lors de cette phase, on cherche traditionnellement à tester les interactions entre ces entités. Nous nous intéressons plus particulièrement dans cette thèse au test structurel unitaire. Lors de cette phase de test, si l'entité contient des app rers d'autres entités, elles sont remplacées par des bouchons simples qui facilitent le test. Ces bouchons ne sont pas exempts de défauts. En particulier, ils sont généralement pas représentatifs des entités qu'ils remplacent. Les taux de couverture obtenus pendant le test ne représentent donc pas l'utilisatin éelle de la fonction testée. Dans cette thèse, nous proposons d'étendre la phase de test unitaire aux agrégats de fonctions. Tous les bouchons nécessaires sont produits automatiquement à partir du code des fonctions appelées. Pour cela, on se base sur une analyse et un découpage du flot de ontrôle de la fonction appelée en approximations, ainsi que sur la détermination de l'environnement particulier de chaque appel. Cet environnement ontient les informations sur les conditions d'appel à la fonction et sur l'impact de cet appel sur le flot de contrôle de la fonction appelante. On crée inalement le bouchon spécifique à un appel par filtrage des approximations par le contexte d'appel. On sélectionne ensuite une approximation pour chaque objectif de génération. L'ensemble de cette technique a été implanté au sein d'un prototype basé sur l'outil de test Inka
While developing a software, many different tests are processed. Ln this thesis, we are focusing mainly on unitary test and integration test. During the unitary test phase, the software's entities are tested individually. Afterwards, they are integrated within an aggregate on which the integration test is lrocessed. During this phase, interactions between entities are tested. We are working on structural unitary test. During this test phase, when the entites under test contains calls to other entites, the called entities are replaced by stubbs designed to simplify test data generation for the calling function. Ln general, such stubbs do not represent correctly the behaviour of the entity they stand for. Therefore, the resulting covering rate does not represent the use of the calling function. In this thesis, we propose a new test phase, the unitary aggregate test phase, where ail necessary stubbs are automatically generated from the called function's code. The production of such a stubb is based on the slice of the called function's control flow into approximations. Tatic analysis is used to deterrnine the specifie environment of each cali. This environment con tains information on the calling conditions for a function and also on the impact ofthis cali on the calling function's control flow. The stubb for a specifie cali can be created by filtering the called function's approximations, using the calling context. Then, a single filtered approximation is kept for each generation objective within the calling function. A prototype of this method was implemented within the Inka test tool
9

Bentahar, Amine. "Identification des préoccupations transverses : une approche statique basée sur une analyse du flot de contrôle." Thèse, Université du Québec à Trois-Rivières, 2012. http://depot-e.uqtr.ca/5169/1/030328231.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Vargas, Fabian Luis. "Amélioration de la sureté de fonctionnement de systèmes spatiaux basée sur le contrôle de courant." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fiabilite des systemes spatiaux est difficile a assurer lorsqu'il s'agit de prendre en compte les effets de la radiation. Plusieurs consequences sont possibles quand un circuit integre (ci) est expose a la radiation ionisante, toutefois aucune d'elles n'est particulierement desirable. Les effets commencent par une lente et implacable degradation de la performance du circuit, allant de la generation spontanee des erreurs fonctionnelles jusqu'au claquage total du circuit. En plus des effets de la radiation ionisante, il est aussi a present reconnu par la communaute internationale que les aleas (single event upsets - seus) representent une autre menace potentielle a la fiabilite des cis dans les environnements spatiaux. Ce sujet est d'importance considerable aujourd'hui, car au fur et a mesure que les technologies de cis atteignent des dimensions sousmicroniques, les effets des rayons cosmiques ont tendance a generer de plus en plus de seu sur les memoires des systemes electroniques. D'autre part, le test par courant a montre son efficacite en detectant des fautes difficilement decelables par le test logique conventionnel. Le test par courant peut donc ameliorer sensiblement la qualite et reduire le cout de production des cis cmos. Dans ce but, cette these presente une approche qui estime le courant de repos (i#d#d#q) en se basant sur des parametres de qualite comme l'immunite au bruit ainsi que la vitesse du ci. En sachant que la radiation ionisante degrade ces deux parametres des cis cmos, cette approche est ainsi tres appropriee pour ameliorer la qualite du test de fabrication du produit qui sera utilise dans des applications spatiales. Cette these presente egalement deux approches qui ont pour but la conception des systemes electroniques tolerants aux effets de la radiation. La premiere approche permet la conception de circuits tolerants aux effets de la dose totale, tandis que la deuxieme approche permet la conception de memoires cmos sram tolerantes aux aleas. Ces deux approches sont basees sur la combinaison de test par courant, realise par des capteurs de courant sur silicium, et de techniques de redondance au niveau materiel
11

Kaddah, Rim. "Gestion active de la demande basée sur l'habitat connecté." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0025/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
12

Kaddah, Rim. "Gestion active de la demande basée sur l'habitat connecté." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
13

Zambrano, Rey Gabriel. "Réduction du Comportement Myope dans le contrôle des FMS : Une Approche Semi-Hétérarchique basée sur la Simulation-Optimisation." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2014. http://tel.archives-ouvertes.fr/tel-01064272.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contrôle hétérarchique des systèmes de production flexibles (FMS) préconise un contrôle peu complexe et hautement réactif supporté par des entités décisionnelles locales (DEs). En dépit d'avancées prometteuses, ces architectures présentent un comportement myope car les DEs ont une visibilité informationnelle limitée sue les autres DEs, ce qui rend difficile la garantie d'une performance globale minimum. Cette thèse se concentre sur les approches permettant de réduire cette myopie. D'abord, une définition et une typologie de cette myopie dans les FMS sont proposées. Ensuite, nous proposons de traiter explicitement le comportement myope avec une architecture semihétérarchique. Dans celle-ci, une entité décisionnelle globale (GDE) traite différents types de décisions myopes à l'aide des différentes techniques d'optimisation basée sur la simulation (SbO). De plus, les SbO peuvent adopter plusieurs rôles, permettant de réduire le comportement myope de plusieurs façons. Il est également possible d'avoir plusieurs niveaux d'autonomie en appliquant différents modes d'interaction. Ainsi, notre approche accepte des configurations dans lesquelles certains comportements myopes sont réduits et d'autres sont acceptés. Notre approche a été instanciée pour contrôler la cellule flexible AIP- PRIMECA de l'Université de Valenciennes. Les résultats des simulations ont montré que l'architecture proposée peut réduire les comportements myopes en établissant un équilibre entre la réactivité et la performance globale. Des expérimentations réelles ont été réalisées sur la cellule AIP-PRIMECA pour des scenarios dynamiques et des résultats prometteurs ont été obtenus.
14

Datcu, Octaviana. "Méthodes de chiffrement/déchiffrement utilisant des systèmes chaotiques : Analyse basée sur des méthodes statistiques et sur la théorie du contrôle des systèmes." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00802659.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite du domaine de la cryptographie basée sur des dynamiques chaotiques hybrides.Afin de robustifier la transmission sécurisée de données à l'égard de l'attaque à texte-claire connue, ce travail a été particulièrement axée sur deux directions, l'approche statistique, et l'approche automatique.Les principales contributions de ce travail sont organisées dans ces deux directions.Le choix de la variable mesurée et son influence sur l'émetteur d'un message secret et la possibilité de récupérer la dynamique à la réception.Ceci a été étudié dans le contexte des systèmes chaotiques discrets et continus.L'indépendance statistique des variables d'état des systèmes chaotiques est étudié en relation avec la non-corrélation spatiale de ces états.Ainsi une méthode pour cacher le message secret en fonction de l'évolution de l'émetteur chaotique, et ceci avant son inclusion dans cette dynamique, est proposée.La faisabilité d'un système retardée hybride qui est utilisée pour la transmission sécurisée des données est analysée dans une mise en œuvre analogique.Des simulations et les analyses des résultats obtenus sont faits, afin de prouver l'efficacité des études et des méthodes proposées.La thèse est organisée comme suit: le Chapitre I reprend les notions théoriques et les algorithmes utilisés pour atteindre l'objectif de ce travail.Le chapitre II est consacré à l'étude des exposants de Lyapunov.Les systèmes chaotiques utilisés dans le présent document sont ensuite décrits.Le chapitre III présente une étude de certaines propriétés structurales des systèmes du chapitre II.L'étude se concentre sur le calcul des indices d'observabilité et la détermination des hypersurfaces de la singularité d'observabilité.Le chapitre IV analyse l'indépendance statistique dans le contexte des systèmes chaotiques considérés:la taille de la distance d'échantillonnage (combien d'itérations ou de manière équivalente, combien de temps) pour assurer l'indépendance statistique entre les variables extraites des systèmes chaotiques.Un test original pour l'indépendance statistique (le test Badea-Vlad) a été utilisée; la procédure est applicable à tous les types de variables aléatoires continues, même reparties selon une loi de probabilité inconnue au besoin ici.Le chapitre V illustre le point de vue physique. Le temps transitoire correspond au temps passé par le système chaotique dans le bassin d'attraction avant de rejoindre l'attracteur étrange.De même il est important de savoir après combien de temps les points localisés dans une certaine région de l'attracteur étrange devient non-corrélés.Dans le chapitre VI, sachant l'identifiabilité des paramètres des systèmes chaotiques décrits par des équations polynomiales, une amélioration des inclusions du message dans ce type de cryptographie, est proposé.Le message clair est chiffré en utilisant une substitution classique avec boîtes de transposition, avant son inclusion dans l'émetteur chaotique.Les résultats de l'algorithme proposé sont évalués sur le texte et sur l'image.Le chapitre VII pose quelques questions, et essaie de trouver quelques-unes des réponses à ces questions, dans le cadre du schéma hybride.Comme par exemple, est-il possible de récupérer le message secret en utilisant un observateur, lorsque la dynamique qui lui inclut est retardée?La réponse est positive, et cela est montrée dans le cas d'une transmission intégrale de la sortie du système.Il est important de mentionner que ce travail est pluridisciplinaire, allant de la théorie du contrôle aux statistiques en passant par les domaines de l'électronique, de la mathématique et de l'informatique.
15

Diego, Maza William David. "Contrôle de trafic et gestion de la qualité de service basée sur les mécanismes IP pour les réseaux LTE." Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0406/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis quelques années le trafic de l'internet mobile ne cesse d'augmenter. Cette croissance soutenue est liée à plusieurs facteurs, parmi lesquels l'évolution des terminaux, la grande diversité des services et des applications disponibles et le déploiement des nouvelles technologies d'accès radio mobile (3G/4G). À cet égard, le standard 3GPP pour les réseaux LTE propose une architecture offrant une gestion fine de la QoS (par flux). Ce modèle, hérité des réseaux mobiles traditionnels orientés connexion, soulève des problèmes en termes de scalabilité, efficacité et performances. Les travaux entrepris dans cette thèse ont pour objectif principal de proposer des solutions plus simples et moins coûteuses pour la gestion de la QoS dans les réseaux mobiles. À cette fin, à l'issue d'une étude et de l'évaluation de l'impact de la signalisation associée au modèle de QoS standard, deux modèles alternatifs ont été proposés. Nous proposons tout d'abord un modèle basée sur les mécanismes IP inspiré de l'approche DiffServ (par agrégat) largement étudié dans les réseaux IP fixes. Ce modèle fournit une gestion de la QoS simple, efficiente et rentable, tout en garantissant des performances équivalentes au modèle standard. Cependant, elle nécessite une remise à niveau de tous les eNB, et donc une longue phase de transition. En conséquence, nous proposons SloMo qui vise à améliorer l'expérience des clients mobiles, mais avec un objectif de déploiement plus rapide. SloMo est une solution de gestion implicite de la QoS depuis un point unique situé sur le chemin des communications. SloMo exploite la dynamique instaurée par le mécanisme de contrôle de flux de TCP. Il vise à recréer un goulot d'étranglement dynamique dans un équipement contrôlé par l'opérateur lorsque les points de congestion réels ne sont pas accessibles. Une fois ce goulot d'étranglement déporté, il est alors aisé d'effectuer une gestion de la qualité IP classique dans l'équipement supportant Slo-Mo
The mobile data landscape is changing rapidly and mobile operators are today facing the daunting challenge of providing cheap and valuable services to ever more demanding customers. As a consequence, cost reduction is actively sought by operators as well as Quality of Service (QoS) preservation. Current 3GPP standards for LTE/EPC networks offer a fine tuning QoS (per-flow level), which inherits many characteristics of legacy telco networks. In spite of its good performance, such a QoS model reveals costly and cumbersome and finally, it remains very rarely deployed, thereby giving way to basic best-effort hegemony. This thesis aims at improving QoS in mobile networks through cost-effective solutions; To this end, after an evaluation of the impact and cost of signaling associated with the standard QoS model, alternative schemes are proposed, such as the IP-centric QoS model (per aggregate) inspired from the DiffServ approach widely used in fixed IP networks. This model provides a simple, efficient and cost-effective IP level QoS management with a performance level similar to standardized solutions. However, as it requires enhancements in the eNB, this scheme cannot be expected in mobile networks before a rather long time.Thus, we introduce Slo-Mo, which is a lightweight implicit mechanism for managing QoS from a distant point when the congestion point (e.g. eNB) is not able to do it. Slo-Mo creates a self-adaptive bottleneck which adjusts dynamically to the available resources taking advantage of TCP native flow control. Straightforward QoS management at IP level is then performed in the Slo-Mo node, leading to enhanced customer experience at a marginal cost and short term
16

Pham, Duc-Thinh. "Prédiction de trajectoire et avis de résolution de conflits de trafic aérien basée sur l’apprentissage automatique." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEP027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'augmentation de la demande de trafic a mis à rude épreuve le système de contrôle de la circulation aérienne et les contrôleurs, d'où la nécessité d'un système novateur et efficace de détection et de résolution des conflits. Dans le cadre de cette thèse, nous nous concentrons sur l'étude des défis de la détection et de la résolution des conflits en utilisant des approches d'apprentissage machine. Nous avons essayé d'apprendre et de prédire les comportements des contrôleurs à partir de données utilisant Random Forest. Nous proposons également une nouvelle approche pour la détection probabiliste des conflits en utilisant le Processus Gaussien Hétéroscédastique comme modèles prédictifs et l'optimisation bayésienne pour l'algorithme de détection probabiliste des conflits. Enfin, nous proposons un agent intelligent artificiel capable de résoudre les conflits, en présence de trafic et d'incertitude. La tâche de résolution de conflit est formulée comme un problème de prise de décision dans un espace d'action vaste et complexe, qui est applicable pour l'utilisation d'un algorithme d'apprentissage par renforcement. Notre travail comprend le développement d'un environnement d'apprentissage, la représentation des états des scénarios, la fonction de récompense et l'algorithme d'apprentissage. Les méthodes d'apprentissage machine ont montré leurs avantages et leur potentiel dans la détection et la résolution des conflits. Cependant, d'autres études seraient menées pour améliorer leurs performances, telles que la représentation du réseau de l'espace aérien, l'apprentissage du renforcement multi-agent ou la reconstruction de la stratégie du contrôleur à partir de données
The increasing in traffic demand has strained air traffic control system and controllers which lead to the need of novel and efficient conflict detection and resolution advisory. In the scope of this thesis, we concentrate on studying challenges in conflict detection and resolution by using machine learning approaches. We have attempted to learn and predict controller behaviors from data using Random Forest. We also propose a novel approach for probabilistic conflict detection by using Heteroscedastic Gaussian Process as predictive models and Bayesian Optimization for probabilistic conflict detection algorithm. Finally, we propose an artificial intelligent agent that is capable of resolving conflicts, in the presence of traffic and uncertainty. The conflict resolution task is formulated as a decision-making problem in large and complex action space, which is applicable for employing reinforcement learning algorithm. Our work includes the development of a learning environment, scenario state representation, reward function, and learning algorithm. Machine learning methods have showed their advantages and potential in conflict detection and resolution related challenges. However, more studies would be conducted to improve their performances such as airspace network representation, multi-agent reinforcement learning or controller's strategy reconstruction from data
17

Nguyen, Huy-Hoang. "Coordination des avions pour la résolution de conflits : Une approche basée sur le graphe PERT disjonctif." Compiègne, 2004. http://www.theses.fr/2004COMP1493.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La forte croissance du trafic aérien, notamment dans l'espace européen, occasionne des situations de conflit plus complexes qui font augmenter la charge de travail des contrôleurs. Afin de trouver une solution globale pour un cluster comprenant plusieurs avions avec un grand nombre de conflits, on doit résoudre le problème de la coordination d'actions entre des avions pour la résolution des conflits. Ce problème est un problème combinatoire NP-difficile, si l'objectif est la minimisation du coût global. On ne connaît pas de méthode exacte donnant une solution globale à ce problème dans les situations où le trafic est dense. Dans cette thèse, nous élaborons une approche basée sur la théorie de l'ordonnancement et plus précisément sur les modèles disjonctifs: chaque cluster de n avions en conflit est modélisé par un graphe PERT disjonctif, chaque paire d'arcs disjonctifs représente un conflit entre deux avions impliqués dans le cluster. Il faut résoudre un problème classique d'ordonnancement avec des contraintes conjonctives et disjonctives dont l'objectif est la minimisation de la somme des retards. Le graphe PERT solution montre le séquencement des actions (manœuvres), que les avions impliqués dans le cluster devront effectuer pour la résolution des conflits. Cette nouvelle approche a été intégrée dans la plateforme de simulation eDEP. Elle a été expérimentée avec un cluster de 20 avions avec 37 conflits effectifs, et un cluster de 15 avions avec 49 conflits effectifs en des temps de calcul acceptables. Les résultats numériques obtenus montrent l'efficacité de l'approche basée sur l'ordonnancement disjonctif, que n'inclut pas la résolution de conflit.
18

Haddad, Ramzi. "Coordination des conflits aériens en présence d’incertitudes : Une étude basée sur l'ordonnancement à contraintes de ressources." Compiègne, 2006. http://www.theses.fr/2006COMP1634.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le volume du trafic aérien a augmenté de 80% en dix ans, une croissance qui est appelée à se poursuivre. Les systèmes actuels de gestion du trafic aérien (Air Traffic Control systems), avec les améliorations en cours, devraient permettre de faire face à cette augmentation jusqu'au milieu de la prochaine décennie. En réponse a cette nécessité, ce travail de thèse, qui se situe à la jonction de deux domaines : l'ordonnancement de projet à contraintes de ressources et la coordination du trafic aérien. Nous avons mis en place un système dynamique permettant de résoudre les problèmes de gestion du trafic sous incertitudes en intégrant diverses techniques adaptées aux aléas existant dans ce contexte. Notre domaine d'application privilégié était la coordination (En-Route) du trafic aérien. Ce type de projet présente des caractéristiques relevant aussi bien de l'ordonnancement que de la planification sous incertitudes
The volume of the air traffic increased 80% in ten years, a growth that is called to continue. The improvements of the present systems of air-traffic management should permit to face this increase until the middle of the next decade. Ln response to this necessity, this thesis work is located between the junctions of two domains: project resources constraints scheduling and the air-traffic coordination. We constructed a dynamic system that permits to resolve air traffic management problems under uncertainties while integrating various techniques adapted to the hazards existing in the context. Our privileged application domain was the coordination (En-Route) of the aerial traffic. This type of project presents features raising form scheduling and organization under uncertainties domains
19

Nguyen, Minh Duc. "Méthodologie de test de systèmes mobiles : une approche basée sur les scénarios." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/775/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP
Advances in wireless networking have yielded the development of mobile computing applications. Their unique characteristics provide new challenges for verification. This dissertation elaborates on the testing technology for mobile systems. As a first step, a review of the state-of-the-art is performed together with a case study - a group membership protocol (GMP) in mobile ad hoc settings - that allowed us to gain insights into testing problems. We present, then, a testing approach which bases on the descriptions of scenarios. We note that the scenario interactions must take into account the spatial configurations of nodes as first class concepts. To cover new specificities of mobile systems in description languages, we introduce some extensions that focus on spatio-temporal relations between nodes and on broadcast communication. The processing of spatial aspect leads to the development of the tool GraphSeq. GraphSeq aims to analyze test traces in order to identify occurrences of successive spatial patterns described in an abstract scenario. The application of GraphSeq (support to implementation of test cases, verification of trace coverage) is shown with the analysis of outputs of a simulator and execution traces of the case study GMP
20

Tagnithammou, Tafsut. "Solution de mobilité personnelle basée sur une stratégie de collaboration Conducteur/Véhicule/Environnement." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de cette thèse porte sur une nouvelle architecture d’assistance pour la solution de mobilité Gyrolift. Ce fauteuil roulant verticalisateur est l’intégration d’un module robotique sur une base gyropodique. Le dispositif offre un déplacement aussi bien assis que debout aux utilisateurs de fauteuils roulants.D’abord, nous présentons le concept du Gyrolift avec une comparaison aux différentes solutions concurrentes. Ce dispositif est une forme d’orthèse qui offre une position debout avec les différents avantages physiologiques et psychologiques : amélioration de la fonction respiratoire, de la circulation sanguine, de la consolidation des os et une autonomie augmentée.Une relation d’interaction Homme-Machine s’établit entre l’utilisateur et son Gyrolift. De par sa nouveauté, une appréhension peut être provoquée. Cet état émotionnel peut perturber l’équilibre et le bien-être du conducteur. Nous abordons cette problématique tout en montrant qu’un stress peut être ressenti par les utilisateurs du Gyrolift.Ensuite, nous proposons une chaîne d’acquisition qui permet d’estimer l’état émotionnel du conducteur. De manière non-invasive, nous observons la variabilité de la fréquence cardiaque en utilisant une caméra grâce au principe de la photopléthymographie.La solution proposée a été testée dans des conditions statiques et quasi-dynamiques afin de simuler l’utilisation du Gyrolift. Elle permet d’établir si l’utilisateur est "stressé" ou "relaxé". Nous avons présenté les résultats obtenus. Les travaux de recherche menés démontrent que l’utilisation d’une caméra pour estimer l’activité cardiaque d’une personne est possible afin de déterminer son état émotionnel.Enfin, nous proposons une architecture de contrôle réactive pour le contrôle du Gyrolift. Elle permet d’assister, d’optimiser et de sécuriser l’utilisateur. Nous avons défini les différentes fonctionnalités du dispositif qui sont : la verticalisation ; la gestion de l’équilibre ; la gestion des béquilles pour le transfert ; gestion de l’autonomie et intégration de la partie contrôle via un boîtier de commande. Une hiérarchisation des fonctionnalités a été établie selon les cas d’usage.Cette architecture est embarquée sur le prototype pré-industriel du Gyrolift qui sera commercialisé au courant de l’année 2021
The work of this thesis concerns an assistance architecture for a new mobility solution Gyrolift. This standing wheelchair is the integration of a robotic module on a gyropodic base. The device offers both seated and standing positions to wheelchair users.First, we present the concept of the Gyrolift compared to different competing solutions. This device is similar to an orthosis which offers a standing position with various physiological and psychological advantages : improvement of the respiratory function, blood circulation, bone consolidation and increased autonomy.A human-machine interaction is established between the user and the Gyrolift. Due to its novelty, a stress can be felt. This emotional state can disturb the balance and well being of the driver. We adressed this issue by demonstrating that a stress can be felt by Gyrolift users.Then, we proposed an acquisition chain which estimates the emotional state of the driver. We observe the heart rate variability using a non-invasive solution "camera" with the Photoplethymography principle.The proposed solution has been tested. in static and quasi-dynamic conditions in order to simulate the use of the Gyrolift. We can establish wether the user is "stressed" or "relaxed". We presented the obtained results. Research shows that it is posssible to determine the emotional state using a camera by estimating the heart rate activity. Finally, we proposed a reactive control architecture for the Gyrolift control. It assists, optimizes and secures the user. We defined the different functionalities of the device which are : verticalization ; managing balance ; controling crutches for transfer ; autonomy management and integration of the control. A hierarchy of functionalities has been established according to the use cases.The architecture is embedded in the last prototype of the Gyrolift which will be marketed in 2021
21

El, Yadari Nizare. "Identification des défauts vus lors d'un contrôle non destructif ultrasonore par méthode d'inversion basée sur des résultats de modèles directs." Paris 7, 2006. http://www.theses.fr/2006PA077096.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur l'amélioration des méthodes d'identification et de dimensionnement des défauts vus lors d'un contrôle non destructif par ultrasons. L'interaction du faisceau ultrasonore émis dans la structure comportant un défaut donne lieu à différents phénomènes physiques : réflexion spéculaire, diffraction, conversions de mode. De plus, si le défaut est situé à proximité du fond de la pièce, apparaissent des échos de coin dus à des réflexions successives sur le fond et le défaut et des échos de géométrie dus aux irrégularités de la géométrie du fond. L'image ultrasonore de type Bscan contenant la signature des défauts se caractérise alors par une multiplicité d'indications ultrasonores qui rend difficile l'interprétation des données. Une méthode d'inversion appelant un modèle mixte a été développée. Cette méthode est basée sur la combinaison d'un modèle d'initialisation des solutions et d'un critère de dissemblance avec des résultats simulés. L'approche proposée est appliquée sur des résultats de simulation et des mesures expérimentales afin d'évaluer ses performances
This work aims at improving ultrasonic non-destructive testing methods in their ability to identify and size defects ultrasonic indications measured in a Bscan image resuit from different echo-formation mechanisms: specular refexion, diffraction, mode conversion. Moreover, since defects are close to the backwall surface of the component, appear echoes involving one reflection onto the backwall either for the incoming wave or for the wave scattered by the defect (corner effects) and echoes not due to the presence of a defect but to an irregularity of the part boundary. Consequently, the Bscan image is complicated and its interpretation is a difficult task. Our main objective is to obtain automatically defect characteristics (type, geometrical parameters) from an ultrasonic Bscan image. For this, an inverse method based on a two-step algorithm has been developped. The first step aims at defining a set of probable defects. The second step aims at finding among them the most probable solution. The performance of the proposed procédure is demonstrated by numerical simulations and experimental measurements
22

El, Hadef Jamil. "Approche quasi-systématique du contrôle de la chaîne d'air des moteurs suralimentés, basée sur la commande prédictive non linéaire explicite." Phd thesis, Université d'Orléans, 2014. http://tel.archives-ouvertes.fr/tel-01062186.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les centaines de millions de véhicules du parc automobile mondial nous rappellent à quel point notre société dépend du moteur à combustion interne. Malgré des progrès significatifs en termes d'émissions polluantes et de consommation, les moteurs à essence et diesel demeurent l'une des principales sources de pollution de l'air des centres urbains modernes. Ce constat motive les autorités à renforcer les normes anti-pollution, qui tendent à complexifier la définition technique des moteurs. En particulier, un nombre croissant d'actionneurs fait aujourd'hui, du contrôle de la chaîne d'air, un challenge majeur. Dans un marché de plus en plus mondialisé et où le temps de développement de moteurs se doit d'être de plus en plus court, ces travaux entendent proposer une solution aux problèmes liés à cette augmentation de la complexité. La proposition repose sur une approche en trois étapes et combine : modélisation physique du moteur, contrôle prédictif non linéaire et programmation multiparamétrique. Le cas du contrôle de la chaîne d'air d'un moteur à essence suralimenté sert de fil conducteur au document. Dans son ensemble, les développements présentés ici fournissent une approche quasi-systématique pour la synthèse du contrôle de la chaîne des moteurs à essence suralimentés. Intuitivement, le raisonnement doit pouvoir être étendu à d'autres boucles de contrôle et au cas des moteurs diesel.
23

El, Hadef Jamil. "Approche quasi-systématique du contrôle de la chaîne d’air des moteurs suralimentés, basée sur la commande prédictive non linéaire explicite." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les centaines de millions de véhicules du parc automobile mondial nous rappellent à quel point notre société dépend du moteur à combustion interne. Malgré des progrès significatifs en termes d’émissions polluantes et de consommation, les moteurs à essence et diesel demeurent l’une des principales sources de pollution de l’air des centres urbains modernes. Ce constat motive les autorités à renforcer les normes anti-pollution, qui tendent à complexifier la définition technique des moteurs. En particulier, un nombre croissant d’actionneurs fait aujourd’hui, du contrôle de la chaîne d’air, un challenge majeur. Dans un marché de plus en plus mondialisé et où le temps de développement de moteurs se doit d’être de plus en plus court, ces travaux entendent proposer une solution aux problèmes liés à cette augmentation de la complexité. La proposition repose sur une approche en trois étapes et combine : modélisation physique du moteur, contrôle prédictif non linéaire et programmation multiparamétrique. Le cas du contrôle de la chaîne d’air d’un moteur à essence suralimenté sert de fil conducteur au document. Dans son ensemble, les développements présentés ici fournissent une approche quasi-systématique pour la synthèse du contrôle de la chaîne des moteurs à essence suralimentés. Intuitivement, le raisonnement doit pouvoir être étendu à d’autres boucles de contrôle et au cas des moteurs diesel
The hundreds of millions of passenger cars and other vehicles on our roads emphasize our society’s reliance on internal combustion engines. Despite striking progress in terms of pollutant emissions and fuel consumption, gasoline and diesel engines remain one of the most important sources of air pollution in modern urban areas. This leads the authorities to lay down increasingly drastic pollutant emission standards, which entail ever more complex engine technical definitions. In particular, due to an increasing number of actuators in the past few years, the air path of internal combustion engines represents one of the biggest challenges of engine control design. The present thesis addresses this issue of increasing engine complexity with respect to the continuous reduction in development time, dictated by a more and more competitive globalized market. The proposal consists in a three-step approach that combines physics-based engine modeling, nonlinear model predictive control and multi-parametric nonlinear programming. The latter leads to an explicit piecewise affine feedback control law, compatible with a real-time implementation. The proposed approach is applied to the particular case of the control of the air path of a turbocharged gasoline engine. Overall, the developments presented in this thesis provide a quasi-systematic approach for the synthesis of the control of the air path of turbocharged gasoline engines. Intuitively, this approach can be extended to other control loops in both gasoline and diesel engines
24

Passama, Robin. "Conception et développement de contrôleurs de robots - Une méthodologie basée sur les composants logiciels." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00084351.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'un des problèmes majeurs rencontrés par la robotique est celui du développement d'architectures logicielles de contrôle des robots. Ceci s'explique par la complexité sans cesse croissante de ces architectures, qui doivent intégrer toujours plus de fonctionnalités de divers niveaux d'abstraction (de planification, d'asservissement, de perception, de gestion des modes de fonctionnement, etc.) et qui nécessitent la prise en compte du caractère temps-réel du contrôle. Par ailleurs, les fonctionnalités s'appuyant, directement ou non, sur un ensemble d'éléments matériels embarqués sur le robot, une architecture doit pouvoir être adaptée en fonction de l'évolution technologique (nouveaux capteurs et actionneurs, remplacement d'éléments de la partie opérative, etc.). L'enjeu actuel est donc de définir et intégrer des fonctionnalités sous forme de briques logicielles réutilisables au sein d'architectures de contrôle évolutives, de manière à simplifier le développement. Après avoir fait un tour d'horizon des propositions actuelles, le manuel présente CoSARC, une méthodologie originale couvrant l'intégralité du processus de développement d'un contrôleur de robot. La méthodologie est basée sur un modèle d'architecture et sur un langage à composants. Inspré des propositions historiques d'architectures hybrides, le modèle d'architecture constitue la base du processus de développement. Il définit une organisation générique intégrant une vision hiérarchique du contrôle et il s'appuie sur des concepts abstraits indépendants de tout domaine d'application, tel que celui de ressource . La construction d'une architecture est réalisée en fonction du modèle et à l'aide des éléments d'un langage à composants. Ces éléments correspondent à différentes catégories de composants : composants de représentation dédiés à la description des connaissances sur le monde du robot, composants de contrôle dédiés à la description des activités du robot, composants connecteurs dédiés à la description des protocoles régissant les interactions entre composants de contrôle, composants de configuration dédiés à la description d'une architecture et de son déploiement. Un des aspects essentiels de certains de ces composants réside dans le fait que leur comportement est exprimé sous la forme d'un réseau de Petri à Objets. L'expressivité et la pertinence de la méthodologie sont démontrés sur un exemple traitant du développement d'un robot manipulateur mobile.
25

Hu, Wei. "Identification de paramètre basée sur l'optimisation de l'intelligence artificielle et le contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire." Thesis, Ecole centrale de Lille, 2019. http://www.theses.fr/2019ECLI0008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de l'identification des paramètres du point de vue de l'optimisation et du contrôle de suivi distribué des systèmes multi-agents d'ordre fractionnaire (FOMASs) en tenant compte des retards, des perturbations externes, de la non-linéarité inhérente, des incertitudes des paramètres et de l'hétérogénéité dans le cadre d'une topologie de communication fixe non dirigée / dirigée. Plusieurs contrôleurs efficaces sont conçus pour réaliser avec succès le contrôle de suivi distribué des FOMASs dans différentes conditions. Plusieurs types d'algorithmes d'optimisation de l'intelligence artificielle et leurs versions modifiées sont appliquées pour identifier les paramètres inconnus des FOMASs avec une grande précision, une convergence rapide et une grande robustesse. Il est à noter que cette thèse fournit un lien prometteur entre la technique d'intelligence artificielle et le contrôle distribué
This thesis deals with the parameter identification from the viewpoint of optimization and distributed tracking control of fractional-order multi-agent systems (FOMASs) considering time delays, external disturbances, inherent nonlinearity, parameters uncertainties, and heterogeneity under fixed undirected/directed communication topology. Several efficient controllers are designed to achieve the distributed tracking control of FOMASs successfully under different conditions. Several kinds of artificial intelligence optimization algorithms andtheir modified versions are applied to identify the unknown parameters of the FOMASs with high accuracy, fast convergence and strong robustness. It should be noted that this thesis provides a promising link between the artificial intelligence technique and distributed control
26

Hrarti, Miryem. "Optimisation du contrôle de débit de H. 264/AVC basée sur une nouvelle modélisation Débit-Quantification et une allocation sélective de bits." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/181e500b-af8c-42a0-b134-b1ce33fd4c56.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se focalise sur l'optimisation de l'algorithme du contrôle de débit du standard H. 264/AVC. Cet algorithme constitué de deux parties fondamentales : allocation de bits et détermination du paramètre de quantification (QP), ne présente pas les meilleures performances et loin d’être optimal. Ainsi, nous avons proposé de nouvelles techniques permettant de déterminer de manière plus appropriée le QP et d'allouer finement le budget de bits tout en intégrant des propriétés du système visuel humain. Pour une meilleure estimation du QP, deux modèles Débit-Quantification (R-Q) sont proposés. Le premier modèle conçu pour les trames Intra, est un modèle non-linéaire utilisé pour déterminer de manière optimale le QP initial en exploitant la relation entre le débit cible et la complexité des trames Intra. Le second modèle logarithmique, est conçu pour les unités de codage Inter. Outre ses performances, ce modèle se substitue aux deux modèles utilisés par le contrôleur de débit de H. 264/AVC, et offre ainsi une réduction de la complexité calculatoire. L'allocation de bits au niveau trame du profil de base de H. 264/AVC reste basique car elle alloue équitablement le nombre de bits aux unités Inter indépendamment de leur complexité. Pour une allocation plus fine, deux mesures de complexité sont exploitées. La première est un rapport de mouvement déterminé à partir de bits réels utilisés pour coder les trames précédentes. La seconde mesure exploite la différence entre trames adjacentes et l'histogramme de cette différence. Enfin, et pour mieux contrôler la qualité, une carte de saillance est intégrée au processus d'allocation de bits. Au niveau trame, elle est utilisée pour réajuster le QP et attribuer plus de bits aux trames contenant plus de régions saillantes qui sont plus importantes. Au niveau macrobloc, la carte de saillance est exploitée pour répartir efficacement le nombre de bits entre les macroblocs d'une même trame. Cette répartition par "région" d'intérêt permet d'améliorer la qualité visuelle de la trame. Les nombreuses simulations effectuées montrent que chacun des modèles proposés, quand il est comparé avec deux algorithmes (JM15. 0 et JVT-O016), apporte des améliorations qui sont significatives aussi bien au niveau du débit moyen que du PSNR moyen. Une qualité plus consistante et donc un lissage de qualité à travers les trames est également observé
The explosion of multimedia applications is largely due to the efficiency of the compression techniques used. H. 264/AVC, also known as MPEG-4 Part 10 is the newest video coding standard. It is more effective than previous standards (MPEG1, MPEG2, part 4, H26x…) and achieves significant compression gains. As for other standards, the rate control is a key element of H. 264/AVC because it helps to regulate the visual quality of the reconstructed sequence while respecting the bandwidth constraints imposed by the channel transmission. In accordance with the specified target bit-rate, the rate control algorithm determines appropriately the quantization parameters. Basically, a first Rate-Quantization function elaborates a relationship between the rate and the quantization parameter (QP). A second function called Distortion-Quantization estimates the distortion (or quality) of the reconstructed video based on the used quantization parameter. These two functions lead together to a relationship (usually quadratic) between the quantization parameter, the target number of bits and the basic unit (Frame, Slice, macroblock or set of macroblocks) statistics. These functions have been the subject of several studies. The models that have been adopted and therefore recommended by the group standardization, do not generally offer better performances and they are far from optimal. This thesis is in this context. Its main objective is to develop and design new techniques to improve the performance of the rate control algorithm and those of the H. 264/AVC standard. These techniques are based on both a detailed analysis of the major current limitations and a wide literature review. Our purpose is to provide a more appropriate determination of the quantization parameter, a selective bit allocation that integrates Human Visual System properties and enhances the reconstructed video quality. To determine accurately the quantization parameter, two Rate-Quantization models (R-Q) have been proposed. The first model designed for Intra-Frames, is a non-linear one. It is used to determine the optimal initial quantization parameter, while exploiting the relationship between the target bit-rate and the complexity of Intra-Frames. The second model is a logarithmic one and it is designed for Inter coding units. It replaces the two models used by the H. 264/AVC rate controller and reduces the computational complexity. The frame layer bit allocation of the H. 264/AVC baseline profile remains basic. It assumes that GOPs (Groups Of Pictures) have similar characteristics and the target number of bits are fairly allocated to coding units regardless of their complexity. For a more accurate bit allocation, a new model has been proposed including two complexity measures. The first is a motion ratio determined from the actual bits used to encode the previous frames. The second measure uses the difference between adjacent frames and the histogram of this difference. Finally, to better control the visual quality of the reconstructed video, a saliency map is included into the bit allocation process. The saliency map generated by a bottom-up approach, simulates the human visual attention. It has been used to adjust the quantization parameter at frame layer. This adjustment allows the assignment of more bits to frames containing more salient regions (supposed to be more important than others). At macroblock layer, the saliency map is exploited to efficiently allocate the number of bits among the macroblocks of the same frame. This bit repartition by ''region'' of interest improves the visual quality of the frame. Experimental simulations show that the proposed models, when compared with two recent algorithms of rate control (JVT-O016 and JM15. 0), improve significantly the coding performances in terms of average bit-rates and PSNR. More consistent quality and therefore a quality smoothness through frames is also observed
27

Tebbani, Badis. "Gestion des réseaux basée sur les contrats de niveaux de service-SLA- : application dans un environnement sans fil-." Paris 6, 2009. http://www.theses.fr/2009PA066560.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons d’abord un langage de spécification pour représenter les contrats de niveau de services SLA. Ensuite, nous proposons un mapping adaptatif des politiques de niveau système en configurations des équipements réseaux et des outils de contrôle et de supervision afin de pouvoir s'adapter en cas de changements de l'environnement, et d'optimiser l'utilisation des ressources du réseau. Enfin, nous proposons une mise en pratique de l'ensemble des paradigmes de la gestion des réseaux basée sur les contrats de niveau de service et les objectifs de haut niveau, à travers un cas d'utilisation réel. Nous appliquons notre architecture de gestion de la QoS basée sur les sessions utilisateurs SQoSMA, qui intègre tous les éléments de la spécification des SLAs et des politiques, afin de garantir la qualité des services VoWLANs (Voice over WLANs). Afin d'évaluer les performances de notre solution, nous procédons à une implantation complète de notre architecture SQoSMA et les éléments qui la composent. L'évaluation des performances de notre architecture démontre non seulement la faisabilité de notre solution, mais également le gain qu'elle apporte.
28

Piriou, Pierre-Yves. "Contribution à l'analyse de sûreté de fonctionnement basée sur les modèles des systèmes dynamiques, réparables et reconfigurables." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les travaux existants, les analyses basées sur les modèles de la Sûreté de Fonctionnement (SdF) d'un système automatisé sont généralement focalisées uniquement sur la partie procédé. Aussi, les stratégies de reconfiguration du procédé - réalisées par le contrôle-commande - ne sont souvent pas modélisées, sinon de manière imprécises et sans échec possible. Pourtant, ces stratégies ont un impact certain sur la SdF du système bouclé, qui doit être pris en compte dans les modèles afin d'améliorer la pertinence des analyses. Le travail dont rend compte cette thèse contribue à la modélisation et à l'analyse de la SdF des systèmes dynamiques, réparables et reconfigurables. Premièrement, un nouveau formalisme de modélisation est proposé pour prendre en compte avec précision les différentes stratégies de reconfiguration du système avec leurs possibles échecs. Ce formalisme développe et généralise le principe des BDMP (Boolean logic Driven Markov Processes en anglais), auxquels il associe des machines de Moore afin de spécifier formellement les stratégies de reconfiguration. Dans un second temps, deux techniques d'analyse basées sur un modèle GBDMP (BDMP Généralisé) sont décrites. Ces techniques permettent d'obtenir un résultat qualitatif : l'ensemble des plus courtes Séquences de Coupe Minimales (SCM), ainsi qu'un résultat quantitatif : indicateur probabiliste de la disponibilité du système. Finalement, la modélisation GBDMP et l'analyse de SdF basée sur un modèle GBDMP sont expérimentées sur un cas d'étude représentatif de plusieurs problématiques industrielles liées au secteur de la production d'énergie électrique
Existing works on Model Based Safety Analysis of an automated system generally focus on the process part. Process reconfiguration strategies that are driven by the control are often modeled without failure and with a lack of accuracy. However these strategies have a real impact on the safety of the closed-loop system. In order to improve the relevance of analysis, this impact has to be captured in models. This thesis contributes to modeling and analysis of dynamic repairable reconfigurable systems. Firstly a new modeling formalism is proposed to relevantly take into account different reconfiguration strategies that can fail. This formalism develops and generalizes the principle of Boolean logic Driven Markov Processes (BDMP), and enriches it with Moore machine for formally specifying reconfiguration strategies. In a second stage, two analysis techniques based on a Generalized BDMP (GBDMP) model are described. These techniques allow to obtain a qualitative result: the set of shortest Minimal Cut Sequences (MCS), and a quantitative result: probabilistic indicator of system availability. Finally, a case study coming from the electric power production field is addressed. This case study shows how several industrial problems can be solved in GBDMP framework
29

Beraud, Benoit. "Méthodologie d'optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00457236.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc.). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement.
30

Faravelon, Aurélien. "Une démarche de conception et d'implémentation de la protection de la vie privée basée sur le contrôle d'accès appliquée aux compositions de services." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La vie privée et sa protection sont aujourd'hui largement discutées. Membres de la société civile, juristes ou encore techniciens, nous sommes tous appelés à nous emparer d'une notion que l'on nous présente à la fois comme menacée, désuète ou appartenant à nos libertés fondamentales. Aujourd'hui, les controverses autour de la protection de la vie privée ont pour origine des usages techniques. L'informatisation des fichiers étatiques et les possibilités accrues de surveillance issues des innovations en informatique et, plus récemment, les « usages sociaux » des outils numériques comme les « réseaux sociaux », provoquent de vives réactions. Pourtant, le recours à cette notion, notamment pour protéger les libertés individuelles, est-il complètement satisfaisant alors que, d'une part, les outils à l'origine de sa mise en question suscitent un large engouement, et que, d'autre part, ses contours sont mal définis? Nous adoptons, pour répondre à cette question, une position interdisciplinaire. D'une part, nous enquêtons d'un point de vue philosophique sur la « condition numérique » contemporaine afin d'en saisir les enjeux. Ce faisant, nous établissons que les outils numériques remettent en cause la notion de « frontiére ». Nous montrons simultanément que la possibilité d'une existence séparée est nécessaire pour constituer une subjectivité propre. Se pose alors la question de la mise en pratique d'une telle existence. Nous nous éloignons des approches déontologiques et utilitaristes qui guident actuellement la conception et l'évaluation des outils numériques pour leur préférer une approche fondée sur « l'éthique du souci de soi ». Cette approche nous conduit à établir que le code informatique constitue la structure de la condition numérique et qu'il s'agit de prendre en compte, dés la conception d'une application un ensemble de propriétés, comme la protection de la vie privée. Nous cherchons dans un second temps à aider les concepteurs d'applications à concevoir au mieux et à réaliser des applications qui permettent de protéger la vie privée des utilisateurs et des possesseurs des données. Notre domaine d'application est l'approche orientée services qui est aujourd'hui un largement utilisée. Nous nous concentrons sur son utilisation pour la réalisation d'applications à partir de compositions de services dynamiques et hétérogènes. Nous cherchons à protéger la vie privée à l'aide du contrôle d'accès. Pour ce faire, nous proposons de configurer les propriétés de contrôle d'accès des services au moyen d'une démarche dirigée par les modèles divisée en deux étapes. Au niveau conception, la composition et la politique de contrôle d'accès à un niveau abstrait sont spécifiées par des experts dédiés. Nous estimons que le contrôle d'accès doit être pris en compte dés la conception de l'application afin d'éviter le recours à la programmation manuelle. En rester à un niveau abstrait permet de s'adapter à l'état de la composition et à l'hétérogénéité et au dynamisme des services. Au niveau exécution, notre architecture permet de configurer les services concrets au moyen de proxies responsables de l'exécution du contrôle d'accès. Des transformations de modèles vers textes automatisées permettent de passer d'un niveau à l'autre afin de s'abstraire de la programmation manuelle et de garantir la protection des services concrets par les proxies. Notre approche a été validée par la réalisation d'un prototype et son utilisation sur un cas d'application
Privacy is hot topic. Lawyers, technicians and plain people are all concerned by this notion. Nowadays, most discussions focus on the effects of digital tools, such as social media or surveillance software. However, privacy is still ill-defined. Moreover, digital tools which endanger privacy are widely used. Should not we leave privacy aside and accept that we are, maybe more than ever, visible ?In this doctoral thesis, I address this question from a twofold viewpoint. I first inquire into the nature of our digital condition from a philosophical standpoint. I claim that digital artifacts rework the implementation of our frontiers, be them geographical or social. However, I contend that such frontiers are necessary. As I show that code defines the structure and the effects of digital tools, I point out that properties such as privacy management should be addressed right from the conception of software applications.Helping out designers to address such properties is the second issue I tackle. I focus on Service-Oriented Computing as it is a widely used paradigm. Most speci- fically, I deal with the composition of heterogenous and dynamic services. I define access control as an efficient mechanism to protect privacy and I propose a twofold generative approach to secure services compositions. The composition and its access control policies are separately defined at an abstract level. An expert is responsible for each of them. As we promote an abstract description of the application, we free the designer from technical complexity. At runtime, we propose an architecture which selects and protects the actual services by hiding them behind proxies which run the access control policy. Automated model transformations permit to generate the application from its specification. We thus bypass manual programming. We have implemented a modeling and execution environment and applied our approach to a use case in order to validate our work
31

Beraud, Benoît. "Méthodologie d’optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Montpellier 2, 2009. http://www.theses.fr/2009MON20049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc. ). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement
The work presented in this thesis concerns the development of an optimization methodology for control laws of wastewater treatment plants. This work is based on the use of WWTP process models in order to simulate their operation. These simulations are used by a multi-objective genetic algorithm, NSGA-II. This optimization algorithm allows the search of optimal solutions when multiple objectives are considered (e. G. The effluent quality, energy consumption, etc. ). It also enables the visualisation of compromises arising between various control laws as well as their respective best domains of application. In a first part of this work, the optimization methodology in developed around four main axes: the conception of a robust simulation procedure, the choice of input datasets for the simulations, the choice of objectives and constraints to consider and the evaluation of long term performances and robustness of control laws. This methodology is then applied on the literature case study of BSM1. In a second part of the work, the methodology is applied on the real case study of Cambrai wastewater treatment plant. This application includes the development of new aspects like the generation of dynamic input datasets out of daily monitoring measurements of the wastewater treatment plant, as well as the simulation of control laws based on oxydo-reduction potential measurements. This application allowed to analyze the compromises between the control law currently tested on the wastewater treatment plant and a new control law foreseen. The benefits of this modification could hence be clearly observed
32

Buisson, Corinne. "Développement d'une stratégie analytique basée sur la spectrométrie de masse de rapport isotopique appliquée au contrôle de l'usage frauduleux d'hormones stéroïdes en élevage." Nantes, 2005. http://www.theses.fr/2005NANT2090.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation d'hormones stéroïdes en tant qu'anabolisants est strictement interdite dans l'U. E. Pour les animaux de production (directive 96/22/EC). Pour les stéroïdes naturels, il n'existe pas de critère analytique non ambigu permettant leur contrôle. Une méthode utilisant la GC/C/IRMS a été développée afin de surveiller l'usage illégal de stéroïdes en élevage. En comparant les rapports isotopiques 13C/12C des métabolites de l'estradiol ou de la testostérone à deux composés endogènes de référence (DHEA, 5-androstène--diol), l'origine des métabolites a pu être déterminée. Après administration de stéroïdes à des bovins, nous avons démontré que les déviations isotopiques13CVPDB des métabolites étaient appauvries en 13C (–27‰ à –30‰), tandis que celles des précurseurs restaient entre –14‰ à –24‰ selon l'alimentation de l'animal. Cette différence en terme de déviations isotopiques métabolites-précurseurs nous permet de prouver une administration exogène de stéroïdes naturels
The use of steroid hormones for growth purpose is forbidden in the E. U. For cattle production (directive 96/22/EC). Non-ambiguous analytical criteria are not available for the control of steroids. A method using GC/C/IRMS was developed in order to check the illegal use of steroid hormones. By comparing the isotopic ratios 13C/12C of testosterone or estradiol metabolites to those of two endogenous reference compounds (DHEA and 5-androstene--diol), the determination of the metabolite's origin was made possible. After steroid administration, delta values 13CVPDB) of metabolites were depleted (–27‰ to –30‰), whereas those of precursors were found in-between –14‰ and –24‰ depending on the feeding of the animal. This 13CVPDB-difference metabolite-precursor permitted to prove the exogenou
33

Biaou, Ulrich. "Étude et mise en oeuvre d'une plateforme hybride basée sur du sans fil pour l'efficience énergétique et le contrôle d'accès dans le train." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0042/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les besoins de nouveaux services dans les rames ferroviaires ( le comptage, l’efficience énergétique, le confort et la sécurité des passagers etc.), risquent de saturer à terme les systèmes de communication filaires mis en place il y a une vingtaine d’années. Les réseaux de capteurs sans fil, par leurs avantages (déploiement facile, capacité à s’adapter à plusieurs types d’environnements, faible consommation d’énergie), ouvrent de nombreuses perspectives pour les systèmes de gestion énergétique. Le but de ce travail de thèse est d’étudier et mettre en oeuvre un réseau de capteurs sans fil à l’intérieur des trains pour l’efficience énergétique. Ainsi, quelques protocoles de communication dédiés à la gestion énergétique ont été présentés puis une étude comparative des différents réseaux de communication sans fil réalisée. Cette étude comparative a permis de faire le choix du réseau ZigBee comme étant le plus adéquat pour la plateforme. L’architecture hybride proposée permet l’utilisation du réseau IP existant comme colonne vertébrale de l’ensemble des réseaux ZigBee. Afin de tenir compte de l’effet de l’environnement ferroviaire dans la planification et le déploiement du réseau, une étude du canal de propagation, basée sur des mesures réalisées dans un métro et un wagon de RER a été menée. L’impact de la coexistence entre le ZigBee et le WiFi et de la présence humaine sur la communication du réseau sans fil a été démontré. Le prototype d’une plateforme basée sur le réseau ZigBee allant de la collecte des données à l’affichage des informations a été réalisé et testé
The need of new services in railway trains (services for metering, energy efficiency, the comfort and safety of users etc.) may eventually saturate the wired communication systems installed since twenty years ago years. The several advantages of wireless sensor networks (easy deployment, ability to adapt on different environments and low energy consumption) offer many possibilities for energy management systems. The aim of this thesis is to study and implement a wireless network sensors inside trains for energy efficiency. Thus, some communication protocols dedicated to energy management were presented and then a comparative study of the various wireless communication networks carried out. This comparative study shows that the ZigBee network is the most suitable for the platform. The proposed hybrid architecture allows the use of the existing IP network as the backbone of all ZigBee networks. In order to take into account the effect of the railway environment in the planning and deployment of the network, a study of the propagation channel was carried out, based on measurements realized in a subway and a RER car. The impact of the coexistence between ZigBee and WiFi and of the human presence on wireless communication have been demonstrated. The prototype of a platform based on the ZigBee network, allows data collection, informations traitement and monitoring, was carried out
34

Pham, Hoang Anh. "Coordination de systèmes sous-marins autonomes basée sur une méthodologie intégrée dans un environnement Open-source." Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL0020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie la coordination de robots sous-marins autonomes dans le contexte d’exploration de fonds marins côtiers ou d’inspections d’installations. En recherche d’une méthodologie intégrée, nous avons créé un framework qui permet de concevoir et simuler des commandes de robots sous-marins low-cost avec différentes hypothèses de modèle de complexité croissante (linéaire, non-linéaire, et enfin non-linéaire avec des incertitudes). Sur la base de ce framework articulant plusieurs outils, nous avons étudié des algorithmes pour résoudre le problème de la mise en formation d’un essaim, puis celui de l’évitement de collisions entre robots et celui du contournement d’obstacle d’un groupe de robots sous-marins. Plus précisément, nous considérons d'abord les modèles de robot sous-marin comme des systèmes linéaires de type simple intégrateur, à partir duquel nous pouvons construire un contrôleur de mise en formation en utilisant des algorithmes de consensus et d’évitement. Nous élargissons ensuite ces algorithmes pour le modèle dynamique non linéaire d’un robot Bluerov dans un processus de conception itératif. Nous intégrons ensuite un réseau de neurones de type RBF (Radial Basis Function), déjà éprouvé en convergence et stabilité, avec le contrôleur algébrique pour pouvoir estimer et compenser des incertitudes du modèle du robot. Enfin, nous décrivons les tests de ces algorithmes sur un essaim de robots sous-marins réels BlueROV en environement Opensource de type ROS et programmés en mode autonome. Ce travail permet également de convertir un ROV téléopéré en un hybride ROV-AUV autonome. Nous présentons des résultats de simulation et des essais réels en bassin validant les concepts proposés
This thesis studies the coordination of autonomous underwater robots in the context of coastal seabed exploration or facility inspections. Investigating an integrated methodology, we have created a framework to design and simulate low-cost underwater robot controls with different model assumptions of increasing complexity (linear, non-linear, and finally non-linear with uncertainties). By using this framework, we have studied algorithms to solve the problem of formation control, collision avoidance between robots and obstacle avoidance of a group of underwater robots. More precisely, we first consider underwater robot models as linear systems of simple integrator type, from which we can build a formation controller using consensus and avoidance algorithms. We then extend these algorithms for the nonlinear dynamic model of a Bluerov robot in an iterative design process. Then we have integrated a Radial Basis Function neural network, already proven in convergence and stability, with the algebraic controller to estimate and compensate for uncertainties in the robot model. Finally, we have presented simulation results and real basin tests to validate the proposed concepts. This work also aims to convert a remotely operated ROV into an autonomous ROV-AUV hybrid
35

Théro, Héloïse. "Contrôle, agentivité et apprentissage par renforcement." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE028/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sentiment d’agentivité est défini comme le sentiment de contrôler nos actions, et à travers elles, les évènements du monde extérieur. Cet ensemble phénoménologique dépend de notre capacité d’apprendre les contingences entre nos actions et leurs résultats, et un algorithme classique pour modéliser cela vient du domaine de l’apprentissage par renforcement. Dans cette thèse, nous avons utilisé l’approche de modélisation cognitive pour étudier l’interaction entre agentivité et apprentissage par renforcement. Tout d’abord, les participants réalisant une tâche d’apprentissage par renforcement tendent à avoir plus d’agentivité. Cet effet est logique, étant donné que l’apprentissage par renforcement consiste à associer une action volontaire et sa conséquence. Mais nous avons aussi découvert que l’agentivité influence l’apprentissage de deux manières. Le mode par défaut pour apprendre des contingences action-conséquence est que nos actions ont toujours un pouvoir causal. De plus, simplement choisir une action change l’apprentissage de sa conséquence. En conclusion, l’agentivité et l’apprentissage par renforcement, deux piliers de la psychologie humaine, sont fortement liés. Contrairement à des ordinateurs, les humains veulent être en contrôle, et faire les bons choix, ce qui biaise notre aquisition d’information
Sense of agency or subjective control can be defined by the feeling that we control our actions, and through them effects in the outside world. This cluster of experiences depend on the ability to learn action-outcome contingencies and a more classical algorithm to model this originates in the field of human reinforcementlearning. In this PhD thesis, we used the cognitive modeling approach to investigate further the interaction between perceived control and reinforcement learning. First, we saw that participants undergoing a reinforcement-learning task experienced higher agency; this influence of reinforcement learning on agency comes as no surprise, because reinforcement learning relies on linking a voluntary action and its outcome. But our results also suggest that agency influences reinforcement learning in two ways. We found that people learn actionoutcome contingencies based on a default assumption: their actions make a difference to the world. Finally, we also found that the mere fact of choosing freely shapes the learning processes following that decision. Our general conclusion is that agency and reinforcement learning, two fundamental fields of human psychology, are deeply intertwined. Contrary to machines, humans do care about being in control, or about making the right choice, and this results in integrating information in a one-sided way
36

Duval, Jean-Baptiste. "Détection numérique de petites imperfections de conductivité en 2D et 3D par une méthode dynamique basée sur l'équation des ondes et le contrôle géométrique." Phd thesis, Université de Picardie Jules Verne, 2009. http://tel.archives-ouvertes.fr/tel-00429530.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous considérons la solution numérique, dans des domaines bornés bidimensionnels et tridimensionnels, d'un problème inverse pour la localisation d'imperfections de petits volumes contenues dans un domaine sain de conductivité différente que celle des inhomogénéités. L'identification de ces inhomogénéités repose sur une approche dynamique basée sur l'équation des ondes. Notre algorithme numérique s'appuie sur le couplage d'une solution élément fini de l'équation des ondes, d'une méthode de contrôlabilité exacte et d'une inversion de Fourier pour localiser les centres des imperfections. Une application pratique de cette technique pourrait être la localisation de mines anti-personnel ou de tumeurs. Des résultats numériques, en deux et trois dimensions, montrent la robustesse et la précision de l'approche pour retrouver des imperfections, placées aléatoirement, à partir de mesures sur la frontière complète ou sur une partie de la frontière.
37

Meghnoudj, Houssem. "Génération de caractéristiques à partir de séries temporelles physiologiques basée sur le contrôle optimal parcimonieux : application au diagnostic de maladies et de troubles humains." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, une nouvelle méthodologie a été proposée pour la génération de caractéristiques à partir de signaux physiologiques afin de contribuer au diagnostic d'une variété de maladies cérébrales et cardiaques. Basée sur le contrôle optimal parcimonieux, la génération de caractéristiques dynamiques parcimonieuses (SDF) s'inspire du fonctionnement du cerveau. Le concept fondamental de la méthode consiste à décomposer le signal de manière parcimonieuse en modes dynamiques qui peuvent être activés et/ou désactivés au moment approprié avec l'amplitude adéquate. Cette décomposition permet de changer le point de vue sur les données en donnant accès à des caractéristiques plus informatives qui sont plus fidèles au concept de production des signaux cérébraux. Néanmoins, la méthode reste générique et polyvalente puisqu'elle peut être appliquée à un large éventail de signaux. Les performances de la méthode ont été évaluées sur trois problématiques en utilisant des données réelles accessibles publiquement, en abordant des scénarios de diagnostic liés à : (1) la maladie de Parkinson, (2) la schizophrénie et (3) diverses maladies cardiaques. Pour les trois applications, les résultats sont très concluants, puisqu'ils sont comparables aux méthodes de l'état de l'art tout en n'utilisant qu'un petit nombre de caractéristiques (une ou deux pour les applications sur le cerveau) et un simple classifieur linéaire suggérant la robustesse et le bien-fondé des résultats. Il convient de souligner qu'une attention particulière a été accordée à l'obtention de résultats cohérents et significatifs avec une explicabilité sous-jacente
In this thesis, a novel methodology for features generation from physiological signals (EEG, ECG) has been proposed that is used for the diagnosis of a variety of brain and heart diseases. Based on sparse optimal control, the generation of Sparse Dynamical Features (SDFs) is inspired by the functioning of the brain. The method's fundamental concept revolves around sparsely decomposing the signal into dynamical modes that can be switched on and off at the appropriate time instants with the appropriate amplitudes. This decomposition provides a new point of view on the data which gives access to informative features that are faithful to the brain functioning. Nevertheless, the method remains generic and versatile as it can be applied to a wide range of signals. The methodology's performance was evaluated on three use cases using openly accessible real-world data: (1) Parkinson's Disease, (2) Schizophrenia, and (3) various cardiac diseases. For all three applications, the results are highly conclusive, achieving results that are comparable to the state-of-the-art methods while using only few features (one or two for brain applications) and a simple linear classifier supporting the significance and reliability of the findings. It's worth highlighting that special attention has been given to achieving significant and meaningful results with an underlying explainability
38

Brahimi, Belynda. "Proposition d'une approche intégrée basée sur les réseaux de Petri de haut niveau pour simuler et évaluer les systèmes contrôlés en réseau." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00200431.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude des systèmes en réseau supports d'applications collaboratives, distribuées et interconnectées par un réseau repose sur l'identification des exigences de fonctionnement de l'application appelées Qualité de Contrôle (QdC), et sur l'évaluation des performances du réseau pour obtenir son niveau de Qualité de Service (QdS). « Cette thématique comporte d'importants verrous de nature fondamentale relevant du domaine de l'automatique, de la robotique, des capteurs, de la théorie de l'information, des réseaux. Par souci de simplification, les travaux sur les systèmes en réseau se repartissent selon deux approches: la première compense les perturbations générées par les communications au niveau de l'application (« control over network »). La seconde adapte les performances du réseau en fonction des besoins applicatifs (« control of network »). L'objectif de nos travaux de thèse est donc de proposer un environnement de modélisation intégré permettant de représenter le comportement des SCRs. Nous avons choisi les Réseaux de Petri de haut niveau qui possède un fort pouvoir d'expression, de formalisation et dont la modularité permet d'ajouter et/ou de faire évoluer les modèles qui sont développés dans ce travail. Dans un premier temps, nous avons proposé un modèle Ethernet Commuté gérant des mécanismes d'ordonnancement. Le choix de ce réseau a été guidé par le fait qu'il est de plus en plus utilisé dans les SCRs. Ensuite, le modèle d'un SCR a été proposé, et modélisé par des Réseaux de Petri de haut de niveau, en intégrant au modèle Ethernet Commuté, l'environnement applicatif : Contrôleur, Process,.. Enfin, des stratégies pour commander le réseau de façon à adapter sa Qualité de Service en regard de la Qualité de Contrôle requise par l'application, ont été mises en oeuvre. Pour cela, des ordonnanceurs à priorité stricte et de type WRR sont utilisés. Les résultats de simulation montrent clairement que des dispositifs de compensation du réseau pour améliorer les performances du système de communication, permettent aussi d'améliorer les performances du système à commander.
39

Lachance, Luc. "Observation de procédés basée sur des sous-modèles : applications au traitement et au transport de la matière." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24632/24632.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Brahimi, Belynda. "Proposition d’une approche intégrée basée sur les réseaux de Petri de Haut Niveau pour simuler et évaluer les systèmes contrôlés en réseau." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10095/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étude des systèmes en réseau supports d’applications collaboratives, distribuées et interconnectées par un réseau repose sur l’identification des exigences de fonctionnement de l’application appelées Qualité de Contrôle (QdC), et sur l’évaluation des performances du réseau pour obtenir son niveau de Qualité de Service (QdS). « Cette thématique comporte d’importants verrous de nature fondamentale relevant du domaine de l'automatique, de la robotique, des capteurs, de la théorie de l’information, des réseaux. Par souci de simplification, les travaux sur les systèmes en réseau se repartissent selon deux approches: la première compense les perturbations générées par les communications au niveau de l’application (« control over network »). La seconde adapte les performances du réseau en fonction des besoins applicatifs (« control of network »). L’objectif de nos travaux de thèse est donc de proposer un environnement de modélisation intégré permettant de représenter le comportement des SCRs. Nous avons choisi les Réseaux de Petri de haut niveau qui possède un fort pouvoir d’expression, de formalisation et dont la modularité permet d’ajouter et/ou de faire évoluer les modèles qui sont développés dans ce travail. Dans un premier temps, nous avons proposé unmodèle Ethernet Commuté gérant des mécanismes d’ordonnancement. Le choix de ce réseau a été guidé par le fait qu’il est de plus en plus utilisé dans les SCRs. Ensuite, le modèle d’un SCR a été proposé, et modélisé par des Réseaux de Petri de haut de niveau, en intégrant au modèle Ethernet Commuté, l’environnement applicatif : Contrôleur, Process,.. Enfin, des stratégies pour commander le réseau de façon à adapter sa Qualité de Service en regard de la Qualité de Contrôle requise par l’application, ont été mises en oeuvre. Pour cela, des ordonnanceurs à priorité stricte et de type WRR sont utilisés. Les résultats de simulation montrent clairement que des dispositifs de compensation du réseau pour améliorer les performances du système de communication, permettent aussi d’améliorer les performances du système à commander
The Networked Control Systems (NCS) used in collaborative, and distributed applications are based both on identification of application requirements named Quality of Control (QoC), and on performance evaluation of network to obtain the required Quality of Service (QoS). The pluridisciplinary aspect of NCS needs the knowledge of many domains such as information theory, robotics, sensors and networks. In general, two approaches are investigated in NCS: the first one deals with the compensation of the network perturbations by using control theory (control over network). The second one adapts the network performances according to the application needs (control of network). The objective of this thesis is to propose an integrated modelling environment to represent globally the NCS behaviour by using the High Level Petri Nets (HLPN) formalism. This work considers NCS based on switched Ethernet architectures. Such communication architecture is modelled with HLPN and is evaluated according to different scheduling mechanisms and traffic load. After that, NCS model based on HLPN is proposed. This model integrates the Ethernet switch model and applicative environment of NCS: controller, process… Finally, the strategies to control the network in order to adapt the QoS according to the QoC required by the application are proposed. These strategies are achieved using priority static and Weighted Round Robin policies. The obtained results show that the scheduling mechanisms enable to improve the performance of communication system and then to improve the application performances
41

Lebrun, Tristan. "Modélisation multi-physique passive, identification, simulation, correction et asservissement de haut-parleur sur des comportements cibles." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS686.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation du haut-parleur électrodynamique, son émulation et son contrôle. Pour la modélisation, on adopte une approche par composants s’appuyant sur les systèmes hamiltoniens à ports. Plusieurs phénomènes, linéaires ou non, sont ainsi traités puis agrégés dans un cadre multi-physique. Une attention particulière est portée à l’impact des effets thermiques sur les composants électrique et mécanique, pour lesquels on introduit des modèles conservatifs irréversibles originaux. Les simulations montrent que des comportements complexes connus sont régénérés. Un premier contrôle en boucle ouverte est élaboré pour supprimer les distorsions, par platitude différentielle. Afin de fournir au correcteur les paramètres des non-linéarités du modèle, une méthode d’estimation ad hoc est proposée. Celle-ci combine une séparation de la mesure en sous-signaux (organisés par ordre homogène de non-linéarité) et l’optimisation d’une fonction de coût (renforçant le contraste entre les ordres). Après validation numérique, les méthodes d’estimation et de contrôle sont appliquées sur un banc de test. Les paramètres physiques estimés sont cohérents mais les signaux temporels re-simulés indiquent la nécessité d’améliorer le modèle en très basse fréquence et de recourir à des ordres homogènes élevés.Le correcteur temps réel conduit à une réduction mesurable des distorsions sur la pression acoustique. En complément, un autre contrôle en boucle ouverte est développé pour compenser l’effet Doppler dû au mouvement de la membrane. Enfin, des méthodes sur le contrôle en boucle fermée sont proposées. L’une cible l’absorption acoustique en combinant « loi de contrôle en temps fini » (pour l’efficacité) et « passivité » (pour la robustesse). L’autre, plus générale, élabore un procédé de connexion « mi-physique, mi-numérique » entre un système physique et un contrôleur numérique qui rend la passivité insensible au retard introduit par le calculateur temps réel
This thesis concerns electrodynamic loudspeaker modeling, simulation and control. Regarding modeling, we adopt a component-based approach that relies on port-Hamiltonian systems. Several linear and nonlinear phenomena are thus modeled and then aggregated in a multi-physical framework. Particular attention is paid to the impact of thermal effects on electrical and mechanical components, for which we introduce new irreversible conservative models. The simulations regenerate known complex behaviors. A first open-loop control is developed to eliminate distortions by differential flatness. In order to provide the controller with the model's nonlinearity parameters, an ad hoc estimation method is proposed. This combines a separation of the measurement into sub-signals (organized in a homogeneous order of non-linearity) and the optimization of a cost function (improving the contrast between orders). After numerical validation, estimation and control methods are applied on a test bench. The estimated physical parameters are consistent but the re-simulated time signals indicate the need of improvement of the model at very low frequency and to use higher homogeneous orders. The real-time corrector leads to a measurable reduction of the distortions on the sound pressure. In addition, another open-loop control is developed to compensate for the Doppler effect due to the movement of the membrane. Finally, methods on closed-loop control are proposed. One targets acoustic absorption by combining "control law in finite time" (for efficiency) and "passivity" (for robustness). The other, more general, develops an "half-physical, half-digital" method of connection between a physical system and a digital controller that makes the passivity insensitive to the delay introduced by the digital signal processor
42

Denisse, Munante. "Une approche basée sur l'Ingénierie Dirigée par les Modèles pour identifier, concevoir et évaluer des aspects de sécurité." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3035/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'ingénierie des systèmes ou Génie Logiciel est une approche interdisciplinaire, dont le but est de formaliser la conception et le développement des systèmes. Cette approche commence par la définition des besoins, puis se poursuit avec la conception, l'implémentation et la validation du système. Historiquement, les systèmes ont été isolés et souvent basés sur des technologies propriétaires. De nos jours les systèmes informatiques s'interconnectent, s'ouvrent vers Internet, et s'appuient de plus en plus sur des technologies standards en favorisant l'inter-opérabilité. A côté d'apports indéniables, ces changements génèrent cependant de nouveaux risques de malveillance informatique. Pour y faire face, la sécurité informatique s'est fortement développée en permettant de mettre en place des contre-mesures plus ou moins fiables. Cette thèse se situe à la croisée de l'ingénierie des systèmes et de la sécurité. Elle vise à proposer une approche qui intègre ces deux domaines de manière collaborative et complémentaire. Même si ces deux domaines sont très liés l'un à l'autre, il existe relativement peu d'approches qui intègrent les aspects sécurité au processus d'ingénierie logicielle, et encore moins celles qui la considèrent dès la phase d'ingénierie des besoins, et/ou permettent l'évaluation de la politique de sécurité à un haut niveau d'abstraction. Cette thèse apporte une contribution dans ce domaine. Par conséquent, dans cette thèse nous proposons une approche basée sur l'IDM (Ingénierie Dirigée par les Modèles) et MDA (Model-Driven Architecture) qui intègre l’ingénierie des systèmes et la sécurité en utilisant les modèles. Cette approche permet d’identifier, de concevoir et d’évaluer des aspects de sécurité dans les différentes étapes de l'ingénierie des systèmes afin d'obtenir des systèmes sécurisés
Software engineering is an interdisciplinary approach aiming to formalize the development of systems. This approach begins with defining system requirements and then continues with defining the design, implementation and validation of systems. Historically, systems were isolated and often based on proprietary technologies. Todays, computer systems are interconnected using Internet and standard technologies by promoting interoperability. In spite of undeniable contributions, these changes engender new risks of computer vulnerabilities/attacks. To cope with these risks, information security has improved to implement more or less reliable counter-measures. This thesis is situated at the intersection/crossroads of the software engineering and the information security. It aims to propose an approach that integrates these two fields in a collaborative and complementary manner. Although both fields are closely related, there are few approaches that integrate security aspects into software engineering process, much less from engineering requirements, which allow the assessment of security policies from a high level of abstraction. Hence, this thesis makes a contribution in this area. Therefore, in this thesis, we propose an approach based on MDE (Model-Driven Engineering) and MDA (Model Driven Architecture) which integrates software engineering and information security using models. This approach allows to identify, to design and to assess security aspects in the stages of the system development in order to obtain secure systems
43

Lacroix, Julien. "Vers un cloud de confiance : modèles et algorithmes pour une provenance basée sur les contrôles d'accès." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4365.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce document constitue l'aboutissement de trois années de thèse. Après avoir introduit et dégagé la problématique générale se rapportant à mon sujet de thèse, à savoir « comment utiliser les données de provenance pour favoriser un Cloud de confiance ? », je présente une description des concepts, modèles et langages se rapportant à ma thèse et l'état de l'art qui peut répondre en partie à cette problématique. En second lieu, je présente la solution basée sur la provenance que j'apporte aux contrôles d'accès, dans les systèmes distribués comme le Cloud : PBAC². Elle repose sur un système combinant à la fois des modèles de provenance (PROV-DM) et de contrôles d'accès (règles génériques de type RBAC avec des politiques d'embrigadement ou de réglementation). Ce système utilise un moteur d'exécution central appelé le médiateur pour renforcer la sécurité et favoriser la confiance dans le Cloud, via la vérification de règles sur une partie du graphe de provenance rétrospective qu'il a reçue. Par ailleurs, je décris l'étude que j'ai faite de trois extensions de PBAC² : (1) l'intégration de l'ontologie PROV-O et ses avantages et inconvénients quant à la taille du (sous-)graphe de provenance reçu par le médiateur ; (2) la construction de l'adaptation de PBAC² avec l'approche de sécurité qu'est la réglementation; (3) la traduction des règles PBAC² en contraintes PROV-CONSTRAINTS. De plus, PBAC² est appliqué sur un exemple réaliste propre au secteur médical. Un prototype de PBAC² et une démonstration sur des exemples concrets avec une machine locale et un système de Cloud réel illustrent la portée de ce travail. En conclusion de la thèse, je propose quatre perspectives de ce travail
This document is the culmination of three years of thesis. Having introduced and cleared the general issue related to my thesis subject, i.e. « how to use provenance data to enforce trust in the Cloud? », I present a description of the concepts, models and languages related to my thesis and the state of the art that can partially address this issue. Secondly, I present the solution based on provenance that I bring to access controls, in distributed systems such as the Cloud: PBAC². It is based on a system combining both provenance models (PROV-DM) and access controls (generic rules of RBAC type with regimentation and regulation policies). This system uses a central execution engine denoted the mediator to enforce security and foster trust in the Cloud, via rule checking over a part of the retrospective provenance graph it received. Furthermore, I describe the study I made of three PBAC² extensions: (1) the integration of the PROV-O ontology and its pros and cons regarding the size of the (sub)graph received by the mediator; (2) the construction of the PBAC² adaptation with the regulation security approach; (3) the translation of PBAC² rules into PROV CONSTRAINTS constraints. Moreover, PBAC² is applied to a realistic example that belongs to the healthcare sector. A PBAC² prototype and a demonstration on some practical examples with a local machine and a real Cloud system illustrate the scope of this work. In conclusion of the thesis, I propose four perspectives of this work
44

Anna, François. "Développement d'une immunothérapie anti-tumorale basée sur un récepteur antigénique chimérique (CAR) ciblant le point de contrôle immunitaire HLA-G : implications pour les tumeurs et leur microenvironnement." Thesis, Université de Paris (2019-....), 2019. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=4021&f=26655.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours de la dernière décennie, l’avènement des immunothérapies antitumorales a été une vraie percée dans le monde de la cancérologie avec le succès clinique des inhibiteurs de point de contrôle immunitaire (ICP) ou des thérapies cellulaires basées sur l’utilisation de récepteurs antigéniques chimériques (CAR). Cependant, aujourd’hui elles montrent leurs limites contre les tumeurs solides, notamment à cause d’un manque d’antigène spécifique et d’un microenvironnement tumoral complexe capable de moduler la réponse immune au profit de l’expansion des cellules cancéreuses. La molécule HLA-G est une protéine immunosuppressive participant exclusivement à la tolérance foeto-maternelle en contexte normal mais dont la fonction a été détournée par les tumeurs pour inhiber la réponse effectrice à son encontre. HLA-G est donc identifié comme un excellent antigène associé aux tumeurs et son inhibition est un élément crucial pour restaurer la réponse immunitaire anti-tumorale. Cependant, aucune stratégie immunothérapeutique ciblant HLA-G n’existait jusqu’à aujourd’hui.L’absence de traitement efficace contre ou ciblant HLA-G provient de l’incapacité à générer efficacement des anticorps contre cette protéine complexe du fait de la présence de nombreuses isoformes et de leurs caractères immunotolérogéniques. Dans la première partie de ces travaux, grâce à une méthode d’immunisation originale basée sur l’utilisation de vecteurs lentiviraux, nous avons pu générer des anticorps capables de reconnaitre le site d’interaction de HLA-G avec ses récepteurs et donc de potentiellement bloquer la fonction ICP de HLA-G. La deuxième partie de cette étude décrit la génération d’une thérapie CAR ciblant HLA-G en tant qu’antigène spécifique aux tumeurs. Tout d’abord, nous nous sommes préalablement concentrés sur la régulation et l’expression de la chaine CAR au niveau transcriptionnel. Cette approche visait à limiter les multiples effets secondaires liés à une thérapie CAR tels que l’activation continue des cellules CAR-T ou l’élimination de cellules saines exprimant l’antigène ciblé. Nous avons ensuite généré deux nouveaux CAR de 3ème génération capable de reconnaitre spécifiquement les isoformes majoritaires de HLA-G en contexte tumoral, et nous avons démontré leur efficacité à éliminer des tumeurs exprimant HLA-G in vitro et in vivo. Enfin, une série d’optimisations ont été réalisées sur la structure des protéines CAR pour augmenter leur capacité cytotoxique et permettre leur régulation par l’introduction du gène suicide iC9 pour les modèles précliniques. Nous démontrons pour la première fois que la thérapie CAR anti-HLA-G est extrêmement efficace in vitro et in vivo.Enfin, nous discutons du potentiel des immunothérapies anti-HLA-G aussi bien au travers des anticorps monoclonaux bloquants que des cellules CAR-T dans le contexte des tumeurs solides, de leurs implications sur le microenvironnement et de leur possible combinaison avec d’autres immunothérapies
Over the last decade, anti-tumor immunotherapies have been a breakthrough in the oncology field following the clinical successes obtained with immune checkpoint inhibitors (ICPs) or chimeric antigenic receptors (CAR) based therapies. However, they are less effective against solid tumors, especially because of the lack of tumor specific antigen and of a tumor microenvironment capable of inhibiting the immune response favoring the tumor expansion. The HLA-G molecule is an immunosuppressive protein originally exclusively demonstrated to be involved in maternal-fetal tolerance but whose function has been hijacked by tumors to inhibit and escape from immune responses. HLA-G is now identified as an exquisite tumor associated antigen and its inhibition is crucial to restore the anti-tumor immune responses. Yet, no immunotherapy directed against HLA-G has been developed to date.The lack of effective treatment against or targeting HLA-G is related to the inefficiency to induce antibodies against this complex protein since HLA-G could be expressed through several isoforms that are immunosuppressives. In the first part of this study, thanks to an original immunization method based on the use of lentiviral vectors, we demonstrate the possibility to generate antibodies which are capable to recognize the HLA-G interaction domain with its receptors and are expected to inhibit the ICP function of HLA-G. The second part describes a CAR-T cell immunotherapy targeting HLA-G for its TAA properties. We first focused on the regulation and on the expression of the CAR chain at the transcriptional level. This approach was meant to limit the side effects caused by CAR therapies such as continuous activation of the CAR-T cells or elimination of healthy cells expressing the targeted antigen. We then generated two new 3rd generation CARs demonstrated to specifically recognize major HLA-G isoforms expressed by tumor cells and to eradicate HLA-G expressing tumor cells in vitro and in vivo. Several optimizations were carried out on the CAR chain structure to increase CAR-T cells cytotoxic function and to control their persistence through the insertion of the iC9 suicide gene. Given the results presented here, we provide the first vitro and vivo proofs of concept that a CAR therapy directly targeting HLA-G, and more generally an ICP is strikingly efficient.Finally, we discussed the potential for both anti-HLA-G blocking monoclonal antibodies and CAR-T cells immunotherapies against solid tumors and its implication against the tumor microenvironment and possible combinations with other immunotherapies
45

Rezaeimalek, Mohammad. "Planification des activités d’inspection sous incertitude basée sur les conditions de maintenance préventive d’un système de production série." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La planification de l'inspection de la qualité des pièces (PQIP) est un problème important dans les systèmes de production. En raison du fort impact des activités de maintenance préventive (PM) sur le taux de non-conformité des produits (un des principaux paramètres du problème PQIP), il est nécessaire de développer une planification intégrée des activités l'inspection et les activités de maintenance afin d’obtenir une optimisation globale du système. Cette thèse présente des modèles mathématiques de programmation linéaire à nombres entiers mixtes pour le problème de planification intégrée du contrôle de la qualité et des activités de gestion de maintenance dans un système de production en série à plusieurs étapes. Les modèles déterminent simultanément le moment et l’endroit optimals pour effectuer les activités susmentionnées en prenant en compte la détérioration des étapes de production. Ces deux décisions sont effectuées via la minimisation du coût total (y compris la production, la maintenance, l'inspection, la mise au rebut, la réparation et la pénalité des articles défectueux expédiés au client) et ainsi elles optimisent la productivité du système. Dans ce cas, la productivité du système est formulée comme une mesure non linéaire, puis linéarisée par la technique d'approximation linéaire par morceaux. En plus, l’incertitude relative à l’estimation des composantes de coût et de la quantité demandée est gérée par une approche possibiliste robuste. Un exemple numérique et une étude de cas réelle sont étudiés pour valider et vérifier les modèles proposés. Le résultat le plus important de cette recherche est que la détermination des lieux d’inspection le long d’un processus de fabrication à différentes périodes avec la prise en compte d’impact des activités de maintenance préventive sur le taux de production défectueuses se traduit par une amélioration significative de la performance du système de production
Part Quality Inspection Planning (PQIP) is a significant problem in multi-stage manufacturing systems. Because of an existing strong impact of Preventive Maintenance (PM) activities on the defective production rate (which is the main input of the PQIP), developing an integrated planning for the part quality inspection and PM protects system from a local optimum. This thesis presents mixed-integer linear programming models for the integrated planning problem of the part quality inspection and PM activities in a serial multi-stage manufacturing system. The models concurrently determine the right time and place for performing the above-mentioned activities while the stages are deteriorating. These two decisions are made while the models are to minimize the total cost (including the production, PM, inspection, scrap, repair, and the penalty of shipped defective items) and maximize system productivity. Notably, the system productivity is formulized as a non-linear measure, and then it is linearized by the piecewise linear approximation technique. In addition, the uncertainty about the estimation of cost components and demand is handled by a robust possibilistic approach. A numerical example and a real case study are investigated to validate and verify the proposed models. The most important result of this research is that the determination of inspection locations along a manufacturing line in different periods of time regarding the impact of preventive maintenance activities on defective production probability results in a more efficient system
46

Fakhfakh, Kaouthar. "Approche sémantique basée sur les intentions pour la modélisation, la négociation et la surveillance des contrats de qualité de service." Phd thesis, Université des Sciences Sociales - Toulouse I, 2011. http://tel.archives-ouvertes.fr/tel-00677398.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux de thèse s'inscrivent dans le cycle de vie des contrats de qualité de service (QdS) pour les architectures orientées services. Le cycle de vie de ces contrats se caractérise principalement par une phase de spécification et de modélisation des niveaux requis de qualité, une phase de négociation de ces niveaux et une phase de surveillance du contrat de qualité de service élaboré entre le client et le fournisseur. Concernant la première phase, nous avons remarqué que les approches existantes de modélisation des contrats de qualité de service se limitent à une description incompléte notamment dans le cas où les niveaux de service requis sont composés à partir d'autres métriques élémentaires de qualité. Pour remédier à cette insuffisance, nous avons défini un modèle nommé " SLAOnt " caractérisé par sa richesse sémantique et par sa complétude. Ce modèle de contrats de QdS est le fondement de base pour la phase de négociation et la phase de surveillance. Quand à la deuxième phase, nous avons constaté que les approches existantes de négociation consistent à choisir un sous-ensemble de clauses et de valeurs parmi des choix prédéfinis par le fournisseur. Cependant, le client peut ne pas comprendre ces choix dans le cas où il n'est pas expert du domaine. En conséquence, il n'a pas la possibilité d'exprimer ses exigences avec ses connaissances et son langage. Pour cela, nous avons proposé une approche de négociation basée sur un alignement d'objectifs sémantiques de qualité de service pour l'élaboration de ces contrats. Cette approche d'alignement se base sur des inférences sémantiques dans toutes ses étapes permettant de détecter des correspondances non détectables par les techniques classiques de négociation et d'alignement offrant ainsi une précision supérieure par rapport aux approches existantes. Cette phase d'alignement se termine par une génération complète d'un contrat de qualité de service en cas de compatibilité. Concernant la troi sième phase traitant la surveillance des contrats de qualité de service, nous avons remarqué l'absence d'une approche automatique et générique pour faciliter la tâche d'observation, d'analyse et de détection des violations de contrats de QdS. Pour remédier à ces insuffisances, nous nous sommes basés sur les mêmes capacités sémantiques que la phase de négociation. En effet, l'approche de surveillance de QdS que nous avons définie se base sur un raisonnement par inférence qui nous permet de détecter des violations et même des dégradations non détectables sans sémantique.
47

Losa, Damiana. "Planification de manœuvres à poussée forte vs à poussée faible pour le maintien à poste de satellites géostationnaires." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://tel.archives-ouvertes.fr/tel-00173537.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de thèse traitent du problème de la planification de manœuvres pour le maintien à poste de satellites géostationnaires équipés de tuyères électriques (à poussée faible). Nous évaluons l'opportunité de substituer une telle planification à celle traditionnellement utilisée pour les satellites géostationnaires équipés de tuyères chimiques (à poussée forte).
Dès son apparition, la technologie des systèmes de propulsion à poussée faible a rencontré un vif intérêt auprès des agences et des sociétés spatiales. Grâce à sa haute impulsion spécifique (qui implique une basse consommation de carburant), cette technologie est devenue très compétitive par rapport à la technologie traditionnelle des propulseurs chimiques à poussée forte, surtout dans les phases de transfert et rendez-vous des missions spatiales.
Pendant la définition des missions à poussée faible, les analyses de faisabilité des phases de transfert et rendez-vous (via la solution de problèmes d'optimisation de trajectoire) ont été réalisées avec des solutions d'optimisation alternatives. En effet, pendant ces phases, il est nécessaire d'activer les systèmes de propulsion à faible poussée sur des longues portions du temps de transfert.
Par conséquent, les problèmes d'optimisation de trajectoire à poussée forte (typiquement formulés en temps discret) ont été remplacés par des problèmes d'optimisation de trajectoire à poussée faible formulés en temps continu et résolus par des techniques de contrôle en temps continu.
Le premier objectif de cette thèse est de comprendre quel est l'impact de la technologie à faible poussée lors de l'analyse de faisabilité de la phase de maintien à poste de satellites géostationnaires. Nous étudions en particulier l'impact de l'utilisation des systèmes de propulsion à faible poussée sur la planification de manœuvres et sur la boucle entière de maintien à poste géostationnaire.
L'étude consiste à déduire si la planification de manœuvres à poussée faible est compétitive au regard des stratégies classiques de planification couramment employées pour des manœuvres à poussée forte.
Généralement, les stratégies classiques à long terme pour le maintien à poste sont déduites de modèles de propagation d'orbite simplifiés (en fonctions des paramètres orbitaux moyennés) par la conjonction des trois facteurs suivants : la forte poussée des propulseurs, la dimension de la fenêtre de maintien à poste pas très contraignante ainsi que la possibilité d'exécuter des manœuvres à basse fréquence.
Dans le cadre de cette thèse, compte tenu du faible niveau des poussées et des contraintes strictes en position (fenêtres de maintien à poste petites), nous considérons comme plus appropriés l'hypothèse d'une plus haute fréquence de manœuvres et l'utilisation d'un modèle de propagation d'orbite en fonction de paramètres osculateurs.
Pour la planification de manœuvres, nous proposons une solution par approche directe : le problème de maintien à poste en tant que problème de contrôle optimal est discrétisé et traduit en un problème d'optimisation paramétrique. Deux techniques différentes d'optimisation sont proposées : l'optimisation sous contraintes à horizon fixe et celle à horizon glissant.
Cette deuxième technique est appliquée aux équations linéarisées du mouvement préalablement transformées via un changement de variable à la Lyapunov sur l'état des déviations des paramètres équinoxiaux osculateurs. Cette transformation de Lyapunov définit des nouveaux paramètres orbitaux. Elle rend le processus de planification plus compréhensible du point de vue du contrôle et plus facile à implémenter d'un point de vue numérique, grâce aux concepts de platitude et inclusion différentielles.
Les résultats de la planification de manœuvres à poussée faible sont obtenus dans un premier temps en fonction des changements de vitesse, dans un deuxième temps en fonction des forces engendrées par les tuyères des systèmes de propulsion classiques. Le but est de déterminer la solution la plus efficace en conditions nominales et en cas de panne d'un des propulseurs.
Le problème du positionnement simultané de plusieurs satellites dans une même grande fenêtre de maintien à poste n'est pas adressé explicitement. Il est implicitement résolu en proposant une technique fine de contrôle pour maintenir chaque satellite à poste dans une fenêtre de dimension très petite.
48

Merino, Laso Pedro. "Détection de dysfonctionements et d'actes malveillants basée sur des modèles de qualité de données multi-capteurs." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0056/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes navals représentent une infrastructure stratégique pour le commerce international et les activités militaires. Ces systèmes sont de plus en plus informatisés afin de réaliser une navigation optimale et sécurisée. Pour atteindre cet objectif, une grande variété de systèmes embarqués génèrent différentes informations sur la navigation et l'état des composants, ce qui permet le contrôle et le monitoring à distance. Du fait de leur importance et de leur informatisation, les systèmes navals sont devenus une cible privilégiée des pirates informatiques. Par ailleurs, la mer est un environnement rude et incertain qui peut produire des dysfonctionnements. En conséquence, la prise de décisions basée sur des fausses informations à cause des anomalies, peut être à l'origine de répercussions potentiellement catastrophiques.Du fait des caractéristiques particulières de ces systèmes, les méthodologies classiques de détection d'anomalies ne peuvent pas être appliquées tel que conçues originalement. Dans cette thèse nous proposons les mesures de qualité comme une potentielle alternative. Une méthodologie adaptée aux systèmes cyber-physiques a été définie pour évaluer la qualité des flux de données générés par les composants de ces systèmes. À partir de ces mesures, une nouvelle approche pour l'analyse de scénarios fonctionnels a été développée. Des niveaux d'acceptation bornent les états de normalité et détectent des mesures aberrantes. Les anomalies examinées par composant permettent de catégoriser les détections et de les associer aux catégories définies par le modèle proposé. L'application des travaux à 13 scénarios créés pour une plate-forme composée par deux cuves et à 11 scénarios pour deux drones aériens a servi à démontrer la pertinence et l'intérêt de ces travaux
Naval systems represent a strategic infrastructure for international commerce and military activity. Their protection is thus an issue of major importance. Naval systems are increasingly computerized in order to perform an optimal and secure navigation. To attain this objective, on board vessel sensor systems provide navigation information to be monitored and controlled from distant computers. Because of their importance and computerization, naval systems have become a target for hackers. Maritime vessels also work in a harsh and uncertain operational environments that produce failures. Navigation decision-making based on wrongly understood anomalies can be potentially catastrophic.Due to the particular characteristics of naval systems, the existing detection methodologies can't be applied. We propose quality evaluation and analysis as an alternative. The novelty of quality applications on cyber-physical systems shows the need for a general methodology, which is conceived and examined in this dissertation, to evaluate the quality of generated data streams. Identified quality elements allow introducing an original approach to detect malicious acts and failures. It consists of two processing stages: first an evaluation of quality; followed by the determination of agreement limits, compliant with normal states to identify and categorize anomalies. The study cases of 13 scenarios for a simulator training platform of fuel tanks and 11 scenarios for two aerial drones illustrate the interest and relevance of the obtained results
49

Doumbo, Ogobara. "Epidémiologie du paludisme au Mali : étude de la chloroquinorésistance, essai de stratégie de contrôle basée sur l'utilisation de rideaux imprégnés de perméthrine associée au traitement systématique des accès fébriles." Montpellier 2, 1992. http://www.theses.fr/1992MON20039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une etude epidemiologique multidisciplinaire du paludisme a ete menee au mali de juillet 1987 a decembre 1991, associee a une evaluation de la chloroquino-sensibilite et d'un essai de controle base sur l'utilisation des rideaux impregnes de permethrine (rip a plus le traitement systematique des cas febriles. Cinq facies epidemiologiques de transmission du paludisme sont decrits: les zones de savane, de sahel, du sahara, les zones periodiquement inondees et le milieu urbain. An. Gambiae s. L. Et an. Funestus, sont les principaux vecteurs du paludisme au mali. P. Falciparum est l'espece dominante (85-90%) suivi de p. Malaria (10-14%), de p. Ovale (1%). P. Vivax a ete decrit au nord dans la population blanche. Le niveau de sensibilite varie d'un facies a l'autre (0-3%, 10-25. /% dans les villages et 60% en ville). Les rip ont une efficacite remarquable sur la nuisance culicidienne, l'indice splenique, l'indice plasmodique et la charge parasitaire des la deuxieme annee d'utilisation. Cette technologie est facile a transferer a la communaute et bien acceptee par celle-ci
50

Fall, Dame. "Développement d'une technique à double Chirp spatio-temporel basée sur des capteurs SAW-IDT : application à la caractérisation de couches minces et de revêtements fonctionnels." Thesis, Valenciennes, 2016. http://www.theses.fr/2016VALE0011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail rentre dans le cadre de la caractérisation des couches minces, de revêtements et de surfaces fonctionnelles (épaisseur, constantes élastiques,…). Parmi les méthodes de caractérisation potentielles, les méthodes ultrasonores employant des ondes de surface sont particulièrement intéressantes. Pour ce faire, nous avons choisi d’exploiter la dispersion des ondes de surface de type Rayleigh. En effet, les ondes acoustiques de surface (SAW) de type Rayleigh se propagent à la surface d’un matériau et l’énergie véhiculée par ces ondes est confinée sous la surface dans une couche d’épaisseur de l’ordre d’une longueur d’onde. Afin de caractériser ces revêtements, il est nécessaire de travailler sur une large gamme de fréquences. D’autre part, ces couches peuvent être fragiles et transparentes, c’est pourquoi, des transducteurs interdigités (IDT) sont envisagés. Pour optimiser ce type de capteurs, et en particulier leur bande passante, il est nécessaire d’étudier différentes configurations sachant qu’il est notamment possible de faire varier le nombre d’électrodes, les dimensions des électrodes, leurs formes et leurs espacements. Enfin, pour exciter ces ondes de surface dans une large gamme de fréquence avec des niveaux de déplacement suffisants pour la caractérisation des couches minces et revêtements, la technique à double Chirp spatio-temporel basée sur des transducteurs SAW-IDT a été privilégiée. Nous avons montré les potentialités de cette approche en caractérisant premièrement des structures à couche mince métalliques d’épaisseurs de 100 nm et plus, et deuxièmement des revêtements transparents de type sol-gel
This work is within the scope of characterization of thin layers, coatings and functional surfaces (thickness, elastic constants,…). Among the characterization methods, the ultrasonic methods using surface acoustic waves are particularly interesting. In order to do this, we chose to make use the dispersion phenomenon of Rayleigh-like surface acoustic waves. Indeed, the propagation of these waves is close to the surface of material and the energy is concentrated within a layer under the surface of about one wavelength thick. In order to characterize these coatings and structures, it is necessary to perform measurements in high frequencies. On the other hand, these coatings can be fragile and transparent, this is why in this study, SAW-IDT sensors are achieved for surface acoustic wave generation. For optimization of these SAW-IDT sensors, particularly their band-width, it is necessary to study various IDT configurations by varying the number of electrodes, dimensions of the electrodes, their shapes and spacings. Finally, to generate the surface acoustic waves over a wide frequency range with sufficient displacement amplitude for the characterization of thin films and coatings, a time-space chirp technique with SAW-IDT sensors was selected. We have shown the potential of this approach by characterizing firstly thin metallic layers, and secondly transparent coatings obtained by the sol-gel process

До бібліографії