Dissertations / Theses on the topic 'Contrôle basé sur des règles'

To see the other types of publications on this topic, follow the link: Contrôle basé sur des règles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Contrôle basé sur des règles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cardot, Anaïs. "Rejeu basé sur des règles de transformation de graphes." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2254.

Full text
Abstract:
Réaliser des variations d'un même modèle est un besoin en expansion dans de nombreux domaines de modélisation (architecture, archéologie, CAO, etc.). Mais la production manuelle de ces variations est fastidieuse, il faut donc faire appel à des techniques permettant de rejouer automatiquement tout ou partie du processus de construction du modèle, après spécification des modifications. La majorité des approches dédiées à la réalisation du rejeu sont basées sur un système de modélisation paramétrique, composée d’un modèle géométrique et d’une spécification paramétrique permettant d’enregistrer la succession d’opérations l’ayant créé ainsi que leurs paramètres. On peut ensuite faire varier ces paramètres ou éditer cette liste d’opérations afin de modifier le modèle. On utilise pour cela un système de nommage persistant, introduit dans les années 90, et permettant d’identifier et d’apparier les entités d’une spécification initiale et celles d'une spécification rejouée. L’objectif de cette thèse est de proposer un système de nommage persistant général, homogène et permettant de gérer l’édition de spécification paramétriques (déplacer, ajouter et supprimer des opérations). Nous nous basons sur la bibliothèque Jerboa, qui repose sur des règles de transformation de graphes, tant pour utiliser ces règles dans la réalisation de la méthode de nommage que pour lier les notions de spécification paramétrique à ces règles de transformations de graphes. Nous décrivons ensuite comment exploiter notre méthode de nommage pour rejouer et éditer des spécifications paramétriques d’opérations, puis nous la comparons avec les approches de la littérature
In many modelling fields, such as architecture, archaeology or CAD, performing many variations of the same model is an expanding need. But building all those variations manually takes time. It is therefore needed to use automatic technics to revaluate some parts of a model, or even an entire model, after the user specifies the modifications. Most of the existing approaches dedicated to revaluating models are based on a system called parametric modelling. It is made of two parts, a geometric model and a parametric specification, which allows to record the series of operation that created the model, and the different parameters of those operations. This way, the user can change some parameters, or edit the list of operations to modify the model. To do so, we use a system called persistent naming, introduced during the 90ies, that allows us to identify and match the entities of an initial specification and the ones of a revaluated specification. In this thesis, our goal is to propose a persistent naming system that would be general, homogeneous and that would allow the user to edit a parametric specification (which means move, add, or delete some operations). We base our system on the Jerboa library, which uses graph transformation rules. This way, we will be able to use those rules to create our naming system, while also linking the notions of graph transformation rules and parametric specification. We will then describe how to use our naming method to revaluate or edit parametric specifications. Finally, we will compare our method with the other ones from the literature
APA, Harvard, Vancouver, ISO, and other styles
2

Lavoie, Marc-André. "Développement et contrôle d'un bras robotique basé sur l'actionneur différentiel élastique." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1494.

Full text
Abstract:
Les forces et faiblesses des robots différant grandement de celles des humains, les robots chirurgicaux ont plusieurs avantages qui expliquent leur utilisation croissante en salle d'opération. Cependant, la robotique chirurgicale demeure un domaine qui comporte de nombreux défis. Plutôt que de travailler directement au niveau de l'application sur un robot spécifique, il a été décidé de concentrer les efforts sur une des composantes mécaniques qui impose des limitations aux interactions humain-robot : l'actionneur. Dans cette optique, un prototype de bras interactif a été réalisé en utilisant la technologie de l'Actionneur Différentiel Élastique (ADE), un actionneur élastique haute-performance de faible impédance mécanique intrinsèque. Le bras à trois degrés de liberté, dont les actionneurs sont contrôlés en impédance, pourra servir à étudier la façon dont les interactions humain/robot permettent d'augmenter les capacités humaines de manipulation. Le contrôle d'impédance de l'ADE a été utilisé en tant que noyau central lors du développement du contrôle du bras interactif. L'analyse des performances dans la plage de fréquence d'intérêt suggère un bon comportement de l'actionneur lorsque l'impédance mécanique demandée est faible.Les premiers essais d'interaction humain-robot avec le bras interactif suggèrent que l'ADE est tout indiqué pour une telle application. Le contrôle d'impédance développé a pu être utilisé dans le cadre d'une autre application robotique : le contrôle des axes de direction du robot mobile omnidirectionnel AZIMUT[indice inférieur 3].
APA, Harvard, Vancouver, ISO, and other styles
3

Ouedraogo, Sarah. "Développement de Stratégies Optimisées de Gestion de l’Energie Intermittente dans un Micro Réseau Photovoltaïque avec Stockage." Electronic Thesis or Diss., Corte, 2023. http://www.theses.fr/2023CORT0008.

Full text
Abstract:
Les micro-réseaux sont considérés comme l'avenir de la production d'énergie et de la distribution dans les réseaux électriques. Beaucoup d’entre eux comportent une production photovoltaïque et un stockage, le plus souvent sous forme de batteries, pour alimenter différentes charges. Cette thèse a pour objectif principal de proposer des stratégies de gestion de l'énergie visant à optimiser les coûts de fonctionnement d'un micro-réseau photovoltaïque avec batterie, tout en respectant des contraintes spécifiques. Ce micro-réseau alimente des logements ainsi que des véhicules électriques.Pour ce faire, cinq stratégies de gestion de l'énergie basées sur des règles, avec une complexité croissante, ont été développées. Ces stratégies ont été comparées à une stratégie d'optimisation par programmation linéaire en termes de performances énergétiques et économiques. Les résultats obtenus indiquent que la stratégie la plus optimale atteint un niveau de performance proche de la stratégie par programmation linéaire, considérée comme « optimale ». Cependant, certaines limitations ont été observées pour les premières stratégies avec notamment la présence de coupures d'électricité dont nous ne pouvons pas nous satisfaire. Pour améliorer ces stratégies, l'effet saisonnier, particulièrement au niveau de la production solaire, a été pris en compte éliminant ainsi les coupures d'électricité. Selon la stratégie choisie, nous avons également observé que les batteries sont plus au moins sollicitées, il convenait donc de considérer ce vieillissement plus au moins important des batteries au niveau des performances. Des modèles de vieillissement adaptés ont ainsi été mis en œuvre. Les résultats ont montré que la rentabilité des batteries dépend du coût d'installation et qu’elles restent économiquement intéressantes pour des coûts inférieurs à environ 175 €/kWh. La stratégie de contrôle basée sur les règles la plus performante intègre la variation du coût du coût de l'électricité, la prévision de la production photovoltaïque, la variation saisonnière de la production PV et la dégradation de la batterie dans son processus de décision. Cette stratégie améliore le gain financier d'environ 68 % par rapport à la stratégie basée sur les règles la plus simple, proche d’une stratégie d’autoconsommationUne analyse de l'influence dans les simulations de différents paramètres tels que le tarif d’achat de l'électricité, la capacité de la batterie, les puissances échangées avec le réseau principal et le profil de consommation a été réalisée. Il a été constaté que le modèle de tarification de l'électricité a un effet important sur la répartition des flux d'énergie ainsi que le gain financier. L'influence de la taille de la batterie, de la limitation de la puissance échangeable avec le réseau principal et du profil de consommation dépend fortement de la stratégie utilisée mais aussi du modèle de tarification de l'électricité.Ce travail met en évidence l'importance d'intégrer les caractéristiques de l'énergie photovoltaïque dans les stratégies de gestion de l'énergie en utilisant différents outils tels que la prévision de la production photovoltaïque. Ces informations sont précieuses pour les décisions d'investissement et d'exploitation
Microgrids are considered as the future of energy production and distribution in electrical grid. Many of them incorporate photovoltaic generation and storage, mostly in the form of batteries, to power various loads. The main objective of this thesis is to propose energy management strategies designed to optimize the operating costs of a photovoltaic microgrid with battery while respecting specific constraints. This microgrid powers residential buildings and electric vehicles.To achieve this, five energy management strategies based on rules, with increasing complexity, were developed. These strategies were compared to an optimization using linear programming in terms of energy and economic performance. The results indicate that the most optimal strategy achieved a performance level close to the linear programming, which is considered "optimal." However, some limitations were observed for the initial strategies, including power cuts, which are not acceptable. To improve these strategies, the seasonal effect, particularly in photovoltaic production, was taken into account, eliminating power cuts. Depending on the chosen strategy, the batteries are more or less stressed, so it was necessary to consider the varying battery aging and its impact on performance. Suitable battery aging models were thus implemented. The results showed that the profitability of batteries depends on their installation cost and they remain economically viable for costs below approximately 175 €/kWh. The most effective rule-based control strategy considers variations in electricity costs, photovoltaic production forecasting, seasonal variation in PV production, and battery degradation in its decision-making process. This strategy improves financial gain by approximately 68 % compared to the simplest rule-based strategy, which is similar to a self-consumption strategy.An analysis of the influence of different parameters, such as electricity purchase tariffs, battery capacity, power exchanged with the main grid and consumption profiles was conducted through simulations. It was found that the electricity pricing model has a significant effect on energy distribution and financial gain. The influence of battery size, limitation of power exchange with the main grid, and consumption profile strongly depends on the strategy used, as well as the electricity pricing model.This work highlights the importance of integrating the characteristics of photovoltaic energy into energy management strategies through the use of various tools such as photovoltaic production forecasting. This information is valuable for investment and operational decision-making
APA, Harvard, Vancouver, ISO, and other styles
4

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Full text
Abstract:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
APA, Harvard, Vancouver, ISO, and other styles
5

Knotek, Michal. "Diagnostic de fautes basé sur l'analyse temporelle." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00110429.

Full text
Abstract:
Dans le domaine de la sûreté de fonctionnement, le diagnostic joue
un rôle primordial dans l'amélioration de la disponibilité opérationnel le
des équipements. Dans les systèmes industriels, une part importante
(jusqu'à 80%) est consacrée à la maintenance, test et diagnostic. Pour
des systèmes complexes, la résolution des problèmes liés au diagnostic
et d'une manière générale de la supervision nécessite la mise en oeu-
vre d'une approche générique. Le diagnostic concerne les deux phases
indissociables de détection et de localisation. Dans cette thèse nous
proposons une approche dynamique de diagnostic pour les systèmes à
événements discrets. L'approche proposée basée sur l'exploitation du
temps, est applicable à tout système dont l'évolution dynamique dépend
non seulement de l'ordre des événements discrets mais aussi de la durée
des tâches associées comme pour les processus de communication ou les
processus batch. Dans cette thèse, le diagnostic des fautes est réalisé
grâce à l'implémentation d'un modèle basé sur l'utilisation des auto-
mates temporisés. L'objectif est de concevoir un observateur pour un
système donné, qui permet de détecter et localiser les éventuel les dé-
fail lances du procédé. Cet observateur est appelé “diagnoser”. Une
défail lance est constatée lorsque le séquencement temporel en sortie est
incorrect. Nous présentons donc les différentes étapes de la démarche
de diagnostic : la construction du diagnoser, la vérification du modèle
ainsi qu'une l'application de la démarche sur un exemple réel avec son
extension aux systèmes hybrides.
APA, Harvard, Vancouver, ISO, and other styles
6

Maurice, François. "Un modèle d'évaluation et d'amélioration d'entités logicielles basé sur l'utilisation de métriques." Toulouse 3, 1996. http://www.theses.fr/1996TOU30192.

Full text
Abstract:
L'augmentation de la duree du developpement, de la complexite et de la criticite des taches a automatiser pour la realisation de logiciels a rendu de plus en plus difficile la satisfaction de leur qualite. De ce constat est ne le besoin de mesurer les produits logiciels afin de comprendre comment leurs aspects internes (tels que la taille, le couplage ou encore la complexite) nuisent a leur qualite externe telle que leur fiabilite, leur maintenabilite ou leur productivite, et ce afin de pouvoir prendre les decisions pour les ameliorer. De nombreuses metriques ont ete definies mais un manque de rigueur dans leur definition et leur application n'a pas permis d'obtenir les resultats escomptes dans l'amelioration des logiciels. La definition des metriques manque souvent de precisions sur ce qui est mesure, empechant ainsi leur critique et leur reutilisation de maniere efficace. De plus, leur definition ne s'insere pas dans une demarche coherente prenant en compte un but initial. L'application des metriques, qui se refere a l'utilisation des techniques statistiques aux valeurs fournies par les metriques, est trop souvent bafouee. Les caracteristiques des donnees collectees sont peu souvent prises en compte pour le choix des techniques statistiques impliquant ainsi une interpretation des resultats qui entraine des prises de decision d'amelioration inadequates aux problemes rencontres. Nous presentons une demarche permettant l'evaluation d'attributs internes et externes d'entites logicielles du type produit, processus ou ressource. Cette demarche utilise et renforce le paradigme defini par la methode ami. Ce processus permet, etape par etape, de suivre le deroulement d'une activite de mesurage coherente et pertinente pour l'amelioration des artefacts logiciels. Il comprend quatre etapes principales: la definition du but d'amelioration qui est raffine en sous-buts puis en questions, la specification des metriques permettant de repondre a ces questions et ainsi d'aider a la realisation du but initial, la verification de la specification de chaque metrique et la determination du type d'echelle qu'elles permettent de definir, et enfin leur validation pour verifier leur caractere predictif envers une metrique qui evalue un attribut externe de la qualite. Un lien significatif entre un ensemble de metriques evaluant des attributs internes et une metrique evaluant un attribut externe est une condition necessaire a l'amelioration des logiciels. Cela permet de modifier ou de calibrer les attributs internes d'un logiciel en cours de developpement afin d'ameliorer un aspect de sa qualite externe
APA, Harvard, Vancouver, ISO, and other styles
7

Komarova, Maryna. "Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogène." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Komarova, Maryna. "Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogènes." Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793/fr/.

Full text
Abstract:
Les défis clés de la mobilité omniprésente sécurisée ont été analysés, notamment la sélection du réseau candidat (cible), constitution dynamique des relations de confiance, authentification rapide réciproque et contrôle d'accès dans un environnement ouvert. Les contributions présentées dans cette thèse traitent des questions de réduction du temps d'authentification inter-domaine, d'optimisation de la signalisation liée à la sécurité et du contrôle d'accès dans un environnement ouvert. Afin de diminuer la latence d'authentification dans le scénario où l'authentification pour l'accès réseau et pour les services sont les processus séparés, nous avons proposé l'approche qui combine les opérations de 802. 1X et PANA. Puis, nous introduisons le protocole d'authentification rapide pourla transtion inter - domaine. L'approche proposée élimine la nécessité de communication entre le réseau cible et le réseau d'origine d'utilisateur. Nous développons ce protocole par la proposition d'un schéma pour la distribution des tickets d'authentification. Les résultats obtenus au cours des expériences et des simulations ont montré que l'approche proposée améliore les paramètres de handover tel que la latence et le coût de la signalisation. Nous introduisons le mécanisme du contrôle d'accès fondé sur la confiance qui permet de définir les droits d'accès d'un utilisateur selon son comportement antérieur, ses recommandations et les réputations des fournisseurs de recommandations. Ce modèle offre au réseau la possibilité d'adapter les politiques d'accès à l'environnement dynamique et de traiter l'historique d'interactions à long terme
In this thesis, we study the current situation and trends in wireless technologies development. We discuss the problems related to security mechanisms specific to each technology, and in particular the possibilities for integration and interworking. We first study the possibility of authentication latency decreasing in a scenario where the network access authentication is decoupled from the service access authentication. An authorized user is granted network and service access as a result of a single authentication process that combines 802. 1X and PANA operations. Then we introduce the Fast re-Authentication Protocol (FAP) for inter-domain roaming, which aims to reduce the authentication delay for a mobile user in a visited administrative domain. The approach eliminates the need for communication between the target and the user's home networks for credentials verification. We develop the Fast re-Authentication Protocol by suggesting a ticket distribution scheme for inter-domain roaming. This method decreases the number of tickets sent and consequently the overhead and delay of the ticket acquisition phase of the protocol. Numerical results obtained from experiments on a test-bed and a series of simulations show that the proposed scheme enhances inter-domain handover parameters such as authentication latency and signalling cost. To improve the access control to network resources we propose the adjustable trust model. The purpose of this work is to provide the network with the opportunity to react to user behaviour. Users are motivated to gain higher trust because trusted users have access to a larger set of services with higher quality of service. Validation of the proposed trust-based access control method has been done via simulations. Finally, we discuss how the proposed solutions can be implemented in a single framework
APA, Harvard, Vancouver, ISO, and other styles
9

Moussa, Kaouther. "Estimation de domaines d'attraction et contrôle basé sur l'optimisation : application à des modèles de croissance tumorale." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT078.

Full text
Abstract:
L’objectif de cette thèse consiste à proposer des algorithmes ainsi que des approches, basés sur des méthodes avancées de l’automatique, afin de guider la synthèse des traitements de cancer. Cette thèse a également pour but de relever l’importance de la considération des différentes incertitudes stochastiques qui peuvent affecter ce genre de systèmes.Le phénomène de croissance tumorale et ses différentes dynamiques sont encore à nosjours un sujet de recherche ouvert. La complexité de ce type de systèmes vient de leur nature incertaine ainsi que de la méconnaissance de leurs comportements. Par ailleurs, ces systèmes sont souvent décrits par des dynamiques non-linéaires complexes et requièrent la prise en compte de différentes contraintes liées à la physiologie ainsi que la biologie de l’être humain.Ce sujet regroupe plusieurs ingrédients de complexité en termes de synthèse de contrôle, tels que les dynamiques non-linéaires, la prise en considération des contraintes ainsi que des problèmes d’optimalité. Pour cela, nous proposons dans cette thèse d’utiliser une méthode récente de contrôle optimal basée sur l’optimisation par les moments. Cette approche a pour avantage de considérer les différentes variables d’état et de contrôle comme étant des densités de probabilité, rendant la prise en considération d’incertitudes décrites par des distributions de probabilité directe dans le problème de contrôle optimal. Nous utilisons cette méthodologie dans la Partie II afin de synthétiser des contrôles optimauxet robustes, représentant des profils d’injection de médicaments.Le second problème qu’on considère dans la Partie III consiste en l’estimation derégions d’attraction pour des modèles dynamiques de cancer. Ce problème est intéressant dans le contexte de traitements de cancer, car ces régions caractérisent l’ensemble des conditions initiales (volume tumoral et indicateurs de santé), qui peuvent être amenées à une région saine, où le patient est considéré comme guéri. Par ailleurs, on analyse des méthodologies permettant de prendre en considération des modèles dynamiques présentant des incertitudes paramétriques
The main objective of this thesis is to propose frameworks and algorithms that are based on advanced control approaches, in order to guide cancer treatments scheduling. It also aims at pointing out the importance of taking into account the problem of stochastic uncertainties handling in the drug scheduling design, since cancer dynamical systems are considered to be highly uncertain phenomena.Cancer dynamical interactions are still an open research topic which is not fully understood yet. The complexity of such dynamics comes from their partially unknown behavior and their uncertain nature. Additionally, they are often described by nonlinear complex dynamics and require taking into consideration many constraints related to physiology as well as biology.In terms of control design, this topic gathers many complexity ingredients such asnonlinear dynamics, constraints handling and optimality issues. Therefore, in this thesis, we propose to use a recent optimal control approach that is based on moment optimization. This framework has the advantage of considering all the state and input variables as probability densities, allowing therefore to explicitly consider parametric as well as initial state uncertainties in the optimal control problem. We use this framework in Part II, in order to design robust optimal control schedules that represent cancer drugs injection profiles.The second problem that we address in Part III consists in the estimation of regionsof attraction for cancer interactions models. This problem is interesting in the context of cancer treatment design, since it provides the set of all possible initial conditions (tumor and patient health indicators), that can be driven to a desired targeted safe region, where the patient is considered to be healed. Furthermore, we focus on the assessment of methodologies that take into consideration the parametric uncertainties that can affect the dynamical model
APA, Harvard, Vancouver, ISO, and other styles
10

Voiry, Matthieu. "Étude et conception d'un système automatisé de contrôle d'aspect des pièces optiques basé sur des techniques connexionnistes." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0077/document.

Full text
Abstract:
Dans différents domaines industriels, la problématique du diagnostic prend une place importante. Ainsi, le contrôle d’aspect des composants optiques est une étape incontournable pour garantir leurs performances opérationnelles. La méthode conventionnelle de contrôle par un opérateur humain souffre de limitations importantes qui deviennent insurmontables pour certaines optiques hautes performances. Dans ce contexte, cette thèse traite de la conception d’un système automatique capable d’assurer le contrôle d’aspect. Premièrement, une étude des capteurs pouvant être mis en oeuvre par ce système est menée. Afin de satisfaire à des contraintes de temps de contrôle, la solution proposée utilise deux capteurs travaillant à des échelles différentes. Un de ces capteurs est basé sur la microscopie Nomarski ; nous présentons ce capteur ainsi qu’un ensemble de méthodes de traitement de l’image qui permettent, à partir des données fournies par celui-ci, de détecter les défauts et de déterminer la rugosité, de manière robuste et répétable. L’élaboration d’un prototype opérationnel, capable de contrôler des pièces optiques de taille limitée valide ces différentes techniques. Par ailleurs, le diagnostic des composants optiques nécessite une phase de classification. En effet, si les défauts permanents sont détectés, il en est de même pour de nombreux « faux » défauts (poussières, traces de nettoyage. . . ). Ce problème complexe est traité par un réseau de neurones artificiels de type MLP tirant partie d’une description invariante des défauts. Cette description, issue de la transformée de Fourier-Mellin est d’une dimension élevée qui peut poser des problèmes liés au « fléau de la dimension ». Afin de limiter ces effets néfastes, différentes techniques de réduction de dimension (Self Organizing Map, Curvilinear Component Analysis et Curvilinear Distance Analysis) sont étudiées. On montre d’une part que les techniques CCA et CDA sont plus performantes que SOM en termes de qualité de projection, et d’autre part qu’elles permettent d’utiliser des classifieurs de taille plus modeste, à performances égales. Enfin, un réseau de neurones modulaire utilisant des modèles locaux est proposé. Nous développons une nouvelle approche de décomposition des problèmes de classification, fondée sur le concept de dimension intrinsèque. Les groupes de données de dimensionnalité homogène obtenus ont un sens physique et permettent de réduire considérablement la phase d’apprentissage du classifieur tout en améliorant ses performances en généralisation
In various industrial fields, the problem of diagnosis is of great interest. For example, the check of surface imperfections on an optical device is necessary to guarantee its operational performances. The conventional control method, based on human expert visual inspection, suffers from limitations, which become critical for some high-performances components. In this context, this thesis deals with the design of an automatic system, able to carry out the diagnosis of appearance flaws. To fulfil the time constraints, the suggested solution uses two sensors working on different scales. We present one of them based on Normarski microscopy, and the image processing methods which allow, starting from issued data, to detect the defects and to determine roughness in a reliable way. The development of an operational prototype, able to check small optical components, validates the proposed techniques. The final diagnosis also requires a classification phase. Indeed, if the permanent defects are detected, many “false” defects (dust, cleaning marks. . . ) are emphasized as well. This complex problem is solved by a MLP Artificial Neural Network using an invariant description of the defects. This representation, resulting from the Fourier-Mellin transform, is a high dimensional vector, what implies some problems linked to the “curse of dimensionality”. In order to limit these harmful effects, various dimensionality reduction techniques (Self Organizing Map, Curvilinear Component Analysis and Curvilinear Distance Analysis) are investigated. On one hand we show that CCA and CDA are more powerful than SOM in terms of projection quality. On the other hand, these methods allow using more simple classifiers with equal performances. Finally, a modular neural network, which exploits local models, is developed. We proposed a new classification problems decomposition scheme, based on the intrinsic dimension concept. The obtained data clusters of homogeneous dimensionality have a physical meaning and permit to reduce significantly the training phase of the classifier, while improving its generalization performances
APA, Harvard, Vancouver, ISO, and other styles
11

Fosse, Pascal. "Une expérience sur le raisonnement en langage naturel : une étude de l'effet de contraintes syntaxico-sémantiques sur un mécanisme bi-directionnel basé sur des règles de production contextuelles." Paris 11, 1985. http://www.theses.fr/1985PA112334.

Full text
Abstract:
Cette thèse présente un système capable de répondre à des questions en langage naturel. Nous tentons d'établir un lien entre une question posée et des connaissances extraites d'une encyclopédie, par l'utilisation de règles de production contextuelles, qui s'appliquent sur la structure de surface des textes. Le "raisonneur" est inspiré d'une version antérieure, dont nous avons voulu améliorer les performances en nous penchant particulièrement sur les points qui engendraient une explosion combinatoire. Nous exposons notamment la mise en œuvre, ainsi que ses effets, de deux modules : l'un concernant l’opération de filtrage entre une règle et un texte, l'autre décrivant l'évaluation de fonctions syntaxico-sémantiques. Les performances de cette nouvelle version sont évaluées par une série d'expériences au moyen desquelles: - nous justifions certains choix correspondant à des stratégies locales. - nous estimons les limites de la méthode (saturation du raisonneur). - nous mesurons l'amélioration que nous avons apportée par rapport à la version initiale du raisonneur
This thesis presents a natural-language question-answering system. We attempt to establish a link between a question and a knowledge base: taken from an encyclopedia. This link is made of a sequence of elementary steps of inference, each of which is performed by means of a "contextual production rule", acting on surface-level texts. The reasoning module basically operates as an inference engine. We explain here how we improved a previous version of this module, and particularly describe the implementation of two crucial points: first, an efficient pattern¬matching algorithm, especially designed for natural language strings, and second, the evaluation of syntactic and semantic functions. The efficiency of this new version is evaluated through a series of experiments. These experiments allow us: - to justify our choices corresponding to local strategies - to estimate the limits of the method - to measure the improvement we obtained, compared with the level of performance of the version we started with
APA, Harvard, Vancouver, ISO, and other styles
12

Tik, Sovanna. "Contrôle d'un système intégré d'assainissement urbain basé sur la qualité de l'eau vers des stratégies tolérantes aux fautes." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40351.

Full text
Abstract:
En matière de gestion des eaux usées urbaines, l’évolution de la réglementation vers une approche holistique amène les gestionnaires des réseaux d’égouts et des stations de récupération des ressources de l’eau (StaRRE) à considérer le système intégré d’assainissement urbain (SIAU) de manière globale. Ce changement de paradigme ouvre la porte à des collaborations entre les domaines, autrefois considérés comme distincts, que sont le drainage urbain et le traitement des eaux usées. Dans ce contexte d’innovation et d’intégration, la modélisation devient un outil clef, permettant d’appréhender la complexité des interactions entre les différentes composantes d’un SIAU. D’autre part, les gestionnaires de SIAU sont amenés à développer la résilience de leurs systèmes pour faire face aux impacts des changements climatiques, dont les effets à long terme sont difficilement quantifiables. Cependant, les experts s’accordent à dire que les évènements de pluie d’intensité extrême deviendront plus fréquents, et viendront tester les capacités opérationnelles des infrastructures actuelles. Afin que les ouvrages continuent à fournir une performance respectant les normes en vigueur, tout en respectant les contraintes budgétaires de leurs gestionnaires, les solutions flexibles, telles que l’implantation de systèmes de contrôle en temps réel (CTR), devraient être privilégiées. D’autant plus que, grâce aux récents développements technologiques, de nouveaux outils de mesure, de communication et d’analyse, de plus en plus fiables, sont mis en marché. L’objectif de cette thèse est de proposer et d’évaluer la pertinence d’une gestion intégrée du SIAU par CTR basé sur la qualité de l’eau, utilisant des mesures de turbidité, un indicateur de la pollution particulaire, pouvant également être mesurée en concentration de matières en suspension (MeS). Ces stratégies de contrôles innovantes visent à réduire le déversement global de polluants particulaires (et des polluants associés, tels que les métaux lourds, les pathogènes, etc.) dans le milieu naturel. Dans ce cadre, un modèle intégré – réseau d’égouts et StaRRE – a été développé pour évaluer ces stratégies. Une approche de modélisation utilisant la distribution de la vitesse de chute des particules (DVCP) a été proposée pour mieux décrire les phénomènes de décantation et de remise en suspension dans l’ensemble des ouvrages et permettre ainsi une meilleure prédiction de l’évolution de la pollution particulaire lors des événements pluvieux. D’autre part, les études expérimentales ont montré que les capteurs de turbidité installés dans le SIAU sont soumis à des conditions difficiles, menant à des fautes. La perte de performance des stratégies de contrôle basées sur la qualité des eaux en cas de fautes sur le signal du capteur de turbidité a donc été évaluée. Grâce aux méthodes de détection de fautes, un système d’alarme pourrait permettre aux gestionnaires de décider du mode de gestion à adopter ou pourrait initier un basculement automatique en mode de gestion dégradé. Ce mode dégradé est défini par une stratégie de contrôle n’utilisant plus le signal fautif. Les simulations de ces scénarios ont montré la possibilité de maintenir une partie des bénéfices obtenus par les stratégies de contrôle utilisant un capteur parfait. Ces bénéfices sont conservés lorsque la faute est détectée dans un délai raisonnable - dépendant de la dynamique du système.Les résultats de cette étude laissent ainsi présager un fort potentiel d’optimisation des opérations des ouvrages de transport et de traitement des eaux usées et pluviales, particulièrement lorsqu’on considère leur utilisation de manière intégrée, plutôt qu’en tant que systèmes autonomes et distincts. D’autre part, le modèle intégré pourrait être utilisé comme outil d’aide à la décision pour déterminer les modes de gestion (integrée) les plus adaptés. Mots-clefs : contrôle en temps réel (CTR); gestion du temps de pluie ; modélisation intégrée ;système intégré d’assainissement urbain (SIAU); traitement primaire physico-chimique.
Regulation concerning urban wastewater management is evolving towards a holistic approach which leads stakeholders to increasingly consider the integrated urban wastewater system(IUWS), including the sewer system and the water resource recovery facility (WRRF), as a whole. This change of paradigm opens doors to new collaborations between the traditionally separated fields of urban drainage and wastewater treatment operation and research. In this context of innovation and integration, modelling is going to be a key tool, granting a better understanding of the complexity of interactions between the different parts of the IUWS. At the same time, the IUWS has to become more resilient to face the impacts of climate change, the long-term effects of which are difficult to quantify. Still, climate change experts agree on the increasing probability of occurrence of high intensity rain events, reaching the limits of current wastewater infrastructure operational capacities. In order for these infrastructures to continue to provide adequate performance with respect to current norms and regulations, while limiting costs and budgetary needs, flexible solutions, such as implementing real-time control (RTC) systems, should be considered. Especially since recent technological developments bring new and more reliable tools to measure water quality, and also to analyse and manage large quantities of data.This study focuses on the behaviour of the particulate pollution in the IUWS, an important water quality indicator, commonly measured as the total suspended solids (TSS) concentrationand highly correlated with turbidity measurement. As turbidity sensors are readilyavailable with increasing reliability, their operational use can be envisioned. The objective of this thesis is to develop and assess water quality-based control strategies for the IUWS. An integrated - sewer and WRRF - model, using the particle settling velocity distribution (PSVD) approach, has been proposed. This approach improves the description of particle settling and resuspension in the whole system, allowing a better forecast of TSS concentration dynamics, especially during rain events. Based on this integrated model, innovative water quality-based control strategies, aiming at reducing overall discharge of particulate pollutants (and the heavy metals, pathogens, etc. that come with it) to the receiving water during wet weather, have been proposed and successfully tested. Experimental studies demonstrated that turbidity sensors installed in the IUWS are subject to harsh conditions, leading to faulty sensor signals. The performance loss due to the use of water quality-based control strategies affected by a faulty turbidity signal has been evaluatedin detail and this has demonstrated the need for fault detection tools. When a faulty signal is detected, alarms will allow operators to decide which operating mode should be used instead of the one using the now faulty sensor. Alternatively, automatic responses and changes could be implemented to counteract the effects of a faulty signal. This last option, called downgraded operating mode, which implies reverting to a control strategy that does not use the faulty signal, has been simulated and tested. If the fault is detected within reasonable time (which depends on the system dynamics), these simulations have shown that part of the increase of performance gained with the water quality-based strategy using the good signal, can be maintained. The results of this study thus present a strong case for optimizing wastewater infrastructure operations, especially when they are considered as an integrated system, instead of autonomous and mutually exclusive systems. Furthermore, the developed integrated model may be use as a decision support tool to help determine the best possible (integrated) controlstrategy. Keywords : chemically enhanced primary treatment (CEPT); integrated modelling; integratedurban wastewater system (IUWS); real-time control (RTC); stormwater management.
APA, Harvard, Vancouver, ISO, and other styles
13

Campo, Clément. "Conception d'un système de contrôle d’antennes basé sur la radio logicielle pour réception et émission améliorées de données." Thesis, Poitiers, 2020. http://www.theses.fr/2020POIT2270.

Full text
Abstract:
Aujourd’hui média incontournable d’échange d’informations, les ondes électromagnétiques sont plus que jamais présentes dans notre environnement. Le nombre toujours croissant d’appareils connectés appelle à une meilleure utilisation des ressources spectrales disponibles. Dans le cadre particulier des télécommunications avec un projectile, étudié dans cette thèse, les communications doivent en plus être discrètes et fiables dans un environnement hostile. Dans le contexte général des télécommunications comme dans ce dernier domaine d’application, le filtrage spatial reconfigurable dynamiquement permis par les réseaux d’antennes offre ainsi de nombreux atouts pour les défis présents et à venir. Le contrôle de réseaux d’antennes nécessite une électronique fonctionnant en cohérence et en alignement de phase. Dans une précédente thèse, un système analogique a permis de dépointer vers une station alliée le lobe principal d’un réseau embarqué dans un projectile, durant toute la trajectoire de ce dernier. Ce système n’autorise cependant que 16 configurations pour le diagramme de rayonnement du réseau et n’est fonctionnel qu’autour de 5,2 GHz. Par opposition, la radio logicielle utilise des composants large-bande programmables, qui permettent le traitement des signaux reçus ou à émettre en bande de base numérique. Son utilisation rendrait ainsi possible un contrôle du diagramme de rayonnement du réseau plus précis et un fonctionnement sur de larges bandes de fréquences. Cette technologie reste pourtant encore peu utilisée dans le cadre des applications à cohérence de phase. Ces travaux étudient donc les possibilités offertes par la radio logicielle pour les applications à cohérence, avec la contrainte supplémentaire d’alignement des phases, à travers les télécommunications avec un projectile. Des réseaux d’antennes de géométries linéaire et planaire sont étudiés. Un système de contrôle d’antennes de 4 voies en réception et émission est conçu à partir de radios logicielles commerciales. Des solutions, distinctes pour la réception et l’émission de données, sont développées pour assurer une compensation automatisée des déphasages entre les voies. Plusieurs algorithmes de traitement d’antennes et d’estimation d’angle d’arrivée (DOA) sont implémentés en C++. Les équipements disponibles ne permettant une mesure automatisée des diagrammes de rayonnement des réseaux pilotés par radios logicielles, un montage expérimental est proposé. Les performances du système sont alors quantifiées en chambre anéchoïque pour des réseaux d’antennes de différentes géométries et des fréquences de fonctionnement allant de 2,3 à 5,2 GHz. Selon le réseau piloté, le lobe principal ou un nul de rayonnement peuvent être dépointés dans des plages angulaires allant de 60 à plus de 100°, selon une ou deux dimensions. Les algorithmes implémentés sont également utilisés pour développer une station au sol de suivi de projectile basée sur l’estimation de DOA de l’émetteur embarqué dans le projectile et testée en conditions réelles. Plusieurs projectiles volant à une vitesse proche de celle du son sont alors correctement suivis électroniquement. Le rapport signal à bruit du signal recombiné grâce à la station de suivi est plus de 5 dB supérieur à celui d’une unique antenne du réseau et les données de vol du projectile sont correctement décodées
As a wireless way to exchange information, electromagnetic waves are more omnipresent in our environment than ever. The ever increasing number of connected devices calls for a better use of the available spectrum. In the particular case of telecommunications with a projectile, which is the case of study in this thesis, communications must also be discreet and reliable, even in a hostile environment. In the general framework of telecommunications as well as in this particular field of application, antenna arrays and the dynamic spatial filtering they allow offer multiple advantages for present and future challenges. Antenna array steering requires phase coherent and phase aligned functioning from the control electronics. In a previous PhD thesis, an analog system allowed beam steering of the array embedded in a projectile towards a base station at all times during projectile flight. However, this system was only able to switch between 16 different configurations for the embedded array radiation pattern and was functional only around a 5.2 GHz working frequency. On the other hand, Software Defined Radio (SDR) uses wide-band programmable components thanks to which received or generated signals can be processed in digital baseband. Therefore, using SDR would allow for a more precise control of the radiation pattern over large frequency bandwidths. Despite these promises, this technology remains rarely used for phase coherent applications. This work hence studies possibilities provided by commercial SDR for phase coherent applications. Telecommunications with a projectile, which also require phase alignment, constitute the considered application. Linear and planar antenna arrays are studied. An antenna weighting system of 4 channels for both data reception and transmission is assembled using commercial SDR. Distinct solutions are developed for data reception or transmission in order to automate phase shift compensation between channels. Several antenna weighting and Direction of Arrival (DOA) algorithms are implemented in C++. As the available equipment does not allow the automated measurement of the radiation pattern of antenna arrays when steered by SDR, a dedicated experimental setup is proposed. The developed system performance is then quantified in an anechoic environment for arrays of different geometries, and working frequencies from 2.3 to 5.2 GHz. Depending on the measured array, the main lobe or null can be steered within 60 to more than 100° along 1 or 2 dimensions. The implemented algorithms are also used to develop a projectile tracking station based on DOA estimation of the transmitter embedded in the projectile. The resulting station is tested with several projectiles flying at a speed close to Mach 1. The projectiles are electronically followed by the system as expected from simulations. The signal to noise ratio of the station combined signals is superior to that of a single element signal by more than 5 dB, and transmitted flight data is correctly decoded
APA, Harvard, Vancouver, ISO, and other styles
14

Bouloc, Jeremy. "Système de contrôle pour microscope à force atomique basé sur une boucle à verrouillage de phase entièrement numérique." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4307/document.

Full text
Abstract:
Un microscope à force atomique (AFM) est utilisé pour caractériser des matériaux isolant ou semi-conducteur avec une résolution pouvant atteindre l'échelle atomique. Ce microscope est constitué d'un capteur de force couplé à une électronique de contrôle pour pouvoir correctement caractériser ces matériaux. Parmi les différents modes (statique et dynamique), nous nous focalisons essentiellement sur le mode dynamique et plus particulièrement sur le fonctionnement sans contact à modulation de fréquence (FM-AFM). Dans ce mode, le capteur de force est maintenu comme un oscillateur harmonique par le système d'asservissement. Le projet ANR Pnano2008 intitulé : ”Cantilevers en carbure de silicium à piézorésistivité métallique pour AFM dynamique à très haute fréquence" a pour objectif d'augmenter significativement les performances d'un FM-AFM en développant un nouveau capteur de force très haute fréquence. Le but est d'augmenter la sensibilité du capteur et de diminuer le temps nécessaire à l'obtention d'une image de la surface du matériau. Le système de contrôle associé doit être capable de détecter des variations de fréquence de 100mHz pour une fréquence de résonance de 50MHz. Etant donné que les systèmes présents dans l'état de l'art ne permettent pas d'atteindre ces performances, l'objectif de cette thèse fut de développer un nouveau système de contrôle. Celui-ci est entièrement numérique et il est implémenté sur une carte de prototypage basée sur un FPGA. Dans ce mémoire, nous présentons le fonctionnement global du système ainsi que ses caractéristiques principales. Elles portent sur la détection de l'écart de fréquence de résonance du capteur de force
An atomic force microscope (AFM) is used to characterize insulating materials or semiconductors with a resolution up to the atomic length scale. The microscope includes a force sensor linked to a control electronic in order to properly characterize these materials. Among the various modes (static and dynamic), we focus mainly on the dynamic mode and especially on the frequency modulation mode (FM-AFM). In this mode, the force sensor is maintained as a harmonic oscillator by the servo system. The research project ANR Pnano2008 entitled: "metal piezoresistivity silicon carbide cantilever for very high frequency dynamic AFM" aims to significantly increase the performance of a FM-AFM by developing new very high frequency force sensors. The goal is to increase the sensitivity of the sensor and to decrease the time necessary to obtain topography images of the material. The control system of this new sensor must be able to detect frequency variations as small as 100mHz for cantilevers with resonance frequencies up to 50MHz. Since the state-of-the-art systems doe not present these performances, the objective of this thesis was to develop a new control system. It is fully digital and it is implemented on a FPGA based prototyping board. In this report, we present the system overall functioning and its main features which are related to the cantilever resonant frequency detection. This detection is managed by a phase locked loop (PLL) which is the key element of the system
APA, Harvard, Vancouver, ISO, and other styles
15

Deslandres, Véronique. "Contribution à l'amélioration de la qualité dans les systèmes de production par un système basé sur la connaissance." Lyon 1, 1993. http://www.theses.fr/1993LYO10177.

Full text
Abstract:
Maitriser la qualite de fabrication industrielle necessite un grand nombre de connaissances differentes qui sont: les connaissances des problemes que l'on peut rencontrer au niveau du processus, et des facons de les resoudre; les connaissances methodologiques de la demarche a suivre pour ameliorer definitivement le processus; la connaissance des differents outils de la qualite disponibles et de leur meilleure exploitation compte tenu de l'environnement de production. Ce travail presente un systeme a base de connaissances pour mieux maitriser les processus de fabrication, a partir des methodes de la qualite telles que les diagrammes causes-effet et la maitrise statistique des processus (msp). L'aide consiste en l'analyse methodologique du processus permettant d'evaluer les actions qualite a mettre en uvre pour stabiliser la production au niveau de qualite recherchee. Plus specifiquement, nous montrons comment correctement utiliser les outils de la qualite a disposition et tirer profit de leur meilleure application. L'approche systeme expert permet de couvrir les problemes d'identification de l'origine reelle de la non-qualite, et de choisir les outils de la qualite les plus adaptes aux problemes et a l'environnement de production. Les deux premieres parties du memoire sont consacrees aux concepts et outils de mise en uvre de la qualite dans l'entreprise, ainsi qu'a l'etat de l'art de l'utilisation de l'intelligence artificielle dans ce domaine; les besoins de la production qui ne sont pas couverts par les travaux actuels sont ainsi mis en evidence. Dans la troisieme partie, nous presentons les principes d'une approche a base de connaissances pour repondre a ces besoins. Enfin, la quatrieme partie decrit l'implementation informatique de nos reflexions, plus particulierement centree sur le systeme sysmiq realise pour l'entreprise renault
APA, Harvard, Vancouver, ISO, and other styles
16

Kanta, Abdoul-Fatah. "Développement d'un système expert basé sur l'intelligence artificielle pour la prédiction et le contrôle du procédé de projection plasma." Besançon, 2007. http://www.theses.fr/2007BESA2013.

Full text
Abstract:
La projection plasma est un procédé dans lequel les propriétés du dépôt sont indirectement couplées aux paramètres opératoires (paramètres de puissance, paramètres d'injection, paramètres cinématiques et paramètres environnementaux). Ce procédé se caractérise par des phénomènes de fluctuations et des dérives paramétriques à différents temps caractéristiques, phénomènes qui ont pour origine l'usure des électrodes et les fluctuations intrinsèques de l'arc électrique. L'objectif de cette thèse est de développer un système expert qui permettre d'ajuster en temps réel les paramètres opératoires du procédé en fonction, dans un premier temps, des valeurs mesurées sur les caractéristiques en vol des particules (température de surface et vitess) pour réaliser le dépôt. Considérant l'amplitude de ces dérives, la stratégie à adopter pour développer ce système expert dépend des corrections à appliquer aux caraxtéristiques en vol des particules. L'intelligence artificielle basée sur lé réseau de neurones et le contrôleur flou s'avèrent être des outils pertinents pour atteindre cet objectif. En effet, la logique floue permet de définir les règles de correction paramétrique et le réseau des neurones permet de prédire les caractéristiques en vol des particules et celles du dépot. Coupler les protocoles neuronaux à la logique floue permet alors de développer un contrôleur indépendant. Ce système offre la possibilité d'ajuster les paramètres opératoires dans le but d'assurer la reproductibilité du procédé et également, d'optimiser les conditions de la réalisation du dépôt en tenant compte des effets de l'usure de l'électrode en particulier
Atmospheric plasma spraying (APS) is a process in which the coating properties are indirectly linked to the selection of the operating parameters (power, injection kinematic and environmental parameters). This process is characterized by several parametric drifts and fluctuations at different characteristic times. These drifts and fluctuations originate especially from the electrode wear and intrinsic plasma jet instabilities. The objective of this work is to develop an expert system which could adjust in real time the operating parameters as a function, in a first time, of the measured in-flight particles to manufacture a coating. Due to the large amplitudes of these drifts an fluctuations, the strategy to adopt will depend on the required corrections to apply to the particle characteristics. Artificial intelligence base on artificial neural networks and fuzzy logic controller appeared as pertinent tools to reach this objective. Fuzzy logic permits to define parametric correction rules and the artificial neural networks permits to predict in-flight particle and coating characteristics. Coupling neural protocols to fuzze logic permit to develop an independent controller. This system offers the possibility to adjust the process parameters in order to improve the reproducibility of the process and also, to optimize the coatings development conditions by taking into account the effects of the electrode wear. The system is flexible in order to to permit a full control based on pre-defined rules aiming and maintaining at constant value the in-flight particle characteristics (surface temperature and velocity) by adjusting in real time pwer parameters whatever the fluctuations
APA, Harvard, Vancouver, ISO, and other styles
17

Tran, Trung Thien. "Extraction robuste de primitives géométriques 3D dans un nuage de points et alignement basé sur les primitives." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26744.

Full text
Abstract:
Dans ce projet, nous étudions les problèmes de rétro-ingénierie et de contrôle de la qualité qui jouent un rôle important dans la fabrication industrielle. La rétro-ingénierie tente de reconstruire un modèle 3D à partir de nuages de points, qui s’apparente au problème de la reconstruction de la surface 3D. Le contrôle de la qualité est un processus dans lequel la qualité de tous les facteurs impliqués dans la production est abordée. En fait, les systèmes ci-dessus nécessitent beaucoup d’intervention de la part d’un utilisateur expérimenté, résultat souhaité est encore loin soit une automatisation complète du processus. Par conséquent, de nombreux défis doivent encore être abordés pour atteindre ce résultat hautement souhaitable en production automatisée. La première question abordée dans la thèse consiste à extraire les primitives géométriques 3D à partir de nuages de points. Un cadre complet pour extraire plusieurs types de primitives à partir de données 3D est proposé. En particulier, une nouvelle méthode de validation est proposée pour évaluer la qualité des primitives extraites. À la fin, toutes les primitives présentes dans le nuage de points sont extraites avec les points de données associés et leurs paramètres descriptifs. Ces résultats pourraient être utilisés dans diverses applications telles que la reconstruction de scènes on d’édifices, la géométrie constructive et etc. La seconde question traiée dans ce travail porte sur l’alignement de deux ensembles de données 3D à l’aide de primitives géométriques, qui sont considérées comme un nouveau descripteur robuste. L’idée d’utiliser les primitives pour l’alignement arrive à surmonter plusieurs défis rencontrés par les méthodes d’alignement existantes. Ce problème d’alignement est une étape essentielle dans la modélisation 3D, la mise en registre, la récupération de modèles. Enfin, nous proposons également une méthode automatique pour extraire les discontinutés à partir de données 3D d’objets manufacturés. En intégrant ces discontinutés au problème d’alignement, il est possible d’établir automatiquement les correspondances entre primitives en utilisant l’appariement de graphes relationnels avec attributs. Nous avons expérimenté tous les algorithmes proposés sur différents jeux de données synthétiques et réelles. Ces algorithmes ont non seulement réussi à accomplir leur tâches avec succès mais se sont aussi avérés supérieus aux méthodes proposées dans la literature. Les résultats présentés dans le thèse pourraient s’avérér utilises à plusieurs applications.
In this research project, we address reverse engineering and quality control problems that play significant roles in industrial manufacturing. Reverse engineering attempts to rebuild a 3D model from the scanned data captured from a object, which is the problem similar to 3D surface reconstruction. Quality control is a process in which the quality of all factors involved in production is monitored and revised. In fact, the above systems currently require significant intervention from experienced users, and are thus still far from being fully automated. Therefore, many challenges still need to be addressed to achieve the desired performance for automated production. The first proposition of this thesis is to extract 3D geometric primitives from point clouds for reverse engineering and surface reconstruction. A complete framework to extract multiple types of primitives from 3D data is proposed. In particular, a novel validation method is also proposed to assess the quality of the extracted primitives. At the end, all primitives present in the point cloud are extracted with their associated data points and descriptive parameters. These results could be used in various applications such as scene and building reconstruction, constructive solid geometry, etc. The second proposition of the thesis is to align two 3D datasets using the extracted geometric primitives, which is introduced as a novel and robust descriptor. The idea of using primitives for alignment is addressed several challenges faced by existing registration methods. This alignment problem is an essential step in 3D modeling, registration and model retrieval. Finally, an automatic method to extract sharp features from 3D data of man-made objects is also proposed. By integrating the extracted sharp features into the alignment framework, it is possible implement automatic assignment of primitive correspondences using attribute relational graph matching. Each primitive is considered as a node of the graph and an attribute relational graph is created to provide a structural and relational description between primitives. We have experimented all the proposed algorithms on different synthetic and real scanned datasets. Our algorithms not only are successful in completing their tasks with good results but also outperform other methods. We believe that the contribution of them could be useful in many applications.
APA, Harvard, Vancouver, ISO, and other styles
18

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00769076.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC.
APA, Harvard, Vancouver, ISO, and other styles
19

Thibault, Robert. "Contrôle de l'énergie injectée dans un réseau électrique par un convertisseur triphasé utilisant un régulateur basé sur un modèle interne sinusoïdal." Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/511/1/THIBAULT_Robert.pdf.

Full text
Abstract:
Ce mémoire traite de la commande du convertisseur en source de tension à MLI triphasé connecté au réseau. La structure de commande est basée sur une boucle interne et une boucle externe. La boucle interne commande le transfert de la puissance entre le lien du bus continu et le réseau. La boucle externe fournit le courant de référence à la boucle interne et est conçue pour maintenir la tension du bus continu constante. Avec la commande vectorielle, il est possible de fournir des courants quasi-sinusoïdaux au réseau avec un facteur de puissance unitaire. Les tensions et les courants sont transformés dans un système de référence en rotation d-q, où la commande devient beaucoup plus aisée. Puisque le vecteur spatial de courant dans le système de coordonnées synchrone d-q est fixe, les contrôleurs PI opèrent sur des signaux continus, plutôt que sur des signaux sinusoïdaux. En régime permanent, les vecteurs de courant c.a. apparaissent comme des constantes dans le système de référence synchrone donc, les erreurs statiques peuvent être annulées par l'utilisation de contrôleurs PI conventionnels. L'inconvénient des structures classiques de contrôle est la difficulté de commander des variables avec des références sinusoïdales en raison des capacités limitées des contrôleurs PI à suivre exactement des entrées variables dans le temps. Ce mémoire propose une stratégie de commande plus simple, mais d'autre part équivalente, qui résout ce problème sans la difficulté de transformer des quantités triphasées dépendantes du temps dans le système de référence d-q invariant dans le temps et vice versa. Cette nouvelle structure de commande est basée sur un contrôleur complexe (c'est-à-dire avec parties réelles et imaginaires) qui réalise une erreur nulle en régime permanent en commandant le vecteur spatial de courant directement dans le système de référence stationnaire d-q. L'équivalence mathématique avec la commande vectorielle est entièrement démontrée. Il s'avère que les gains du nouveau régulateur complexe sont exactement identiques à ceux du contrôleur PI conventionnel. On présente des résultats de simulation qui montrent clairement l'équivalence des deux systèmes de commande. Des résultats expérimentaux en régime permanent et en régime transitoire sont également présentés.
APA, Harvard, Vancouver, ISO, and other styles
20

Grout, Olivier. "Conception d'un système de management de l'environnement basé sur les normes ISO 14000 au sein de l'industrie pharmaceutique." Bordeaux 2, 1999. http://www.theses.fr/1999BOR2P004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Geveaux, Emmanuel. "Conception d'un environnement de développement des applications de contrôle de procédé basé sur le modèle formel GRAFCET et fondé sur un langage graphique flot de données." Poitiers, 1998. http://www.theses.fr/1998POIT2298.

Full text
Abstract:
Ce travail presente un environnement de developpement d'applications de controle/commande de procede, base sur le modele grafcet, et implemente grace a un langage graphique flot de donnees, labview. L'utilisation d'un langage flot de donnees a permis une programmation parallele simple et naturelle mais a necessite le developpement d'outils de cooperation entre diagrammes flots de donnees concurrents. Le choix du modele grafcet, outil de specification largement utilise dans le monde de l'automatisme, permet un passage aise vers l'implementation. Ce choix a demande la mise en place d'une methode de transformation de graphes cycliques en graphes acycliques afin de pouvoir utiliser l'editeur graphique de labview pour saisir un grafcet. Le developpement d'une application dans cet environnement se fait en deux phases : une phase d'edition du grafcet de commande puis une phase d'integration et d'execution ou le modele edite est compile afin de realiser le controle du systeme que l'on souhaite piloter. Cette phase d'integration et d'execution est realisee a partir de modules canevas offrant une architecture parallele d'application ou l'utilisation des outils de cooperations entre diagrammes flots de donnees concurrents s'est averee utile et efficace.
APA, Harvard, Vancouver, ISO, and other styles
22

Kendoul, Farid. "Modélisation et commande de véhicules aériens autonomes, et développement d'un pilote automatique basé sur la vision." Compiègne, 2007. http://www.theses.fr/2007COMP1694.

Full text
Abstract:
Ce travail de thèse porte sur le développement de petites machines volantes autonomes. La thèse se comporte de deux grandes parties : d'une part la modélisation et la commande de bas niveau, d'autre part la conception d'autopilotes, basés sur le flux optique, pour le pilotage et le guidage de minidrones à voilures tournantes. Trois configurations d'appareils à multiples rotors ont été étudiées, modélisées et testées en vols réels. Les avantages des stratégies de commande proposées résident dans leur simplicité pour l'implémentation et leur capacité à prendre en compte les limitations des actionneurs tout en garantissant des bonnes performances de vol. Une des contributions majeures de cette thèse est aussi le développement d'un pilote automatique basé sur la vision. Ce pilote est inspiré des insectes et il est composé d'un module de vision pour la localisation et la détection des obstacles en temps réel, et un système de contrôle adaptatif pour la navigation et le suivi de trajectoire
In this thesis, we address the 3D flight control problem for small unmanned aerial vehicles. The first step in achieving such UA V autonomy is basic stability. In doing so, we investigate control techniques which would allow a small rotorcraft UA V to perform autonomously basic tasks such as take-off, hovering and landing. The proposed flight controllers consider actuator saturation and guarantee system stability and good flight performance. One of the main contributions of this thesis is also the development of a vision-based autopilot for self localization, obstacles detection and control of small autonomous helicopters using optic flow and inertial data. The proposed autopilot is inspired by insects and represents a major step toward our goal of designing autonomous small flying machines capable of navigating within urban and unknown environments. It is composed of a vision module for localization and perception, and an adaptive control system for navigation and trajectory tracking
APA, Harvard, Vancouver, ISO, and other styles
23

Guyot, Dimitri. "Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Full text
Abstract:
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
APA, Harvard, Vancouver, ISO, and other styles
24

Bruni, Christelle. "Dynamique longitudinale et transverse d'un laser à électrons libres basé sur un anneau de stockage de deuxième et troisième génération." Paris 11, 2004. http://www.theses.fr/2004PA112165.

Full text
Abstract:
Ce travail a permis d'améliorer la compréhension de la dynamique d'un Laser à Electrons Libres (LEL) installé sur un anneau de stockage. Un nouveau phénomène de saturation du LEL, par les dimensions transverses des paquets d'électrons, est mis en évidence, lorsque le LEL fonctionne avec une optique magnétique " faible émittance ". Une partie de ce travail de thèse concerne l'étude de la dynamique longitudinale du LEL en fonction d'un paramètre : le désaccord entre la fréquence de passage des électrons et la fréquence d'aller-retour de l'impulsion laser dans la cavité optique. Cette étude montre que le LEL présente selon le désaccord un comportement pulsé ou stationnaire stable, en accord avec un modèle numérique. En outre, un comportement spectro-temporel du laser est mis en évidence, montrant l'apparition de sous-structures au sein de l'impulsion laser ainsi que des 'trous' dans le spectre. Une autre partie de ce travail porte sur la réponse du système LEL résonnant, lorsqu'une perturbation est appliquée sur son gain. Le laser peut alors présenter sous l'effet d'une modulation, un régime périodique ou chaotique. L'analyse de ces régimes montre que la transition vers le chaos s'effectue par une cascade de doublement de période. Après avoir généré une dynamique temporelle du LEL périodique et chaotique grâce à une modulation, une contre-réaction est réalisée afin de supprimer les régimes pulsés naturels du LEL en faveur d'un régime stationnaire stable. De plus, des boucles électroniques supplémentaires permettent d'amortir les instabilités longitudinales (de type secteur) affectant tout particulièrement le LEL d'ELETTRA
This work aims at improving the understanding of the dynamics of a Free Electron Laser (FEL) based on a storage ring. A new phenomena of saturation by the electron bunch transverse dimensions is pointed out, during the FEL operation with a magnetic optics ''low emittance''. A part of this thesis work concerns the study of the longitudinal dynamics of the FEL depending on a parameter : the detuning between the pass frequency of the electrons and the back and return frequency of the laser pulse in the optical cavity. This study shows that the FEL presents a pulsed or a steady state behavior depending on the detuning. Besides, a spectro-temporal behavior of the FEL is pointed out showing the FEL pulse substructures and holes in the spectrum. Another part of this work concerns the response of the resonant FEL system, when a perturbation is applied on the gain. Under the effect of a modulation, the FEL can present a periodic or chaotic regime. The analysis of these regimes shows that a period doubling cascade leads to chaos. After having generated a pulsed or chaotic temporal dynamical behavior of the FEL thanks to a modulation, a feedback is realized to suppress the natural pulsed regimes of the FEL in favor of a steady state regime. In addition, supplementary electronic loops allow to damp longitudinal instabilities (50 Hz and its harmonics), affecting particularly the ELETTRA FEL
APA, Harvard, Vancouver, ISO, and other styles
25

El, Baida Rania. "Gestion des incohérences dans les systèmes de contrôle d'accès." Artois, 2004. http://www.theses.fr/2004ARTO0401.

Full text
Abstract:
La modélisation formelle des politiques de sécurité, contrôlant l'accès aux informations sensibles, est un problème important dans de nombreux domaines. Nous avons proposé un système de contrôle d'accès appelé OrBAC (Organization based access control). Ce système apporte de nombreuses solutions aux systèmes de contrôle d'accès existants, comme la prise en compte du contexte ou encore la possibilité de représenter les différentes formes de privilèges : permission, interdiction et obligation. Cependant, ce système ne permet pas de résoudre les conflits dus aux traitements simultanés des permissions ou obligations et des interdictions. Nous avons traité ce problème dans le système OrBAC, modélisé formellement par une base de connaissances de la logique du premier ordre. Nous avons montré que les approches de gestion des incohérences proposées pour les bases propositionnelles ne sont pas appropriées dans le cas de bases du premier ordre. Nous avons proposé une solution basée sur l'affaiblissement des formules du premier ordre responsables du conflit
Modelling information security policies is being an important task in many domains. We proposed a new access control system called OrBAC (Organization based access control). This system brings many solutions to the existing access control systems. For instance, OrBAC takes into account the context and is able to represent various kinds of privileges : permission, prohibition and obligation. However, this system does not deal with conflicts due to the joint handling of permission or obligation and prohibition policies. We dealt with the problem of handling conflicts in the OrBAC system, modelled by first order logic knowledge bases. We showed that approaches suggested for handling conflicts in propositionnal knowledge bases are not adapted for inconsistent first order knowledge bases. We proposed an approach in which we weak first order formulas responsible of conflicts
APA, Harvard, Vancouver, ISO, and other styles
26

Marceau, Anne. "Les règles et principes constitutionnels relatifs au contrôle des collectivités territoriales : étude sur l'article 72 alinéa 3 de la Constitution française du 4 octobre 1958." Dijon, 2000. http://www.theses.fr/2000DIJOD015.

Full text
Abstract:
L’article 72 alinéa 3 de la Constitution française du 4 octobre 1958 dispose que « dans les départements et les territoires, le délégué du gouvernement a la charge des intérêts nationaux, du contrôle administratif et du respect des lois ». Cet alinéa vient limiter le principe de libre administration reconnu dans le même titre à l’alinéa 2 de l’article 72. Si le contraste entre l’article 72 alinéa 2 et l’article 72 alinéa 3 est a priori saisissant, il n’est que le produit d’un véritable paradoxe à savoir la reconnaissance de libertés locales au sein d’un Etat unitaire traditionnellement centralisateur comme la France. L’article 72 alinéa 3 est ainsi fortement influencé par son contexte constitutionnel. L’article 72 alinéa 3 ne se contente pas de poser la nécessité de la surveillance des collectivités locales, corollaire indispensable de la décentralisation dans un Etat unitaire. Il désigne de plus expressément l’autorité chargée d’assumer ce pouvoir de contrôle : le délégué du gouvernement ; Non seulement l’article 72 alinéa 3 désigne l’autorité chargée du contrôle des collectivités territoriales mais il définit de plus la mission constitutionnelle de contrôle des collectivités territoriales qui peut s’analyser comme une obligation. L’article 72 alinéa 3 présente ainsi un socle incompressible, une sorte de minium constitutionnel, que le législateur sous le contrôle du Conseil constitutionnel et le juge administratif sont tenus de respecter. Il implique que le délégué du gouvernement ait certains pouvoirs de contrôle et les mette en œuvre obligatoirement.
APA, Harvard, Vancouver, ISO, and other styles
27

Pialasse, Jean-Philippe. "Évaluation du contrôle sensorimoteur chez les patients ayant une scoliose idiopathique de l'adolescent : vers un biomarqueur des troubles sensorimoteur basé sur la stimulation vestibulaire galvanique." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26968.

Full text
Abstract:
La scoliose est la pathologie déformante du rachis la plus courante de l'adolescence. Dans 80 % des cas, elle est idiopathique, signifiant qu'aucune cause n'a été associée. Les scolioses idiopathiques répondent à un modèle multifactoriel incluant des facteurs génétiques, environnementaux, neurologiques, hormonaux, biomécaniques et de croissance squelettique. Comme hypothèse neurologique, une anomalie vestibulaire provoquerait une asymétrie d'activation des voies vestibulospinales et des muscles paravertébraux commandés par cette voie, engendrant la déformation scoliotique. Certains modèles animaux permettent de reproduire ce mécanisme. De plus, des anomalies liées au système vestibulaire, comme des troubles de l'équilibre, sont observées chez les patients avec une scoliose. La stimulation vestibulaire galvanique permet d'explorer le contrôle sensorimoteur de l'équilibre puisqu'elle permet d'altérer les afférences vestibulaires. L'objectif de cette thèse est d'explorer le contrôle sensorimoteur en évaluant la réaction posturale provoquée par cette stimulation chez les patients et les participants contrôle. Dans la première étude, les patients sont plus déstabilisés que les contrôles et il n'y a pas de lien entre l'ampleur de l'instabilité et la sévérité de la scoliose. Dans la deuxième étude, à l’aide d’un modèle neuromécanique, un poids plus grand aux signaux vestibulaires a été attribué aux patients. Dans la troisième étude, un problème sensorimoteur est également observé chez les jeunes adultes ayant une scoliose, excluant ainsi que le problème soit dû à la maturation du système nerveux. Dans une étude subséquente, des patients opérés pour réduire leur déformation du rachis, montrent également une réaction posturale de plus grande amplitude à la stimulation comparativement à des participants contrôle. Ces résultats suggèrent que l’anomalie sensorimotrice ne serait pas secondaire à la déformation. Finalement, un algorithme a été développé pour identifier les patients ayant un problème sensorimoteur. Les patients montrant un contrôle sensorimoteur anormal ont également une réponse vestibulomotrice plus grande et attribuent plus de poids aux informations vestibulaires. Globalement, les résultats de cette thèse montrent qu’un déficit sensorimoteur expliquerait l’apparition de la scoliose mais pas sa progression. Le dysfonctionnement sensorimoteur n’est pas présent chez tous les patients. L’algorithme permettant une classification de la performance sensorimotrice pourrait être utile pour de futures études cliniques.
Scoliosis is the most frequent spinal deformity in adolescence. In 80% of the cases, it is idiopathic, meaning that no cause has been associated with the patient's case. Idiopathic scoliosis seems to respond to a multifactorial model including genetic, environmental, neurological, hormonal, biomechanical and skeletal growth factors. A neurological assumption is that an anomaly of the vestibular system would cause asymmetrical activation of the vestibulospinal pathway and of paraspinal muscles. This cascade would generate the scoliotic deformity. Animal models have demonstrated this possibility. In addition, many vestibular related anomalies are observed in adolescents with scoliosis as vestibulo-ocular reflex abnormalities or balance control disorders. Galvanic vestibular stimulation allows exploring sensorimotor control by faltering the vestibular afferents. The objective of this thesis is to explore the sensorimotor control through vestibular-evoked postural response in patients with scoliosis and healthy controls. The results of the first study show that the vestibular-evoked postural response is larger in patients compared to controls. Moreover, the amplitude of the postural response is not scaled to the spinal deformation amplitude. In a second study, through a neuromechanical feedback control model, we demonstrate that patients assigned a larger weight to vestibular signal compared to controls. Results of the third study reveal that young adults with idiopathic scoliosis, compared to controls, have a larger postural response. This observation excludes a transient response due to the maturation of the nervous system. Then, balance control impairment seems secondary to a neurosensory phenomenon as balance control dysfunction is observed in patients who had surgery reducing spine deformation. Ultimately, an algorithm has been developed to distinguish patients with or without sensorimotor control problems compared to healthy adolescents. Remarkably, the amplitude of the feedforward vestibular response of these patients is larger and they assign a larger weight to vestibular than proprioceptive information. Overall, this thesis proposes a procedure to identify patients with scoliosis having sensorimotor control impairment. In the end, it is believed that the classification procedure may help future clinical studies as patients with sensorimotor dysfunction could be identified. Hopefully, future research will enhance this procedure and lead to an efficient biomarker.
APA, Harvard, Vancouver, ISO, and other styles
28

Tapsoba, René. "Ciblage d'inflation et règles budgétaires dans les pays en développement: Interactions et Conséquences macroéconomiques." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2012. http://tel.archives-ouvertes.fr/tel-00734755.

Full text
Abstract:
Cette thèse s'intéresse au rôle du Ciblage d'inflation (CI) et des règles budgétaires (RBs), ainsi qu'à celui de leurs interactions, sur l'environnement macroéconomique. Après avoir posé les bases conceptuelles et empiriques de ces deux cadres de politique basés sur des règles (Chapitre 1), la thèse met en évidence de nouveaux résultats relatifs à leurs conséquences macroéconomiques. Premièrement, l'adoption du CI permet d'attirer plus d'investissements directs étrangers dans les pays en développement (Chapitre 2). Deuxièmement, dans ces pays, l'adoption du CI incite fortement les gouvernements à entreprendre des réformes destinées à améliorer la qualité des institutions (Chapitre 3). Troisièmement, l'introduction des RBs numériques au niveau national constitue un remède crédible contre l'indiscipline budgétaire, surtout dans les pays politiquement stables et avec un grand nombre de RBs en place. Mais cet effet disciplinaire des RBs diminue avec la durée de temps consécutive à leur adoption et est affaibli en présence de RBs supranationales et dans les pays à gouvernement fragmenté. Plus intéressant, cet effet varie en fonction du type de règles : tandis que les règles de solde budgétaire et les règles de dépense exercent un effet disciplinaire sur la conduite de la politique budgétaire, l'effet des règles de dette s'avère statistiquement non significatif (Chapitre 4). Les trois derniers chapitres de la thèse analysent le rôle de l'interaction entre le CI et les RBs, et dans une plus grande mesure de l'interaction entre les autorités monétaires et budgétaires. Le premier résultat qui en découle est que le CI, qui est un cadre de conduite de la politique monétaire, s'avère aussi suffisamment contraignant pour les autorités budgétaires de sorte à les inciter fortement à améliorer la discipline budgétaire, notamment dans les pays en développement (Chapitre 5). Par ailleurs, d'une part, le CI et les RBs agissent de façon complémentaire, puisqu'adopter à la fois le CI et les RBs conduit à de meilleurs résultats budgétaires et inflationnistes qu'adopter seulement l'un ou l'autre de ces deux cadres de politique. D'autre part, la séquence qui consiste à introduire d'abord les RBs avant d'adopter le CI produit de meilleures performances inflationnistes et budgétaires que la séquence inverse (Chapitre 6). Finalement, une meilleure cohérence du Policy-Mix, c'est-à-dire une meilleure coordination des politiques monétaire et budgétaire conduit à une plus grande croissance économique dans la Communauté Economique des Etats de l'Afrique de l'Ouest (CEDEAO) (Chapitre 7).
APA, Harvard, Vancouver, ISO, and other styles
29

Huafeng, Yu. "Un Modèle Réactif Basé sur MARTE Dédié au Calcul Intensif à Parallélisme de Données : Transformation vers le Modèle Synchrone." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00497248.

Full text
Abstract:

Les travaux de cette thèse s'inscrivent dans le cadre de la validation formelle et le contrôle réactif de calculs à haute performance sur systèmes-sur-puce (SoC).

Dans ce contexte, la première contribution est la modélisation synchrone accompagnée d'une transformation d'applications en équations synchrones. Les modéles synchrones permettent de résoudre plusieurs questions liées à la validation formelle via l'usage des outils et techniques formels offerts par la technologie synchrone. Les transformations sont développées selon l'approche d'Ingénierie Dirigé par les Modèles (IDM).

La deuxième contribution est une extension et amélioration des mécanismes de contrôle pour les calculs à haute performance, sous forme de constructeurs de langage de haut-niveau et de leur sémantique. Ils ont été défini afin de permettre la vérification, synthèse et génération de code. Il s'agit de déterminer un niveau d'abstraction de représentation des systèmes où soit extraite la partie contrôle, et de la modéliser sous forme d'automates à états finis. Ceci permet de spécifier et implémenter des changements de modes de calculs, qui se distinguent par exemple par les ressources utilisées, la qualité de service fournie, ou le choix d'algorithme remplissant une fonctionnalité.

Ces contributions permettent l'utilisation d'outils d'analyse et vérification, tels que la vérification de propriétés d'assignement unique et dépendance acyclique, model checking. L'utilisation de techniques de synthèse de contrôleurs discrets est également traitée. Elles peuvent assurer la correction de faˆ on constructive: à partir d'une spécification partielle du contrôle, la partie manquante pour que les propriétés soient satisfaites est calculée. Grâce à ces techniques, lors du développement de la partie contrôle, la spécification est simplifiée, et le résultat est assuré d'être correct par construction.

Les modélisations synchrone et de contrôle reposes sur MARTE et UML. Les travaux de cette thèse sont été partiellement implémentés dans le cadre de Gaspard, dédié aux applications de traitement de données intensives. Une étude de cas est présentée, dans laquelle nous nous intéressont à une application de système embarqué pour téléphone portable multimédia.

APA, Harvard, Vancouver, ISO, and other styles
30

Ghassemi, Elham. "Modèle computationnel du contrôle auto-adaptatif cérébelleux basé sur la Logique Floue appliqué aux mouvements binoculaires : déficit de la coordination binoculaire de la saccade horizontale chez l’enfant dyslexique." Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05L001.

Full text
Abstract:
Ce travail de thèse porte essentiellement sur le cervelet. Nous y suivons deux axes majeurs : en termes de fonctions cérébelleuses, nous nous intéressons à l’apprentissage et l’adaptation du contrôle moteur ; en termes de dysfonctions cérébelleuses, nous nous intéressons à la dyslexie développementale.Nous nous orientons vers l’apprentissage du contrôle moteur afin d’en proposer un modèle computationnel fonctionnel appliqué aux mouvements oculaires volontaires. Pour ce faire, la Logique Floue est un de nos outils précieux. Nous avons proposé deux modèles. Le premier, AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), le résultat de l’intégration de la Logique Floue dans l’architecture de CMAC (Cerebellar Model Articulation Controller), est pourvu d’améliorer la vitesse/durée d’apprentissage et le besoin en termes de mémoire par rapport à CMAC. Le second modèle est CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), dont sa structure est également basée sur la Logique Floue, et dans lequel, le réseau de neurones est utilisé comme la mémoire pour gérer les règles Floues. Les résultats des évaluations des modèles proposés (AFCMAC et CMORG) et étudiés (CMAC et FCMAC – Fuzzy Cerebellar Model Articulation Controller), via les données oculomotrices des groupes d’enfants dyslexiques et contrôles lors de la lecture, montrent que CMORG est le plus performant à la fois, en termes de vitesse/durée d’apprentissage et également, de consommation de mémoire. Un autre avantage principal de CMORG par rapport aux autres modèles, est son interprétabilité par les experts.Concernant la dyslexie développementale, nous avons mené une étude expérimentale sur les déficits du contrôle moteur binoculaire lors des saccades des six enfants dyslexiques pendant les deux tâches différentes (la lecture d’un texte et la visualisation des chaînes de caractères) et dans les deux distances de vision (40 cm et 100 cm). Nous corroborons et adhérons à l’idée que la (mauvaise) qualité de la coordination binoculaire des saccades chez les enfants dyslexiques est indépendante des difficultés en lecture, associée peut-être aux hypothèses du déficit du magnosystème et du dysfonctionnement cérébelleux
This thesis focuses on the cerebellum. We follow two main lines: in terms of cerebellar functions, we are interested in learning and adaptation motor control ; in terms of cerebellar dysfunctions, we are interested in developmental dyslexia.We focus on learning motor control in order to provide a functional computational model applied to voluntary eye movements. To this end, Fuzzy Logic is one of our valuable tools. We proposed two models. The former is AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), the result of the integration of Fuzzy Logic in CMAC (Cerebellar Model Articulation Controller) architecture, in order to improve learning speed/time and memory requirements compared to the CMAC. The latter is CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), whose structure is also based on Fuzzy Logic, and in which, the neural network is used as the memory to handle Fuzzy rules. The evaluation results of the proposed (AFCMAC and CMORG) and studied (CMAC and FCMAC – Fuzzy Cerebellar Model Articulation Controller) models via oculomotor data of dyslexic and control groups while reading show that CMORG is the most efficient both in terms of learning speed/time and also memory consumption. Another main advantage of CMORG over the other models is its interpretability by experts. Regarding the developmental dyslexia, we conducted an experimental study on binocular motor control deficits during saccades in six dyslexic children while two different tasks (text reading and character string scanning) and in two viewing distances (40 cm and 100 cm). We corroborate and adhere to the idea that the (bad) quality of binocular coordination of saccades in dyslexic children is independent of reading difficulties, maybe associated with magnosystem and cerebellar deficit hypothesis
APA, Harvard, Vancouver, ISO, and other styles
31

Attemene, N'guessan Stéphane. "Optimisation temps réel des flux énergétiques au sein d'un système multi-sources multi-charges basé sur les énergies d'origine renouvelable." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD044.

Full text
Abstract:
Ce travail est axé sur le contrôle optimal en temps réel d’un système autonome constitué d’un générateur photovoltaïque, d’une pile à combustible de technologie PEM, d’un électrolyseur alcalin, d’une batterie et d’un pack de supercondensateurs pour une application stationnaire. Le couplage de ces différentes sources a pour but d’améliorer les performances, la disponibilité du réseau électrique résultant, la fourniture d’électricité sur des périodes beaucoup plus longues, et surtout la satisfaction de la charge en utilisant chaque source de façon raisonnée.D’abord, une étude approfondie sur la faisabilité du système du point de vue technique, énergétique, économique et environnemental est effectué. En conséquence une méthode de dimensionnement optimal est proposée. Une analyse de sensibilité permettant d’évaluer l’influence du coût et de la taille des sous-systèmes respectivement sur le coût énergétique global et l’équivalent CO2 émis par le système est également effectuée. Ensuite un modèle permettant une mise à l’échelle aisée des composants afin d’atteindre la capacité requise pour le système est développé. Le modèle global du système est obtenu en exploitant la modularité de la REM (représentation énergétique macroscopique), qui est le formalisme utilisé pour la modélisation. Finalement Une méthode de gestion énergétique basé sur l’« Energy consumption Minimization Strategy » (ECMS) est proposée. La stratégie proposée est validée par étude comparative des résultats avec ceux de la programmation dynamique
This work is focused on the real-time optimal control of a stand-alone system consisting of a photovoltaic generator, a PEM fuel cell, an alkaline electrolyzer, a battery and supercapacitor pack for a stationary application. The coupling of these different sources aims to improve performance, the availability of the resulting electrical grid, the supply of electricity over much longer periods, and especially the satisfaction of the load by using each source in a controlled way.First, a thorough study of the feasibility of the system from a technical, energetic, economic and environmental point of view is carried out. As a result, an optimal sizing method is proposed. A sensitivity analysis to evaluate the influence of subsystems cost and the size respectively on the overall energy cost and the equivalent CO2 emitted by the system is also discussed. Then, a model enabling easy scaling of components to achieve the capacity required for the system is developped. The global model of the system is obtained by exploiting the modularity of the formalism used for modeling (the Energetic Macroscopic Representation). Finally, an energy management method based on Energy consumption Minimization Strategy (ECMS) is proposed. A comparative study of the results obtained by the ECMS and those obtained by dynamic programming has enabled the validation of the optimal control strategy developed
APA, Harvard, Vancouver, ISO, and other styles
32

Gaillard, Arnaud. "Système éolien basé sur une MADA : contribution à l'étude de la qualité de l'énergie électrique et de la continuité de service." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10023/document.

Full text
Abstract:
Les systèmes éoliens seront certainement amenés, à court terme, à contribuer aux services systèmes (compensation de la puissance réactive, stabilité du plan de tension,…) comme le font actuellement les alternateurs de centrales classiques. Ils seront également amenés à participer à l'amélioration de la qualité de l'énergie électrique, filtrage des courants harmoniques en particulier. De plus, vu l'augmentation de la puissance éolienne installée et fournie au réseau électrique, les éoliennes devront certainement assurer, à plus long terme, une continuité de service suite à un défaut électrique sur le réseau ou sur un des éléments de la chaîne de conversion électromécanique (interrupteurs de puissance, capteurs,…) afin d'améliorer leur fiabilité. Dans ces travaux de thèse, nous avons montré dans un premier temps qu'un système éolien basé sur une Machine Asynchrone à Double Alimentation (MADA) possédant un gain d'amplification entre les courants rotoriques et statoriques peut participer efficacement à l'amélioration de la qualité de l'énergie électrique en compensant simultanément de la puissance réactive et des courants harmoniques présents sur le réseau, sans pour autant nécessiter un surdimensionnement des éléments de la chaîne de conversion électromécanique. Ensuite, nous avons étudié des topologies dites “fault tolerant” de convertisseurs statiques triphasés et leurs commandes associées, permettant de garantir la continuité de service en présence de défauts éventuels d'un semi-conducteur ou d'un capteur de courant. Pour réduire autant que possible le temps de détection de défaut, nous avons ciblé un composant FPGA (Field Programmable Gate Array) pour le contrôle/commande “fault tolerant”. Les résultats de simulation, de prototypage “FPGA in the loop” et expérimentaux démontrent les performances des méthodes proposées
Wind Energy Conversion Systems (WECS) will probably be intended, in a short term, to provide ancillary services such as reactive power compensation, as done by conventional generators of power plants and/or participate in improving electric power quality by filtering harmonic currents. Furthermore, by considering the increased installed wind power, connected to the grid, WECS will certainly ensure, in long term, the continuity of service following an electrical fault on the grid or on one of elements of the electromechanical conversion (power switches, sensors…) to ensure their reliability. In this thesis, we have studied in the first part a WECS based on Doubly Fed Induction Generator (DFIG) with an amplification gain between the stator and rotor currents. We have demonstrated that such a WECS can efficiently improving the electric power quality by compensating simultaneously reactive power and harmonic currents on the grid, without requiring any oversized elements in the electromechanical conversion chain. Then, we studied fault tolerant converter topologies and associated controls, ensuring the continuity of service in the presence of possible faults of a semiconductor or a current sensor. To minimize the time fault detection, we used an FPGA (Field Programmable Gate Array) to implement the fault tolerant controller. Simulation, “FPGA in the loop” prototyping and experimental results have validated the performances of the proposed methods and fault tolerant topologie
APA, Harvard, Vancouver, ISO, and other styles
33

Cadorette, Jules. "Étude des paramètres de contrôle d'un système de détection basé sur des détecteurs à photodiode à avalanche : application à la tomographie par émission de positrons à haute résolution spatiale." Mémoire, Université de Sherbrooke, 1994. http://hdl.handle.net/11143/12057.

Full text
Abstract:
La résolution spatiale insuffisante des systèmes d'imagerie actuels contraint le plus souvent le chercheur à se tourner vers les méthodes conventionnelles de dissection et de comptage pour les études de biodistribution de produits radiopharmaceutiques sur le modèle animal. La tomographie par émission de positrons (TEP) permet, en principe, de telles analyses, mais la précision nécessaire chez les petits animaux de laboratoire (e.g.rats) ne peut être obtenue que si la caméra TEP atteint la limite théorique de résolution spatiale ( ~2 mm). Grâce à une nouvelle technologie de détection basée sur des photodiodes à avalanche (PDA), la caméra TEP de l'Université de Sherbrooke atteint une résolution volumique isotrope au moins 2.5 fois supérieure aux autres caméras de haute résolution et produit des images libres de distorsions. Grâce à une architecture hautement parallèle, son système de détection ne requiert pas de procédures complexes de décodage des signaux, ce qui réduit considérablement le temps mort et l'empilement des signaux. Toutefois, l'usage d'un grand nombre de petites unités de détection aux caractéristiques distinctes impose de nombreuses contraintes, dont un réglage individuel de chaque détecteur et le traitement initial adapté des signaux sur deux niveaux. La capacité d'une caméra tomographique à reproduire fidèlement la distribution d'activité dans le sujet dépend, en tout premier lieu, de l'étalonnage adéquat des différentes unités qui la composent et d'un contrôle de qualité rigoureux des détecteurs et de l'électronique. Les nombreux paramètres d'opération souvent interdépendants des PDA et le grand nombre de voies rendent ces procédures complexes et laborieuses. Une technique séquentielle d'analyse multiparamétrique a été mise au point et appliquée à l'ensemble des voies de détection pour conférer au système le caractère homogène requis. Des algorithmes de contrôle et de vérification ont été développés pour assurer l'efficacité et la stabilité du système sur de longues périodes. La mise au point de procédures complémentaires d'uniformisation des signaux a permis l'acquisition de données multispectrales, un raffinement à la fine pointe de la recherche en TEP. Cette étude décrit l'architecture, la gestion des contrôles ainsi que le concept système qui régissent les performances de la caméra TEP animale de l'Université de Sherbrooke.
APA, Harvard, Vancouver, ISO, and other styles
34

Blagouchine, Iaroslav. "Modélisation et analyse de la parole : Contrôle d’un robot parlant via un modèle interne optimal basé sur les réseaux de neurones artificiels. Outils statistiques en analyse de la parole." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX26666.

Full text
Abstract:
Cette thèse de doctorat traite les aspects de la modélisation et de l'analyse de la parole, regroupés sous le chapeau commun de la qualité. Le premier aspect est représenté par le développement d'un modèle interne de contrôle de la production de la parole ; le deuxième, par le développement des outils pour son analyse. Un modèle interne optimal sous contraintes est proposé pour le contrôle d'un robot parlant, basé sur l'hypothèse du point d'équilibre (EPH, modèle-lambda). Ce modèle interne se repose sur le principe suivant : les mouvements du robot sont produits de telle façon que la longueur du chemin, parcouru dans l'espace interne des commandes motrices lambda, soit minimale, sous certaines contraintes liées à l'espace externe. L'aspect mathématique du problème conduit au problème géodésique généralisé, un problème relevant du calcul variationnel, dont la solution exacte analytique est assez complexe. En utilisant certains résultats empiriques, une solution approximative est enfin développée et implémentée. La solution du problème donne des résultats intéressants et prometteurs, et montre que le modèle interne proposé permet d'atteindre une certaine réalité de la production de la parole ; notamment, des similitudes entre la parole réelle et celle produite par le robot sont constatées. Puis, dans un but d'analyser et de caractériser le signal de parole, plusieurs méthodes d'analyse statistique sont développées. Elles sont basées sur les statistiques d'ordre supérieurs et sur l'entropie discrète normalisée. Dans ce cadre, nous avons également élaboré un estimateur non-biaisée et efficace du cumulant d'ordre quatre, en deux versions bloc et adaptative
This Ph.D. dissertation deals with speech modeling and processing, which both share the speech quality aspect. An optimum internal model with constraints is proposed and discussed for the control of a biomechanical speech robot based on the equilibrium point hypothesis (EPH, lambda-model). It is supposed that the robot internal space is composed of the motor commands lambda of the equilibrium point hypothesis. The main idea of the work is that the robot movements, and in particular the robot speech production, are carried out in such a way that, the length of the path, traveled in the internal space, is minimized under acoustical and mechanical constraints. Mathematical aspect of the problem leads to one of the problems of variational calculus, the so-called geodesic problem, whose exact analytical solution is quite complicated. By using some empirical findings, an approximate solution for the proposed optimum internal model is then developed and implemented. It gives interesting and challenging results, and shows that the proposed internal model is quite realistic; namely, some similarities are found between the robot speech and the real one. Next, by aiming to analyze speech signals, several methods of statistical speech signal processing are developed. They are based on higher-order statistics (namely, on normalized central moments and on the fourth-order cumulant), as well as on the discrete normalized entropy. In this framework, we also designed an unbiased and efficient estimator of the fourth-order cumulant in both batch and adaptive versions
APA, Harvard, Vancouver, ISO, and other styles
35

Nguyen, Lam Hung. "Contrôle non linéaire et guidage visuel de véhicules sous-marins." Thesis, Université Côte d'Azur (ComUE), 2019. http://theses.unice.fr/2019AZUR4095.

Full text
Abstract:
Les récents progrès technologiques ont suscité un intérêt croissant pour les applications robotiques sous-marines. Historiquement, les contraintes liées à la charge utile ont fortement limité le développement des véhicules sous-marins à modèle réduit. Ils sont petits, leur dynamique est très non linéaire, soumis à des effets hydrodynamiques complexes et imprécis et à des perturbations proportionnables aux actions de contrôle. Par conséquent, ils constituent un terrain d'essai idéal pour les techniques de contrôle non-linéaire sophistiquées. Les techniques de contrôle classiques appliquées à ces véhicules semblent inadéquates pour faire face à leur dynamique hautement non-linéaire, aux incertitudes des modèles et aux perturbations externes. Une autre question clé qui se pose est la difficulté de la navigation dans des environnements encombrés et à proximité d'obstacles sans positionnement précis par rapport à l'environnement et sans mesure de vitesse. Dans la présente thèse, deux sujets de recherche ont été considérés: 1) Deux nouveaux schémas de contrôle par asservissement visuel dynamique (sans mesure de la vitesse linéaire) pour les véhicules sous-marins complètement actionnés ont été proposés. Ces deux contrôleurs ont été développés pour deux configurations différentes de la caméra : pointant vers le bas et vers l'avant. La principale contribution ici est de s’en passer du coûteux capteur de vitesse (DVL) utilisé pour mesurer la vitesse linéaire. Les performances des deux algorithmes de contrôle ont été validées par des simulations et via des essais pratiques dans un environnement très difficile. La plateforme expérimentale ainsi que le logiciel de développement a été conçue sur la période la thèse. 2) Nous avons proposé un nouvel algorithme de poursuite de trajectoire pour une classe de véhicules sous-déclenchés ayant une forme axisymétrique allongée. La méthode proposée utilise un nouveau modèle dynamique non linéaire du véhicule et exploite la symétrie du véhicule pour la synthèse de la conception des commandes. La performance de la loi de contrôle élaborée et sa robustesse ont été validées via des simulations en utilisant un modèle réaliste d'un véhicule sous-marin
Recent advances in technology have led to a growing interest in underwater robotic applications.Historically, payload constraints have severely limited the development of scale-model underwatervehicles. They are small; their dynamics are highly nonlinear, subjected to complex and imprecisehydrodynamic effects and to disturbances commensurable with the control actions. Consequently, theyprovide an ideal testing ground for sophisticated nonlinear control techniques. Classical controltechniques applied to these vehicles seem to be inadequate in dealing with their highly nonlineardynamics, model uncertainties and external disturbances. Another key arising issue is the difficulty ofnavigation in cluttered environments and close to obstacles without precise positioning with respect tothe environment and without velocity measurements.In the present thesis, two research topics have been considered. Firstly, two novel dynamic visualservoing controllers exploiting the so-called homography matrix for fully-actuated vehicles (withoutmeasuring the linear velocity) have been proposed. These two approaches are derived for two differentcamera configurations: downward-looking and forward-looking. The key contribution here is thenon-requirement of costly Doppler Velocity Log (DVL) velocity sensor. The control performance hasbeen validated over simulations and via practical trials in a real challenging environment. Theexperimental platform as well as the software was built over the period of the thesis. Secondly, a noveltrajectory tracking algorithm for a class of underactuated vehicles with axisymmetric slender body hasbeen developed. The proposed approach makes use of a new nonlinear dynamic model of the vehicle,and exploits the symmetry of the vehicle in control design. The control performance and its robustnesshave been validated via simulations using a realistic model of an underwater vehicle
APA, Harvard, Vancouver, ISO, and other styles
36

Liu, Mingxing. "Personnage virtuel : contrôleur hybride couplant commande dynamique multi-objectifs et mouvements capturés." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00825375.

Full text
Abstract:
Un grand défi pour les personnages virtuels est de pouvoir interagir avec des opérateurs humains en effectuant des tâches dans des environnements virtuels physiquement réalistes. Cette thèse s'intéresse particulièrement à l'interaction avec des opérateurs faiblement immergés, c'est-à-dire avec des opérateurs disposant du minimum d'équipement nécessaire à l'interaction, par exemple, une simple capture de mouvement des mains. Cela implique de doter le personnage virtuel de la capacité d'ajuster ses postures de manière autonome, d'accomplir les tâches requises par l'opérateur en temps réel en tâchant de suivre au mieux ses mouvements, tout en gérant de manière autonome les multiples contraintes dues aux interactions avec l'environnement virtuel. Cette thèse présente un système de contrôle hybride original qui permet de réaliser un personnage virtuel interactif avec certains niveaux de l'autonomie. Une approche d'optimisation de posture est proposée, permettant au personnage virtuel de chercher des postures optimales et robustes. Un cadre de contrôle multi-objectif est développé, pouvant gérer plusieurs objectifs de tâches et de multiples contacts. Il permet au personnage d'effectuer les tâches de suivi de mouvement et les tâches de manipulation d'objets dans un environnement virtuel physiquement réaliste, tout en interagissant avec un opérateur en temps réel. Une méthode de type "wrench-bound" est développée. Il s'agit d'une nouvelle approche de contrôle hiérarchisé comportant différents niveaux de priorité, permettant d'imposer des contraintes d'inégalité sur la tâche de haute priorité, tout en assurant la passivité du système pour garantir la stabilité des opérations.
APA, Harvard, Vancouver, ISO, and other styles
37

Savourey, David. "Ordonnancement sur machines parallèles : minimiser la somme des coûts." Phd thesis, Université de Technologie de Compiègne, 2006. http://tel.archives-ouvertes.fr/tel-00156405.

Full text
Abstract:
Nous étudions quatre problèmes d'ordonnancement sur machines parallèles. Ces quatre problèmes diffèrent par le critère que l'on cherche à minimiser : la somme des dates de fin, la somme pondérée des dates de fin, le retard total ou le retard total pondéré. Les jobs à ordonnancer sout soumis à des dates de disponibilité. Nous avons proposé pour ces quatres problèmes plusieurs règles de dominance. Une étude des bornes
inférieures a également été réalisée. Enfin, nous avons proposé une méthode de résolution exacte utilisant les règles de dominance ainsi que les bornes inférieures.
APA, Harvard, Vancouver, ISO, and other styles
38

Mihaita, Adriana. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT036/document.

Full text
Abstract:
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l’aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s’adapte aux événements arbitraires qui peuvent changer complètement l’évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu’à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l’état normal).Notre approche vise le développement d’un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l’énergie du système) pour la politiquede contrôle choisie. Nous proposons d’abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l’application ducontrôle.Un modèle analytique pour déterminer l’énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation
Hybrid systems are dynamical systems, characterized by a dual behaviour, a continuousinteraction between a discrete and a continuous functioning part. The center ofour work is represented by a particular class of hybrid systems, more specific by thestochastic switching systems which we model using continuous time Markov chains anddifferential equations.The random behaviour of such systems requires a special command which adapts tothe arbitrary events that can completely change the evolution of the system. We chose anevent-based control policy which is triggered only when it’s necessary (on an unforeseenevent - for example when a threshold that is reached), and until certain functioningconditions are met (the system returns in the normal state).Our approach aims to develop a probabilistic model that calculates a performancecriterion (in this case the energy of the system) for the proposed control policy. We startby proposing a discrete event simulation for the controlled stochastic switching system,which gives us the opportunity of applying a direct optimisation of the control command.It also allows us to compare the results with the ones obtained by the analytical modelswe have built when the event-based control is applied.An analytical model for computing the energy consumed by the system to apply thecontrol is designed by using the exit probabilities of the control region, respectively, thesojourn times of the Markov chain before and after reaching the control limits. The lastpart of this work presents the results we have obtained when comparing the analyticaland the simulation method
APA, Harvard, Vancouver, ISO, and other styles
39

Mihaita, Adriana, and Adriana Mihaita. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00770325.

Full text
Abstract:
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l'aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s'adapte aux événements arbitraires qui peuvent changer complètement l'évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu'à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l'état normal).Notre approche vise le développement d'un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l'énergie du système) pour la politiquede contrôle choisie. Nous proposons d'abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l'application ducontrôle.Un modèle analytique pour déterminer l'énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation.
APA, Harvard, Vancouver, ISO, and other styles
40

Cheaito, Marwan. "Un cadre de spécification et de déploi[e]ment de politiques d'autorisation." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1617/.

Full text
Abstract:
Notre travail propose une méthodologie de conception et de développement d'un système d'autorisation adaptable aux différentes facettes que peut recouvrir le contrôle d'accès dans les organisations telles que l'hétérogénéité des pratiques organisationnelles, des technologies utilisées et des contextes à considérer. Pour y répondre, deux approches de gestion ont guidé nos études : le contrôle d'accès basé sur des attributs et la gestion à base de politiques. * Le contrôle d'accès basé sur des attributs permet de spécifier des permissions par rapport à toute caractéristique liée de la sécurité des utilisateurs, des actions, des ressources et de l'environnement. Cette approche répond aux problèmes liés à l'expressivité des langages de politiques d'autorisation. * La gestion à base de politiques, quant à elle, vise à permettre l'adaptabilité dynamique du comportement d'un système par le biais de politiques de gestion. Elle repose sur une architecture mettant en exergue deux entités : le Policy Decision Point (PDP) et le Policy Enforcement Point (PEP). Le PDP est une entité indépendante de l'élément géré, qui prend des décisions de gestion par rapport à une politique donnée. Le PEP fait l'interface entre le PDP et l'élément géré. Lorsqu'une requête est effectuée par un utilisateur sur une ressource, le PEP envoie une demande de décision au PDP et l'applique. Ce type d'architecture favorise l'intégration du système de gestion dans un environnement à gérer. Nous avons donc choisi le standard XACML comme technologie cible car il met en œuvre ces deux approches. Si d'un point de vue théorique XACML semble répondre aux problèmes d'adaptabilité, les systèmes conçus selon ce standard aujourd'hui sont limités à une situation donnée. En effet, un système XACML développé pour des besoins et un environnement technologique donnés ne peut pas être facilement réutilisé dans un autre contexte. Il est donc nécessaire de définir une méthodologie de conception et de développement pour rendre un tel système d'autorisation adaptable dans la pratique. Notre approche consiste à définir un système d'autorisation minimal qui puisse être facilement étendu pour des besoins spécifiques et contextuels (e. G. Capacité d'expression et de mise en œuvre de politiques incluant des contraintes complexes, adaptation à un environnement technologique particulier, etc). Ceci amène les questions suivantes : • Quelles extensions doivent être apportées au système d'autorisation minimal ? Est-il possible de réutiliser des extensions pour différentes situations données ? Par exemple, le nombre de technologies utilisées pour stocker les accréditations des utilisateurs est limité (e. G. LDAP, MySQL, Active Directory). Cependant, les accréditations ainsi que la structuration de ces données d'accréditation peuvent différer d'une organisation à une autre. • Comment gérer le cycle de vie des extensions dans le système d'autorisation ? En effet, il existe un lien fort entre l'utilisation d'une extension et les besoins exprimés dans une politique d'autorisation. Par exemple, l'existence dans le système d'autorisation d'une extension permettant de récupérer le rôle de l'utilisateur dans une base de données MySQL n'est nécessaire que si le système d'autorisation doit évaluer au moins une politique incluant des contraintes sur le rôle des utilisateurs. Dans le cas contraire, cette extension n'a pas lieu d'être présente dans le système d'autorisation minimal. De la même manière, si une politique incluant des contraintes sur les rôles des utilisateurs est chargée dans le système d'autorisation, l'extension associée doit être rajoutée. En nous basant sur les différents travaux issus du domaine du génie logiciel liés au concept d'adaptabilité, nous avons défini les besoins d'adaptation des systèmes d'autorisation. Ce travail nous a permis de déterminer une classification des extensions par rapport aux besoins d'adaptabilité des systèmes d'autorisation de type XACML. Nous avons aussi proposé une méthode permettant de faciliter la création d'extensions et favorisant leur réutilisabilité. Enfin, nous avons traité le problème de gestion du cycle de vie des extensions dans le système d'autorisation en proposant le concept de " politique auto-contenue ". Une politique auto-contenue comprend les règles d'autorisation ainsi que toute information nécessaire au système d'autorisation pour qu'il l'interprète et qu'il l'exécute (i. E. , les extensions et leurs configurations). Nous avons décrit une architecture pour spécifier et déployer des politiques auto-contenues en utilisant l'approche composants orientés-services. Notre architecture est flexible et dynamiquement adaptable. Nous l'avons implémentée en utilisant le cadriciel OSGi afin de valider notre travail à la fois en termes de faisabilité mais aussi de performance. De plus, nous avons réalisé un éditeur de politique auto-contenue qui facilite l'écriture des règles d'autorisation ainsi que la configuration des extensions utilisées
Our work proposes a methodology for the conception and the development of an adaptable authorization system that can cover the requirements of access control in organizations such as the heterogeneity of organizational practices, the technologies used and the contexts to consider. To answer, two approaches of management have guided our study: the attribute based access control and the policy based management. * The attribute based access control permits to specify permissions related to any security characteristics of users, actions, resources and environment. This approach addresses the problems related to the expressivity of languages of authorization policies. * The policy based management, for its part, aims to enable the dynamic adaptability behavior of the system through the management of policies. Roughly, the architecture supporting this approach consists of two main entities: a policy decision point (PDP), and a policy enforcement point (PEP). The PDP is independent of the managed element, which interprets the policy and takes management decisions based on it. The PEP is the interface between the PDP and the managed element. It compels the managed system to execute the management decisions taken by the PDP. This architecture supports the integration of the management system in a managed environment. Therefore, we have chosen the standard XACML as a target technology because it supports both approaches. If in a theoretical point of view, XACML seems to address the issues of adaptability. However, systems designed according to this standard are limited to a given situation. In fact, a developed XACML system that satisfies the given requirements and a particular technological environment cannot be easily reused in another context. Therefore, it is necessary to define a methodology in order to render such authorization system adaptable in practice. Our approach is to define a minimal authorization system (i. E. A core that only supports the standard XACML) that can be easily extended for specific requirements in a given situation (ex. , the ability to express and implement policies including complex constraints, adaptation to a particular technological environment, etc. ). This raises the following questions: * What extensions that should be imported to the minimal authorization system? Is it possible to reuse the extensions for different situations? For example, the number of technologies used to store the user credentials is limited (ex. , LDAP, MySQL, Active Directory). However, the user credentials and the structuring of the data of user credentials may differ from one organization to another. * How to manage the lifecycle of the extensions in the authorization system ? In fact, there is a strong link between the use of an extension and the requirements expressed in an authorization policy. For example, the existence in the authorization system of an extension to retrieve the role of the user in a MySQL database is required only if the authorization system must evaluate at least one policy that includes constraints on the role of users. Otherwise, this extension does not happen to be present in the minimal authorization system. Similarly, if a policy including constraints on user roles is loaded into the authorization system, the associated extension must be added also. Based on the various studies from the field of software engineering related to the concept of adaptability, we have identified the requirements of adaptation of authorization systems. This work allows us to determine a classification of extensions according to the requirements of adaptability in authorization systems of type XACML. We have also proposed a methodology to facilitate the creation of extensions and promoting their reusability in the authorization system. Finally, we have addressed the problem of managing the lifecycle of the extensions in the authorization system by proposing the concept of "self-contained policy". A self-contained policy includes the authorization rules and any necessary information in order the authorization system interprets and runs it (i. E. , the extensions and their configurations). Also, we have described the architecture for specifying and deploying self-contained policies using the approach components-oriented services. Our architecture is flexible and dynamically adaptable. We have implemented it using the OSGi framework in order to validate our work in both terms of feasibility, and performance. In addition, we have conducted a self-contained policy editor that facilitates the writing of authorization rules and the configuration of the used extensions
APA, Harvard, Vancouver, ISO, and other styles
41

Kortebi, Abdesselem. "Evaluation d' une architecture IP orientée flot." Paris 6, 2005. http://www.theses.fr/2005PA066517.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Zhao, Zilong. "Extracting knowledge from macroeconomic data, images and unreliable data." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT074.

Full text
Abstract:
L'identification de système et l'apprentissage automatique sont deux concepts similaires utilisés indépendamment dans la communauté automatique et informatique. L'identification des systèmes construit des modèles à partir de données mesurées. Les algorithmes d'apprentissage automatique construisent des modèles basés sur des données d'entraînement (propre ou non), afin de faire des prédictions sans être explicitement programmé pour le faire. Sauf la précision de prédiction, la vitesse de convergence et la stabilité sont deux autres facteurs clés pour évaluer le processus de l'apprentissage, en particulier dans le cas d'apprentissage en ligne, et ces propriétés ont déjà été bien étudiées en théorie du contrôle. Donc, cette thèse implémente des recherches suivantes : 1) Identification du système et contrôle optimal des données macroéconomiques : Nous modélisons d'abord les données macroéconomiques chinoises sur le modèle VAR (Vector Auto-Regression), puis identifions la relation de cointégration entre les variables et utilisons le Vector Error Correction Model (VECM) pour étudier le court terme fluctuations autour de l'équilibre à long terme, la causalité de Granger est également étudiée avec VECM. Ce travail révèle la tendance de la transition de la croissance économique de la Chine : de l'exportation vers la consommation ; La deuxième étude est avec des données de la France. On représente le modèle dans l'espace d'états, mettons le modèle dans un cadre de feedback-control, le contrôleur est conçu par un régulateur linéaire-quadratique (LQR). On peut également imposer des perturbations sur les sorties et des contraintes sur les entrées, ce qui simule la situation réelle de crise économique. 2) Utilisation de la théorie du contrôle pour améliorer l'apprentissage en ligne du réseau neuronal profond : Nous proposons un algorithme de taux d'apprentissage basé sur les performances : E (Exponential)/PD (Proportional Derivative) contrôle, qui considère le Convolutional Neural Network (CNN) comme une plante, taux d'apprentissage comme signal de commande et valeur de loss comme signal d'erreur. Le résultat montre que E/PD surpasse l'état de l'art en termes de précision finale, de loss finale et de vitesse de convergence, et le résultat est également plus stable. Cependant, une observation des expériences E/PD est que le taux d'apprentissage diminue tandis que la loss diminue continuellement. Mais la loss diminue, le modèle s’approche d’optimum, on ne devait pas diminuer le taux d'apprentissage. Pour éviter cela, nous proposons un event-based E/PD. Le résultat montre qu'il améliore E/PD en précision finale, loss finale et vitesse de convergence ; Une autre observation de l'expérience E/PD est que l'apprentissage en ligne fixe des époques constantes pour chaque batch. Puisque E/PD converge rapidement, l'amélioration significative ne vient que des époques initiales. Alors, nous proposons un autre event-based E/PD, qui inspecte la loss historique. Le résultat montre qu'il peut épargner jusqu'à 67% d'époques sur la donnée CIFAR-10 sans dégrader beaucoup les performances.3) Apprentissage automatique à partir de données non fiables : Nous proposons un cadre générique : Robust Anomaly Detector (RAD), la partie de sélection des données de RAD est un cadre à deux couches, où la première couche est utilisée pour filtrer les données suspectes, et la deuxième couche détecte les modèles d'anomalie à partir des données restantes. On dérive également trois variantes de RAD : voting, active learning et slim, qui utilisent des informations supplémentaires, par exempe, les opinions des classificateurs conflictuels et les requêtes d'oracles. Le résultat montre que RAD peut améliorer la performance du modèle en présence de bruit sur les étiquettes de données. Trois variations de RAD montrent qu'elles peuvent toutes améliorer le RAD original, et le RAD Active Learning fonctionne presque aussi bien que dans le cas où il n'y a pas de bruit sur les étiquettes
System identification and machine learning are two similar concepts independently used in automatic and computer science community. System identification uses statistical methods to build mathematical models of dynamical systems from measured data. Machine learning algorithms build a mathematical model based on sample data, known as "training data" (clean or not), in order to make predictions or decisions without being explicitly programmed to do so. Except prediction accuracy, converging speed and stability are another two key factors to evaluate the training process, especially in the online learning scenario, and these properties have already been well studied in control theory. Therefore, this thesis will implement the interdisciplinary researches for following topic: 1) System identification and optimal control on macroeconomic data: We first modelize the China macroeconomic data on Vector Auto-Regression (VAR) model, then identify the cointegration relation between variables and use Vector Error Correction Model (VECM) to study the short-time fluctuations around the long-term equilibrium, Granger Causality is also studied with VECM. This work reveals the trend of China's economic growth transition: from export-oriented to consumption-oriented; Due to limitation of China economic data, we turn to use France macroeconomic data in the second study. We represent the model in state-space, put the model into a feedback control framework, the controller is designed by Linear-Quadratic Regulator (LQR). The system can apply the control law to bring the system to a desired state. We can also impose perturbations on outputs and constraints on inputs, which emulates the real-world situation of economic crisis. Economists can observe the recovery trajectory of economy, which gives meaningful implications for policy-making. 2) Using control theory to improve the online learning of deep neural network: We propose a performance-based learning rate algorithm: E (Exponential)/PD (Proportional Derivative) feedback control, which consider the Convolutional Neural Network (CNN) as plant, learning rate as control signal and loss value as error signal. Results show that E/PD outperforms the state-of-the-art in final accuracy, final loss and converging speed, and the result are also more stable. However, one observation from E/PD experiments is that learning rate decreases while loss continuously decreases. But loss decreases mean model approaches optimum, we should not decrease the learning rate. To prevent this, we propose an event-based E/PD. Results show that it improves E/PD in final accuracy, final loss and converging speed; Another observation from E/PD experiment is that online learning fixes a constant training epoch for each batch. Since E/PD converges fast, the significant improvement only comes from the beginning epochs. Therefore, we propose another event-based E/PD, which inspects the historical loss, when the progress of training is lower than a certain threshold, we turn to next batch. Results show that it can save up to 67% epochs on CIFAR-10 dataset without degrading much performance. 3) Machine learning out of unreliable data: We propose a generic framework: Robust Anomaly Detector (RAD), The data selection part of RAD is a two-layer framework, where the first layer is used to filter out the suspicious data, and the second layer detects the anomaly patterns from the remaining data. We also derive three variations of RAD namely, voting, active learning and slim, which use additional information, e.g., opinions of conflicting classifiers and queries of oracles. We iteratively update the historical selected data to improve accumulated data quality. Results show that RAD can continuously improve model's performance under the presence of noise on labels. Three variations of RAD show they can all improve the original setting, and the RAD Active Learning performs almost as good as the case where there is no noise on labels
APA, Harvard, Vancouver, ISO, and other styles
43

Tapsoba, René. "Inflation targeting and fiscal rules in developing countries : interactions and macroeconomic consequences." Thesis, Clermont-Ferrand 1, 2012. http://www.theses.fr/2012CLF10394/document.

Full text
Abstract:
Cette thèse s’intéresse au rôle du Ciblage d’inflation (CI) et des règles budgétaires (RBs), ainsi qu’à celui de leurs interactions, sur l’environnement macroéconomique. Après avoir posé les bases conceptuelles et empiriques de ces deux cadres de politique basés sur des règles (Chapitre 1), la thèse met en évidence de nouveaux résultats relatifs à leurs conséquences macroéconomiques. Premièrement, l’adoption du CI permet d’attirer plus d’investissements directs étrangers dans les pays en développement (Chapitre 2). Deuxièmement, dans ces pays, l’adoption du CI incite fortement les gouvernements à entreprendre des réformes destinées à améliorer la qualité des institutions (Chapitre 3). Troisièmement, l’introduction des RBs numériques au niveau national constitue un remède crédible contre l’indiscipline budgétaire, surtout dans les pays politiquement stables et avec un grand nombre de RBs en place. Mais cet effet disciplinaire des RBs diminue avec la durée de temps consécutive à leur adoption et est affaibli en présence de RBs supranationales et dans les pays à gouvernement fragmenté. Plus intéressant, cet effet varie en fonction du type de règles : tandis que les règles de solde budgétaire et les règles de dépense exercent un effet disciplinaire sur la conduite de la politique budgétaire, l’effet des règles de dette s’avère statistiquement non significatif (Chapitre 4). Les trois derniers chapitres de la thèse analysent le rôle de l’interaction entre le CI et les RBs, et dans une plus grande mesure de l’interaction entre les autorités monétaires et budgétaires. Le premier résultat qui en découle est que le CI, qui est un cadre de conduite de la politique monétaire, s’avère aussi suffisamment contraignant pour les autorités budgétaires de sorte à les inciter fortement à améliorer la discipline budgétaire, notamment dans les pays en développement (Chapitre 5). Par ailleurs, d’une part, le CI et les RBs agissent de façon complémentaire, puisqu’adopter à la fois le CI et les Rbs conduit à de meilleurs résultats budgétaires et inflationnistes qu’adopter seulement l’un ou l’autre de ces deux cadres de politique. D’autre part, la séquence qui consiste à introduire d’abord les RBs avant d’adopter le CI produit de meilleures performances inflationnistes et budgétaires que la séquence inverse (Chapitre 6). Finalement, une meilleure cohérence du Policy-Mix, c'est-À-Dire une meilleure coordination des politiques monétaire et budgétaire conduit à une plus grande croissance économique dans la Communauté Economique des Etats de l’Afrique de l’Ouest (CEDEAO) (Chapitre 7)
This thesis is concerned with the role of Inflation Targeting (IT) and Fiscal Rules (FRs), as well as of their interactions, on macroeconomic environment. After laying the conceptual and empirical backgrounds of both these rules-Based policy frameworks (Chapter 1), the dissertation highlights new evidence on their macroeconomic consequences. First, IT adoption does help attracting more Foreign Direct Investment into Developing Countries (Chapter 2). Second, inthese countries, IT adoption provides strong incentives for governments to undertake reforms designed to improve the quality of institutions (Chapter 3). Third, the introduction of national-Level numerical FRs does stand as a credible remedy against fiscal indiscipline in these countries, all the more in politically stable economies and where the numberof FRs in place is important. But this discipline-Enhancing effect of FRs decreases with the time length since their adoption, and is weakened in the presence of supranational rules and in countries with more fragmented government. Interestingly, this effect varies with the type of rules: while Budget Balance Rules and Expenditure Rules have significant disciplineenhancing effects, the effect of Debt Rules proved not significantly different from zero (Chapter 4). The last three chapters of the thesis focus on the role of the interaction between IT and FRs, and to a broader extent, on the interplay between monetary and fiscal authorities. The first result that emerges is that IT, which is a framework for conducting monetary policy, proves also sufficiently binding for fiscal authorities to providing them with strong incentives for improving fiscal discipline, notably in developing countries (Chapter 5). In addition, on the one hand, IT and FRs act complementarily, as adopting both IT and FRs leads to better results in terms of running fiscal surpluses and in terms of bringing down average inflation than adopting only one of these two frameworks. On the other hand, the sequence which consists of introducing FRs first before adopting IT yields better inflationary and fiscal performances than the opposite sequence (Chapter 6). Finally, better Policy Mix coherence, that is, better coordination between monetary and fiscal policies, is conducive to higher economic growth in the Economic Community of West African States (ECOWAS) (Chapter 7)
APA, Harvard, Vancouver, ISO, and other styles
44

El, Maarabani Mazen. "Verification and test of interoperability security policies." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00717602.

Full text
Abstract:
Nowadays, there is an increasing need for interaction in business community. In such context, organizations collaborate with each other in order to achieve a common goal. In such environment, each organization has to design and implement an interoperability security policy. This policy has two objectives: (i) it specifies the information or the resources to be shared during the collaboration and (ii) it define the privileges of the organizations' users. To guarantee a certain level of security, it is mandatory to check whether the organizations' information systems behave as required by the interoperability security policy. In this thesis we propose a method to test the behavior of a system with respect to its interoperability security policies. Our methodology is based on two approaches: active testing approach and passive testing approach. We found that these two approaches are complementary when checking contextual interoperability security policies. Let us mention that a security policy is said to be contextual if the activation of each security rule is constrained with conditions. The active testing consists in generating a set of test cases from a formal model. Thus, we first propose a method to integrate the interoperability security policies in a formal model. This model specifies the functional behavior of an organization. The functional model is represented using the Extended Finite Automata formalism, whereas the interoperability security policies are specified using OrBAC model and its extension O2O. In addition, we propose a model checking based method to check whether the behavior of a model respects some interoperability security policies. To generate the test cases, we used a dedicated tool developed in our department. The tool allows generating abstract test cases expressed in the TTCN notation to facilitate its portability. In passive testing approach, we specify the interoperability policy, that the system under test has to respect, with Linear Temporal logics. We analyze then the collected traces of the system execution in order to deduce a verdict on their conformity with respect to the interoperability policy. Finally, we show the applicability of our methods though a hospital network case study. This application allows to demonstrate the effectiveness and reliability of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
45

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Full text
Abstract:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
APA, Harvard, Vancouver, ISO, and other styles
46

Berrebi, Johanna. "Contribution à l'intégration d'une liaison avionique sans fil. L'ingénierie système appliquée à une problématique industrielle." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00800141.

Full text
Abstract:
Dans un avion, un hélicoptère ou un lanceur actuel, des milliers de capteurs, pour la plupart non critiques sont utilisés pour la mesure de divers paramètres (températures, pressions, positions...) Les résultats sont ensuite acheminés par des fils vers les calculateurs de bord qui les traitent. Ceci implique la mise en place de centaines de kilomètres de câbles (500 km pour un avion de ligne) dont le volume est considérable. Il en résulte une grande complexité de conception et de fabrication, des problèmes de fiabilité, notamment au niveau des connexions, et une masse importante. Par ailleurs l'instrumentation de certaines zones est impossible car leur câblage est difficilement envisageable par manque d'espace. En outre, s'il est souvent intéressant d'installer de nouveaux capteurs pour faire évoluer un aéronef ancien, l'installation des câbles nécessaires implique un démantèlement partiel, problématique et coûteux, de l'appareil. Pour résoudre ces problèmes, une idée innovante a émergé chez les industriels de l'aéronautique : commencer à remplacer les réseaux filaires reliant les capteurs d'un aéronef et leur centre de décision par des réseaux sans fil. Les technologies de communication sans fil sont aujourd'hui largement utilisées dans les marchés de l'électronique de grande consommation. Elles commencent également à être déployées pour des applications industrielles comme l'automobile ou le relevé à distance de compteurs domestiques. Cependant, remplacer des câbles par des ondes représente un défi technologique considérable comme la propagation en milieu confiné, la sécurité, la sureté de fonctionnement, la fiabilité ou la compatibilité électromagnétique. Cette thèse est motivée d'une part par l'avancée non négligeable dans le milieu aérospatial que pourrait être l'établissement d'un réseau sans fil à bord d'aéronefs dans la résolution de problématique classiques comme l'allégement et l'instrumentation. Il en résulterait donc : * Une meilleure connaissance de l'environnement et de la santé de l'aéronef * Un gain sur le poids. * Un gain en flexibilité. * Un gain en malléabilité et en évolutivité. * Un gain sur la complexité. * Un gain sur la fiabilité D'autre part, étant donnée la complexité de la conception de ce réseau de capteur sans fil, il a été nécessaire d'appliquer une méthodologie évolutive et adaptée mais inspirée de l'ingénierie système. Il est envisageable, vu le nombre de sous-systèmes à considérer, que cette méthodologie soit réutilisable pour d'autre cas pratiques. Une étude aussi complète que possible a été réalisée autour de l'existant déjà établi sur le sujet. En effet, on peut en lisant ce mémoire de thèse avoir une idée assez précise de ce qui a été fait. Une liste a été dressée de toutes les technologies sans fil en indiquant leur état de maturité, leurs avantages et leurs inconvénients afin de préciser les choix possibles et les raisons de ces choix. Des projets de capteurs sans fil ont été réalisés, des technologies sans fil performantes et personnalisables ont été développées et arrivent à maturité dans des secteurs variés tels que la domotique, la santé, l'automobile ou même l'aéronautique. Cependant aucun capteur sans fil n'a été véritablement installé en milieu aérospatial car de nombreux verrous technologiques n'ont pas été levés. Fort des expériences passées, et de la maturité qu'ont prise certaines technologies, des conclusions ont été tirées des projets antérieurs afin de tendre vers des solutions plus viables. Une fois identifiés, les verrous technologiques ont été isolés. Une personnalisation de notre solution a été à envisager afin de remédier tant que faire se peut à ces points bloquants avec les moyens mis à disposition. La méthodologie appliquée nous a permis d'identifier un maximum de contraintes, besoins et exigences pour mieux focaliser les efforts d'innovation sur les plus importantes et choisir ainsi les technologies les plus indiquées.
APA, Harvard, Vancouver, ISO, and other styles
47

Cardot, Anais. "Rejeu basé sur des règles de transformation de graphes." Thesis, 2019. http://www.theses.fr/2019POIT2254/document.

Full text
Abstract:
Réaliser des variations d'un même modèle est un besoin en expansion dans de nombreux domaines de modélisation (architecture, archéologie, CAO, etc.). Mais la production manuelle de ces variations est fastidieuse, il faut donc faire appel à des techniques permettant de rejouer automatiquement tout ou partie du processus de construction du modèle, après spécification des modifications. La majorité des approches dédiées à la réalisation du rejeu sont basées sur un système de modélisation paramétrique, composée d’un modèle géométrique et d’une spécification paramétrique permettant d’enregistrer la succession d’opérations l’ayant créé ainsi que leurs paramètres. On peut ensuite faire varier ces paramètres ou éditer cette liste d’opérations afin de modifier le modèle. On utilise pour cela un système de nommage persistant, introduit dans les années 90, et permettant d’identifier et d’apparier les entités d’une spécification initiale et celles d'une spécification rejouée. L’objectif de cette thèse est de proposer un système de nommage persistant général, homogène et permettant de gérer l’édition de spécification paramétriques (déplacer, ajouter et supprimer des opérations). Nous nous basons sur la bibliothèque Jerboa, qui repose sur des règles de transformation de graphes, tant pour utiliser ces règles dans la réalisation de la méthode de nommage que pour lier les notions de spécification paramétrique à ces règles de transformations de graphes. Nous décrivons ensuite comment exploiter notre méthode de nommage pour rejouer et éditer des spécifications paramétriques d’opérations, puis nous la comparons avec les approches de la littérature
In many modelling fields, such as architecture, archaeology or CAD, performing many variations of the same model is an expanding need. But building all those variations manually takes time. It is therefore needed to use automatic technics to revaluate some parts of a model, or even an entire model, after the user specifies the modifications. Most of the existing approaches dedicated to revaluating models are based on a system called parametric modelling. It is made of two parts, a geometric model and a parametric specification, which allows to record the series of operation that created the model, and the different parameters of those operations. This way, the user can change some parameters, or edit the list of operations to modify the model. To do so, we use a system called persistent naming, introduced during the 90ies, that allows us to identify and match the entities of an initial specification and the ones of a revaluated specification. In this thesis, our goal is to propose a persistent naming system that would be general, homogeneous and that would allow the user to edit a parametric specification (which means move, add, or delete some operations). We base our system on the Jerboa library, which uses graph transformation rules. This way, we will be able to use those rules to create our naming system, while also linking the notions of graph transformation rules and parametric specification. We will then describe how to use our naming method to revaluate or edit parametric specifications. Finally, we will compare our method with the other ones from the literature
APA, Harvard, Vancouver, ISO, and other styles
48

Bendakir, Narimel. "RARE : un système de recommandation de cours basé sur les régles d'association." Thèse, 2006. http://hdl.handle.net/1866/16732.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Baseri, Yaser. "Contrôle d’Accès Sécurisé dans l’Info-Nuage Mobile (Secure Access Control in Mobile Cloud)." Thèse, 2017. http://hdl.handle.net/1866/20486.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography