Dissertations / Theses on the topic 'Pilotage des données'

To see the other types of publications on this topic, follow the link: Pilotage des données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 34 dissertations / theses for your research on the topic 'Pilotage des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hadji, Brahim. "Utilisation et réutilisation des données d'un système d'information clinique : application aux données de pilotage à l'hôpital européen Georges Pompidou." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066039/document.

Full text
Abstract:
Les technologies de l’information et de la communication se sont considérablement développées dans tous les secteurs de l’économie. Dans le domaine de la santé, et tous particulièrement dans le secteur hospitalier, les investissements se sont considérablement accrus, notamment avec la mise en place de systèmes d’information clinique (SIC) intégrés. Les hypothèses derrière ces investissements sont que la mise en œuvre d’un SIC peut améliorer à la fois l’efficience d’un hôpital et la qualité des soins. Pour être validée, ces hypothèses nécessitent que soit mise au point une méthodologie de mesure du degré de mise en place d’un SIC, de l’efficience hospitalière puis de la qualité des soins. Ce travail est centré d’une part sur la méthodologie de mesure de l’utilisation d’un SIC et d’autre part sur la mesure de l’efficience hospitalière. Le cadre applicatif du travail est, dans le premier cas, le système d’information clinique de l’HEGP et dans le second les hôpitaux de court séjour de l’AP-HP dont fait partie l’HEGP. Après une étude de la littérature sur l’évaluation de l’utilisation et de de la satisfaction d’un SIC, la première partie de la thèse est organisée autour de deux études. Une première étude longitudinale de 2004 à 2014 permet d’analyser l’évolution de l’utilisation et de la satisfaction au travers d’un groupe multi professionnel d’utilisateurs et d’analyser leurs déterminants avec des méthodes d’équations structurelles. En post-adoption précoce (4 ans), l'utilisation du SIC, la qualité du SIC et l’utilité perçue (PU) expliquent 53% de la variance de la satisfaction. Dans la phase de post-adoption très tardive (>10 ans), l’effet de l’utilisation n’est plus significatif, par contre, la qualité du SIC, la confirmation des attentes et la PU sont les paramètres les plus liés à la satisfaction expliquant 86% de sa variance. Cependant, la satisfaction et la PU sont les facteurs les plus déterminants de l’intention de continuer, avec une forte influence indirecte de la qualité du système. Un modèle unifié est proposé et comparé aux modèles principaux de la littérature. La mesure de l’efficience des hôpitaux est effectuée avec un modèle économétrique dont le choix des variables a été effectué sur la base d’une revue systématique de la littérature. Trois catégories d’indicateurs d’entrée et trois catégories d’indicateurs de sorties sont utilisés. Les relations entre entrées et sorties sont analysées au travers une fonction de production (Translog) et d’un modèle paramétrique (Stochastic Frontier Analysis). Une diminution globale de l’efficience de 20 hôpitaux de court séjour de l’AP-HP sur la période 2009-2014 est observée dont les causes possibles sont discutées. La mise au point et la validation de modèles d’évaluation de l’utilisation des SIC d’une part et de mesure de l’efficience hospitalière devrait faciliter l’analyse des relations entre informatisation et efficience hospitalière, puis lorsque la même démarche aura été appliquée à la qualité des soins entre informatisation et qualité
The information and communication technologies (ICT) have been developed in all economic sectors. In the healthcare field, and particularly in hospitals with the introduction of clinical information systems (CIS), investments have dramatically increased. The rationale for these investments is the improvement of both the hospital efficiency and the quality of the care delivered to patients after the deployment of a fully integrated CIS. In the aim to validate these relationships adapted methodologies, need to be designed and implemented. This thesis concentrates on the CIS maturity and hospital efficiency relationship. Material for testing the hypothesis come from several CIS evaluations performed at HEGP and data extracted from the decision analytics tools of Assistance Publique Hôpitaux de Paris (AP-HP). After a study of the literature on the use and satisfaction evaluation of a CIS, the first part of the thesis is organized around two main studies. A 14 years longitudinal study achieved between 2004 and 2014 analyzes the evolution of use and satisfaction and their determinants within a multi professional group of users using multiple regression techniques and structural equation methods. In early post-adoption (4 years), the CIS use, the CIS quality, and the CIS perceived usefulness (PU) explain 53% of the variance in user satisfaction. In the very late post-adoption phase (> 10 years), the effect of use on user satisfaction is no more significant. In contrast, the CIS quality, the confirmation of expectations, and the PU are the best determinants of satisfaction explaining 86% of its variance. In a second study focused on continuance intention, satisfaction and PU appear to be the best determinants of continuance intention, with a strong indirect influence of the CIS quality. A unified model is proposed and compared to the main models of the literature. The measurement of hospital efficiency was achieved with an econometric approach. Selection of indicators entered in the econometric model was performed on the basis of a systematic literature review. Three categories of input indicators and three categories of output indicators are considered. The relationship between the input and output indicators are analyzed through a Stochastic Frontier Analysis model. An overall decrease of the efficiency of the 20 short-stay hospitals of the AP-HP for the 2009-2014 period is observed and its possible causes are discussed. The development and validation of CIS use-satisfaction evaluation model combined with the analysis of the hospital efficiency evolution over time could be the first phase of a more global evaluation of the complex influence of IT introduction on hospital efficiency and the quality of care delivered to patients
APA, Harvard, Vancouver, ISO, and other styles
2

Benali, Khalid. "Assistance et pilotage dans le développement de logiciel : Vers un modèle de description." Nancy 1, 1989. http://www.theses.fr/1989NAN10382.

Full text
Abstract:
Cette thèse s'intéresse à la construction d'ateliers de développement de logiciels et en particulier à l'assistance et au pilotage dans ce développement. Pour atteindre cet objectif, nous nous sommes concentrés sur deux aspects qui nous semblent essentiels, à savoir le partage d'informations communes et cohérentes sur les objets manipulés et la modélisation du processus de production de logiciels
APA, Harvard, Vancouver, ISO, and other styles
3

Fan, Linghua. "Un système réparti de gestion de données (DIMS) pour améliorer le pilotage du processus d'innovation." Valenciennes, 2003. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/9859f3a6-4492-4996-8fb0-8ebfe09827e0.

Full text
Abstract:
L'intégration de données a gagné la nouvelle importance depuis le succès du WWW. Le but de l'intégration de données est de fournir une interface uniforme à une multitude des données hétérogènes. Ce travail est consacré à la conception et à la réalisation d'outils pour faciliter le développement du web. Le système réparti de gestion de données (DIMS) est un système XML-basé d'intégration de données. Il utilise quelques des outils d'efficacités adapte les sources dans des données standard de XML et produit de différents adaptateur. Notre solution repose sur l'architecture médiateur-adaptateurs. Dans ces architectures, le médiateur accepte une requête de l'utilisateur, la traite en accédant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Notre système emploie UML pour concevoir notre logiciel et fournit un prototype peut employer la plateforme de l'indépendance sur la langue de Java. Le prototype de DIMS et une étude de cas sont employés pour valider
Data integration has gained new importance since the widespread success of the WWW. The goal of data integration is to provide an uniform interface to a multitude of distributed, autonomics and heterogeneous information sources available online. We design novel techniques and tools to simplify the exploitation of heterogeneous web data sources. Distributed Information Management System (DIMS) is an XML-based data integration system for accessing these web sources. It utilizes some efficiencies tools to wrapper heterogeneous web sources into standard XML data and generates different wrappers. Our approach is based on mediator - wrapper architectures. In these architectures, mediators accept queries from users, and then process them with respect to wrappers and return answers. Our system uses UML to design our software, and provide a prototype can be using independence platform implementing on Java language. The prototype of DIMS and a case study are used to validate our approach
APA, Harvard, Vancouver, ISO, and other styles
4

Dufour, Luc. "Contribution à la mise au point d'un pilotage énergétique décentralisé par prédiction." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0004/document.

Full text
Abstract:
Comment satisfaire les besoins en énergie d’une population de 9 milliards d’êtres humains en 2050, de façon économiquement viable tout en minimisant l’impact sur l’environnement. Une des réponses est l’insertion de production d’énergie propre d’origine éolienne et photovoltaïque mais leurs totales dépendances aux variations climatiques accentuent une pression sur le réseau. Les modèles prédictifs historiques centralisés et paramétriques ont du mal à appréhender les variations brutales de productions et de consommations. La révolution internet permet aujourd’hui une convergence entre le numérique et l’énergie. En Europe et depuis cinq ans, l’axe d’étude est celui de la maîtrise locale de l’électricité. Ainsi plusieurs quartiers intelligents ont été créés et les modèles utilisés de pilotage et de prédiction restent souvent la propriété des partenaires des projets. Dans cette thèse, Il s’agit de réaliser un bilan énergétique chaque heure pour prédire l’ensemble des vecteurs énergétiques d’un système. Le besoin en énergie d’un système comme une maison est décomposée en un besoin en chauffage, en un besoin en eau chaude sanitaire, en un besoin en luminaires, en besoin de ventilation et en usages spécifiques électriques utiles. Le système peut posséder une production décentralisée et un système de stockage ce qui augmentera sa capacité d’effacement. Pour le centre de pilotage, l’objectif est d’avoir une possibilité de scénarios de surproductions ou surconsommations sur un quartier donnée à court terme. Nous considérerons dans cette thèse un horizon à l’heure pour notre bilan énergétique. Cela implique une prédiction fine des différents flux énergétiques d’un système en particulier le chauffage et l’eau chaude qui représente le plus gros potentiel de flexibilité dans les bâtiments. Pour réaliser un bilan, nous devons calculer les différents flux énergétiques à l’intérieur de notre système : les déperditions par l’enveloppe et la ventilation, les gains internes solaires, des personnes et des appareils, le stockage, la production d’eau chaude sanitaire, les usages spécifiques électriques utiles. Sur certains de ces points, nous pouvons évaluer assez précisément et en fonction du temps les quantités d’énergie échangées. Pour les autres (ECS, USE, gains internes, stockage), la bibliographie nous donne que des méthodes globales et indépendantes du temps. Il n’est donc pas possible d’envisager une méthode correspondant au pas de temps souhaité. Ceci impose la mise au point d’une méthode prédictive et apprenante dont nos modèles de simulation énergétique seront le point de référence. Il n’en reste pas moins que ces modèles permettent la compréhension du comportement énergétique du système. L’outil se devra non intrusif, personnalisé, robuste et simple. Pour limiter le caractère intrusif de l’outil, il s’agit à la fois d’ajouter de l’intelligence comme par exemple l’identification des appareils utiles à partir d’un seul point de mesure mais aussi la collection et l’analyse d’informations localement. Les données privées ne sont pas transmises vers l’extérieur. Seules les informations de prédictions énergétiques sont envoyées à un niveau supérieur pour agrégation des données des quartiers. L’intelligence est également au niveau des prédictions réalisées issues de méthodes d’apprentissage comme l’utilisation des réseaux de neurones ou des arbres de décision. La robustesse est étudiée d’un point de vue technologie (plusieurs protocoles de communication ont été testés), techniques (plusieurs méthodes de collecte) et d’un point de vue du stockage de données (limiter la fréquence de collecte). La simplicité d’usage engendre une simplicité d’installation minimiser le nombre de données d’entrée tout en gardant une précision souhaitable sera notre principal axe d’optimisation
This work presents a data-intensive solution to manage energy flux after a low transformer voltage named microgrid concept. A microgrid is an aggregation of building with a decentralized energy production and or not a storage system. These microgrid can be aggregate to create an intelligent virtual power plant. However, many problems must be resolved to increase the part of these microgrid and the renewable resource in a energy mix. The physic model can not integrate and resolve in a short time the quickly variations. The intelligent district can be integrate a part of flexibility in their production with a storage system. This storage can be electrical with a battery or thermal with the heating and the hot water. For a virtual power plant, the system can be autonomous when the price electricity prediction is low and increase the production provided on the market when the price electricity is high. For a energy supplier and with a decentralized production building distant of a low transformer voltage, a regulation with a storage capacity enable a tension regulation. Finally, the auto-consumption becomes more and more interesting combined with a low electrical storage price and the result of the COP 21 in Paris engage the different country towards the energy transition. In these cases, a flexibility is crucial at the building level but this flexibility is possible if, and only if, the locally prediction are correct to manage the energy. The main novelties of our approach is to provide an easy implemented and flexible solution to predict the consumption and the production at the building level based on the machine learning technique and tested on the real use cases in a residential and tertiary sector. A new evaluation of the consumption is realized: the point of view is energy and not only electrical. The energy consumption is decomposed between the heating consumption, the hot water consumption and the electrical devices consumption. A prediction every hour is provided for the heating and the hot water consumption to estimate the thermal storage capacity. A characterization of Electrical devices consumption is realized by a non-intrusive disaggregation from the global load curve. The heating and the hot water are identify to provide a non intrusive methodology of prediction. Every day, the heating, the hot water, the household appliances, the cooling and the stand by are identified. Every 15 minutes, our software provide a hot water prediction, a heating prediction, a decentralized prediction and a characterization of the electrical consumption. A comparison with the different physic model simulated enable an error evaluation the error of our different implemented model
APA, Harvard, Vancouver, ISO, and other styles
5

Repusseau, Philippe. "Système expert d'assistance à la navigation des hélicoptères à partir de données géographiques numériques." Compiègne, 1988. http://www.theses.fr/1988COMPD151.

Full text
Abstract:
L'activité des pilotes d'hélicoptères pendant leurs missions se partage entre 80 % pour la navigation et 20 % pour la tactique. Le but de cette recherche a été l'étude et l'évaluation des moyens d'inverser ces deux proportions. Tout d'abord j'ai identifié un certain nombre d'outils cohérents pour l'aide à l'étude de stratégies, la préparation de missions ainsi que pour l'assistance au déroulement d'une mission. L'expertise de pilotes a permis de modéliser les comportements liés au terrain. Le raisonnement tactique est le fruit de la fusion de deux critères : la sécurité, c'est-à-dire être menacé directement, et la sûreté, c'est-à-dire être vu ou reconnu. Les représentations possibles du terrain ainsi que les services qu'il faut en attendre ont été inventoriées et classées afin de permettre de choisir la meilleure selon le service à rendre. L'étude d'une machine d'exécution a fait l'objet d'une recherche particulière. En partant de l'état de l'art des systèmes, des architectures et de l'évolution du marché, il s'est avéré que l'utilisation opérationnelle de langages de l'intelligence artificielle n'était pas évidente. Une approche réaliste est de reporter ce problème sur le logiciel de génération de systèmes experts qui doit produire à la fois des versions pour une machine de développement avec un environnement très riche et des versions pour une machine d'exécution plus rapide mais dont l'environnement est minimal. La maquette réalisée utilise les possibilités du générateur de systèmes experts SPOCK pour produire plusieurs exécutables : COMMON Lisp puis Le Lisp pour la mise au point et C pour les tests de processeurs RISC. La conception orientée par les objets a permis de bien maitriser les problèmes de traduction entre ces différents langages ainsi que d'accelerer le prototypage
During mission, pilots of helicopter share their activities between 80 % for navigation and 20 % for tactics. The present work has been concerned with searching and evaluating means to reverse those ratios. First, I identified coherent tools for helping in strategies development, mission preparation and mission control in real time. Thanks to a pilot's expertise, I propose a modelization of aircraft attitudes related to the ground. Tactical inference stems from the fusion of two factors : security, when the aircraft is directly threatened and safety when it can be seen or recognized. Possible land representations and services they can offer have been identified and classified according to the needs. A particular study has been conducted for a runtime machine. Studying state of the art in architectures, processing and market survey, it appeared that executing artificial intelligence languages at runtime is not efficient. A realistic approach is to take on this problem at the expert system shell level and produce, both, compatible code for dedicated lA workstations with rich environment and for runtime machines faster but with a less powerful environment than the previous one. The “Assistant Tactique” prototype uses the capabilities of the expert system shell named SPOCK to produce different codes : COMMON Lisp and Le lisp for development, C for testing on RISC processors. Object oriented techniques avoid problem of target code translations and speeds up prototyping
APA, Harvard, Vancouver, ISO, and other styles
6

Misiti, Yves. "Détermination, guidée par les connaissances, d'une loi de pilotage pour un lanceur spatial : analyse de ces connaissances et construction d'un système expert." Paris 11, 1986. http://www.theses.fr/1986PA112353.

Full text
Abstract:
Cette thèse présente l'étude et la réalisation d'un Système Expert aidant à la conception d'une loi de pilotage pour un lanceur spatial. Le pilotage est la manœuvre des mouvements de la fusée autour de son centre de gravité. Concevoir une loi comporte des étapes de modélisation, réduction, discrétisation, détermination du contrôleur et de l'estimateur, de validation. Les procédures algorithmiques sont complétées par des connaissances d'origine expérimentale. Aucune solution uniquement algorithmique n'existe dans ces problèmes multicritères analogues à une conception assistée en ingénierie. Les arguments complémentaires favorables à l'utilisation de la méthodologie et des outils des Systèmes Experts, font l'objet de la première partie de la thèse. La deuxième partie analyse les divers types de connaissances du domaine ct du problème : connaissances numériques, théorèmes, connaissances empiriques. Elles sont regroupées en "Sources de Connaissances" indépendantes. Cette structure est adaptée à l'existence d'expertises autonomes relatives à la résolution de sous-problèmes distincts. La troisième partie présente l'architecture du système informatique réalisé et justifie les choix effectués. En particulier, la partie dynamique du système qui est gérée par une structure de type "tableau noir" ("blackboard") : espace de travail commun par lequel les sources de connaissances communiquent entre elles. Le recensement des objets manipulés par les ingénieurs, la présentation de l'arbre de résolution, la liste des algorithmes et la description d'une session commentée sont regroupés dans les annexes.
APA, Harvard, Vancouver, ISO, and other styles
7

Da, Cunha Catherine. "Mise en oeuvre de la personnalisation de masse : Contribution au développement d'une méthodologie outillée." Habilitation à diriger des recherches, Université de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-00994825.

Full text
Abstract:
La personnalisation de masse est une configuration de l'offre produit, du système de production et de la chaîne de valeur, qui permet la satisfaction (mesurée par la valeur perçue) des besoins individuels des clients et celle des autres parties bénéficiaires (e.g. l'entreprise, les fournisseurs, etc.). Les recherches menées ont permis d'obtenir une identification des différentes étapes de sa mise en oeuvre. Pour offrir des produits personnalisés (réalisés unitairement ou en masse), une organisation adaptée doit être choisie et implémentée. Cette démarche n'est possible qu'après une analyse préliminaire des types de personnalisation de masse et de leur spécificités, ainsi qu'une identification des leviers correspondants. Un plan d'action doit alors être défini puis piloté. A chacune des étapes spécifiques à cette mise en oeuvre correspond bien entendu un champ de recherche qui m'a permis de structurer ma recherche autour des champs que sont : - le recueil des données caractérisant la personnalisation de masse et le contexte, - la conception et la reconception de la configuration sur les trois niveaux : produit, process, organisation, - la mise en oeuvre puis le pilotage de la chaîne de valeur permettant la personnalisation de masse. Les résultats présentés ici sont issus d'une double approche : - des projets en collaboration avec des entreprises, portant sur un point d'achoppement opérationnel nécessitant des outils implémentables, - des projets de recherche fondamentale issus d'une formulation et d'une curiosité académique.
APA, Harvard, Vancouver, ISO, and other styles
8

Sitruk, Yohann. "Pilotage de la performance des projets de science citoyenne dans un contexte de transformation du rapport aux données scientifiques : systématisation et perte de production." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM035/document.

Full text
Abstract:
De plus en plus d’organisations scientifiques contemporaines intègrent dans leur processus des foules de participants assignés à des tâches variées, souvent appelés projets de science citoyenne. Ces foules sont une opportunité dans un contexte lié à une avalanche de données massives qui met les structures scientifiques face à leurs limites en terme de ressources et en capacités. Mais ces nouvelles formes de coopération sont déstabilisées par leur nature même dès lors que les tâches déléguées à la foule demandent une certaine inventivité - résoudre des problèmes, formuler des hypothèses scientifiques - et que ces projets sont amenés à être répétés dans l’organisation. A partir de deux études expérimentales basées sur une modélisation originale, cette thèse étudie les mécanismes gestionnaires à mettre en place pour assurer la performance des projets délégués à la foule. Nous montrons que la performance est liée à la gestion de deux types de capitalisation : une capitalisation croisée (chaque participant peut réutiliser les travaux des autres participants) ; une capitalisation séquentielle (capitalisation par les participants puis par les organisateurs). Par ailleurs cette recherche met en avant la figure d’une nouvelle figure managériale pour supporter la capitalisation, le « gestionnaire des foules inventives », indispensable pour le succès des projets
A growing number of contemporary scientific organizations collaborate with crowds for diverse tasks of the scientific process. These collaborations are often designed as citizen science projects. The collaboration is an opportunity for scientific structures in a context of massive data deluge which lead organizations to face limits in terms of resources and capabilities. However, in such new forms of cooperation a major crisis is caused when tasks delegated to the crowd require a certain inventiveness - solving problems, formulating scientific hypotheses - and when these projects have to be repeated in the organization. From two experimental studies based on an original modeling, this thesis studies the management mechanisms needed to ensure the performance of projects delegated to the crowd. We show that the performance is linked to the management of two types of capitalization: a cross-capitalization (each participant can reuse the work of the other participants); a sequential capitalization (capitalization by the participants then by the organizers). In addition, this research highlights the figure of a new managerial figure to support the capitalization, the "manager of inventive crowds", essential for the success of the projects
APA, Harvard, Vancouver, ISO, and other styles
9

Coment, Elian. "Contribution à la mise au point de techniques de mesures de propriétés thermophysiques par sondes à chocs : modélisation, traitement et pilotage électronique des données." Paris, ENSAM, 2001. http://www.theses.fr/2001ENAM0019.

Full text
Abstract:
L'objectif de ce travail est de proposer une amélioration des techniques de mesures par sondes à choc, au vu des récents progrès en matière de traitement du signal, d'acquisition et de pilotage électronique des données. Ce travail comporte plusieurs aspects originaux et démontre les intérêts d'un pilotage électronique des données pour l'etimation de paramètres thermophysiques. Ce pilotage a pu s'opérer sous diverses formes. D'une part, en jouant sur la forme temporelle de l'excitation, en élargissant sa plage fréquentielle en vue d'améliorer la précision de l'estimation des paramètres thermophysiques. Mais aussi, en limitant cette plage des fréquences à une zone déterminée par l'étude de sensibilité ; ceci dans le but de diminuer fortement l'influence de certains paramètres sur la réponse du système. D'autre part, en augmentant lenombre de points de mesure pour l'exploration des possibilités dans le cas du transfert 2D dans des milieux hétérogènes. Dans chacune des études présentées nous avons essayé de mettre l'accent sur les avantages principaux de ces méthodes, notamment par l'utilisation de sondes à chocs qui sont faciles de mise en oeuvre et de moindre coût, mais aussi par la rapidité et la fiabilité de l'estimation qui est toujours basée sur le critère des moindres carrés linéaires. Le formalisme des quadripôles pour modéliser les transferts thermiques par conduction au sein du système sonde-matériau est ici employé. L'objectif final de notre travail étant d'étudier des matériaux stratifiés hétérogènes, nous avons été amenés à développer une extension du formalisme "classique" : les quadripôles "numériques". Ce formalisme semi-numérique (ou semi-analytique) possède certains avantages importants par rapport à une modélisation totalement numérique. Il permet, par exemple, d'étudier simplement le cas des milieux semi-infinis mais également d'analyser la réponse du système étudié à une large échelle de temps.
APA, Harvard, Vancouver, ISO, and other styles
10

Ali, Ahmad. "L' approche multi-agents pour le pilotage des systèmes complexes appliquée aux systèmes du trafic urbain." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725327.

Full text
Abstract:
La conception, l'étude et la gestion des systèmes du trafic urbain (STU) sont difficiles et coûteuses et sont des tâches très complexes. Dans ces systèmes, l'objectif principal est d'améliorer la circulation et d'optimiser la fluidité grâce à des règles de fonctionnement et de pilotage (qui constituent le sous-système décisionnel). L'approche distribuée du pilotage peut contribuer à la mise en place d'organisations agiles, combinant des logiques de réseaux et de hiérarchie. Cependant, le pilotage non centralisé des STU s'appuie fondamentalement sur les interactions d'entités communicantes, autonomes et capables de prendre des décisions. Ce travail s'intègre dans le développement de la méthodologie de modélisation ASCImi-STU (analyse, spécification, conception, implantation -multiple, incrémentielle pour les STU) qui a pour objectif d'apporter une aide à la conception et à la gestion des STU. La problématique liéé à la conception du sous-système décisionnel des STU est la maîtrise de la cohérence spatiale et temporelle des décisions, compte tenu des caractéristiques des systèmés pilotés et de leur environnement. Nous proposons pour le sous-système décisionnel une approche multi-agents et un outil d'aide à la décision pour améliorer la qualité de service aux usagers et pour résoudre des problèmes de planification au niveau stratégique, tactique et opérationnel.
APA, Harvard, Vancouver, ISO, and other styles
11

Vissière, David. "Solution de guidage-navigation-pilotage pour véhicules autonomes hétérogènes en vue d'une mission collaborative." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004492.

Full text
Abstract:
Le thème de la « navigation bas-coût », caractérisé par le transfert de performance des capteurs vers les algorithmes de fusion de données et de commande, est un thème central dans de nombreuses applications militaires liées en particulier aux besoins nouveaux des troupes légères. L'utilisation de capteurs inertiels ou magnétométriques type MEMS et de GPS civils (notamment), optimise les critères d'encombrement, de masse et de consommation. Mais elle requiert, en compensation des performances relativement médiocres des capteurs, des algorithmes de guidage-navigation-pilotage spécifiques aux applications considérées. Dans ce mémoire, nous considérons trois scénarios d'utilisation et exposons des techniques innovantes pour la localisation et le contrôle. Nous considérons d'abord le cas d'un robot terrestre équipé de capteurs de proximité, d'un gyroscope, d'odomètres et d'un GPS. Nous implémentons expérimentalement avec succès un algorithme d'évitement d'obstacles dont nous établissons une preuve de convergence, ainsi qu'un algorithme de planification de trajectoires hors ligne dont nous utilisons les résultats en temps réel pour réaliser, via un estimateur non linéaire, un bouclage par retour dynamique. Nous étudions ensuite le cas du vol autonome d'une plate-forme aérienne instable de type hélicoptère. Nous développons et implémentons, à bord sur un système de mesure et de calcul temps-réel de notre conception, un estimateur d'état incluant un modèle de la dynamique du vol de l'engin, recalé par les capteurs inertiels, barométriques, et GPS ainsi qu'un bouclage par retour d'état. En utilisant les résultats de filtrage sur les vols effectués, les paramètres du modèle sont précisément identifiés : la qualité et la robustesse de l'estimation obtenues grâce au modèle permettent de réaliser un vol stationnaire autonome en extérieur. Enfin nous considérons le problème d'un piéton évoluant à l'intérieur de bâtiments. Les erreurs d'estimation du cap lors de l'utilisation des différentes plate-formes (terrestre comme aérienne) nous guident vers une utilisation nouvelle du champ magnétique par l'inspection de ses gradients. Par une technique que nous exposons, nous montrons comment utiliser les perturbations (inconnues) du champ magnétique pour améliorer considérablement l'estimation de position d'une centrale inertielle bas-coût au point qu'elle devienne un instrument de localisation.
APA, Harvard, Vancouver, ISO, and other styles
12

Esnard, Aurélien. "Analyse, conception et réalisation d'un environnement pour le pilotage et la visualisation en ligne de simulations numériques parallèles." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2005. http://tel.archives-ouvertes.fr/tel-00080729.

Full text
Abstract:
Le domaine de la simulation interactive ou computational steering a pour but d'améliorer le processus de simulation numérique (modélisation, calcul, analyse) en le rendant plus interactif. Dans cette approche, le scientifique n'attend plus passivement les résultats de la simulation ; il peut visualiser en ligne l'évolution des données calculées et peut interagir à tout moment en modifiant certains paramètres à la volée ou plus généralement en pilotant le déroulement des calculs. Un tel outil peut s'avérer très utile pour la compréhension des phénomènes physiques modélisés et la détection d'erreurs dans le cas de simulations longues.

L'objectif de cette thèse est de concevoir et de développer une plate-forme logicielle, appelée EPSN (Environnement pour le Pilotage des Simulations Numériques), permettant de piloter une application numérique parallèle en s'appuyant sur des outils de visualisation eux-mêmes parallèles. En d'autres termes, il s'agit de mettre au service des scientifiques les capacités de la visualisation parallèle et plus largement de la réalité virtuelle (environnement immersif, murs d'images), une étape aujourd'hui cruciale pour la conception et l'exploitation de simulations numériques complexes en vraie grandeur. La mise en oeuvre d'un couplage efficace entre simulation et visualisation soulève deux problèmes majeurs, que nous étudions
dans cette thèse et pour lesquels nous souhaitons apporter une contribution : le problème de la coordination efficace des opérations de pilotages en parallèle et le problème de la redistribution pour des données complexes (grilles structurées, ensembles de particules, maillages non structurés).
APA, Harvard, Vancouver, ISO, and other styles
13

Kechaou, Fatma. "Construction d’un système d’aide à la décision statistico-cognitive pour le pilotage des processus d’entreprise." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST055.

Full text
Abstract:
Pour maintenir leur compétitivité, les entreprises doivent être en mesure de pro-duire des produits répondant aux attentes des clients tout en pilotant au mieux leurs outils de production. Le diagnostic et le pronostic de défaillances potentielles du système productif en termes de performance sont de puissantes méthodes d’amélioration de la performance industrielle. Disposer de modèle permettant la mise en oeuvre de ces méthodes est un réel défi. L’objectif de cette thèse est de contribuer au pilotage par la performance des systèmes de production. Le réseau Bayésien, l’un des plus techniques les plus robustes de la famille des "Graphes Probabilistes", combiné au concept fondamental de la causalité ont été utilisé afin de produire des modèles permettant les études diagnostiques et pronostiques.Une méthodologie fondée sur l’exploitation des expertises humaines et des données historisées a été définie et appliquée au cas d’une ligne de conditionnement de parfum. Des techniques ont été proposées afin notamment de réduire au mieux les biais naturels issus de l’élicitation des expertises humaines Cette thèse s’inscrit dans le cadre du projet Français EUGENE, FUI23. L’objectif de la thèse consiste à mettre en place une solution réactive pour la supervision tout en assurant un meilleur compromis entre disponibilité des équipements, coûts d’exploitation, qualité et compétitivité du produit. Nous explorons l’expertise humaine, ainsi qu’un raisonnement d’indépendancede causalité centré sur un formalisme probabiliste Bayésien à fin de développer une méthodologie permettant de construire un modèle d’estimation de l’état de santé du système productif. Les résultats présentent un outil de vision synthétique d’aide à la décision à l’industriel
To maintain their competitiveness, companies must be able to produce products that meet customer expectations while controlling their production tools as well as possible. The diagnosis and prognosis of potential failures in the production system in terms of performance are powerful methods for improving industrial performance. Having a model for implementing these methods is a real challenge. The objective of this thesis is to contribute to the performance-based control of production systems. The Bayesian network, one of the most robust techniques of the "Probabilistic Graphs" family, combined with the fundamental concept of causality have been used to produce models allowing diagnostic and prognostic studies. A methodology based on the use of human expertise and historical data was defined and applied to the case of a perfume packaging line. Techniques were proposed in order to reduce as much as possible the natural biases resulting from the elicitation of human expertise. This thesis is part of the French project EUGENE, FUI23. The objective of the thesis is to set up a reactive solution for control while ensuring a better compromise between equipment availability, operating costs, quality and competitiveness of the product. We explore human expertise, as well as causality independence reasoning centered on a Bayesian probabilistic formalism in order to develop a methodology to build a model for estimating the state of health of the productive system. The results present a synthetic vision tool for decision support to the industrialist
APA, Harvard, Vancouver, ISO, and other styles
14

David, Gilles. "Modélisation dynamique des modèles physiques et numériques pour la simulation en électromagnétisme. Application dans un environnement de simulation intégrée : salome." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0134.

Full text
Abstract:
L'objectif de cette étude est de développer des outils informatiques permettant de faciliter la modélisation de phénomènes physiques et de leurs couplages éventuels. Nous partons d'un exemple de résolution de problème multiphysique (le couplage magnétothermique dans un ruban supraconducteur) pour aborder la question de la démarche de modélisation. En particulier nous mettons en avant le besoin systématique de description des propriétés physiques du problème traitée. Pour répondre à ce besoin, nous proposons d'utiliser un formalisme générique permettant de d’écrire les propriétés physiques de tout problème numérique. Pour cela, ce formalisme permet de d’écrire la structure des propriétés physiques, c'est-à-dire leur modèle de données. Ce formalisme se comporte alors comme un modèle de modèles : c'est un métamodèle. Nous présentons ensuite la structure du métamodèle ainsi que des outils et services qui ont été développés autour et qui permettent de gérer les modèles de données et les propriétés physiques. Le métamodèle a été réalisé sous la forme d'un langage informatique oriente objet : le SPML. Nous justifions ce choix et nous détaillons la réalisation des principales fonctionnalités du SPML. Enfin nous présentons l'intégration du métamodèle dans la plateforme de simulation numérique SALOME et son utilisation pour la résolution d'un problème de magnétostatique simple et un d'un problème d'interactions fluide-structure
The aim of this study is to develop software tools facilitating the modelisation of physical phenomena and of their possible couplings. Starting from the example of the resolution of a multiphysic problem (the magneto-thermal coupling in a superconductor rubber), we tackle the question of the modelling steps. More precisely we emphasize the systematic need for the description of the physical properties of the problem. In order to satisfy this need, we propose to use a generic formalism which allows to describe the physical properties of any numerical problem. For that, this formalism allows the description of the structure of the physical properties, in other words their data model. The formalism hence behaves like a model's model : it is a metamodel. Then we present the structure of the metamodel and of the tools and services which were developed along and are used for the management of the data models and of the physical properties. The metamodel was realised in the form of an object-oriented data-processing language : the SPML. This choice is justified and the main characteristics of the SPML language are detailed. Finally we present how we integrated the metamodel into the platform for numerical simulations SALOME and how it was successfully used for the resolution of a simple magnetostatic problem and of a fluid-structure interaction problem
APA, Harvard, Vancouver, ISO, and other styles
15

Condomines, Jean-Philippe. "Développement d’un estimateur d’état non linéaire embarqué pour le pilotage-guidage robuste d’un micro-drone en milieu complexe." Thesis, Toulouse, ISAE, 2015. http://www.theses.fr/2015ESAE0002.

Full text
Abstract:
Le travail effectué au cours de cette thèse tente d’apporter une solution algorithmique à la problématique de l’estimation de l’état d’un mini-drone en vol qui soit compatible avec les exigences d’embarquabilité inhérentes au système. Il a été orienté vers les méthodes d’estimation non linéaire à base de modèles. Les algorithmes d’estimation, d’état ou de paramètres, et de contrôle apparaissent primordiaux, lorsque la technologie des capteurs et des actionneurs, pour des raisons de coût et d’encombrement essentiellement, ne permet pas de disposer de capacités illimitées. Ceci est particulièrement vrai dans le cas des micro- et des mini-drones. L’estimation permet de fusionner en temps réel les informations imparfaites provenant des différents capteurs et de fournir une estimation, par exemple de l’état du drone (orientation, vitesse, position) au calculateur embarqué où sont implémentés les algorithmes de commande de l’engin. Ce contrôle de l’appareil doit garantir sa stabilité en boucle fermée quelque soit l’ordre de consigne fourni directement par l’opérateur ou par tout système automatique de gestion du vol et assurer que celle-ci soit correctement recopiée. Estimation et commande participent donc grandement au succès de toute mission. Une dimension extrêmement importante qui a conditionné les travaux entrepris tout au long de cette thèse concerne la capacité d’emport des mini-drones que nous considérons. En effet, celle-ci, relativement limitée, et couplée à la volonté de ne pas grever les budgets de développement de tout mini-drone, autorise uniquement l’intégration de matériels dits bas-coûts. Malgré les progrès significatifs de la miniaturisation et l’augmentation continuelle des capacités de calcul embarqué (loi de Moore), les mini-drones d’intérêt considérés ici n’embarquent donc que des capteurs aux performances limitées dans un contexte où cette catégorie d’engins autonomes est amenée à être de plus en plus fréquemment exploitée pour remplir des missions elles-mêmes toujours plus nombreuses. Celles-ci requièrent notamment que de tels drones puissent de manière sûre s’insérer et partager l’espace aérien civil moyennant le passage d’une certification de leur vol au même titre que pour les avions de transport des différentes compagnies aériennes. Dès lors, face à cet enjeu de sécurisation des vols de mini-drones, la consolidation de la connaissance de l’état de l’aéronef par des techniques d’estimation devient un tâche essentielle pour en assurer le contrôle, y compris en situations dégradées (pannes capteurs, perte occasionnelle de signaux, bruit et perturbations environnantes, imperfections des moyens de mesure, etc). Tenter de répondre à cet enjeu conduit naturellement le chercheur à s’attaquer à des problèmes relativement nouveaux, en tout cas pas forcément aussi proches de ceux qui se posent dans le secteur de l’aéronautique civile ou militaire, où le système avionique est sans commune mesure avec celui sur lequel nous avons travaillé dans cette thèse. Ce travail à tout d’abord consisté à définir une modélisation dynamique descriptive du vol des mini-drones étudiés, suffisamment générique pour être appliquée à différents types de minidrones (voilure fixe, multirotor, etc). Par la suite, deux algorithmes d’estimation originaux, dénommés IUKF et -IUKF, exploitant ce modèle, ont été développés avant d’être testés en simulation puis sur données réelles pour la version -IUKF. Ces deux méthodes transposent le cadre générique des observateurs invariants au cas de l’estimation non linéaire de l’état d’un système dynamique par une technique de type Unscented Kalman Filter (UKF) qui appartient à la classe plus générale des algorithmes de filtrage non linéaire de type Sigma Point (SP). La solution proposée garantit un plus grand domaine de convergence de l’estimé que les techniques plus traditionnelles
This thesis presents the study of an algorithmic solution for state estimation problem of unmanned aerial vehicles, or UAVs. The necessary resort to multiple miniaturized low-cost and low-performance sensors integrated into mini-RPAS, which are obviously subjected to hardspace requirements or electrical power consumption constraints, has led to an important interest to design nonlinear observers for data fusion, unmeasured systems state estimation and/or flight path reconstruction. Exploiting the capabilities of nonlinear observers allows, by generating consolidated signals, to extend the way mini-RPAS can be controlled while enhancing their intrinsic flight handling qualities.That is why numerous recent research works related to RPAS certification and integration into civil airspace deal with the interest of highly robust estimation algorithm. Therefore, the development of reliable and performant aided-INS for many nonlinear dynamic systems is an important research topic and a major concern in the aerospace engineering community. First, we have proposed a novel approach for nonlinear state estimation, named pi-IUKF (Invariant Unscented Kalman Filter), which is based on both invariant filter estimation and UKF theoretical principles. Several research works on nonlinear invariant observers have been led and provide a geometrical-based constructive method for designing filters dedicated to nonlinear state estimation problems while preserving the physical properties and systems symmetries. The general invariant observer guarantees a straightforward form of the nonlinear estimation error dynamics whose properties are remarkable. The developed pi-IUKF estimator suggests a systematic approach to determine all the symmetry-preserving correction terms, associated with a nonlinear state-space representation used for prediction, without requiring any linearization of the differential equations. The exploitation of the UKF principles within the invariant framework has required the definition of a compatibility condition on the observation equations. As a first result, the estimated covariance matrices of the pi-IUKF converge to constant values due to the symmetry-preserving property provided by the nonlinear invariant estimation theory. The designed pi-IUKF method has been successfully applied to some relevant practical problems such as the estimation of Attitude and Heading for aerial vehicles using low-cost AH reference systems (i.e., inertial/magnetic sensors characterized by low performances). In a second part, the developed methodology is used in the case of a mini-RPAS equipped with an aided Inertial Navigation System (INS) which leads to augment the nonlinear state space representation with both velocity and position differential equations. All the measurements are provided on board by a set of low-cost and low-performance sensors (accelerometers, gyrometers, magnetometers, barometer and even Global Positioning System (GPS)). Our designed pi-IUKF estimation algorithm is described and its performances are evaluated by exploiting successfully real flight test data. Indeed, the whole approach has been implemented onboard using a data logger based on the well-known Paparazzi system. The results show promising perspectives and demonstrate that nonlinear state estimation converges on a much bigger set of trajectories than for more traditional approaches
APA, Harvard, Vancouver, ISO, and other styles
16

Azmani, Monir. "Fusion non-linéaire appliquée aux voies pilote et données du signal GPS L2C." Phd thesis, Université du Littoral Côte d'Opale, 2010. http://tel.archives-ouvertes.fr/tel-00580417.

Full text
Abstract:
Le nouveau signal GPS L2C contient sur une même porteuse une voie pilote et une voie de données. Il est proposé dans cette thèse des opérateurs de fusion non-linéaire, pour estimer les décalages du code et les informations de retard de phase obtenus sur ces deux voies. De plus nous proposons une nouvelle architecture de poursuite basée sur des boucles ouvertes intégrant des estimateurs et détecteurs de ruptures conjoints. En effet, l'évolution du discriminant obtenu par une boucle de poursuite du code ouverte, est linéaire par morceaux. Nous proposons dans ce cas un estimateur de ruptures intégrant un nouvel opérateur de fusion non-linéaire qui utilise une information a priori sur le paramètre à estimer. Cette information a priori permet de diminuer la corrélation entre les différentes observations et ainsi de diminuer l'erreur quadratique moyenne des mesures fusionnées. La boucle de poursuite ouverte du retard de phase, fournit une mesure angulaire du déphasage du signal GPS reçu. Dans ce contexte nous avons étendu les techniques de fusion et de filtrage d'état Bayésien de la statistique linéaire à l'analyse des données circulaires pour l'estimation du déphasage. Nous proposons un nouvel opérateur de fusion angulaire, un filtre récursif circulaire et un estimateur de rupture de moyennes dans un processus circulaire stationnaire par morceaux. Les algorithmes proposés permettent de réaliser une intégration longue des valeurs cohérentes du discriminant et d'améliorer ainsi la localisation à la milliseconde d'un récepteur mobile.
APA, Harvard, Vancouver, ISO, and other styles
17

Sron, Seng thail. "Algorithmes intelligents de pilotages d'antennes reconfigurables à partir de données en bande de base pour la norme LTE." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0138.

Full text
Abstract:
Le développement des antennes modales, qui sont des antennes actives reconfigurables en diagramme de rayonnement mais pas en réseaux, a commencé pour pouvoir implémenter le dépointage électronique dans les téléphones portables. Cette solution est généralement réalisée par un réseau d’antennes, ce qui est très difficile, voire impossible, dans un téléphone portable. Le dépointage permettrait d’améliorer le bilan de liaison et d’augmenter le débit des données.Le premier objectif de cette thèse est donc de développer des antennes modales pour la norme LTE. Trois concepts d’antennes modales ont été présentés. Le premier est une antenne de type « folded loop » active reconfigurable par permutation des points d’alimentation et de retour à la masse. Le deuxième propose une architecture pour rassembler l’antenne principale et l’antenne diversité en bas du téléphone, tout en supportant le MIMO et l’agrégation de porteuses, deux des spécificités de la LTE. Le dernier optimise l’utilisation de la seconde antenne des systèmes LTE MIMO pour procéder au dépointage électronique.Ces antennes modales ne peuvent délivrer leur réel potentiel qu’en étant utilisées avec un algorithme de pilotage, qui choisira la configuration ou le mode approprié(e) à la situation. Le second objectif de cette thèse est donc le développement d’algorithmes intelligents de pilotage d’antennes modales. Le premier algorithme développé et breveté par la société Ethertronics a la particularité de prédire à chaque instant quel sera le meilleur mode à l’instant suivant, à l’aide de données en bande de base pour la LTE. Le second algorithme est déterministe et permet d’estimer et de suivre la direction d’arrivée du signal. Il sélectionne ensuite le mode qui possède le meilleur gain dans cette direction, dans le but d’améliorer le bilan de liaison
The development of modal antennas which are radiation pattern reconfigurable active antennas, but not arrays, started in order to implement beam forming in cellphones. This solution is generally made with an antenna array, which is very difficult, even impossible, in a mobile phone. Beam forming could improve the link budget and increase the data rate. The first aim of this thesis is the development of modal antennas for LTE standard. Three modal antennas concepts were presented. The first one is a reconfigurable “folded loop” active antenna by permutation of feed and ground points. The second one is a solution to gather the main and the diversity antenna in the bottom part of the phone, and to support MIMO and carrier aggregation, which are two features of LTE. The last one optimizes the use of the second antenna in LTE MIMO systems in order to perform beam forming. These modal antennas will provide their real potential only by being used by a driving algorithm which will choose the best mode or configuration according to the situation. So, the second aim of this thesis is the development of smart modal antenna driving algorithms. The first algorithm, developed and patented by Ethertronics, has the specificity to predict, at each moment, which mode will be the best for the next moment, by using baseband data for LTE. The second algorithm is deterministic and can estimate and track the direction of arrival of the signal. Then, it selects the mode which has the best gain in this direction in order to improve the link budget
APA, Harvard, Vancouver, ISO, and other styles
18

Platzer, Auriane. "Mécanique numérique en grandes transformations pilotée par les données : De la génération de données sur mesure à une stratégie adaptative de calcul multiéchelle." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0041.

Full text
Abstract:
La mécanique numérique est aujourd'hui au cœur d'un important flux de données. D'un côté, l'identification des lois de comportement utilisées dans les simulations éléments finis repose sur de riches données expérimentales (mesures de champs). D'un autre côté, les calculs multiéchelles fournissent un très grand nombre de valeurs discrètes de champs de déplacement, déformation et contrainte, dont on extrait des connaissances sur la réponse effective du matériau. Entre ces données, la loi de comportement apparaît comme un goulot contraignant le champ des possibles. En rupture avec cette approche, Kirchdoerfer et Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) ont proposé un paradigme de mécanique numérique sans modèle, appelé data-driven computational mechanics. La réponse matériau y est uniquement représentée par une base de données (couples déformation-contrainte). Le problème mécanique est alors reformulé comme une mini- misation sous contrainte de la distance entre (i) l'état déformation-contrainte mécanique de la structure, et (ii) la base de données matériau. Ces travaux de thèse se concentrent sur la question de la couverture de l'espace par les données matériau, notamment dans le cadre des grandes transformations. Ainsi, l'approche data-driven est d'abord étendue à la mécanique non linéaire : nous considérons deux formulations différentes et proposons pour chacune d'elles un solveur éléments finis. Nous explorons ensuite la génération de base de données sur mesure, grâce à une méthode d'échantillonnage mécaniquement motivée. Nous évaluons l'approche au moyen d'analyses éléments finis de structures complexes en grandes déformations. Enfin, nous proposons une première stratégie de calcul multiéchelle pilotée par les données, qui permet d'enrichir de façon adaptative la base de données matériau
Computational mechanics is a field in which a large amount of data is both consumed and produced. On the one hand, the recent developments of experimental measurement techniques have provided rich data for the identification process of constitutive models used in finite element simulations. On the other hand, multiscale analysis produces a huge amount of discrete values of displacements, strains and stresses from which knowledge is extracted on the overall material behavior. The constitutive model then acts as a bottleneck between upstream and downstream material data. In contrast, Kirchdoerfer and Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) proposed a model-free computing paradigm, called data-driven computational mechanics. The material response is then only represented by a database of raw material data (strain-stress pairs). The boundary value problem is thus reformulated as a constrained distance minimization between (i) the mechanical strain-stress state of the body, and (ii) the material database. In this thesis, we investigate the question of material data coverage, especially in the finite strain framework. The data-driven approach is first extended to a geometrically nonlinear setting: two alternative formulations are considered and a finite element solver is proposed for both. Second, we explore the generation of tailored databases using a mechanically meaningful sampling method. The approach is assessed by means of finite element analyses of complex structures exhibiting large deformations. Finally, we propose a prototype multiscale data-driven solver, in which the material database is adaptively enriched
APA, Harvard, Vancouver, ISO, and other styles
19

Bect, Pierre. "Développement d’un modèle de comportement pour la détection et le diagnostic d’événements anormaux : application à l’hélicoptère." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT108.

Full text
Abstract:
La maintenance d’un système complexe est souvent segmentée par sous-système. Chacun de sous-systèmes faisant intervenir des compétences pointues et variées, déterminer l’état de santé globale du système s’avère être une tâche compliquée. Cependant, les systèmes complexes sont aujourd’hui surveillés avec attention ce qui permet d’enregistrer un nombre important de données hétérogènes permettant à la maintenance d’être efficace sur chaque sous-systèmes. La variété de ces données permet d’avoir une vision d’ensemble sur l’état de santé du système mais du fait de leur quantité et de leur hétérogénéité leur analyse est un exercice complexe. Pour pallier aux problématiques de traitement de données de masse, ces dernières décennies ont vu se développer des outils informatiques et mathématiques permettant d’extraire des informations pertinentes d’un ensemble de données : le data mining. La mise en application d’outils issus des méthodes de data mining peut être une solution à l’identification de l’état santé globale du système.Pour rendre cela possible, la thèse présente dans un premier temps comment construire un modèle de comportement du système hélicoptère en se basant sur des données relatives au bon fonctionnement de l’appareil. Ce modèle de comportement considéré comme normal va ensuite servir de référence. Il permettra donc dans un deuxième temps de répondre à comment détecter et caractériser une déviance, un événement anormal, vis-à-vis du modèle du comportement normal du système. Cette méthode cherche à maximiser l’utilisation des données et minimiser l’introduction d’information relative à la connaissance du système. De cette manière, elle permet de fournir des résultats complètement objectifs qui pourront être comparés à des analyses physiques. La méthode est supportée par un ensemble d’outils mathématiques implémentés dans une infrastructure industrielle permettant l’utilisation de données réelles associées aux appareils d’Eurocopter.Pour accompagner la mise en place de cette méthode, cette thèse présente une application sur des données réelles issues d’hélicoptères de type EC225 de la gamme d’Eurocopter
The maintenance of complex system is often segmented by subsystem. Each subsystem involving specialized and various skills, assess the global health of the system is a difficult problem. However, today, complex systems are carefully monitored that allows the records of a substantial amount of heterogeneous data that leads to accurate subsystem maintenance. Diversity of data provides an overview of the global health of the system but in the reason of quantity and heterogeneity their analyses is a difficult exercise. To tackle these data treatment difficulties, computational and mathematical tools have been developed. They allows extraction of relevant information in a substantial amount of data, it is the data mining. The implementation of data mining method could be a solution to the assessment of global health of the system.To make that possible, in a first time, this thesis present how define a helicopter behavior model by using data which are recorded in a good way of running. This behavior model considered as normal will be used as a reference. In a second time, this model will allow to answer to how detect and characterize a drift, an abnormal event, from the normal system behavior model. This method tries to maximize the data usage and minimize the expert knowledge. By this way, it provides results totally objective which could be compare to physical analyses. This approach is supported by a set of mathematical tools implemented in an industrial infrastructure which allows the use of Eurocopter aircraft operational data.To support the implementation of this method, this thesis presents an application of the method on real data from the EC225 helicopter of Eurocopter
APA, Harvard, Vancouver, ISO, and other styles
20

Bourlon, Franck. "Réalisation d'une plate-forme expérimentale pour l'élaboration de pilotages automatiques flous d'une rame de métro en similation à partir de données objectives et subjectives." Valenciennes, 1996. https://ged.uphf.fr/nuxeo/site/esupversions/f8e11027-0073-4089-8f02-5bb1ea3ea18c.

Full text
Abstract:
Depuis les premiers travaux de Zadeh et Mamdani sur la commande floue, celle-ci a été appliquée industriellement dans divers domaines dont celui des transports. En effet, depuis 1987, le métro de Sendai (japon) est piloté automatiquement par un algorithme flou. Aussi, le travail présenté dans ce mémoire, et effectue en collaboration avec la RATP, propose une étude de faisabilité d'une commande floue de rame de métro. Plusieurs aspects de la conduite sont pris en compte dans la commande envisagée, en particulier le confort des passagers et la consommation d'énergie. A cette fin, une plate-forme expérimentale reproduisant le système physique est réalisée. Différentes manipulations sont exécutées par trente-deux sujets accomplissant trois taches (suivi de vitesse de consigne, arrêt et conduite) sur trois interstations, fictives et réelles. A partir des données recueillies, le problème consiste à déterminer les meilleurs sujets, qualifiés d'experts, à la lumières de cinq critères (temps de parcours, suivi de consigne de vitesse, précision d'arrêt, confort, consommation d'énergie) pour chacune des tâches et chacune des interstations. Trois solutions sont proposées: l'une floue et les deux autres multicritères. La synthèse de leurs résultats est ensuite effectuée afin de déterminer les experts. Les données brutes relatives à chaque expert sont ensuite exploitées par l'algorithme d'identification floue de Takagi & Sugeno pour déterminer les différents paramètres de deux types de régulateurs flous : simple et double. Une évaluation des performances de ceux-ci est donnée en comparaison des résultats obtenus avec d'autres approches (classiques et floues). Ce mémoire se conclut sur l'apport de tels régulateurs flous dans la conduite automatique d'une rame et présente les différentes perspectives de cette étude de faisabilité
Since the pioneer works achieved by ZADEH and MAMDANI about fuzzy control, this one has been industrially applied in various domains such as transportation. Besides, since 1987, the Sendai subway (Japan) is automatically driven by a fuzzy control algorithm. Thus, the works set out in this report and carried out in collaboration with RATP, intend to evaluate the feasibility of a subway train fuzzy controller. Many aspects of driving are considered in the controller we intend to design, particulary passengers’comfort and energy saving. For that, an experimental platform reproducing the real system is achieved. Different experiments are performed by thirty-two subjects carrying out three tasks (speed traceability, stopping and driving) over three interstations, fictious and actual. From collected data, the problem consists in determining the best subjects, named experts, in the light of five criteria (running time, target speed traceability, stopping accuracy, comfort, energy consumption) for each task and interstation. Three ways are proposed. The former is a fuzzy method, the latter are multicriteria ones. Their results are then synthesized to determine experts. Then data related to each of the experts are treated via TAKAGI & SUGENO fuzzy identification algorithm to fit the different parameters of two kinds of fuzzy controllers : “single” and “double”. An evaluation of these controllers is given by comparing their results to those obtained through other approaches (classical and fuzzy ones). This report ends by a conclusion about the contribution of such fuzzy controllers in automatic subway train driving and introduces the different prospects of this feasibility study
APA, Harvard, Vancouver, ISO, and other styles
21

Noël, Patrick. "Construction d'un appareil d'acquisition et de traitement de données basses fréquences pilote par microprocesseur Z80." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37600055n.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Bleu, Jean-Jacques. "Réseaux de télécommunication en productique : Application, intégration paramètrée des communications pour le pilotage d'ateliers flexibles." Nancy 1, 1987. http://www.theses.fr/1987NAN10371.

Full text
Abstract:
La conduite d'ateliers flexibles est assurée par un système informatique exécutant les instructions d'un logiciel de pilotage. Les équipements hétérogènes de production commandes en général par un ordinateur doivent échanger des informations sur un réseau de télécommunication
APA, Harvard, Vancouver, ISO, and other styles
23

Hermann, Frédéric. "Contribution à la répartition des traitements et des données sur une architecture distribuée équipée d'un réseau de terrain FIP : application à un processus thermique pilote." Nancy 1, 1997. http://www.theses.fr/1997NAN10265.

Full text
Abstract:
Ce travail propose un placement des tâches d'un Système d'Automatisation à Intelligence distribuée (SAID) sur une architecture matérielle équipée d'un réseau de terrain. Une première partie met en évidence l'évolution du concept de Système d'Automatisation de Production (SAP) vers celui de Système d'Automatisation à lntelligence Distribuée (SAID). Cette évolution met en exergue principalement les progrès réalisés dans le domaine de l'instrumentation, des réseaux de terrain ainsi que des méthodes de conception. Ensuite une approche méthodologique propose une modélisation fonctionnelle d'un SAID qui montre les fonctions essentielles d'un système d'automatisation et permet de dénombrer les tâches à implanter sur le SAID. Dans un second temps, suite à une étude des différentes stratégies de répartition, une méthode est proposée afin de réaliser la projection de l'architecture fonctionnelle sur l'architecture matérielle. Il s'agit d'une méthode de programmation mathématique qui prend en compte certains critères et certaines contraintes de l'architecture fonctionnelle et matérielle telle que la taille mémoire, le temps d'exécution et également l'aspect communication avec le réseau de terrain FIP. Enfin l'implémentation sur un processus thermique pilote (PTP) permet de valider l'architecture opérationnelle proposée. Cette démarche s'inscrit dans une perspective de développement d'un ensemble d'outils pour la conception d'un SAID
This work deals with the possibility to allocate the tasks of Distributed Intelligence Base Automation Systems (DIBAS) on a distributed material architecture. In the first part, we show the evolution of Automatic Systems of Production (ASP) in order to attempt the concept of Distributed Intelligence Base Automation Systems (DIBAS). The problems which are encountered in order to build a functional specification of DIBAS are described. Then, a methodological approach proposes a functionnal model for a DIBAS, including the main functions of an Automation system, and allows to develop the number of tasks. In a second part, after a study of the main allocation strategies, a method is described to distribute a validated functional architecture onto the material architecture. An integer programming approach is developed. The algorithm proposed takes into account the criteria and constraints of the functional architecture and the material architecture. This algorithm is allowed to allocate the different tasks onto the material architecture. In order to elaborate an operational architecture, a pilot thermal process is used to validate and to test this architecture. Finally an optimal dimension about the material architecture is obtained and the result is called a validated operational architecture. The aim of this work in the future is to propose a set of tools in order to achieve the design of DIBAS
APA, Harvard, Vancouver, ISO, and other styles
24

Kadri, Farid. "Contribution à la conception d'un système d'aide à la décision pour la gestion de situations de tension au sein des systèmes hospitaliers. Application à un service d'urgence." Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0028/document.

Full text
Abstract:
La prise en charge des flux des patients, en particulier les flux récurrents et consécutifs à des crises sanitaires (grippes, canicules, situations exceptionnelles) est l'un des problèmes les plus importants auquel les services des urgences (SU) doivent faire face. Pour gérer cet afflux de patients, les services des urgences nécessitent des ressources humaines et matérielles importantes, ainsi qu'un degré élevé de coordination entre ces ressources. Dans ces conditions, le personnel médical se voit confronté très fréquemment à des situations de tension qui compliquent très fortement sa tâche. L‘objet de cette thèse est de contribuer à l’amélioration de la gestion des situations de tension se produisant dans un service d’urgence en proposant un système d’aide à la décision, SAGEST (Système d’Aide à la décision pour la GEstion des Situations de Tensions), permettant i) le pilotage proactif du SU : prévision à court et/ou moyen terme de l'apparition de situations de tension et l'évolution du flux patients et la proposition d'actions de correction afin d'éviter l’occurrence de ces situations et ii) le pilotage réactif dans le cas où l'occurrence de la situation de tension n'a pas été détectée. Une architecture fonctionnelle du système SAGEST, s'appuyant sur le processus décisionnel du responsable du service d'urgence, est proposée. Les méthodologies et les modèles utilisés dans la construction des principales fonctions et de la base de connaissances sont décrits. Enfin, les résultats d’application des différents modèles du système SAGEST pour le service d’urgence pédiatrique (SUP) du centre hospitalier régional universitaire du Lille sont présentés et discutés
The management of patient flow, especially the flow resulting from health (flu, heat waves and exceptional circumstances) is one of the most important problems to manage in the emergency department (ED). To handle the influx of patients, emergency departments require significant human and material resources, and a high degree of coordination between these resources. Under these conditions, the medical and the paramedical staffs are often confronted with strain situations which greatly complicate their task. The main purpose of this thesis is to contribute to improving the management of situations of tension occurring in the emergency department by providing a decision support system, SAGEST. This DSS allows i) a proactive control of the ED: predicting at short and/or medium-term the occurrence of potential strain situations and proposing corrective actions to prevent the occurrence of these situations, ii) a reactive control in the case of no-detection of the strain situation occurrence. A functional architecture of the SAGEST system, based on the manager’s decision making process is proposed. Used methodologies and models embedded in the main functions and the knowledge base of the SAGEST system are described. Finally, experiments and results of different models of SAGEST system applied to the paediatric emergency department (PED) of the Regional University Hospital of Lille are presented and discussed
APA, Harvard, Vancouver, ISO, and other styles
25

Boubehziz, Toufik. "Simulation en quasi temps réel d’une capsule sous écoulement grâce à des Modèles d’Ordre Réduit." Thesis, Compiègne, 2022. http://www.theses.fr/2022COMP2678.

Full text
Abstract:
La déformation d’une capsule en écoulement dans un canal micro-fluidique est un problème compliqué à simuler numériquement. Nous proposons deux modèles innovants de pilotage de données d’ordre réduit pour simuler le problème spatio-temporel à partir d’une base de données collectée des simulations réalisées avec un modèle d’ordre élevé. L’objectif est de remplacer le modèle numérique haute-fidélité existant par un modèle d’ordre réduit capable de simuler l’évolution de déformation des capsules en écoulement à faible cout en temps et en calcul. Le premier modèle consiste à construire à partir d’un cube de données espace-temps-paramètre un modèle réduit pour simuler la déformation de la microcapsule pour n’importe quelle configuration admissible de paramètres. La prédiction de l’évolution temporelle de la capsule pour une configuration donnée de paramètres et un pas de discrétisation temporelle choisi se fait à l’aide d’un apprentissage sur des variétés du modèle réduit. Le deuxième modèle se base sur l’idée de réécrire le problème sous forme d’un système dynamique d’ordre réduit dans lequel les coefficients spectraux des déplacements et les champs des vitesses sont relies à travers d’un opérateur dynamique à identifier. Pour déterminer ce dernier, nous suggérons l’utilisation d’une approche de décomposition en modes dynamiques. Des validations numériques confirment la fiabilité et stabilité des deux nouveaux modèles par rapport au modèle d’ordre élevé. Une application informatique est également mise au point afin d’explorer l’évolution de déformation des capsules pour toute configuration de paramètres admissibles
The motion of a liquid-filled microcapsule flowing in a microchannel is a complex problem tosimulate. Two innovative reduced-order data-driven models are proposed to replace the Fluid Structure Interaction (FSI) model using a collected database from high-fidelity simulations. The objective is to replace the existing Full Order Model (FOM) with a fast-simulation model that can simulate the capsule deformation in flow at a low cost in terms of time and calculation. The first model consists in building from a space-time-parameter datacube a reduced model to simulate the deformation of the microcapsule for any admissible configuration of parameters. Time evolution of the capsule deformation is treated by identifying the nonlinear low-order manifold of the reduced variables. Then, manifold learning is applied using the Diffuse Approximation (DA) method to predict capsule deformation for a query configuration of parameters and a chosen time discretization. The second model is based on rewriting the FSI model under the form of a reduced-order dynamic system. In this latter, the spectral displacement and velocity coefficients are related through a dynamic operator to be identified. To determine this operator, we suggest the use of a dynamic mode decomposition approach. Numerical validations prove the reliability and stability of the two new models compared to the high order model. A software application has been developed to explore the capsule deformation evolution for any couple of admissible parameters
APA, Harvard, Vancouver, ISO, and other styles
26

Gao, Tianyun. "Integrated building fault detection and diagnosis using data modeling and Bayesian networks." Thesis, Ecole nationale supérieure Mines-Télécom Lille Douai, 2020. http://www.theses.fr/2020MTLD0010.

Full text
Abstract:
Dans les systèmes de chauffage, de ventilation et de climatisation (CVC, en anglais HVAC pour « Heating, Ventilation and Air Conditioning »), les défauts des équipements et les erreurs de fonctionnement causent des problèmes de confort et un gaspillage d’énergie. Pour aider les gestionnaires d’installations à identifier et à corriger plus efficacement les défauts, il est essentiel de disposer d’un outil de détection et de diagnostic automatique de défauts (AFDD), capable de détecter automatiquement les problèmes de confort et d’énergie et d’en identifier les causes.Les méthodes AFDD existantes se concentrent principalement sur la détection et le diagnostic de défauts au niveau des équipements. Peu d’attention n’est accordée au diagnostic au niveau du bâtiment global, qui permet une détection plus efficace en s’appuyant sur l’interdépendance entre les équipements tout au long de la chaîne de distribution d’énergie. Cette thèse propose une nouvelle méthode AFDD pour les bâtiments, basée sur les données d’exploitation collectées par les systèmes de gestion technique du bâtiment (GTB, en anglais BMS pour « Building Management System »). Cette méthode est conçue autour d’un réseau bayésien qui permet de détecter les défauts des équipements HVAC en s’appuyant sur une meilleure décision basée sur la fusion des informations et des données provenant des différents niveaux de composants. Cela permet de réaliser un diagnostic de défaut intégré de la globalité du bâtiment. Une originalité importante de cette contribution porte sur l’exploitation des historiques de fonctionnement et des techniques d’apprentissage pour aider au paramétrage automatique de l’outil de détection. Notre méthodologie comprend les deux parties suivantes :1. Une nouvelle manière systématique de transférer des informations de topologie de systèmes de bâtiment et des connaissances d’experts pour la construction modulaire du réseau bayésien.2. Une nouvelle approche pour intégrer des détections de défaut au niveau des équipements dans un réseau bayésien de diagnostic du bâtiment complet. Nous utilisons une méthode de régression pour les équipements centraux (par exemple, groupe froid, chaudière et central traitement d’air), apprise sur des données de fonctionnement normal collectées lors d’un test de mise en service. Pour les équipements dans les zones d’usage, nous utilisons un modèle probabiliste des corrélations entre données de consigne et de mesure.Une fois le réseau mis en place et les données – mesures et prédictions – collectées, le réseau est à même de calculer la probabilité de différents défauts dans le système bâtiment complet, et d’en identifier les causes les plus probables.Nous avons testé ce nouvel outil de diagnostic des défauts sur des données provenant de simulation et de deux bâtiments réels afin de tester les performances en termes de détection. Les résultats montrent que notre approche est capable de gérer facilement un grand nombre d’équipements et d’identifier correctement les causes à partir des données mesurées et prédites au niveau des équipements.Par rapport aux approches de type AFDD existantes, cette nouvelle méthode offre les avantages suivants :1) La structure modulaire et la méthodologie généralisée permettent à cette méthode d’être appliquée à une grande variété de systèmes CVC et de bâtiments. 2) Cette approche relie les défauts d’équipement aux symptômes de confort du bâtiment perceptibles par les occupants.3) Le système HVAC est diagnostiqué dans son ensemble au lieu de le faire équipement par équipement.4) En connectant chaque violation de point de consigne de confort avec les défauts des équipements, et en recherchant les défauts racines pour chaque défaut d’équipement de zone, le nombre total d’alarmes est grandement réduit.5) Les gestionnaires d’installations peuvent utiliser l’outil de manière interactive, en mettant à jour les données de certains noeuds du réseau bayésien sur la base d’observations terrain
Heating, ventilation, and air-conditioning (HVAC) equipment faults and operational errors result in comfort issues and waste of energy in buildings. In order to help the facility managers to identify and fix faults more efficiently, it is essential to have an Automatic Fault Detection and Diagnosis (AFDD) tool, able to automatically detect comfort and energy issues and identify the root faults.Existing AFDD methods mostly focus on equipment-level fault detection and diagnostics. Almost no attention is given to building level fault diagnosis, considering inter-dependency between equipment through the energy distribution chain.This thesis proposes a new building AFDD method based on operation data collected by Building Management Systems (BMS). The method uses Bayesian Network to achieve building-level integrated fault diagnosis and equipment-level data-driven fault detection by information fusion of data collected from different equipment of HVAC systems. An important contribution relates to the use of operating data and learning techniques to automatically tune some parameters of the detection tool.Our methodology is composed of the following two parts:1. A new systematic way of transferring building system topology information and expert knowledge to a Bayesian Network.2. A novel approach for integrating equipment-level fault detection results into a building-level fault diagnosis Bayesian network. We use regression methods for central equipment (e.g. chiller, boiler, and Air Handling Unit), learned from normal operation data collected during a commissioning test. For room equipment, we use probabilistic models of correlations between control and measurement data.Once the fault diagnosis network is set up and all of the evidence is collected, the network is able to calculate the probability of different faults and identify the most probable root faults. We implemented the fault diagnostics Bayesian network on one simulation data set and two real building operation data sets to test the performance of the AFDD method. The results show that the method is able to easily handle large numbers of equipment, and correctly identify root causes with given evidences.Compared to existing AFDD methods, the new method provides the following benefits:1) The modular structure and generalized methodology allow the method to be applied to wide variety of HVAC systems.2) The method connects equipment faults to building comfort symptoms perceivable by occupants.3) The HVAC system is diagnosed as a whole instead of equipment by equipment.4) By connecting comfort set point violation with equipment fault, and tracing root fault of room equipment failure, the total number of alarms is reduced.5) Facility managers can use the tool in an interactive way, thanks to the capability to post evidence in the Bayesian network based on field investigation findings
APA, Harvard, Vancouver, ISO, and other styles
27

Lavigne, Emilien. "AMSA, un framework dédié à la simulation des lois de contrôle pour des voiliers de compétition." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0087.

Full text
Abstract:
Les voiliers de compétition sont des véhicules complexes et instables qui requièrent un contrôle fiable et robuste. Si la simulation semble un outil indispensable pour la mise au point des lois de contrôle, elle entraîne des problématiques de génie logiciel comme l'intégration de composants hétérogènes au sein du simulateur ou encore la facilité d'exploitation de celui-ci. Ce travail propose un framework logiciel dédié à la simulation de lois de contrôle pour les voiliers de compétition. Ce framework s’appuie sur des modèles et des outils facilitant la mise en place d'une architecture logicielle de simulateur. Un style architectural, fondé sur des interfaces de communication standardisées et sur des adaptateurs universels, apporte une réponse au problème de gestion de l'hétérogénéité des composants. Un mécanisme de scénarios est proposé pour faciliter la gestion des simulations. Un scénario permet la paramétrisation des différents constituants d'un simulateur et la production de résultats exploitables en faisant intervenir des événements et des observateurs. La mise en place de balayages automatiques de paramètres est également proposée afin de faciliter la mise au point des modèles et des lois de contrôle. Divers modèles d'environnement, de bateaux et de lois de contrôle ont été intégrés au framework sous forme de composants logiciel, ce qui a permis de réaliser plusieurs simulations ayant des objectifs variés : validation de modèle paramétrique de voilier, rejeu de situation réelle, mise au point de lois de contrôle. Les résultats des simulations valident les modèles utilisés et permettent de confirmer des réglages de pilote obtenus empiriquement lors de navigations
Racing sailboats are complex and unstable vehicles, which require reliable and robust control. If simulation seems to be an essential tool to tune control laws, it comes with software engineering issues, like integration of heterogeneous components in the simulator, or ease of simulator’s exploitation.This work proposes a software framework dedicated to simulation of control laws for racing sailboats. The framework provides models and tools to facilitate the setup of the simulator architecture. An architectural style, based on standard communication interfaces and universal adaptors, answers to the components’ heterogeneity issue. A mechanism of scenarios is proposed to facilitate the simulations’ management. A scenario allows the parametrization of the different simulator constituents and the production of workable results thanks to events and observers.Automatic parameter sweeping is also possible to facilitate the tuning of models and control laws.Various models of environment, boats and control laws have been integrated to the framework as software components. That allows to run several simulations with various goals: validation of sailboat parametric model, replay of real situation, tuning of control laws.The simulation results validate the models used and confirm some pilot settings obtained empirically during real navigation
APA, Harvard, Vancouver, ISO, and other styles
28

Dakouo, Alain Bessiba. "La problématique de l'information territoriale et ses enjeux majeurs dans les pays du Sud : stratégie, méthodologie et projet pilote dans un pays en développement, le Mali." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC007/document.

Full text
Abstract:
En Afrique, la décentralisation s'effectue dans des contextes variables selon les pays: la nécessité de réformer l'Etat suite à une crise, la volonté d'instaurer une démocratie locale pour compenser le pouvoir central voire dictatorial, parfois même l'incapacité de l'Etat à fournir les services socioéconomiques de base comme la santé, l'éducation, l'eau potable etc.En Afrique de l'Ouest, la décentralisation s’est souvent accompagnée d’un redécoupage des territoires dans les années 1990. La plupart des pays d’Afrique de l'Ouest ont créé trois niveaux de collectivités territoriales: la Région, le Département (Cercle au Mali) et la Commune. Ceci entraîne un besoin de gestion et d’aménagement du territoire à plusieurs échelles (état des lieux, suivi de l’emprise spatiale de l’aménagement, assainissement, gestion des ressources naturelles, développement économique rural, santé, éducation, hydraulique, gestion des risques etc.). Dans le cadre d’un besoin d’informations croissant, les partenaires au développement reconnaissent l’utilité du Système d'Information Géographique (SIG), comme outil d'aide à la décision. La création de différents ministères en lien avec l’information géographique au Mali, nécessite la mise en commun de compétences s’articulant autour de la géomatique. En effet, si chaque Institution et ministère sectoriel dispose de données thématiques propres, leur valorisation se heurte à une forte dispersion et disparité des données géographiques et cartographiques.Comment mutualiser un même système géospatial et territorial entre une mairie, une collectivité territoriale, une ONG, l’Etat ainsi que d’autres partenaires travaillant sur une même emprise territoriale ? Quelle stratégie d’information territoriale pour un pays comme le Mali ?L’objectif de ce travail de thèse est de mettre en place, selon les concepts, méthodes, et technologies de la géographie actuelle et de la statistique, un outil d’aide à la décision dans un contexte de mutualisation et de décentralisation, conçu pour faire franchir un pas décisif au bénéfice de l'aménagement territorial local, par une mise en cohérence et une mise à disposition des données géolocalisées nécessaires à une politique efficace d'aménagement du territoire. Cette perspective à caractère stratégique implique de remonter jusqu'aux aspects de la répartition des pouvoirs, les rapports entre les logiciels libres et payants, l’information participative (aspects sociétal, social, contexte ethnique...) et le développement de l’information géographique au Mali. Une stratégie d’information est en fait un préalable indispensable de toute stratégie d’aménagement et de développement. Le projet de thèse se veut un projet innovant cherchant à fournir des réponses sur la mise en place d’une telle politique de gestion multi-sources et multi-acteurs de l’information spatiale dans un pays en développement
In Africa, decentralization takes place in contexts that vary from country to country: the need to reform the Government following a crisis, the desire to establish local democracy to compensate for central or even dictatorial power, sometimes even the Government 's inability to provide basic socio-economic services such as health, education, drinking water, etc.In West Africa, decentralization was often accompanied by a redrawing of territories in the 1990s. Most West African countries have created three levels of local authorities: the Region, the Department (Cercle in Mali) and the Commune. This leads to a need for territory management and planning on several scales (inventory, monitoring of the environmental impact of development, sanitation, natural resource management, rural economic development, health, education, hydraulics and risk management). In the context of a growing need for information, development partners recognize the usefulness of the Geographic Information System (GIS) as a tool for decision making. The creation of different ministries in connection with geographic information in Mali requires pooling of skills centered on geomatics. Indeed, while each Institution and sectoral ministry has its own thematic data, their valuation is hampered by a high dispersion and disparity of geographical and cartographic data.How to share a common geospatial and territorial system across a town hall, a local authority, an NGO, the Government as well as other partners working on the same territorial? What territorial information strategy for a country like Mali?The aim of this thesis is to create, according to the concepts, methods, and technologies of current geography and statistics, a tool to support decision making in a context of overlapping responsibilities/actions and decentralization, designed to take a decisive step forward for the benefit of local territorial planning, by making coherent and available the geolocalized data necessary for an effective spatial planning policy. This strategic perspective implies going back to the distribution of powers, the ratio between free and paid software, participative information (societal, social, ethnic aspects, etc.) and the development of geographical information in Mali.An information strategy is in fact an essential prerequisite for any planning and development strategy. This thesis is an innovative project that will aim to provide answers on the implementation of such a strategy of multi-source and multi-stakeholder spatial information management in a developing country
APA, Harvard, Vancouver, ISO, and other styles
29

Fardel, Alexandre. "Fonctionnement hydraulique et propriétés épuratoires de techniques alternatives de gestion des eaux pluviales – cas des noues." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0018.

Full text
Abstract:
Les noues, de larges fossés souvent végétalisés, sont des systèmes plébiscités par les aménageurs pour gérer à la source les eaux de ruissellement. Leur conception a connu depuis les années 1980 de profondes évolutions (géométrie, matériaux, végétation) qui affectent leurs fonctions. Alors que les noues standards (ouvrages obtenus par simple terrassement d’un sol local) sont historiquement aménagées pour canaliser les eaux de ruissellement, de nouveaux types de noues dotés de massifs filtrants offrent des perspectives prometteuses en matière de gestion des flux polluants. Ce travail de thèse porte sur (i) l’amélioration des connaissances sur les performances épuratoires et hydrologiques des noues et (ii) l’identification de leurs paramètres d’influence afin d’optimiser leur conception. L’analyse statistique d’une base de données spécifiquement construite pour cette étude montre que les performances épuratoires les plus élevées des noues (abattements les plus élevés) sont souvent associées aux polluants présents dans la phase particulaire. Les niveaux de concentration des polluants dans les eaux de ruissellement ont été identifiés comme le facteur majeur affectant les performances épuratoires des noues. Afin de mieux décrire les fonctionnements hydrauliques et épuratoires de ce type d’ouvrage et d’évaluer dans des conditions contrôlées l’influence de certains paramètres (matériaux, modalité d’alimentation) sur leurs performances, un dispositif pilote, constitué de deux noues aux caractéristiques contrastées (une noue standard et une noue de filtration), a été spécifiquement aménagé au CSTB Nantes. Ce dispositif original permet de reproduire des évènements de ruissellement urbain avec différentes conditions de débits d’entrée et de charges polluantes, pour deux modalités d’alimentation : alimentation concentrée en tête de noue ou alimentation latérale diffuse. Les réponses des noues à différentes conditions d’alimentation ont pu être analysées grâce à un important dispositif instrumental permettant de caractériser finement les flux d’eau et de polluants en entrée/sortie de système. Les expérimentations conduites sur ce dispositif pilote montrent que les noues de filtration offrent de meilleurs bénéfices hydrologiques et épuratoires comparées aux noues standards. Les expérimentations montrent aussi l’intérêt de privilégier une alimentation latérale de la noue pour optimiser ses performances
Swales are vegetated open-drainage systems which are increasingly being used by practitioners to manage stormwater runoff. Swale’s design has considerably evolved from the 1980s (geometry, soil materials, vegetal cover), expanding their functionalities. While standard swales (built by merely grading a local topsoil) are traditionally implemented on the field to canalize the runoff, new types of swales composed with filtering media offer promising perspectives to manage the stormwater pollutant fluxes. The goals of this research are to (i) improve the knowledges about the pollutant removal and hydrologic performances of swales, and to (ii) assess the dominant factors (design factors, runoff characteristics) influencing these performances in order to optimize swale design. The statistical investigations on an original swale database, specifically set up for this study, show that most of the highest removal efficiencies are associated to the pollutants including a particulate form. The inflow concentration was identified as a major factor influencing the pollutant removal efficiencies of swales. To better characterize swale hydraulics and pollutant treatment, and to evaluate under controlled conditions some factors that could affect their performances (swale materials, inflow pathway), a pilot system, comprising two distinct types of swale (a standard swale and a filtering swale), was specifically built at the CSTB Nantes. This original facility provides supplying the swales with a wide variety of artificial urban runoff events in terms of flowrates, pollutant loads and inflow pathways (lateral diffuse inflows or concentrated upstream inflows). The analyses of the swale responses to different water supply conditions were based on the measurements from various measuring devices providing a thoroughly characterization of water and pollutant load fluxes. The experimental investigations on this pilot facility demonstrate that the filtering swales could offer improved hydrological and pollutant treatment benefits compared to the standard swales. The experimental investigations also highlight the benefits from supplying a swale with lateral inflows compared to upstream inflows
APA, Harvard, Vancouver, ISO, and other styles
30

Costa, da Silva Marco Aurelio. "Applications and algorithms for two-stage robust linear optimization." Thesis, Avignon, 2018. http://www.theses.fr/2018AVIG0229/document.

Full text
Abstract:
Le domaine de recherche de cette thèse est l'optimisation linéaire robuste en deux étapes. Nous sommes intéressés par des algorithmes d'exploration de sa structure et aussi pour ajouter des alternatives afin d'atténuer le conservatisme inhérent à une solution robuste. Nous développons des algorithmes qui incorporent ces alternatives et sont personnalisés pour fonctionner avec des exemples de problèmes à moyenne ou grande échelle. En faisant cela, nous expérimentons une approche holistique du conservatisme en optimisation linéaire robuste et nous rassemblons les dernières avancées dans des domaines tels que l'optimisation robuste basée sur les données, optimisation robuste par distribution et optimisation robuste adaptative. Nous appliquons ces algorithmes dans des applications définies du problème de conception / chargement du réseau, problème de planification, problème combinatoire min-max-min et problème d'affectation de la flotte aérienne. Nous montrons comment les algorithmes développés améliorent les performances par rapport aux implémentations précédentes
The research scope of this thesis is two-stage robust linear optimization. We are interested in investigating algorithms that can explore its structure and also on adding alternatives to mitigate conservatism inherent to a robust solution. We develop algorithms that incorporate these alternatives and are customized to work with rather medium or large scale instances of problems. By doing this we experiment a holistic approach to conservatism in robust linear optimization and bring together the most recent advances in areas such as data-driven robust optimization, distributionally robust optimization and adaptive robust optimization. We apply these algorithms in defined applications of the network design/loading problem, the scheduling problem, a min-max-min combinatorial problem and the airline fleet assignment problem. We show how the algorithms developed improve performance when compared to previous implementations
APA, Harvard, Vancouver, ISO, and other styles
31

Duan, Zhiya. "Etude d'un procédé d'élimination de résine époxy par pyrolyse applicable au désenrobage de combustibles nucléaires." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0043.

Full text
Abstract:
Cette étude s’inscrit dans le cadre de la mise au point d'un procédé de traitement thermique d’échantillons de combustibles nucléaires irradiés enrobés dans de la résine époxy. Ces combustibles doivent être séparés de la résine avant entreposage afin d’éviter la formation de gaz par radiolyse. Pour garantir la sûreté et l’universalité du procédé d’élimination de la résine époxy, un traitement de pyrolyse sous argon est proposé. L’enjeu majeur de ce traitement est d'atteindre des teneurs finales en hydrogène dans le résidu les plus faibles possibles tout en conservant l'intégrité du combustible afin d’éviter le relâchement des produits de fission et le foisonnement du matériau. Une méthodologie générale est proposée afin d’approfondir la compréhension des phénomènes physico-chimiques intervenant lors de pyrolyse de la résine époxy et d’acquérir les données nécessaires pour le développement du procédé. Cette méthodologie repose sur différents outils et méthodes expérimentaux et numériques. Au cœur du dispositif expérimental se trouve un four pilote dans lequel sont réalisés les essais de pyrolyse. A ce four pilote est couplée une baie de filtration afin de récupérer les produits de pyrolyse et les analyser. Les gaz permanents sont analysés avec les colonnes de chromatographie en phase gaz. Pour quelques essais du four, un dispositif d’IRTF a été couplé afin d’ajouter une information sur les composés plus lourds et nitrés des gaz de pyrolyse. La résine, les goudrons et les résidus solides sont caractérisés par analyse élémentaire C, H, O, N. Les mesures des compositions CHON et des masses permettent d’établir, après réconciliation de données, un bilan matière précis, de définir des molécules modèles pour les goudrons et le résidu solide, sous la forme CxHyOzNw, et de déterminer les coefficients stoechiométriques i de la réaction globale de pyrolyse. Les pourcentages massiques des produits obtenus à 450 °C sont les suivants : 78,74% de goudrons, 5,82% d’eau, 12,84% de résidu solide et 2,60% de gaz permanents. Les études paramétriques réalisées vis-à-vis du taux de résidu et de sa teneur en hydrogène ont mis en évidence que les paramètres prédominants sont, par ordre d’importance : la température, le temps de palier et la vitesse de chauffe. L'influence du débit d'argon et de la masse de résine initiale est négligeable. Pour aller plus loin dans la caractérisation des produits, des analyses par spectroscopie RMN ont été appliquées au résidu solide pour identifier les évolutions de la structure moléculaire du polymère en fonction de la température. Les analyses des goudrons par la TD-GC/MS révèlent quatre composés principaux : le dodécanol, le tetradécanol, le phénol et le 4-isopropylphénol. L’ensemble des résultats tant quantitatifs que qualitatifs constitue une aide à la définition des conditions d’élimination de la résine époxy par pyrolyse afin d’atteindre les objectifs en termes de taux d’hydrogène dans le résidu tout en respectant les contraintes de sécurité
This study aims to develop a thermal treatment for the elimination of epoxy resin from spent nuclear fuel by pyrolysis. In order to suppress gas production from polymer’s degradation by radiolysis in confined storage conditions, these fuels, which have been previously embedded in epoxy resin for the purpose of metallographic preparation, must be separated from the resin. To ensure the safety and universality of the process for removing the organic material, a pyrolysis process in an inert atmosphere of argon is selected. The main objective of the treatment is to minimize the final hydrogen content in the residual char while maintaining the integrity of the fuel in order to avoid the release of fission products and the expansion of the material, which occurs in oxidizing atmosphere. In this work, a general methodology is proposed in order to understand the physico-chemical phenomena involved during the pyrolysis of the resin and to acquire relevant data for the development of the process. Experimental investigations were mainly carried out in a pilot-scale furnace which was coupled with a series of filtration devices to recover the pyrolysis products for characterization. Most of pyrolysis gases have been measured on line with micro gas chromatography columns. For some pilot experiments, a FTIR analyzer allowed to characterize heavier and nitrated compounds in the gas. The resin, the tars and the char were characterized by elemental analysis (CHON). All the measurements of the pyrolysis products’ elemental compositions and weights have been adjusted by the method of data reconciliation. The results make it possible to establish a precise mass balance with the definition of model molecules (CxHyOzNw) for tars and char and the stoichiometric coefficients for the overall pyrolysis reaction. At 450 °C, the mass distribution of pyrolysis products is: 78.74% tars, 5.82% water, 12.84% char and 2.60% permanent gases. The parametric studies carried out with regard to the char ratio and its hydrogen content have shown that the predominant parameters are, in order of importance: the temperature, the plateau time and the heating rate. The influence of argon flow rate and resin mass is negligible. For a further investigation of the char, NMR spectroscopy was applied to identify its molecular structure changes with pyrolysis temperature. Furthermore, the characterization of tars by TD-GC/MS reveals four main compounds: dodecanol, tetradecanol, phenol and 4-isopropylphenol. Both these quantitative and qualitative information help to define the process conditions for the removal of epoxy resin by pyrolysis with respect to the final objective, i.e. minimizing the hydrogen content in the residual char while respecting the safety constraints
APA, Harvard, Vancouver, ISO, and other styles
32

Azlal, Ayoub. "Déploiement d‟une stratégie Smart City à l‟échelle de la ville : application à la ville de Saint-Quentin." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I056.

Full text
Abstract:
Ce travail de thèse porte sur le déploiement du concept Smart City à l’échelle de la ville, avec une application à la ville de Saint-Quentin. Les travaux présentés dans ce manuscrit contribuent à enrichir la recherche dans le domaine de la Smart City avec pour objectif de combler l’écart de connaissance entre la théorie et la pratique.L’objectif principal est de développer une méthodologie pour l’élaboration d’une feuille de route "Smart City" comme première phase de l'implémentation d'une démarche Smart City.Le travail comporte 5 parties.La première partie présente une synthèse l’état de l’art des recherches et des pratiques sur la Smart City dans le monde.La deuxième partie présente la méthodologie développée pour conduire une démarche Smart City. Elle constitue une base scientifique solide pour mener à bien et concevoir une stratégie globale "Smart City".La troisième partie présente l’application de la méthodologie développée à la ville de Saint-Quentin. Après une analyse profonde du territoire, nous avons réalisé un diagnostic en vue d’un déploiement du concept Smart City. Ce travail a comporté une identification des enjeux de la ville et les pistes d’amélioration. A cet effet, une série de projets pilotes a été proposée.La quatrième partie présente une description du patrimoine immobilier de la ville de Saint-Quentin, ainsi qu’une analyse de leurs consommations énergétique et émissions de CO2.La dernière partie présente les travaux réalisés pour la transformation intelligente des bâtiments municipaux de la ville de Saint-Quentin. Deux sites d’expérimentation pilotes sont présentés : une salle de concerts et un groupe scolaire maternelle et primaire. Le chapitre présente également la méthodologie de déploiement des capteurs pour mesurer et suivre, en temps réel, les paramètres de confort et de sécurité ainsi que l’utilisation de ces données
This thesis work focuses on the deployment of the Smart City concept at the city level, with an application in the city of Saint-Quentin. The work, presented in this manuscript, contributes to enrich the Research in the field of the smart city with the objective of bridging the knowledge gap between theory and practice.Thus, the main objective is to develop a methodology for the development of a "Smart City" roadmap as the first phase of the implementation of a Smart City project.This thesis report is divided into five main parts.The first part presents a synthesis of the state of the art of research and practice on the Smart City in the world.The second part presents the methodology developed to conduct a smart city approach. It constitutes a solid scientific basis for carrying out and designing a global “Smart City” strategy.The third part is about the application of the methodology developed to the city of Saint-Quentin. After a deep analysis of the territory, we carried out a diagnosis with a view to deploying the Smart City concept. This task included identifying the challenges facing the city and areas for improvement. A series of pilot projects have been proposed.The fourth part consists on describing the real estate assets of the city of Saint-Quentin, as well as analyzing their energy consumption and CO2 emissions.At last but not least, the fifth part aims to reflect the work carried out for the intelligent transformation of municipal buildings in the city of Saint-Quentin. Two main test sites are presented : a hall for concerts and shows and a nursery and primary school group. This chapter also presents the methodology for deploying sensors to measure and monitor comfort and safety parameters in real time as well as the use of these data
APA, Harvard, Vancouver, ISO, and other styles
33

David, Gilles. "Modélisation dynamique des modèles physiques etnumériques pour la simulation en électromagnétisme.Application dans un environnement de simulation intégrée :SALOME." Phd thesis, 2006. http://tel.archives-ouvertes.fr/tel-00171424.

Full text
Abstract:
L'objectif de cette étude est de développer des outils informatiques permettant de faciliter la modélisation de phénomènes physiques et de leurs couplages éventuels. Nous partons d'un exemple de résolution de problème multiphysique (le couplage magnétothermique dans un ruban supraconducteur) pour aborder la question de la démarche de modélisation. En particulier nous mettons en avant le besoin systématique de description des propriétés physiques du problème traité. Pour répondre à ce besoin, nous proposons d'utiliser un formalisme générique permettant de décrire les propriétés physiques de tout problème numérique. Pour cela, ce formalisme permet de décrire la structure des propriétés physiques, c'est-à-dire leur modèle de données. Ce formalisme se comporte alors comme un modèle de modèles : c'est un métamodèle. Nous présentons ensuite la structure du métamodèle ainsi que des outils et services qui ont développés autour et qui permettent de gérer les modèles de données et les propriétés physiques. Le métamodèle a été réalisé sous la forme d'un langage informatique orienté objet : le SPML. Nous justifions ce choix et nous détaillons la réalisation des principales fonctionnalités du SPML. Enfin nous présentons l'intégration du métamodèle dans la plate-forme de simulation numérique SALOME et son utilisation pour la résolution d'un problème de magnétostatique simple et un d'un problème d'intéractions fluide-structure.
APA, Harvard, Vancouver, ISO, and other styles
34

Martel, Marie-Claude. ""Utilisation médicamenteuse pendant la grossesse chez des patientes ayant une maladie chronique pré-existante : étude pilote pour la mise en place des outils de recueil de données"." Thèse, 2005. http://hdl.handle.net/1866/15627.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography