Dissertations / Theses on the topic 'Intelligence artificielle hybride'

To see the other types of publications on this topic, follow the link: Intelligence artificielle hybride.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle hybride.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kriaa, Hassen. "Analyse et conception révisable par interaction entre agents : Une approche hybride." Pau, 2000. http://www.theses.fr/2000PAUU3011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de these est centre sur la mise en place ou l'ebauche d'une methode d'analyse et de conception oriente agent et la conception et la construction d'un systeme d'information distribue interactif. Son domaine d'application est celui des systemes d'information cooperatifs et intelligents lies a la sante et en particulier au processus de suivi des patients a la chaine des urgences. La methode propose quelques idees essentielles : la combinaison de l'analyse ascendante et concourante fondee sur les points de vues multiples, l'analyse du dialogue entre acteurs en amont de l'analyse et de la conception, la representation des dialogues aux travers des scenarii dynamiquement construit. L'inclusion de la concourance et de la revision pour resoudre les conflits et assurer la continuite du developpement. Le prototype a ete concu en parfaite collaboration avec deux medecins urgentistes. C'est un veritable simulateur qui permet de tester, de verifier, de mettre a jour et de completer les connaissances lors du processus de la prise en charge des patients dans la chaine des urgences. Les agents prevus dans le systeme assurent differents aspects d'apprentissage, de tracabilite, de cooperation, d'aide et de controle de l'accreditation. Le travail peut etre poursuivi dans deux directions complementaires. Selon un axe genie logiciel, il reste a construire un atelier de genie logiciel informatise d'aide a la conception supportant la methode proposee. Selon un axe theorique, il reste a approfondir la contribution d'autres travaux de recherches pour l'analyse des taches, pour la gestion de la communication et pour l'implementation des agents afin d'ameliorer cette approche
2

Roy, Patrice. "Un modèle hybride de reconnaissance de plans pour les patients Alzheimer : dilemme entrecroisé/erroné /." Thèse, Chicoutimi : Montréal : Université du Québec à Chicoutimi ; Université du Québec à Montréal, 2007. http://theses.uqac.ca.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thèse (M.Inf.) -- Université du Québec à Chicoutimi, programme en extension de l'Université du Québec à Montréal, 2007.
La p. de t. porte en outre: Mémoire présenté à l'Université du Québec à Chicoutimi comme exigence partielle de la maîtrise en informatique. CaQQUQ Bibliogr.: f. 133-138. Document électronique également accessible en format PDF. CaQQUQ
3

Ortiz, Paul. "Conception d’un système hybride de stockage de l’énergie pour la réduction des émissions carbone dans l’habitat individuel." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Répondre aux objectifs de l'UE sur la réduction des émissions carbone, nécessite des propositions innovantes dans le domaine de l'habitat qui rejette 300 millions de tonnes de CO2 par an. RED WOLF a pour but d'augmenter l'usage de l'énergie renouvelable pour réduire l'émission CO2 de maisons équipées de panneaux hotoVoltaïques non raccordés au Gaz (PVnG). Un Système de Stockage Hybrides (SSH) sera développé et déployé dans 100 maisons PVnG. Elles seront équipées de batteries avec des Radiateurs à Accumulation à faible coût capables de stocker de la chaleur pour réchauffer à la demande les habitations sur un horizon de 24h. Les SSHs stockeront à la fois l'énergie produite in situ par les PVHs et les énergies vertes (vent, solaire) transportées par le réseau électrique lorsque la demande sera faible. Les pics de consommation (120% de la moyenne quotidienne) ont lieu entre 6h et 9h et entre 16h et 20h quand la production d'électricité est fortement carbonée. Actuellement, durant les journées venteuses ou ensoleillées, la production des parcs éoliens et solaires est réduite et l'énergie propre est donc gaspillée : Chaque année, dans les régions de l'ENO (Est-Nord-Ouest), jusqu'à 6% de l'énergie de l'éolien est perdue. De plus, les maisons PVnG reversent leur production électrique locale dans le réseau électrique indépendamment des besoins de celui-ci, ce qui augmente le déséquilibre entre la demande et la production sachant que la capacité des PV augmente de 3GW/an dans la région ENO. Dans le cadre de cette thèse, la recherche sera divisée en trois parties: (i) comprendre le comportement des habitants afin d'obtenir le modèle de consommation énergétique de chaque maison. Ce modèle sera utilisé afin de dimensionner les batteries et gérer intelligemment le basculement entre utilisation entre "énergie produite localement" et celle du réseau national ; (ii) concevoir un système de stockage hybrides afin d'analyser des flux de données provenant de sources d'informations multiples (p. ex., smart grid, météo, température ambiante, comportement des habitants, niveau des batteries), et ce à des fins de limiter l'émission carbone des habitations individuelles ; (iii) réaliser une analyse globale pour évaluer les stratégies de gestion des données (Cloud and Fog) et des réseaux (SDN, Internet des Objets), et ce, afin de trouver le meilleur compromis entre "Qualité de Service" et "impact environnemental". Les phases expérimentales se baseront sur des sites pilotes (disposant de maisons PVnG) situés au Royaume Uni, en France, en Irlande, au Luxembourg et Pays-Bas. En définitif, le système de stockage hybride proposé vise à être commercialisé dans les pays partenaires, et diffusé dans toute la région ENO
Private homes are increasingly fitted with PhotoVoltaics (PV) for increasing the renewable energy use. Typical issues of this type of installation are : (1) the production of green energy is not necessary in line with the inhabitants' energy consumption (2) a peak of energy demand on smart grid increases the carbon emission. Mitigating carbon emission in using efficiently PV is the main objective of this research, which is part of the INTERREG NW Europe RED WOLF project (H2020 programme). This project is led led by Leeds Beckett University and involves 21 partners across Europe, including University of Lorraine. The RED WOLF project aims at installing PV solar panels and home batteries across UK, France, Netherlands, and Ireland, with the overall goal to design a Smart Storage Driver (SDS) system capables at storing solar energy produced at home, and using it when a peak of energy demand is detected on smart grid. To this end, the research is divided into three steps: (i) first, it is necessary to understand how inhabitants behave in order to obtain an energy consumption pattern for each home. This pattern will be used to size the batteries and to smartly manage the switching between the use of local and smart grid energy. Specific instrumentation will be deployed to achieve this step ; (ii) second, it is necessary to design a SDS system aiming at analysing data coming from multiple sources (e.g., smart grid, weather, indoor temperature, inhabitant behaviour, battery charge level) with one major target : the limitation of carbon emission ; (iii) finally, a global analysis ofdata management (Cloud and Fog) and network management (SDN, IoT) must be carried out in order to find the best trade off between Quality of Service offered for inhabitants and environmental impact
4

Bultey, Alexis. "Représentation hybride des heuristiques et métaconnaissances utilisées pour la conception innovante." Strasbourg, 2009. http://www.theses.fr/2009STRA6106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur une analyse théorique et pratique du processus de préconception avec comme objectif d’essayer d’extraire les éléments récurrents et possiblement inventifs de façon à pouvoir les isoler et les réutiliser dans d’autres contextes pour aider à la conception et plus généralement à l’invention. Pour cela, nous nous appuyons sur une théorie appelée TRIZ mise au point par un scientifique russe (G. S. Altshuller) qui tente de formaliser les processus de l’invention. Nous établissons l’intérêt de la TRIZ pour la conception conceptuelle et montrons que la théorie peut être informatisée et aider à la résolution de problèmes. L’architecture informatique résultante relève d’une préoccupation industrielle et cherche aussi à établir des passerelles entre les techniques d’intelligence artificielle de représentation des connaissances, formalisation du raisonnement et de résolution de problème. Les résultats de ces travaux peuvent être catégorisés suivant trois axes : la formalisation, l’opérationnalisation et l’implantation. La formalisation propose une ontologie descriptive d’une des méthodes de la TRIZ appelée l’analyse Substance-Champ. L’opérationnalisation décrit un modèle opérationnel de cette formalisation, c'est-à-dire utilisable par la machine. L’implémentation est une solution logicielle basée sur un système hybride combinant les logiques de description et la logique des prédicats. Elle permet par l’intermédiaire d’une interface graphique d’aider un concepteur à mettre en œuvre un processus de préconception suivant l’analyse Substance-Champ. Le sujet présente donc un intérêt du côté des sciences de la conception comme du côté de l’intelligence artificielle
This PhD thesis is about a theoretical and practical analysis of the conceptual phases of the design process. It aims at extracting its recurrent elements in order to be reusable in different contexts and it also aims at making that process easily computer implemented. With this goal, we have studied the russian theory TRIZ, which pretends to formalize the inventive process. We conclude that this theory has a great interest for design process and we prove that this theory might be implemented in a computer-aided design system. The results of this PhD thesis can be decomposed in three parts: formalization, operationalisation and implementation. Formalization suggests an ontological modelling of one of the TRIZ methodologies, named Substance-Field analysis. Operationalisation proposes a translation of the formalization to be supported by a computer. The implementation is a software tool based on a hybrid system combining description logics and first order logic rules
5

Liu, Ziming. "Méthodes hybrides d'intelligence artificielle pour les applications de navigation autonome." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La navigation autonome est une tâche difficile qui a un large éventail d'applications dans le monde réel. Le système de navigation autonome peut être utilisé sur différentes plateformes, telles que les voitures, les drones et les robots. Ces systèmes autonomes réduiront considérablement le travail humain et amélioreront l'efficacité du système de transport actuel. Certains systèmes autonomes ont été utilisés dans des scénarios réels, comme les robots de livraison et les robots de service. Dans le monde réel, les systèmes autonomes doivent construire des représentations de l'environnement et se localiser pour interagir avec l'environnement. Différents capteurs peuvent être utilisés pour atteindre ces objectifs. Parmi eux, le capteur caméra est le meilleur choix entre le coût et la fiabilité. Actuellement, la navigation autonome visuelle a connu des améliorations significatives grâce à l'apprentissage profond. Les méthodes d'apprentissage profond présentent des avantages pour la perception de l'environnement. Cependant, elles ne sont pas robustes pour la localisation visuelle où les méthodes basées sur des modèles ont des résultats plus fiables. Afin d'utiliser les avantages des méthodes basées sur les données et sur les modèles, une méthode hybride d'odométrie visuelle est étudiée dans cette thèse. Tout d'abord, des méthodes d'optimisation efficaces sont essentielles pour les méthodes basées sur les modèles et les méthodes basées sur les données qui partagent la même théorie d'optimisation. Actuellement, la plupart des réseaux d'apprentissage profond sont encore formés avec des optimiseurs de premier ordre inefficaces. Par conséquent, cette thèse propose d'étendre les méthodes d'optimisation efficaces basées sur les modèles pour former les réseaux d'apprentissage profond. La méthode Gaussienne-Newton et les méthodes efficaces de second ordre sont appliquées pour l'optimisation de l'apprentissage profond. Deuxièmement, la méthode d'odométrie visuelle basée sur un modèle repose sur des informations préalables sur la profondeur, l'estimation robuste et précise de la profondeur est essentielle pour la performance du module d'odométrie visuelle. Sur la base de la théorie traditionnelle de la vision par ordinateur, la vision stéréo peut calculer la profondeur avec l'échelle correcte, ce qui est plus fiable que les solutions monoculaires. Toutefois, les réseaux stéréoscopiques 2D-3D actuels à deux niveaux présentent des problèmes d'annotations de profondeur et d'écart entre les domaines de disparité. En conséquence, un réseau stéréo supervisé par la pose et un réseau stéréo adaptatif sont étudiés. Toutefois, les performances des réseaux en deux étapes sont limitées par la qualité des caractéristiques 2D qui construisent le volume de coût de l'appariement stéréo. Au lieu de cela, un nouveau réseau stéréo 3D en une étape est proposé pour apprendre les caractéristiques et l'appariement stéréo implicitement en une seule étape. Troisièmement, pour assurer la robustesse du système, le réseau stéréo et le module d'odométrie visuelle directe dense sont combinés pour créer une odométrie visuelle directe dense hybride stéréo (HDVO). L'odométrie visuelle directe dense est plus fiable que la méthode basée sur les caractéristiques, car elle est optimisée à partir des informations globales de l'image. L'HDVO est optimisée avec la perte de minimisation photométrique. Cependant, cette perte souffre de bruits provenant de la zone d'occlusion, de la zone de texture homogène et des objets dynamiques. Cette thèse étudie la suppression des valeurs de perte bruitées à l'aide de masques binaires. De plus, pour réduire les effets des objets dynamiques, les résultats de la segmentation sémantique sont utilisés pour améliorer ces masques. Enfin, pour être généralisée à un nouveau domaine de données, une méthode d'entraînement test-temps pour l'odométrie visuelle est explorée
Autonomous driving is a challenging task that has a wide range of applications in the real world. The autonomous driving system can be used in different platforms, such as cars, drones, and robots. These autonomous systems will reduce a lot of human labor and improve the efficiency of the current transportation system. Some autonomous systems have been used in real scenarios, such as delivery robots, and service robots. In the real world, autonomous systems need to build environment representations and localize themselves to interact with the environment. There are different sensors can be used for these objectives. Among them, the camera sensor is the best choice between cost and reliability. Currently, visual autonomous driving has achieved significant improvement with deep learning. Deep learning methods have advantages for environment perception. However, they are not robust for visual localization where model-based methods have more reliable results. To utilize the advantages of both data-based and model-based methods, a hybrid visual odometry method is explored in this thesis. Firstly, efficient optimization methods are critical for both model-based and data-based methods which share the same optimization theory. Currently, most deep learning networks are still trained with inefficient first-order optimizers. Therefore, this thesis proposes to extend efficient model-based optimization methods to train deep learning networks. The Gaussian-Newton and the efficient second-order methods are applied for deep learning optimization. Secondly, the model-based visual odometry method is based on the prior depth information, the robust and accurate depth estimation is critical for the performance of visual odometry module. Based on traditional computer vision theory, stereo vision can compute the depth with the correct scale, which is more reliable than monocular solutions. However, the current two-stage 2D-3D stereo networks have the problems of depth annotations and disparity domain gap. Correspondingly, a pose-supervised stereo network and an adaptive stereo network are investigated. However, the performance of two-stage networks is limited by the quality of 2D features that build stereo-matching cost volume. Instead, a new one-stage 3D stereo network is proposed to learn features and stereo-matching implicitly in a single stage. Thirdly, to keep robust, the stereo network and the dense direct visual odometry module are combined to build a stereo hybrid dense direct visual odometry (HDVO). Dense direct visual odometry is more reliable than the feature-based method because it is optimized with global image information. The HDVO is optimized with the photometric minimization loss. However, this loss suffers noises from the occlusion area, homogeneous texture area, and dynamic objects. This thesis explores removing noisy loss values with binary masks. Moreover, to reduce the effects of dynamic objects, semantic segmentation results are used to improve these masks. Finally, to be generalized for a new data domain, a test-time training method for visual odometry is explored. These proposed methods have been evaluated on public autonomous driving benchmarks, and show state-of-the-art performances
6

Ali, Sadaqat. "Energy management of multi-source DC microgrid systems for residential applications." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0159.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comparé au réseau électrique alternatif (AC), le réseau électrique en courant continu (DC) a démontré de nombreux avantages tels que son interface naturelle avec les RES, les systèmes de stockage d'énergie et les charges en courant continu, une efficacité supérieure avec moins d'étapes de conversion, et un contrôle plus simple sans effet de peau et sans considérations sur le flux de puissance réactive. Le micro-réseaux DC reste une technologie relativement nouvelle, et ses architectures de réseau, stratégies de contrôle, techniques de stabilisation méritent d'énormes efforts de recherche. Dans ce contexte, cette thèse porte sur les problèmes de gestion de l'énergie d'un réseau électrique en courant continu (DC) multi-source dédié aux applications résidentielles. Le réseau électrique en courant continu (DC) est composé de générateurs distribués (panneaux solaires), d'un système de stockage d'énergie hybride (HESS) avec des batteries et un supercondensateur (SC), et de charges en courant continu, interconnectées via des convertisseurs de puissance DC/DC. L'objectif principal de cette recherche est de développer une stratégie avancée de gestion de l'énergie (EMS) d'améliorer l'efficacité opérationnelle du système tout en renforçant sa fiabilité et sa durabilité. Une plateforme de simulation hiérarchique de réseau électrique DC a été développée sous MATLAB/Simulink. Elle est composée de deux couches avec des échelles de temps différentes : une couche de contrôle de niveau local (échelle de temps de quelques secondes à quelques minutes en raison des comportements de commutation des convertisseurs) pour les contrôles des composants locaux, et une couche de contrôle de niveau système (avec une échelle de temps de quelques jours à quelques mois avec un test accéléré) pour la validation à long terme de l'EMS et son évaluation de performance. Dans la couche de contrôle de niveau local, les panneaux solaires, les batteries et le supercondensateur ont été modélisés et contrôlés séparément. Différents modes de contrôle tels que le contrôle de courant, le contrôle de tension et le contrôle du point de puissance maximale (MPPT) ont été mis en œuvre. Un filtre passe-bas (LPF) a été appliqué pour diviser la puissance totale du HESS : basse et haute fréquence pour les batteries et le supercondensateur. Différentes fréquences de coupure du LPF pour le partage de puissance a également été étudiée. Un EMS hybride bi-niveau combiné et un dimensionnement automatique ont été proposés et validés. Il couvre principalement cinq scénarios d'exploitation, notamment la réduction de la production des panneaux solaires, la réduction de la charge et trois scénarios via le contrôle du HESS associé à la rétention du contrôle de l'état de charge (SOC) du supercondensateur. Une fonction objective prenant en compte à la fois le coût en capital (CAPEX) et les coûts d'exploitation (OPEX) a été conçue pour l'évaluation des performances de l'EMS. L'interaction entre l'HESS et l'EMS a été étudiée conjointement sur la base d'un ensemble de données ouvertes de profils de consommation électrique résidentielle couvrant à la fois l'été et l'hiver. Finalement, une plateforme expérimentale de réseau électrique à courant continu (DC) multi-source a été développée pour valider en temps réel l'EMS. Elle est composée de quatre batteries lithium-ion, d'un supercondensateur, d'une alimentation électrique à courant continu programmable, d'une charge à courant continu programmable, de convertisseurs DC/DC correspondants et d'un contrôleur en temps réel (dSPACE/Microlabbox). Des tests accélérés ont été réalisés pour vérifier l'EMS proposé dans différents scénarios d'exploitation en intégrant des panneaux solaires réels et les profils de consommation de charge. Les plateformes de simulation hiérarchique de réseau électrique en courant continu (DC) et expérimentale, peuvent être utilisées de manière générale pour vérifier et évaluer divers EMS
Compared to the alternating current (AC) electrical grid, the direct current (DC) electrical grid has demonstrated numerous advantages, such as its natural interface with renewable energy sources (RES), energy storage systems, and DC loads. It offers superior efficiency with fewer conversion steps, simpler control without skin effect or reactive power considerations. DC microgrids remain a relatively new technology, and their network architectures, control strategies, and stabilization techniques require significant research efforts. In this context, this thesis focuses on energy management issues in a multi-source DC electrical grid dedicated to residential applications. The DC electrical grid consists of distributed generators (solar panels), a hybrid energy storage system (HESS) with batteries and a supercapacitor (SC), and DC loads interconnected via DC/DC power converters. The primary objective of this research is to develop an advanced energy management strategy (EMS) to enhance the operational efficiency of the system while improving its reliability and sustainability. A hierarchical simulation platform of the DC electrical grid has been developed using MATLAB/Simulink. It comprises two layers with different time scales: a local control layer (time scale of a few seconds to minutes due to converter switching behavior) for controlling local components, and a system-level control layer (time scale of a few days to months with accelerated testing) for long-term validation and performance evaluation of the EMS. In the local control layer, solar panels, batteries, and the supercapacitor have been modeled and controlled separately. Various control modes, such as current control, voltage control, and maximum power point tracking (MPPT), have been implemented. A low-pass filter (LPF) has been applied to divide the total HESS power into low and high frequencies for the batteries and supercapacitor. Different LPF cutoff frequencies for power sharing have also been studied. A combined hybrid bi-level EMS and automatic sizing have been proposed and validated. It mainly covers five operational scenarios, including solar panel production reduction, load reduction, and three scenarios involving HESS control combined with supercapacitor state of charge (SOC) control retention. An objective function that considers both capital expenditure (CAPEX) and operating costs (OPEX) has been designed for EMS performance evaluation. The interaction between the HESS and EMS has been jointly studied based on an open dataset of residential electrical consumption profiles covering both summer and winter seasons. Finally, an experimental platform of a multi-source DC electrical grid has been developed to validate the EMS in real-time. It comprises four lithium-ion batteries, a supercapacitor, a programmable DC power supply, a programmable DC load, corresponding DC/DC converters, and a real-time controller (dSPACE/Microlabbox). Accelerated tests have been conducted to verify the proposed EMS in different operational scenarios by integrating real solar panels and load consumption profiles. The hierarchical simulation and experimental DC electrical grid platforms can be generally used to verify and evaluate various EMS
7

Guitton, Julien. "Architecture hybride pour la planification d'actions et de déplacements." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00648244.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'autonomie d'un robot mobile se caractérise par sa capacité à agir et à se déplacer dans l'environnement sans intervention humaine. La planification de mission pour un robot mobile fait intervenir un raisonnement symbolique pour le choix des actions permettant d'accomplir la mission et un raisonnement géométrique pour le calcul des déplacements du robot afin de réaliser ces actions. Dans un premier temps, nous comparons différentes approches permettant de coupler un planificateur de tâches et un planificateur de mouvements. Les résultats obtenus en termes de messages échangés entre les deux modules de raisonnement et en termes de temps de calcul tendent à montrer qu'un couplage dans lequel les exécutions des deux planificateurs sont entrelacées est l'approche offrant les meilleures performances. À partir de ce constat, nous proposons une architecture de planification hybride mettant en oeuvre un planificateur de tâches et un planificateur de mouvements dont les exécutions sont entrelacées. Nous avons été amenés à étendre le concept d'opérateur de planification afin de permettre l'expression et la prise en compte de préconditions géométriques ainsi que d'effets géométriques. Ces préconditions, définissant géométriquement la manière de réaliser les actions, sont ensuite envoyées au module de raisonnement géométrique sous la forme de requêtes de planification. Les contraintes géométriques sont extraites des préconditions, traduites en fonctions mathématiques, puis satisfaites à l'aide d'un algorithme de programmation non linéaire. Un chemin est ensuite calculé entre la configuration actuelle du robot et la configuration solution à l'aide d'un algorithme de planification de mouvement appelé Cell-RRT. Les effets géométriques permettent de transmettre les modifications des ressources partagées au module de raisonnement symbolique et fournissent des références sur les configurations du robot en début ou en fin de réalisation d'une action. Ces références peuvent ensuite intervenir lors de la planification d'une nouvelle action. L'algorithme de planification de mouvements mis en oevre est un algorithme probabiliste incrémental qui s'appuie sur le principe de l'algorithme RRT. Il est couplé avec une phase de réduction de l'espace de recherche. Durant cette phase, l'environnement est décomposé en un ensemble de cellules puis un algorithme de recherche de plus court chemin est appliqué afin de définir un sous-ensemble de l'espace de recherche. Les échanges entre les deux planificateurs font également appel à la notion de conseil afin de permettre le guidage de la construction du plan par des heuristiques géométriques ainsi que de permettre des phases d'optimisation du plan. Cette architecture hybride est finalement testée sur des scénarios de missions mettant ainsi en avant la validité de nos propositions. Le planificateur de déplacement Cell-RRT est également évalué afin d'étudier les gains réalisés, en termes de distances parcourues et de temps de calcul, en fonction de l'ajustement de ses différents paramètres de configuration.
8

Lucien, Laurent. "Contribution à une modélisation globale de la collaboration dans les systèmes multi-agents : Application aux entités mobiles intelligentes." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD039/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous vivons aujourd'hui dans un monde de plus en plus complexe et interconnecté où de nombreuses entités, de plus en plus intelligentes, génèrent une multitude d'interactions qui peuvent contribuer à enrichir leurs capacités. Nous nous intéressons à la collaboration qui favorisera la réalisation de tâches complexes par ces machines d'aujourd'hui et de demain en stimulant ces interactions structurées et en intégrant des processus de décisions intelligents. Par ce biais, cela contribuera à améliorer leur fonctionnement et pourra participer à leur perfectionnement (meilleures connaissances de leur environnement, rapidité d'action et de décision, apport de nouvelles compétences). L'objectif principal de la thèse est donc de contribuer à la compréhension de ce qu'est la collaboration, de sa définition à sa mise en œuvre, en mettant en lumière ses concepts sous-jacents. Nous proposons une méthode d'analyse du besoin et des contraintes ainsi qu'un modèle d'architecture d'agent collaboratif (HACCA) permettant d'intégrer toutes les caractéristiques des processus collaboratifs que nous présentons. Nous présentons également une première implémentation dans la plateforme multi-agents GAMA.Dans le cadre de cette étude, nous nous intéressons à deux cas d'application d'entités mobiles : les drones et les véhicules connectés. Ainsi nous contribuons également plus largement aux besoins d'autonomie et de décision des drones, des véhicules connectés et autonomes du futur, dans un contexte temporel contraint où la qualité des interactions est primordiale pour optimiser le processus de réalisation des objectifs
We live today in an increasingly complex and interconnected world where many entities, increasingly intelligent, generate a multitude of interactions that can contribute to enrich their capabilities.We are interested in collaboration that will enable complex tasks to be performed by these machines of today and tomorrow by stimulating these structured interactions and integrating intelligent decision-making processes. In this way, it will contribute to improve their functioning and will be able to participate in their improvement (better knowledge of their environment, speed of action and decision-making, provision of new skills).The main objective of the thesis is therefore to contribute to the understanding of what collaboration is, from its definition to its implementation, by highlighting its underlying concepts. We propose a method of analysis (needs and constraints) and a collaborative agent architecture model (HACCA) to integrate all the characteristics of the collaborative processes that we present. We are also showing a first implementation in the GAMA multi-agent platform.As part of this study, we are interested in two cases of application of mobile entities: drones and connected vehicles.Thus we also contribute more to the autonomy needs and decision-making process of drones, connected and autonomous vehicles of the future, in a constrained temporal context where the quality of interactions is essential to optimize the process of achieving objectives
9

Osório, Fernando Santos. "Inss : un système hybride neuro-symbolique pour l'apprentissage automatique constructif." Grenoble INPG, 1998. https://tel.archives-ouvertes.fr/tel-00004899.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs méthodes ont été développées par l'Intelligence Artificielle pour reproduire certains aspects de l'intelligence humaine. Ces méthodes permettent de simuler les processus de raisonnement en s'appuyant sur les connaissances de base disponibles. Chaque méthode comporte des points forts, mais aussi des limitations. La réalisation de systèmes hybrides est une démarche courante Qui permet de combiner les points forts de chaque approche, et d'obtenir ainsi des performances plus élevées ou un champ d'application plus large. Un autre aspect très important du développement des systèmes hybrides intelligents est leur capacité d'acquérir de nouvelles connaissances à partir de plusieurs sources différentes et de les faire évoluer. Dans cette thèse, nous avons développé des recherches sur les systèmes hybrides neuro-symboliques, et en particulier sur l'acquisition incrémentale de connaissances à partir de connaissances théoriques (règles) et empiriques (exemples). Un nouveau système hybride, nommé système INSS - Incremental Neuro-Symbolic System, a été étudié et réalisé. Ce système permet le transfert de connaissances déclaratives (règles symboliques) d'un module symbolique vers un module connexionniste (réseau de neurones artificiel - RNA) à travers un convertisseur de règles en réseau. Les connaissances du réseau ainsi obtenu sont affinées par un processus d'apprentissage à partir d'exemples. Ce raffinement se fait soit par ajout de nouvelles connaissances, soit par correction des incohérences, grâce à l'utilisation d'un réseau constructif de type Cascade-Correlation. Une méthode d'extraction incrémentale de règles a été intégrée au système INSS, ainsi que des algorithmes de validation des connaissances qui ont permis de mieux coupler les modules connexionniste et symbolique. Le système d'apprentissage automatique INSS a été conçu pour l'acquisition constructive (incrémentale) de connaissances. Le système a été testé sur plusieurs applications, en utilisant des problèmes académiques et des problèmes réels (diagnostic médical, modélisation cognitive et contrôle d'un robot autonome). Les résultats montrent que le système INSS a des performances supérieures et de nombreux avantages par rapport aux autres systèmes hybrides du même type
Various Artificial Intelligence methods have been developed to reproduce intelligent human behaviour. These methods allow to reproduce some human reasoning process using the available knowledge. Each method has its advantages, but also some drawbacks. Hybrid systems combine different approaches in order to take advantage of their respective strengths. These hybrid intelligent systems also present the ability to acquire new knowledge from different sources and so to improve their application performance. This thesis presents our research in the field of hybrid neuro-symbolic systems, and in particular the study of machine learning tools used for constructive knowledge acquisition. We are interested in the automatic acquisition of theoretical knowledge (rules) and empirical knowledge (examples). We present a new hybrid system we implemented: INSS - Incremental Neuro-Symbolic System. This system allows knowledge transfer from the symbolic module to the connectionist module (Artificial Neural Network - ANN), through symbolic rule compilation into an ANN. We can refine the initial ANN knowledge through neural learning using a set of examples. The incremental ANN learning method used, the Cascade-Correlation algorithm, allows us to change or to add new knowledge to the network. Then, the system can also extract modified (or new) symbolic rules from the ANN and validate them. INSS is a hybrid machine learning system that implements a constructive knowledge acquisition method. We conclude by showing the results we obtained with this system in different application domains: ANN artificial problems(The Monk's Problems), computer aided medical diagnosis (Toxic Comas), a cognitive modelling task (The Balance Scale Problem) and autonomous robot control. The results we obtained show the improved performance of INSS and its advantages over others hybrid neuro-symbolic systems
10

Singer, Benjamin. "L'intelligence artificielle au service du rugby : acquisition et modélisationd'une expertise visuelle de prise de décision tactique : construction d'un système expert hybride d'aide à l'intervention pour la formation des joueurs et des cadres techniques." Paris 10, 1995. http://www.theses.fr/1995PA100048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous focalisons notre contribution au niveau acquisition et modélisation de connaissances visuelles. Apres avoir justifié sa nécessite, nous proposons un langage d'élicitation de connaissances visuelles dont la définition formelle est donnée via ses composantes statiques et dynamiques. La deuxième partie de notre contribution est relative à la conception et à la mise en œuvre d'un outil logiciel d'acquisition de connaissances visuelles pilote par le langage précèdent. La troisième partie concerne la représentation de connaissances visuelles au niveau méthodologique et outil, par extension de la méthode et du logiciel initiaux. La quatrième partie décrit l'étude de cas complète menée pour la modélisation de l'expertise visuelle considérée dédiée a la prise de décision tactique en rugby. Le modèle conceptuel complet de l'expert est construit. Sont alors abordées la conception, l'implémentation et la validation du système expert final sur l'architecture cible. La conclusion met l'accent sur les intérêts de notre contribution au niveau théorique et pratique, ainsi que sur la généralité des résultats obtenus pour les expertises visuelles de prise de décision tactique en sports collectifs
We focus on our contribution at the visual knowledge acquisition and modelling levels. After justifying its necessity we propose a visual knowledge elicitation language whose formal definition is given via its static and dynamic component s. The second part of our contribution is related to the design and realization of a visual knowledge acquisition software tool driven by the previous language. The third part of our contribution deals with visual knowledge modelling at the methodological and tool levels by extending the initial method and software. The fourth part describes the whole case study carried out for modelling the visual expertise considered for tactical decision-making in rugby the complete conceptual model is built. Then we describe the design, implementation and validation of the final expert system on the target architecture. The conclusion points out the interests of our contribution both at the theoretical and practical levels, and the generality of the results achieved for team games study
11

Wacquant, Sylvie. "Contribution à l'étude d'un modèle de réseaux d'automates corticaux : principes & outils logiciels." Rouen, 1993. http://www.theses.fr/1993ROUES063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transposition des problèmes-jouets de laboratoire aux applications industrielles a montré les limites de l'emploi d'un modèle connexionniste isolé comme solution polyvalente. En dépit de résultats plus convaincants, l'intégration de ces modèles dans des systèmes de pré- ou post-traitements, élaborés avec les outils des sciences de l'ingénieur, s'avère encore insuffisante. Dans ce contexte, l'emploi de solutions hybrides, au sein même des architectures neuronales, semble plus fructueux. La gestion de systèmes multi-réseaux pose cependant des difficultés liées à la compatibilité structurelle, à l'harmonisation des fonctions, à la mise en place de coopérations, etc. Cette thèse propose les fondements d'une structure d'accueil permettant la création de telles architectures. Elle se place dans la continuité de travaux basés sur un modèle d'inspiration neurobiologique du cortex cérébral et situés entre les approches bas niveaux et cognitivistes. Après avoir montré l'intérêt d'une meilleure prise en compte de la compréhension du vivant pour la réalisation de dispositifs artificiels, elle décrit un cadre formel associant un certain nombre de concepts (hiérarchie, connectivité, plasticité,. . . ) Susceptibles de conduire à l'élaboration incrémentale de réseaux complexes. L'exposé se poursuit par la présentation d'outils informatiques flexibles, adaptés à l'étude du modèle cortical ainsi qu'à son enseignement et facilitant la conception de ces méta-systèmes. Quelques exemples illustrent ensuite les attraits pluridisciplinaires de ces outils et mettent en évidence les gains apportés aux temps de développement. Enfin, la dernière partie de cette thèse soulève le problème de l'accélération des simulations et considère des solutions à court ou moyen terme, permettant la réalisation d'applications temps réel
12

Di, Marco Lionel. "Récit d'ingénierie pédagogique en santé à l'usage de l'enseignant connecté Does the acceptance of hybrid learning affect learning approaches in France? Blended Learning for French Health Students: Does Acceptance of a Learning Management System Influence Students’ Self-Efficacy?" Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALS024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contexte. L’objectif général de ce travail de thèse était d’évaluer une méthode pédagogique hybride utilisant un environnement informatique pour l’apprentissage humain (EIAH) dans le cadre de la formation des professionnels de santé. Trois questions de recherche se sont ainsi succédé. L’acceptabilité de l’apprentissage hybride influe-t-elle sur les stratégies et approches d’apprentissage des étudiants ? L’acceptabilité d’un EIAH influe-t-elle sur le sentiment d’auto-efficacité des étudiants ? Quelles caractéristiques d’un cours dématérialisé fait varier l’attention des étudiants ?Matériels & Méthodes. Deux études observationnelles quantitatives ont été réalisées, ainsi qu’une expérimentation observationnelle en simple insu couplée à une analyse qualitative, auprès de différentes promotions d’étudiants sages-femmes de l’UFR de Médecine de l’université Grenoble-Alpes.Résultats. Les étudiants ont des approches et stratégies d’apprentissage adaptées malgré l’utilisation d’une méthode pédagogique hybride qu’ils rejettent ; il n’existe pas de corrélation entre une mauvaise acceptabilité de l’EIAH et différentes sphères du sentiment d’auto-efficacité des étudiants ; enfin la variabilité d’attention déclarée par les étudiants varie selon certains facteurs communs à ceux détectés par une intelligence artificielle (type de langage, durée des diapositives…).Discussion. Les validités interne et externe de ces travaux permettent de mettre en avant les liens étroits entre intérêt, motivation, engagement par identification et attention. Il est ainsi possible de proposer des principes d’ingénierie pédagogique en santé dans le cadre de la création des cours dématérialisés axés sur le contenu, la forme et le type de capsule de connaissances. Finalement, l’enseignant en santé doit surtout être « connecté » aux étudiants, pour que les évolutions techniques s’adaptent à ses besoins
Background. The general objective of this thesis was to evaluate a hybrid pedagogical method using an integrated learning environment (ILE) in the training of health professionals. Three research questions followed one after the other. Does the acceptability of blended learning affect students' learning strategies and learning approaches? Does the acceptability of an ILE affect students' self-efficacy? What characteristics of a dematerialised course make students' attention variable?Materials & Methods. We carried out 2 quantitative observational studies, as well as a single-blind observational experiment coupled with a qualitative analysis, with different classes of midwifery students of Grenoble-Alpes University Faculty of Medicine.Results. Students have suited learning approaches and strategies despite the use of a hybrid teaching method which they reject; there is no correlation between poor acceptability of the ILE and different spheres of students' self-efficacy; and the variability of attention declared by students varies according to certain factors common to those detected by artificial intelligence (type of language, slide duration…).Discussion. The internal and external validities of this work highlight the close links between interest, motivation, engagement by identification, and attention. It is thus possible to put forward principles of pedagogical engineering in health within the framework of dematerialized courses focusing on the content, form and type of knowledge capsule. Finally, the health teacher must above all be “connected to” the students, so that technical developments can be adapted to their needs
13

Nou, Julien. "Gestion optimale de l'énergie thermique dans un procédé hybride : solaire/géothermie pour le chauffage de bâtiments." Phd thesis, Université de Perpignan, 2011. http://tel.archives-ouvertes.fr/tel-00756810.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les enjeux environnementaux, énergétiques et économiques actuels, nous amènent à proposer de nouvelles solutions de gestion énergétique afin d'éviter d'entrer dans une ère de récession énergétique brutale. À partir des constats établis par les institutions mondiales, telles que le GIEC, il est aujourd'hui admis par la communauté scientifique internationale, que la température moyenne de la Terre est en augmentation et que l'activité anthropique en est une des causes, sinon la plus importante. Les travaux réalisés et présentés dans ce manuscrit visent à répondre, en partie, à ces problématiques par la mise en place d'un système de contrôle supervisé permettant l'optimisation de la gestion énergétique d'un procédé hybride alliant l'énergie solaire à la géothermie, et destiné au chauffage dans le secteur du bâtiment. L'utilisation des méthodologies de l'intelligence artificielles telles que le neuroflou et la logique floue nous a permis de développer une plateforme de simulation d'un système énergétique hybride et d'en réaliser la gestion à l'aide de contrôleurs flous. Les résultats obtenus, par l'utilisation de ces contrôleurs, montrent qu'un choix judicieux des périodes et durées de marche du système d'extraction permet d'améliorer de façon significative le fonctionnement du procédé. La consommation électrique et le coût de fonctionnement de l'installation sont donc diminués, tout en respectant les contraintes techniques de fonctionnement et le confort thermique des habitants.
14

Lambert, Tony. "Hybridation de méthodes complètes et incomplètes pour la résolution de CSP." Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00130790.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'hybridation des mécanismes de méthodes incomplètes et des techniques de programmation par contraintes est souvent basée sur des combinaisons de type maître-esclave, dédiées à la résolution de classes de problèmes spécifiques. Dans cette thèse, nous nous intéressons à la définition d'un modèle théorique uniforme, basé sur les itérations chaotiques de K.R. Apt qui définissent un cadre mathématique pour l'itération d'un ensemble fini de fonctions sur des domaines abstraits munis d'un ordre partiel. Ce cadre permet
de prendre en compte une hybridation entre les méthodes incomplètes et les méthodes complètes. Dans ce contexte, la résolution s'apparente à un calcul de point fixe d'un ensemble de fonctions de réductions spécifiques. Notre cadre générique permet alors d'envisager des stratégies de combinaisons et d'hybridation de manière plus fine et d'étudier leurs propriétés. Nous avons employé un cadre général approprié pour modéliser la résolution des problèmes d'optimisation et nous présentons des résultats
expérimentaux qui mettent en avant les atouts de telles
combinaisons en regard d'une utilisation indépendante des techniques de résolution.
15

Xu, Jin. "Un modèle multi-agent distribué et hybride pour la planification du transport à la demande temps réel." Phd thesis, INSA de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00558769.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant ces dernières années, la congestion du trafic urbain et la pollution de l'air sont devenus d'énormes problèmes dans de nombreuses villes dans le monde. Afin de réduire cette congestion, nous pouvons investir dans l'amélioration des infrastructures de la ville. Toutefois, cette solution reste très coûteuse à entreprendre et de ne permet pas de réduire la pollution de l'air. C'est pourquoi nous travaillons sur la mobilité intelligente afin de disposer d'une meilleure utilisation de la voiture. L'application de nouvelles technologies de l'information, tels que les systèmes multi-agents appliqués au contrôle de l'information de la circulation urbaine, a permis de créer et de déployer une gestion plus intelligente du trafic comme le système DRT (transport à la demande). L'objectif des systèmes multi-agents basés sur le DRT est de gérer les taxis de manière intelligente, afin d'accroître le nombre de passagers dans chaque véhicule, et en même temps à réduire le nombre de véhicules dans les rues. Cela permettra de réduire les émissions de CO2 et la pollution de l'air causée par les véhicules, ainsi que la congestion du trafic et les coûts financiers associés. La simulation multi-agents est considérée comme un outil efficace pour les services dynamiques urbains de la circulation. Toutefois, le principal problème est de savoir comment construire un agent à base de modèle pour cette problématique. Ces travaux de recherche présente une solution basée sur les systèmes multi-agents réactifs pour la problématique du transport à la demande (DRT), qui adopte une approche multi-agent de planification urbaine en utilisant des services de contrôle qui satisfont aux principales contraintes : réduction de la période totale creuse, demandes spéciales du client, augmentation du nombre de places utilisées dans un même taxi, utilisation du nombre minimal de véhicules, etc. Dans cette thèse, nous proposons un modèle multi-agents multicouche hybride distribué pour des problématiques en temps réel. Dans la méthode proposée, un agent pour chaque véhicule trouve un ensemble de routes pour sa recherche locale, et choisit un itinéraire en coopérant avec d'autres agents se trouvant dans son domaine de planification. Nous avons examiné expérimentalement, l'efficacité de la méthode proposée.
16

Correa, e. Silva Fernandes Kelly Christine. "Systèmes multi-agents hybrides : une approche pour la conception de systèmes complexes." Université Joseph Fourier (Grenoble ; 1971-2015), 2001. http://www.theses.fr/2001GRE10121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente une approche multi-agent qui vise a ameliorer le processus de conception de systemes complexes qui imposent la fusion des resolutions par les buts et par les donnees. Ces systemes necessitent la cooperation de taches et de connaissances heterogenes travaillant a differents niveaux d'abstraction. La representation de tels systemes complexes est realisee a partir d'un systeme hybride qui reunit des parties cognitives et des parties reactives. Chaque partie du systeme hybride est modelisee comme etant un systeme multi-agent, ou le niveau de la granularite varie de systeme a systeme. Ensuite, ces systemes multi-agent heterogenes sont reunis dans un seul systeme multi-agent appele multi mas system (mmass). La problematique qui emerge est donc de faire interagir les parties heterogenes du systeme hybride, c'est a dire les differents systemes multi-agent existants dans le mmass. La solution proposee pour le mmass est de construire un troisieme sma qui se chargera de l'interoperabilite en assurant l'organisation des agents reactifs et l'efficacite du flux de controle. Le modele utilise pour accomplir cette tache est appele morisma (modele recursif d'interaction entre systemes multi-agent). Il utilise des agents hybrides pour representer les organisations des agents de la societe reactive qui sont places sur differents niveaux d'abstraction. Nous avons implemente le modele morisma avec ses fonctions et mecanismes dynamiques en utilisant la programmation oriente-object java 1. 2. Trois types d'applications ont ete envisages : un simple exemple type jouet, une ebauche du systeme de simulation d'incendies de forets, et enfin, le modele mmass a ete utilise, dans le systeme de generalisation de cartes du projet agent (automated generalisation new technology - projet esprit ltr 24939), en respectant les contraintes du domaine cartographique.
17

Gandibleux, Xavier. "Système d'aide à la décision pour la conduite de processus perturbés ; une approche hybride fondée sur l'intelligence artificielle, la programmation linéaire et l'aide multicritère à la décision : application à la mobilisation de réserve tertiaire d'électricité de France." Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/0a927862-e635-4e55-8aa3-955a2086752f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail concerne les systèmes d'aide à la décision pour la conduite de processus industriels continus perturbés dans leur fonctionnement. A cette fin, l'activité décisionnelle développée par l'operateur de conduite durant la reprise du défaut y est étudiée. Des problèmes comportant un caractère imprévisible, combinatoire et multicritère sont soulevés. Ainsi dans ce travail, nous envisageons des moyens d'assistance à l'operateur conçus autour d'une structuration cohérente de son activité décisionnelle, relativement aux enjeux des différentes phases du processus de reprise de défaut. Ces travaux sont menés à la lumière d'un problème rencontre au niveau de la conduite de la production nationale d'électricité. Pour résoudre les problèmes rencontrés, notre approche prend appui sur l'exploitation d'un savoir-faire humain et de modèles numériques. Nous proposons quatre modèles originaux basés conjointement sur les concepts de l'intelligence artificielle (systématisation du savoir-faire de l'operateur humain en un système à base de connaissances) et de la recherche opérationnelle (modèles d'aide basés sur une méthode de descente, sur un programme linéaire en nombres entiers et sur une procédure multicritère interactive de points références faisant usage d'éléments graphiques visuels). En accord avec le principe de la coopération homme-machine verticale active, l'approche conjugue automatisations avec recommandations, interactions et dialogues homme-machine. Elle a conduit à la réalisation d'un Système Interactif d'Aide à la Conduite intégré à CASTART, une plateforme d'expérimentation simulant l'environnement de conduite de la production nationale française d'électricité, lors d'une situation de mobilisation de réserve tertiaire
18

Père, Valentin. "Contributions au contrôle et au dimensionnement des micro-réseaux par apprentissage par renforcement : application aux systèmes avec production renouvelable et stockage hybride batterie-hydrogène." Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2023. http://www.theses.fr/2023EMAC0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le couplage de panneaux photovoltaïques avec une batterie électrochimique permet d'atténuer le déphasage journalier entre production et demande d'électricité dans un micro-réseau. Pour le stockage d'électricité à long-terme, l'utilisation conjointe d'un électrolyseur, d'un stockage hydrogène et d'une pile à combustible offre en principe la possibilité de conserver l'électricité produite en été pour les besoins accrus de l'hiver. Le contrôle optimal en temps réel des unités de stockage des micro-réseaux est entravé par les données aléatoires et le comportement dynamique non-linéaire des unités sur des horizons temporels longs. Ce travail présente une méthodologie de dimensionnement et pilotage d'un micro-réseau comprenant une production d'électricité photovoltaïque, une batterie lithium-ion et un stockage hydrogène selon des objectifs économiques, environnementaux et techniques. Le dimensionnement des unités d'un micro-réseau établit leurs contraintes d'utilisation, tandis que les critères à optimiser pour son dimensionnement (comme le coût de l'énergie, le taux d'autoconsommation, la probabilité de pannes) dépendent de la gestion de ces unités. Cette interdépendance justifie le développement d'une méthodologie de dimensionnement couplée au contrôle à long-terme du micro-réseau. La gestion d'un micro-réseau est influencée par des grandeurs aléatoires telles que la demande et l'énergie produite à chaque instant. L'apprentissage par renforcement est une méthodologie de prise de décision séquentielle s'appuyant sur un modèle dynamique du système et pouvant adapter sa stratégie à des données aléatoires. Dans un premier temps, une méthodologie de contrôle par apprentissage par renforcement est adoptée en intégrant des non-linéarités telles que le vieillissement du système de stockage. L'apprentissage par renforcement a permis de maintenir une politique de contrôle des unités efficace au regard des critères ciblés. Cette efficacité est maintenue malgré des données différentes et un horizon temporel plus long que ceux sur lesquels le modèle a été construit. Les stratégies de contrôle développées suggèrent que l'intérêt du stockage à long-terme de l'électricité dépend des caractéristiques du micro-réseau et en particulier de l'amplitude de la demande et de la capacité de la batterie. L'étude montre qu'un compromis doit être trouvé entre la rentabilité économique du micro-réseau et la garantie de son autonomie. Une méthode d'optimisation bi-niveaux est développée afin de parvenir à un dimensionnement des équipements avec contrôle optimal. La gestion du micro-réseau par apprentissage par renforcement en constitue la boucle interne, tandis que le dimensionnement des unités est réalisé via un algorithme de recuit-simulé dans la boucle principale. Une attention particulière est accordée à la minimisation du temps de calcul, grâce au développement d'une méthode de transfert de politique de contrôle d'une itération de la boucle principale à une autre. L'utilisation de l'apprentissage par renforcement hors ligne a permis d'apprendre des stratégies de contrôle des unités sans interaction aléatoire avec la simulation du micro-réseau. L'apprentissage des stratégies s'effectue selon l'observation des décisions de contrôle prises par un modèle entraîné sur d'autres dimensionnements à des itérations antérieures. Le temps de calcul est plus de deux fois plus court et la qualité de la politique de contrôle apprise n'est pas affectée. Les résultats sont analysés au regard des objectifs considérés, de la stratégie de contrôle et des données intégrées à la simulation du micro-réseau
Combining photovoltaic panels with an electrochemical battery reduces the daily phase difference between electricity production and demand in a microgrid. For long-term electricity storage, the combined use of an electrolyzer, hydrogen storage and a fuel cell offers the possibility of conserving electricity produced in summer to meet increased winter demand. Optimal real-time control of microgrid storage units is hampered by random data and the non-linear dynamic behavior of the units over long time horizons. This work presents a methodology for sizing and controlling a microgrid comprising photovoltaic electricity production, a lithium-ion battery and hydrogen storage, based on economic, environmental and technical objectives. The sizing of the units in a microgrid establishes their constraints of use, while the criteria to be optimized for its sizing (such as the cost of energy, the rate of self-consumption, the probability of breakdowns) depend on the management of these units. This interdependence justifies the development of a sizing methodology coupled with long-term energy management algorithm. The management of a microgrid is influenced by random variables such as demand and the energy produced at any given time. Reinforcement learning is a sequential decision-making methodology based on a dynamic model of the system that can adapt its strategy to random data. As a first step, a reinforcement learning control methodology is adopted by integrating non-linearities such as the aging of the storage system. Reinforcement learning enabled the energy management system to maintain an effective unit control policy with respect to the targeted criteria. This effectiveness is maintained despite different data and a longer time horizon than those on which the model was built. The control strategies developed suggest that the advantages of long-term electricity storage depend on the characteristics of the microgrid, and in particular on the amplitude of demand and the capacity of the battery. The study shows that a compromise must be found between the economic profitability of the microgrid and the guarantee of its autonomy. A bi-level optimization method is developed to achieve optimal unit sizing and energy management. The control of the microgrid by reinforcement learning forms the inner loop, while unit sizing is carried out using a simulated-annealing algorithm in the main loop. Particular attention is paid to minimizing computing time, by developing a method for transferring control policy from one iteration of the main loop to another. Offline reinforcement learning has been used to learn unit control strategies without random interaction with the microgrid simulation. The strategies are learned by observing the control decisions made by a model trained on other sizing in previous iterations. The calculation time is reduces by over 50% and the quality of the control policy learned is not affected. The results are analyzed in regard to the objectives considered, the control strategy and the data incorporated into the microgrid simulation
19

Benkirane, Fatima Ezzahra. "Integration of contextual knowledge in deep Learning modeling for vision-based scene analysis." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCA002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vision par ordinateur a connu une évolution importante, passant des méthodes traditionnelles aux modèles d'apprentissage profond. L’un des principaux objectifs des tâches de vision par ordinateur est d’émuler la perception humaine. En effet, le processus classique effectué par les modèles d’apprentissage profond dépend entièrement des caractéristiques visuelles, reflétant simplement la manière dont les humains perçoivent visuellement leur environnement. Cependant, pour que les humains comprennent l’environnement qui les entoure, leur raisonnement dépend non seulement de leurs capacités visuelles, mais aussi de leurs connaissances pré-acquises. Combler cette différence entre la perception humaine et celle des machines est essentielle afin de parvenir à un raisonnement similaire à celui des humains. Dans cette thèse, nous proposons de nouvelles approches pour améliorer les performances des modèles d’apprentissage profond en intégrant les systèmes basés sur les connaissances dans les réseaux de neuronaux profonds. L'objectif est d’aider ces réseaux à prendre les bonnes décisions en exploitant à la fois les caractéristiques visuelles et les connaissances pour émuler l’analyse visuelle de l’être humain. Ces méthodologies impliquent deux axes principaux. Premièrement, définir la représentation des connaissances pour incorporer des informations utiles à une tâche spécifique de vision. Deuxièmement, examiner comment intégrer ces connaissances dans les réseaux de neurones pour améliorer leurs performances. La première contribution porte sur l'estimation de la profondeur monoculaire. En effet, les humains sont capables d'estimer leur distance par rapport aux objets perçus, même en n’utilisant qu’un seul œil, et ceci en se basant sur les indices monoculaires. Nous proposons d'intégrer ces indices au sein des réseaux de neurones comme un raisonnement similaire à celui des humains pour l'estimation de la profondeur. À cette fin, nous suggérons d'exploiter un modèle ontologique pour représenter l'environnement comme un ensemble de concepts liés par des relations sémantiques. Les informations sur les indices monoculaires sont extraites grâce à un raisonnement effectué sur l'ontologie proposée et sont transférées dans les réseaux de neurones. Le deuxième travail porte sur la tâche de segmentation panoptique qui vise à identifier toutes les instances d’objets capturées dans une image. Nous proposons une approche qui combine les avantages des réseaux de neurones avec des connaissances sur les relations spatiales entre les objets. Nous avons choisi ce type de connaissances car elles peuvent fournir des indices utiles pour résoudre les ambiguïtés et distinguer entre les instances d'objets similaires. Plus précisément, nous proposons une stratégie d'entraînement qui intègre les connaissances dans le processus d'optimisation des réseaux de neurones. L’approche comprend un processus d'extraction et de représentation des connaissances sur les relations spatiales, qui sont incorporées dans l’entraînement sous forme d'une fonction de perte. Afin de valider l'efficacité des approches proposées, nous avons choisi l'environnement urbain et les véhicules autonomes comme principale cas d’application. Ce domaine est particulièrement intéressant car il s'agit d'un axe de recherche novateur en développement continu, avec des implications significatives pour la sécurité et la mobilité des humains. En conclusion, nous avons étudié diverses approches pour représenter les connaissances et les intégrer aux réseaux de neurones. Ces approches valident que l’utilisation combinée de méthodes basées sur les connaissances et celles basées sur les données conduit de manière constante à des résultats améliorés. Le défi principal réside toujours dans le choix des connaissances pertinentes pour chaque tâche, leur représentation et leur intégration de la manière la plus optimale dans l'architecture des réseaus de neurones profonds
Computer vision has made an important evolution starting from traditional methods to advanced Deep Learning (DL) models. One of the goals of computer vision tasks is to effectively emulate human perception. The classical process of DL models is completely dependent on visual features, which only reflects how humans visually perceive their surroundings. However, for humans to comprehensively understand their environment, their reasoning not only depends on what they see but also on their pre-acquired knowledge. Addressing this gap is essential as achieving human-like reasoning requires a seamless combination of data-driven and knowledge-driven methods. In this thesis, we propose new approaches to improve the performance of DL models by integrating Knowledge-Based Systems (KBS) within Deep Neural Networks (DNNs). The goal is to empower these networks to make informed decisions by leveraging both visual features and knowledge to emulate human-like visual analysis. These methodologies involve two main axes. First, define the representation of KBS to incorporate useful information for a specific computer vision task. Second, investigate how to integrate this knowledge into DNNs to enhance their performance. To do so, we worked on two main contributions. The first work focuses on monocular depth estimation. Considering humans as an example, they can estimate their distance with respect to seen objects, even using just one eye, based on what is called monocular cues. Our contribution involves integrating these monocular cues as human-like reasoning for monocular depth estimation within DNNs. For this purpose, we investigate the possibility of directly integrating geometric and semantic information into the monocular depth estimation process. We suggest using an ontology model in a DL context to represent the environment as a structured set of concepts linked with semantic relationships. Monocular cues information is extracted through reasoning performed on the proposed ontology and is fed together with the RGB image in a multi-stream way into the DNNs. Our approach is validated and evaluated on widespread benchmark datasets. The second work focuses on panoptic segmentation task that aims to identify and analyze all objects captured in an image. More precisely, we propose a new informed deep learning approach that combines the strengths of DNNs with some additional knowledge about spatial relationships between objects. We have chosen spatial relationships knowledge for this task because it can provide useful cues for resolving ambiguities, distinguishing between overlapping or similar object instances, and capturing the holistic structure of the scene. More precisely, we propose a novel training methodology that integrates knowledge directly into the DNNs optimization process. Our approach includes a process for extracting and representing spatial relationships knowledge, which is incorporated into the training using a specially designed loss function. The performance of the proposed method was also evaluated on various challenging datasets. To validate the effectiveness of the proposed approaches for combining KBS and DNNs regarding different methodologies, we have chosen the urban environment and autonomous vehicles as our main use case application. This domain is particularly interesting because it is a challenging and novel field in continuous development, with significant implications for the safety, comfort and mobility of humans. As a conclusion, the proposed approaches validate that the integration of knowledge-driven and data-driven methods consistently leads to improved results. Integration improves the learning process for DNNs and enhances results of computer vision tasks, providing more accurate predictions. The challenge always lies in choosing the relevant knowledge for each task, representing it in the best structure to leverage meaningful information, and integrating it most optimally into the DNN architecture
20

Mokhtari, Aimed. "Diagnostic des systèmes hybrides : développement d'une méthode associant la détection par classification et la simulation dynamique." Phd thesis, INSA de Toulouse, 2007. http://tel.archives-ouvertes.fr/tel-00200034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'inscrit dans le domaine du diagnostic des systèmes hybrides et est basé sur l'utilisation d'un modèle. Il a pour objectif de diagnostiquer les fautes à partir de la connaissance structurelle, comportementale ou fonctionnelle du système en représentant ces connaissances (modèle du système) séparément de la connaissance sur la tâche de diagnostic. Les systèmes hybrides incluent à la fois des variables continues et discrètes. La dynamique continue est généralement fournie par des équations différentielles et algébriques alors que la partie discrète est modélisée par des automates ou des systèmes à transition. Le formalisme adopté dans ce travail pour modéliser ces systèmes s'appuie sur le modèle " Réseau de Petri Différentiel à Objet " (RdPDO) qui est intégré dans la plate forme de simulation PrODHyS (Process Object Dynamic Hybrid Simulator). Il possède l'avantage de prendre en compte le comportement hybride d'une part, en associant les variables continues aux jetons et d'autre part, en associant un système algébro-différentiel aux places permettant de faire évoluer les variables d'état continues. La méthodologie de diagnostic proposée s'effectue en deux étapes. La première étape consiste à détecter à l'aide d'une classification floue, des fautes qui présentent les mêmes symptômes - à partir d'une connaissance préalable des états de défaillance obtenue par apprentissage - afin de réduire les chemins ou les scénarios à explorer lors de la seconde phase. Cette dernière sert à diagnostiquer la faute parmi celles détectées à l'étape précédente en levant l'ambiguïté. Pour ce faire, deux raisonnements ont été suivis. Le premier, qualifié de raisonnement avant, consiste à former pour chaque faute incriminée, un critère d'écarts entre les mesures effectuées sur le système et celles émanant du modèle avec la faute simulée, sur une fenêtre temporelle et d'isoler ainsi la faute aboutissant au critère le plus faible. Le second raisonnement qualifié de raisonne ment arrière, effectue des calculs similaires mais sur l'évolution temporelle passée du système par une simulation arrière effectuée avec PrODHys, offrant la possibilité supplémentaire par rapport au premier raisonnement de remonter à l'instant de la défaillance. La méthodologie développée est illustrée sur un système hydraulique souvent utilisé comme " benchmark ". Comme nous ne disposons pas d'un système réel, celui-ci est simulé à l'aide d'un modèle de simulation de type RdPDO qui cette fois-ci contient les états de défaillances et des différences (bruits, erreurs de modélisation) par rapport au modèle utilisé pour le diagnostic.
21

Sauvage-Vincent, Julie. "Un langage contrôlé pour les instructions nautiques du Service Hydographique et Océanographique de la Marine." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les langages contrôlés sont des langages artificiellement définis utilisant un sous-ensemble du vocabulaire, des formes morphologiques, des constructions syntaxiques d'une langue naturelle tout en en éliminant la polysémie. En quelque sorte, ils constituent le pont entre les langages formels et les langues naturelles. De ce fait, ils remplissent la fonction de communication du médium texte tout en étant rigoureux et analysables par la machine sans ambiguïté. En particulier, ils peuvent être utilisés pour faciliter l'alimentation de bases de connaissances, dans le cadre d'une interface homme-machine.Le Service Hydrographique et Océanographique de la Marine (SHOM) publie depuis 1971 les Instructions nautiques, des recueils de renseignements généraux, nautiques et réglementaires, destinés aux navigateurs. Ces ouvrages complètent les cartes marines. Elles sont obligatoires à bord des navires de commerce et de pêche. D'autre part, l'Organisation Hydrographique Internationale (OHI) a publié des normes spécifiant l'échange de données liées à la navigation et notamment un modèle universel de données hydrographiques (norme S-100, janvier 2010). Cette thèse se propose d'étudier l'utilisation d'un langage contrôlé pour représenter des connaissances contenues dans les Instructions nautiques, dans le but de servir de pivot entre la rédaction du texte par l'opérateur dédié, la production de l'ouvrage imprimé ou en ligne, et l'interaction avec des bases de connaissances et des outils d'aide à la navigation. En particulier on étudiera l'interaction entre le langage contrôlé des Instructions nautiques et les cartes électroniques correspondantes. Plus généralement, cette thèse se pose la question de l'évolution d'un langage contrôlé et des ontologies sous-jacentes dans le cadre d'une application comme les Instructions nautiques, qui ont la particularité d'avoir des aspects rigides (données numériques, cartes électroniques, législation) et des aspects nécessitant une certaine flexibilité (rédaction du texte par des opérateurs humains, imprévisibilité du type de connaissance à inclure par l'évolution des usages et des besoins des navigants). De manière similaire aux ontologies dynamiques que l'on rencontre dans certains domaines de connaissance, on définit ici un langage contrôlé dynamique. Le langage contrôlé décrit dans cette thèse constitue une contribution intéressante pour la communauté concernée puisqu'il touche au domaine maritime, domaine encore inexploité dans l'étude des langages contrôlés, mais aussi parce qu'il présente un aspect hybride, prenant en compte les multiples modes (textuel et visuel) présents dans le corpus constitué par les Instructions nautiques et les documents qu'elles accompagnent. Bien que créé pour le domaine de la navigation maritime, les mécanismes du langage contrôlé présentés dans cette thèse ont le potentiel pour être adaptés à d'autres domaines utilisant des corpus multimodaux. Enfin, les perspectives d'évolution pour un langage contrôlé hybride sont importantes puisqu'elles peuvent exploiter les différents avantages des modes en présence (par exemple, une exploitation de l'aspect visuel pour une extension 3D)
Controlled Natural Languages (CNL) are artificial languages that use a subset of the vocabulary, morphological forms and syntactical constructions of a natural language while eliminating its polysemy. In a way, they constitute the bridge between formal languages and natural languages. Therefore, they perform the communicative function of the textual mode while being precise and computable by the machine without any ambiguity. In particular, they can be used to facilitate the population or update of knowledge bases within the framework of a human-machine interface.Since 1971, the French Marine Hydrographic and Oceanographic Service (SHOM) issues the French Coast Pilot Books Instructions nautiques , collections of general, nautical and statutory information, intended for use by sailors. These publications aim to supplement charts, in the sense that they provide the mariner with supplemental information not in the chart. They are mandatory for fishing and commercial ships. On the other hand, the International Hydrographic Organization (IHO) issued standards providing information about navigational data exchange. Among these standards, one of a particular interest is the universal model of hydrographic data (S-100 standard, January, 2010).This thesis analyses the use of a CNL to represent knowledge contained in the Instructions nautiques. This CNL purpose is to act as a pivot between the writing of the text by the dedicated operator, the production of the printed or online publication, and the interaction with knowledge bases and navigational aid tools. We will focus especially on the interaction between the Instructions nautiques Controlled Natural Language and the corresponding Electronic Navigational Charts (ENC).More generally, this thesis asks the question of the evolution of a CNL and the underlying ontologies involved in the Instructions nautiques project. Instructions nautiques have the particularity of combining both strictness (numerical data, electronic charts, legislation) and a certain amount of flexibility (text writing by human operators, unpredictability of the knowledge to be included due to the evolution of sailors¿ practices and needs). We define in this thesis a dynamic CNL in the same way that dynamic ontologies are defined in particular domains. The language described in this thesis is intended as an interesting contribution for the community involved in CNL. Indeed, it addresses the creation of a CNL for the unexploited domain of maritime navigation, but its hybrid aspects as well through the exploration of the multiple modalities (textual and visual) coexisting in a corpus comprising ENC and their companion texts. The mechanisms of the CNL presented in this thesis, although developed for the domain of the maritime navigation, have the potential to be adapted to other domains using multimodal corpuses. Finally, the benefits in the future of a controlled hybrid language are undeniable: the use of the different modalities in their full potential can be used in many different applications (for example, the exploitation of the visual modality for a 3D extension)
22

Szczepanski, Nicolas. "SAT en Parallèle." Thesis, Artois, 2017. http://www.theses.fr/2017ARTO0403/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse porte sur la résolution des problèmes de satisfaisabilité booléenne (SAT) dans un cadre massivement parallèle. Le problème SAT est largement utilisé pour résoudre des problèmes combinatoires de première importance comme la vérification formelle de matériels et de logiciels, la bio-informatique, la cryptographie, la planification et l’ordonnancement de tâches. Plusieurs contributions sont apportées dans cette thèse. Elles vont de la conception d’algorithmes basés sur les approches « portfolio » et « diviser pour mieux régner », à l’adaptation de modèles de programmation parallèle, notamment hybride (destinés à des architectures à mémoire partagée et distribuée), à SAT, en passant par l’amélioration des stratégies de résolution. Ce travail de thèse a donné lieu à plusieurs contributions dans des conférences internationales du domaine ainsi qu’à plusieurs outils (open sources) de résolution des problèmes SAT, compétitifs au niveau international
This thesis deals with propositional satisfiability (SAT) in a massively parallel setting. The SAT problem is widely used for solving several combinatorial problems (e.g. formal verification of hardware and software, bioinformatics, cryptography, planning, scheduling, etc.). The first contribution of this thesis concerns the design of efficient algorithms based on the approaches « portfolio » and « divide and conquer ». Secondly, an adaptation of several parallel programming models including hybrid (parallel and distributed computing) to SAT is proposed. This work has led to several contributions to international conferences and highly competitive distributed SAT solvers
23

Hessami, Mohammad Hessam. "Modélisation multi-échelle et hybride des maladies contagieuses : vers le développement de nouveaux outils de simulation pour contrôler les épidémies." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les études théoriques en épidémiologie utilisent principalement des équations différentielles pour étudier (voire tenter de prévoir) les processus infectieux liés aux maladies contagieuses, souvent sous des hypothèses peu réalistes (ex: des populations spatialement homogènes). Cependant ces modèles ne sont pas bien adaptés pour étudier les processus épidémiologiques à différentes échelles et ils ne sont pas efficaces pour prédire correctement les épidémies. De tels modèles devraient notamment être liés à la structure sociale et spatiale des populations. Dans cette thèse, nous proposons un ensemble de nouveaux modèles dans lesquels différents niveaux de spatialité (par exemple la structure locale de la population, en particulier la dynamique de groupe, la distribution spatiale des individus dans l'environnement, le rôle des personnes résistantes, etc.) sont pris en compte pour expliquer et prédire la façon dont des maladies transmissibles se développent et se répandent à différentes échelles, même à l'échelle de grandes populations. La manière dont les modèles que nous avons développé sont paramétrés leur permet en outre d'être reliés entre eux pour bien décrire en même temps le processus épidémiologique à grande échelle (population d'une grande ville, pays ...) mais avec précision dans des zones de surface limitée (immeubles de bureaux, des écoles). Nous sommes d'abord parvenus à inclure la notion de groupes dans des systèmes d'équations différentielles de modèles SIR (susceptibles, infectés, résistants) par une réécriture des dynamiques de population s'inspirant des réactions enzymatiques avec inhibition non compétitive : les groupes (une forme de complexe) se forment avec des compositions différentes en individus S, I et R, et les individus R se comportent ici comme des inhibiteurs non compétitifs. Nous avons ensuite couplé de tels modèles SIR avec la dynamique globale des groupes simulée par des algorithmes stochastiques dans un espace homogène, ou avec les dynamiques de groupe émergentes obtenues dans des systèmes multi-agents. Comme nos modèles fournissent de l'information bien détaillée à différentes échelles (c'est-à-dire une résolution microscopique en temps, en espace et en population), nous pouvons proposer une analyse de criticité des processus épidémiologiques. Nous pensons en effet que les maladies dans un environnement social et spatial donné présentent des signatures caractéristiques et que de telles mesures pourraient permettre l'identification des facteurs qui modifient leur dynamique.Nous visons ainsi à extraire l'essence des systèmes épidémiologiques réels en utilisant différents modèles mathématique et numériques. Comme nos modèles peuvent prendre en compte les comportements individuels et les dynamiques de population, ils sont en mesure d'utiliser des informations provenant du BigData, collectée par les technologies des réseaux mobiles et sociaux. Un objectif à long terme de ce travail est d'utiliser de tels modèles comme de nouveaux outils pour réduire les épidémies en guidant les rythmes et organisation humaines, par exemple en proposant de nouvelles architectures et en changeant les comportements pour limiter les propagations épidémiques
Theoretical studies in epidemiology mainly use differential equations, often under unrealistic assumptions (e.g. spatially homogeneous populations), to study the development and spreading of contagious diseases. Such models are not, however, well adapted understanding epidemiological processes at different scales, nor are they efficient for correctly predicting epidemics. Yet, such models should be closely related to the social and spatial structure of populations. In the present thesis, we propose a series of new models in which different levels of spatiality (e.g. local structure of population, in particular group dynamics, spatial distribution of individuals in the environment, role of resistant people, etc) are taken into account, to explain and predict how communicable diseases develop and spread at different scales, even at the scale of large populations. Furthermore, the manner in which our models are parametrised allow them to be connected together so as to describe the epidemiological process at a large scale (population of a big town, country ...) and with accuracy in limited areas (office buildings, schools) at the same time.We first succeed in including the notion of groups in SIR (Susceptible, Infected, Recovered) differential equation systems by a rewriting of the SIR dynamics in the form of an enzymatic reaction in which group-complexes of different composition in S, I and R individuals form and where R people behave as non-competitive inhibitors. Then, global group dynamics simulated by stochastic algorithms in a homogeneous space, as well emerging ones obtained in multi-agent systems, are coupled to such SIR epidemic models. As our group-based models provide fine-grain information (i.e. microscopical resolution of time, space and population) we propose an analysis of criticality of epidemiological processes. We think that diseases in a given social and spatial environment present characteristic signatures and that such measurements could allow the identification of the factors that modify their dynamics.We aim here to extract the essence of real epidemiological systems by using various methods based on different computer-oriented approaches. As our models can take into account individual behaviours and group dynamics, they are able to use big-data information yielded from smart-phone technologies and social networks. As a long term objective derived from the present work, one can expect good predictions in the development of epidemics, but also a tool to reduce epidemics by guiding new environmental architectures and by changing human health-related behaviours
24

Ben, Saad Seifallah. "Conception d'un algorithme de coordination hybride de groupes de robots sous-marins communicants. Application : acquisition optique systématique et détaillée des fonds marins." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0052/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente l’étude d’une stratégie de coordination hybride d’un groupe de robots sous-marins pour la recherche d’objets de petites dimensions ou de singularités sur les fonds marins. Chaque robot est équipé d’un module de perception utilisant la librairie de traitement d’image OpenCV qui lui permet d’apercevoir les autres éléments de la meute ainsi que l’environnement d’évolution de la mission.Cette stratégie hybride est constituée de deux phases : une phase de mise en formation géométrique et une phase d’acquisition des données vidéo. La première phase s’appuie sur des algorithmes de type "essaims" alors que la seconde se fonde sur une méthode hiérarchique de coordination. En cas de perte de la formation, le groupe de robots quitte le mode hiérarchique et reprend le mode essaim pour se reformer. Ces changements de modes sont contrôlés par une machine à états finis. Avant d’entamer une expérimentation en grandeur nature, la méthodologie et les algorithmes de coordination doivent être testés et validés par simulation.Dans ce contexte, un simulateur basé sur le logiciel Blender a été conçu de façon à ce qu’il tienne compte des différentes contraintes liées à l’évolution des robots dans l’environnement sous-marin. Les résultats de simulation d’une meute de 3 AUVs montrent la capacité de notre stratégie à optimiser l’exécution d’une mission d’acquisition vidéo par un groupe de robots autonomes contrôlés par la vision et coordonnés par une stratégie hybride
In the underwater environment, the needs of data acquisition have significantly increased over the last decades. As electromagnetic waves show poor propagation in sea water, acoustical sensing is generally preferred. However, the emergence of small and low cost autonomous underwater vehicles (AUV) allow for rethinking the underwater use of optical sensors as their small coverage can be significantly improved by using a fleet of coordinated underwater robots.This paper presents a strategy to coordinate the group of robots in order to systematically survey the seabed to detect small objects or singularities. The proposed hybrid coordination strategy is defined by two main modes. The first mode relies on a swarm algorithm to organize the team in geometrical formation. In the second mode, the robot formation is maintained using a hierarchical coordination. A finite state machine controls the high level hybrid strategy by defining the appropriate coordination mode according to the evolution of the mission. Before sea validation, the behavior and the performance of the hybrid coordination strategy are first assessed in simulation. The control of individual robots relies on visual servoing, implemented with the OpenCV library, and the simulation tool is based on Blender software.The dynamics of the robots has been implemented in a realistic way in Blender by using the Bullet solver and the hydrodynamic coeficcients estimated on the actual robot. First results of the hybrid coordination strategy applied on a fleet of 3 AUV’s, show execution of a video acquisition task by a group of autonomous robots controlled by vision and coordinated by a hybrid strategy
25

Jiménez, Jose-Fernando. "Architecture dynamique et hybride pour la reconfiguration optimale des systèmes de contrôle : application au contrôle de fabrication." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0031/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de contrôle des événements discrets ont la possibilité de résoudre les défis importants de la société moderne. En particulier, cela représente une solution fondamentale pour gérer et contrôler les nouvelles avancées technologiques en conformité avec la requis du développement durable. Le paramétrage, la configuration et la prise de décision de ces systèmes de contrôle sont des aspects critiques qui influent sur les performances et la productivité. Les approches d'architecture de contrôle dynamique, telles que les systèmes de contrôle reconfigurables, ont été proposées pour la modélisation de ces systèmes. Cependant, ils n'ont pas réussi à optimiser le processus de reconfiguration car celles-ci se concentrent sur la continuité de l'exécution plutôt que sur l'optimisation de la reconfiguration. Cette dissertation propose une architecture de référence pour un système de contrôle reconfigurable, nommé Pollux, conçu pour gérer et ajuster de manière optimale et en temps réel l'architecture d'un système de contrôle, soit pour guider l'exécution opérationnelle ou répondre à une perturbation du système. En considérant une proposition d'une configuration optimale des architectures de contrôle basées sur la gouvernance partagée, cette approche proposée un système de contrôle reconfigurable compose d’une entité décisionnelle flexible et personnalisable, d’une représentation qui caractérise la configuration unique et la solution de contrôle de l'architecture de contrôle et d’un mécanisme de reconfiguration à trois modules qui intègre les principes basés sur l'optimalité dans la reconfiguration. Notre approche est appliquée dans le domaine de la fabrication et est validée dans une simulation et une cellule réelle de fabrication située à l'Université de Valenciennes, en France. La validation effectuée dans trois scénarios expérimentaux a permis de vérifier les avantages de notre approche et de nous encourager à continuer la recherche
Discrete-event control systems have the opportunity to resolve significant challenges of modern society. In particular, these represent a fundamental solution to manage and control the new technological advances in compliance to the increased consciousness of sustainable development. The parameterization, configuration and decision-making of these control systems are critical aspects that impact the performance and productivity required. Dynamic control architecture approaches, such as reconfigurable control systems, have been proposed for modelling such systems. However, such approaches have failed to address the recovery of the reconfiguration process as these focus on the continuity of execution rather than on the optimisation of the reconfiguration. This dissertation proposes a reference architecture for a reconfigurable control system, named Pollux, designed to manage and adjust optimally and in real time the architecture of a control system, either to guide operational execution or to respond to a system perturbation. Considering a proposed framework of an optimal configuration of control architectures based on shared governance, this proposed approach aims to orchestrate a flexible and customizable decisional entity, a representation that characterize the unique configuration and control solution of the control architecture, and a three-module reconfiguration mechanism that integrates the optimality-based principles into the reconfiguration process, to ensure a recovery of global performance and/or minimise the degradation caused by perturbations. Our approach is applied in the manufacturing domain and is validated in a simulation and a real flexible manufacturing system cell located at the University of Valenciennes, France. The validation conducted in three experimental scenarios verified the benefits of our approach and encourage us to continue research in this direction
26

Orsier, Bruno. "Etude et application de systèmes hybrides neurosymboliques." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis environ cinq ans, les systèmes hybrides neurosymboliques (SHNS) combinent réseaux de neurones artificiels et systèmes symboliques (systèmes à base de connaissances), dans le but de profiter de leurs points forts respectifs. Nous présentons une taxonomie des nombreux SHNS existants, selon deux points de vue, le degré de couplage (faible, étroit, fort) et le type d'interactions (pré/post-traitement, sous-traitance, coopération, méta-traitement). La taxonomie comprend aussi deux approches moins hybrides de l'intégration des caractéristiques des réseaux de neurones et des systèmes symboliques, l'approche purement neuronale et celle fondée sur des traductions. Nous étudions ensuite un SHNS existant, SYNHESYS, et examinons ses possibilités d'application en micro-électronique et en géographie alpine. Puis nous proposons une nouvelle architecture hybride, NESSY3L, et son application au pilotage réactif d'un robot mobile. L'architecture comporte trois niveaux coopérants, neuronal pur, neurosymbolique, symbolique pur, et a été intégrée dans le simulateur de robot MOLUSC. Cette architecture offre des perspectives intéressantes pour les SHNS, dont la prise en compte du temps, le développement de mécanismes inter-niveaux et l'évolution vers un couplage fort, l'utilisation d'idées provenant des autres approches de l'intégration neurosymbolique.
27

Massucci, Louis. "Théorie de l’apprentissage et identification des systèmes dynamiques hybrides." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'application de la théorie statistique de l'apprentissage pour l'identification de systèmes dynamiques hybrides. La théorie de l'apprentissage permet d'obtenir des garanties statistiques sur la précision de modèles et ce pour un nombre de données fini. Ici, en étendant son cadre d'application à celui des systèmes dynamiques, on propose de nouvelles solutions pour l'identification des systèmes hybrides. En effet une nouvelle borne sur l'erreur de généralisation valide pour l'identification des systèmes à commutation arbitraire est obtenue, et son utilisation donne lieu à une nouvelle méthode de sélection de modèle pour l'estimation du nombre de sous-modèles des systèmes hybrides. La borne est adaptée pour différents scénarios de régularisation, et de nouveaux algorithmes d'optimisation prenant en compte ces différents scénarios sont proposés. Cette nouvelle méthode d'estimation du nombre de modes est confrontée à d'autres méthodes existantes, et les avantages et inconvénients de chacune de ces méthodes sont étudiés
This thesis deals with the application of statistical learning theory to the identification of hybrid dynamical systems. Learning theory allows one to obtain statistical guarantees on the accuracy of models for a finite number of data. Here, by extending the framework of this theory to that of dynamic systems, we propose new solutions for the identification of switched systems. Indeed, a new generalization error bound valid for the identification of switched systems is obtained, and its use gives rise to a new model selection method for estimating the number of submodels of hybrid systems. The bound is adapted for different regularization scenarios, and new optimization algorithms taking into account these different scenarios are proposed. This new method for estimating the number of modes is compared with existing ones, and the advantages and disadvantages of each of these methods are studied
28

Dinu, Razvan. "Web Agents : towards online hybrid multi-agent systems." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20126/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Multi-agent systems have been used in a wide range of applications from computer-based simulations and mobile robots to agent-oriented programming and intelligent systems in real environments. However, the largest environment in which software agents can interact is, without any doubt, the World Wide Web and ever since its birth agents have been used in various applications such as search engines, e-commerce, and most recently the semantic web. However, agents have yet to be used on the Web in a way that leverages the full power of artificial intelligence and multi-agent systems, which have the potential of making life much easier for humans. This thesis investigates how this can be changed, and how agents can be brought to the core of the online experience in the sense that we want people to talk and interact with agents instead of "just using yet another application or website". We analyze what makes it hard to develop intelligent agents on the web and we propose a web agent model (WAM) inspired by recent results in multi-agent systems. Nowadays, a simple conceptual model is the key for widespread adoption of new technologies and this is why we have chosen the MASQ meta-model as the basis for our approach, which provides the best compromise in terms of simplicity of concepts, generality and applicability to the web. Since until now the model was introduced only in an informal way, we also provide a clear formalization of the MASQ meta-model.Next, we identify the three main challenges that need to be addressed when building web agents: integration of bodies, web semantics and user friendliness. We focus our attention on the first two and we propose a set of principles to guide the development of what we call strong web agents. Finally, we validate our proposal through the implementation of an award winning platform called Kleenk. Our work is just a step towards fulfilling the vision of having intelligent web agents mediate the interaction with the increasingly complex World Wide Web
Multi-agent systems have been used in a wide range of applications from computer-based simulations and mobile robots to agent-oriented programming and intelligent systems in real environments. However, the largest environment in which software agents can interact is, without any doubt, the World Wide Web and ever since its birth agents have been used in various applications such as search engines, e-commerce, and most recently the semantic web. However, agents have yet to be used on the Web in a way that leverages the full power of artificial intelligence and multi-agent systems, which have the potential of making life much easier for humans. This thesis investigates how this can be changed, and how agents can be brought to the core of the online experience in the sense that we want people to talk and interact with agents instead of "just using yet another application or website". We analyze what makes it hard to develop intelligent agents on the web and we propose a web agent model (WAM) inspired by recent results in multi-agent systems. Nowadays, a simple conceptual model is the key for widespread adoption of new technologies and this is why we have chosen the MASQ meta-model as the basis for our approach, which provides the best compromise in terms of simplicity of concepts, generality and applicability to the web. Since until now the model was introduced only in an informal way, we also provide a clear formalization of the MASQ meta-model.Next, we identify the three main challenges that need to be addressed when building web agents: integration of bodies, web semantics and user friendliness. We focus our attention on the first two and we propose a set of principles to guide the development of what we call strong web agents. Finally, we validate our proposal through the implementation of an award winning platform called Kleenk. Our work is just a step towards fulfilling the vision of having intelligent web agents mediate the interaction with the increasingly complex World Wide Web
29

Siboni, Didier. "La gestion de service sur les réseaux hétérogènes interconnectes : utilisation des techniques d'intelligence artificielle et architectures hybrides." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité toujours croissante des réseaux de communication interconnectes rend leur gestion de plus en plus complexe. Les systèmes experts ont été largement utilises pour résoudre ce type de problèmes mais ont montré leur limite pour prendre en compte les évolutions des configurations des réseaux et l'expertise souvent trop pauvre caractérisant ce domaine d'application. Nous proposons, dans cette thèse, un système intelligent et intègré de gestion des fautes utilisant de façon coopérative, les techniques d'apprentissages que sont les réseaux de neurones et le raisonnement est partir de cas et les systèmes experts. Nous proposons une articulation globale du processus de gestion des fautes en trois grandes étapes, regroupants des fonctions de gestions spécialisées: la détection de problèmes nécessitant les fonctions de filtrage et de diagnostic de problèmes de type fautes ou performances. La mesure de l'impact des problèmes sur la qualité de service nécessitant une modélisation de la qualité de service au niveau des différents services rendus par les éléments constitutifs des chaînes de liaison. La résolution des problèmes au moyen de fonctions de reconfigurations et reallocations de ressources, de maintenance curative et préventive, et de gestion d'historique de problème ou gestion de tickets d'incidents. Nous étudions les différentes techniques de l'intelligence artificielle intervenant dans le processus de gestion des fautes, comme les systèmes experts à base de modèles, les réseaux de neurones, le raisonnement est partir de cas. Nous établissons une correspondance entre les différentes étapes et les techniques d'intelligence artificielle, afin de proposer une architecture modulaire, bâtie au-dessus d'une plate-forme ouverte de gestion de réseaux. Un prototype opérationnel de corrélation d'alarmes utilisant la technique de système expert à base de modèles a été développé et intégré à la plate-forme hp openview. Un prototype correspondant au module de filtrage utilisant la technique de réseau de neurone a été développé et expérimenté de manière positive sur des données réelles. Un module de qualification et de correction de problème utilisant la technique d'apprentissage de raisonnement à partir de cas sur une base de tickets d'incident a été étudié
30

Zhao, Zhou. "Heart Segmentation and Evaluation of Fibrosis." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fibrillation auriculaire est la maladie du rythme cardiaque la plus courante. En raison d'un manque de compréhension des structures atriales sous-jacentes, les traitements actuels ne sont toujours pas satisfaisants. Récemment, avec la popularité de l'apprentissage profond, de nombreuses méthodes de segmentation basées sur l'apprentissage profond ont été proposées pour analyser les structures auriculaires, en particulier à partir de l'imagerie par résonance magnétique renforcée au gadolinium tardif. Cependant, deux problèmes subsistent : 1) les résultats de la segmentation incluent le fond de type atrial ; 2) les limites sont très difficiles à segmenter. La plupart des approches de segmentation conçoivent un réseau spécifique qui se concentre principalement sur les régions, au détriment des frontières. Par conséquent, dans cette thèse, nous proposons deux méthodes différentes pour segmenter le cœur, une méthode en deux étapes et une méthode entraînable de bout en bout. Ensuite, pour évaluer le degré de fibrose, nous avons également proposé deux méthodes, l'une consiste à combiner l'apprentissage profond avec la morphologie, et l'autre à utiliser directement l'apprentissage profond. Enfin, l'efficacité de l'approche proposée est vérifiée sur certains jeux de données publics
Atrial fibrillation is the most common heart rhythm disease. Due to a lack of understanding in the matter of underlying atrial structures, current treatments are still not satisfying. Recently, with the popularity of deep learning, many segmentation methods based on deep learning have been proposed to analyze atrial structures, especially from late gadolinium-enhanced magnetic resonance imaging. However, two problems still occur: 1) segmentation results include the atrial-like background; 2) boundaries are very hard to segment. Most segmentation approaches design a specific network that mainly focuses on the regions, to the detriment of the boundaries. Therefore, in this dissertation, we propose two different methods to segment the heart, one two-stage and one end-to-end trainable method. And then, for evaluating the fibrosis degree, we also proposed two methods, one is to combine deep learning with morphology, and the other is to use deep learning directly. Finally, the efficiency of the proposed approach is verified on some public datasets
31

Rybnik, Mariusz. "Contribution to the modelling and the exploitation of hybrid multiple neural networks systems : application to intelligent processing of information." Paris 12, 2004. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990003948290204611&vid=upec.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour un grand nombre de problèmes que l'on rencontre actuellement (modélisation de processus complexes, reconnaissance de formes, aide au diagnostique médical, détection de pannes) les données sont présentes sous forme de base de données. Ces données sont ensuite traitées et transformées. Ce travail est concentré sur le développement d'une structure de traitement semi-automatique de données. L'approche proposée est construite sur des techniques basées sur la décomposition successive (itérative) du problème initial. L'idée de base puise en partie son origine dans la décomposition d'un traitement initialement complexe par la division de ce dernier pour obtenir une Simplification à la fois au niveau structurel et au niveau du moyen de traitement. Ainsi l'idée directrice du présent travail est liée aux techniques de décomposition de tâche appelées aussi "Divide To Conquer". Un point clé sur lequel s'appuie notre approche est l'intégration de techniques d'estimation de complexité
For a great number of actually encountered problems (complex processes modelization, pattern recognition, medical diagnosis support, fault detection) data is presented in form of database. The data is next transformed and processed. This work is concentrated on the development of semi-automatic data processing structures. Proposed approach is based on iterative decomposition of an initial problem. The main idea is to decompose initia!ly complex problems in order to obtain simplification simultaneously on structural level and processing level. Thus, the principal idea of present work is con nected to task decomposition techniques called "Divide to Conquer". A key point of our approach is the integration of Complexity Estimation techniques
32

Rybnik, Mariusz Madani Kurosh. "Contribution to the modelling and the exploitation of hybrid multiple neural networks systems application to intelligent processing of information /." Créteil : Université de Paris-Val-de-Marne, 2007. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0394829.htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thèse de doctorat : Sciences et ingénierie matériaux, modélisation, environnement : Paris 12 : 2004.
Version électronique uniquement consultable au sein de l'Université Paris 12 (Intranet). Titre provenant de l'écran-titre. Bibliogr. : 116 réf.
33

Andriamasinoro, Fenintsoa. "Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle." Phd thesis, Université de la Réunion, 2003. http://tel.archives-ouvertes.fr/tel-00474542.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
34

Bomme, Patricia. "Objets hybrides dans des applications scientifiques orientées objets." Compiègne, 1998. http://www.theses.fr/1998COMP1113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'approche proposée définit, met en œuvre et valide un concept d'objets hybrides (ou objets intelligents), qui intègre une connaissance déclarative accompagnée de raisonnements. Les comportements intelligents ainsi définis, peuvent être invoqués dans les méthodes de l'objet. Les règles d'un objet sont considérées comme des pseudo-méthodes travaillant sur l'état de l'objet. Leur conception d'intégration respecte les caractéristiques des objets, auxquelles elles sont appliquées : l'encapsulation, l'héritage, le polymorphisme et l'identité d'un objet. Les règles sont organisées en une hiérarchie induite de celle de l'application ; ainsi ces deux hiérarchies demeurent toujours cohérentes. Quant aux moteurs d'inférence, ils sont sous le contrôle d'un objet et deviennent des concepts locaux implémentés par des objets temporaires. Cette implémentation ainsi qu'une simple architecture de tableau noir facilitent la définition et la spécialisation des modes de raisonnement. Pour résumer, ces objets intelligents fournissent à leur application hôte, une architecture dans laquelle la connaissance est distribuée et les inférences décentralisées. L'outil final est une librairie implémentant un système expert propositionnel orienté-objet en association avec un modèle d'objets intelligents réutilisables. Cette approche peut être mise en œuvre dans tout environnement compatible c/c++, elle permet d'intégrer des heuristiques dans une application sans introduire de nouvelles contraintes. Le potentiel de l'approche est illustré sur deux exemples industriels : un système d'aide à la décision pour la sélection optimale d’équipements industriels, et sur un pré-processeur bi-et-tridimensionel d'éléments finis en géomécanique.
35

Bontorin, Guilherme. "Matrice d'électrodes intelligentes : un outil pour améliorer les performances spatiotemporelles des systèmes hybrides (vivant-artificiel), en boucle fermée et en temps réel." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00561026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente un système bioélectronique prometteur, l'Hynet. Ce Réseau Hybride (vivant-artificiel) est conçu pour l'étude du comportement à long terme des cellules électrogénératrices, comme les neurones et les cellules betas, en deux aspects : l'individuel et en réseau. Il est basé sur une boucle fermée et sur la communication en temps réel entre la culture cellulaire et une unité artificielle (Matériel, Logiciel). Le premier Hynet utilise des Matrices d'électrodes (MEA) commerciales qui limitent les performances spatiotemporelles du Hynet. Une nouvelle Matrice d'électrodes intelligente (iMEA) est développée. Ce nouveau circuit intégré, analogique et mixte, fournit une interface à forte densité, à forte échelle et adaptative avec la culture. Le nouveau système améliore le traitement des données en temps réel et une acquisition faible bruit du signal extracellulaire.
36

Kanaoui, Nadia Madani Kurosh. "Contribution à l'étude et à la mise en oeuvre d'approches hybrides d'aide au diagnostic application aux domaines biomédical et industriel /." [S.l.] : [s.n.], 2008. http://doxa.scd.univ-paris12.fr:80/theses/th0405815.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Kanaoui, Nadia. "Contribution à l'étude et à la mise en oeuvre d'approches hybrides d'aide au diagnostic : application aux domaines biomédical et industriel." Paris 12, 2007. http://www.theses.fr/2007PA120066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de cette thèse est en rapport avec les systèmes d'aide à la décision pour le diagnostic de défaillances, la reconnaissance de forme et la prise de décisions basées sur l'intelligence artificielle utilisant les techniques hybrides, et le "soft computing" impliquant les réseaux de neurones et la logique floue. Le but de ce travail n'est absolument pas de remplacer le spécialiste humain (médecin, expert. . . ) mais de proposer des systèmes d'aide à la décision pour le diagnostic de défaillances avec un certain indice de confiance. Ainsi, l'objectif principal est le développement d'approches hybrides modulaires permettant l'élaboration de tels SAD, destinés à répondre à certains types d'applications (biomédicale et industrielle). Pour cela, une méthodologie globale, basée sur une multiple représentation de la connaissance et une multiple classification, a été proposée exploitant différentes stratégies de représentation et de classification. Les avantages potentiels de cette méthodologie sont : la multiple représentation de la connaissance d'une même source ou de différentes sources d'information (exploitant la richesse de l'information que l'on peut extraire de différentes représentations), la multiple classification (redondance et/ou complémentarité), l'hybridation dans la classification et la prise de décisions basée sur des approches hybrides modulaires afin d'exploiter le caractère complémentaire, et l'exploitation d'un paramètre de confiance dans la prise de décisions afin de proposer un résultat final de diagnostic avec un indice de confiance. De plus, l'aspect modulaire dans cette méthodologie facilitera son adaptation d'un application à une autre
Research work developed in this thesis deals with decision support systems for fault diagnosis, pattern recognition and decision-making based on artificial intelligence using hybrid techniques, and soft computing implying neural networks and fuzzy logic. The aim of this work is absolutely not to replace specialized human (doctor, expert,. . . ) but to suggest efficient Diagnosis Support Systems (DSS) with a certain confidence index. Thus, the main objective is the development of hybrid modular approaches allowing the elaboration of such DSS for certain kinds od applications (biomedicine and industrial). For that, a global methodology, based on multiple knowledge representation and multiple classification has been suggested exploiting different representation and classification strategies. Potential advantages of this methodology are : the multiple knowledge representation from same source or different sources of information (exploiting rich information which can be extracted from different representations : signal, global image, subdivided image), the multiple classification (redundancy and/or complementary), the hybrid structure in classification and decision-making based on hybrid modular approaches in order to exploit the complementary aspect, and the exploitation of a confidence parameter in the decision-making to suggest a final result of diagnosis with a confidence index. More, the modular aspect in this methodology will facilitate its adaptation from one application to another
38

Sassatelli, Lucile. "Codes LDPC multi-binaires hybrides et méthodes de décodage itératif." Phd thesis, Université de Cergy Pontoise, 2008. http://tel.archives-ouvertes.fr/tel-00819413.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'analyse et le design de codes de canal définis par des graphes creux. Le but est de construire des codes ayant de très bonnes performances sur de larges plages de rapports signal à bruit lorsqu'ils sont décodés itérativement. Dans la première partie est introduite une nouvelle classe de codes LDPC, nommés code LDPC hybrides. L'analyse de cette classe pour des canaux symétriques sans mé- moire est réalisée, conduisant à l'optimisation des paramètres, pour le canal gaussien à entrée binaire. Les codes LDPC hybrides résultants ont non seulement de bonnes proprié- tés de convergence, mais également un plancher d'erreur très bas pour des longueurs de mot de code inférieures à trois mille bits, concurrençant ainsi les codes LDPC multi-edge. Les codes LDPC hybrides permettent donc de réaliser un compromis intéressant entre ré- gion de convergence et plancher d'erreur avec des techniques de codage non-binaires. La seconde partie de la thèse a été consacrée à étudier quel pourrait être l'apport de méthodes d'apprentissage artificiel pour le design de bons codes et de bons décodeurs itératifs, pour des petites tailles de mot de code. Nous avons d'abord cherché comment construire un code en enlevant des branches du graphe de Tanner d'un code mère, selon un algorithme d'apprentissage, dans le but d'optimiser la distance minimale. Nous nous sommes ensuite penchés sur le design d'un décodeur itératif par apprentissage artificiel, dans l'optique d'avoir de meilleurs résultats qu'avec le décodeur BP, qui devient sous- optimal dès qu'il y a des cycles dans le graphe du code. Dans la troisième partie de la thèse, nous nous sommes intéressés au décodage quan- tifié dans le même but que précédemment : trouver des règles de décodage capables de décoder des configurations d'erreur difficiles. Nous avons proposé une classe de déco- deurs utilisant deux bits de quantification pour les messages du décodeur. Nous avons prouvé des conditions suffisantes pour qu'un code LDPC, avec un poids de colonnes égal à quatre, et dont le plus petit cycle du graphe est de taille au moins six, corrige n'importe quel triplet d'erreurs. Ces conditions montrent que décoder avec cette règle à deux bits permet d'assurer une capacité de correction de trois erreurs pour des codes de rendements plus élevés qu'avec une règle de décodage à un bit.
39

Ramachandra, Rao Sanjay Kamath. "Question Answering with Hybrid Data and Models." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche de réponses à des questions relève de deux disciplines : le traitement du langage naturel et la recherche d’information. L’émergence de l’apprentissage profond dans plusieurs domaines de recherche tels que la vision par ordinateur, le traitement du langage naturel etc. a conduit à l’émergence de modèles de bout en bout. Les travaux actuels de l’état de l’art en question-réponse (QR) visent à mettre en oeuvre de tels modèles. Dans le cadre du projet GoASQ, l’objectif est d’étudier, comparer et combiner différentes approches pour répondre à des questions formulées en langage naturel sur des données textuelles, en domaine ouvert et en domaine biomédical. Ce travail se concentre principalement sur 1) la construction de modèles permettant de traiter des ensembles de données à petite et à grande échelle, et 2) l’exploitation de connaissances sémantiques pour répondre aux questions par leur intégration dans les différents modèles. Nous visons à fusionner des connaissances issues de textes libres, d’ontologies, de représentations d’entités, etc. Afin de faciliter l’utilisation des modèles neuronaux sur des données de domaine de spécialité, nous nous plaçons dans le cadre de l’adaptation de domaine. Nous avons proposé deux modèles de tâches de QR différents, évalués sur la tâche BIOASQ de réponse à des questions biomédicales. Nous montrons par nos résultats expérimentaux que le modèle de QR ouvert convient mieux qu’une modélisation de type Compréhension machine. Nous pré-entrainons le modèle de Compréhension machine, qui sert de base à notre modèle, sur différents ensembles de données pour montrer la variabilité des performances. Nous constatons que l’utilisation d’un ensemble de données particulier pour le pré-entraînement donne les meilleurs résultats lors du test et qu’une combinaison de quatre jeux de données donne les meilleurs résultats lors de l’adaptation au domaine biomédical. Nous avons testé des modèles de langage à grande échelle, comme BERT, qui sont adaptés à la tâche de réponse aux questions. Les performances varient en fonction du type des données utilisées pour pré-entrainer BERT. Ainsi, le modèle de langue appris sur des données biomédicales, BIOBERT, constitue le meilleur choix pour le QR biomédical. Les modèles d’apprentissage profond visent à fonctionner de bout en bout. Les informations sémantiques provenant de sources de connaissances construites par des experts n’y sont généralement pas introduites. Nous avons annoté manuellement et automatiquement un jeu de données par les variantes des réponses de BIOASQ et montré l’importance d’apprendre un modèle de QR avec ces variantes. Ces types sont ensuite utilisés pour mettre en évidence les entités dans les jeux de données, ce qui montre des améliorations sur l’état de l’art. Par ailleurs l’exploitation de représentations vectorielles d’entités dans les modèles se montre positif pour le domaine ouvert. Nous faisons l’hypothèse que les résultats obtenus à partir de modèles d’apprentissage profond peuvent être encore améliorés en utilisant des traits sémantiques et des traits collectifs calculés à partir des différents paragraphes sélectionnés pour répondre à une question. Nous utilisons des modèles de classification binaires pour améliorer la prédiction de la réponse parmi les K candidats à l’aide de ces caractéristiques, conduisant à un modèle hybride qui surpasse les résultats de l’état de l’art. Enfin, nous avons évalué des modèles de QR ouvert sur des ensembles de données construits pour les tâches de Compréhension machine et Sélection de phrases. Nous montrons la différence de performance lorsque la tâche à résoudre est une tâche de QR ouverte et soulignons le fossé important qu’il reste à franchir dans la construction de modèles de bout en bout pour la tâche complète de réponse aux questions
Question Answering is a discipline which lies in between natural language processing and information retrieval domains. Emergence of deep learning approaches in several fields of research such as computer vision, natural language processing, speech recognition etc. has led to the rise of end-to-end models.In the context of GoASQ project, we investigate, compare and combine different approaches for answering questions formulated in natural language over textual data on open domain and biomedical domain data. The thesis work mainly focuses on 1) Building models for small scale and large scale datasets, and 2) Leveraging structured and semantic information into question answering models. Hybrid data in our research context is fusion of knowledge from free text, ontologies, entity information etc. applied towards free text question answering.The current state-of-the-art models for question answering use deep learning based models. In order to facilitate using them on small scale datasets on closed domain data, we propose to use domain adaptation. We model the BIOASQ biomedical question answering task dataset into two different QA task models and show how the Open Domain Question Answering task suits better than the Reading Comprehension task by comparing experimental results. We pre-train the Reading Comprehension model with different datasets to show the variability in performance when these models are adapted to biomedical domain. We find that using one particular dataset (SQUAD v2.0 dataset) for pre-training performs the best on single dataset pre-training and a combination of four Reading Comprehension datasets performed the best towards the biomedical domain adaptation. We perform some of the above experiments using large scale pre-trained language models like BERT which are fine-tuned to the question answering task. The performance varies based on the type of data used to pre-train BERT. For BERT pre-training on the language modelling task, we find the biomedical data trained BIOBERT to be the best choice for biomedical QA.Since deep learning models tend to function in an end-to-end fashion, semantic and structured information coming from expert annotated information sources are not explicitly used. We highlight the necessity for using Lexical and Expected Answer Types in open domain and biomedical domain question answering by performing several verification experiments. These types are used to highlight entities in two QA tasks which shows improvements while using entity embeddings based on the answer type annotations. We manually annotated an answer variant dataset for BIOASQ and show the importance of learning a QA model with answer variants present in the paragraphs.Our hypothesis is that the results obtained from deep learning models can further be improved using semantic features and collective features from different paragraphs for a question. We propose to use ranking models based on binary classification methods to better rank Top-1 prediction among Top-K predictions using these features, leading to an hybrid model that outperforms state-of-art-results on several datasets. We experiment with several overall Open Domain Question Answering models on QA sub-task datasets built for Reading Comprehension and Answer Sentence Selection tasks. We show the difference in performance when these are modelled as overall QA task and highlight the wide gap in building end-to-end models for overall question answering task
40

Vion, Julien. "Contributions à la résolution générique des problèmes de satisfaction de contraintes." Phd thesis, Université d'Artois, 2007. http://tel.archives-ouvertes.fr/tel-00262080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons plusieurs techniques visant à résoudre en pratique le problème NP-complet de satisfaction de contraintes de manière générique. Nous distinguons deux grands axes de techniques de résolution de CSP : l'infrence et la recherche. Nous avons contribué l'amélioration des techniques d'inférence en nous concentrant sur la propriété centrale qu'est la consistance d'arc : optimisations des algorithmes de consistance d'arc, comportement de plusieurs algorithmes d'inférence aux bornes de domaines discrets, et enfin une alternative intéressante à la consistance de chemin : la consistance duale. Cette propriété nous a amené à concevoir des algorithmes de consistance de chemin forte très efficaces. La variante conservative de cette consistance est de plus plus forte que la consistance de chemin conservative, tout en restant plus rapide à établir en pratique.
Par ailleurs, nous avons également cherché à améliorer MGAC, tout d'abord en équipant celui-ci d'heuristiques de choix de valeurs. Nous nous sommes pour cela basés sur l'heuristique de Jeroslow-Wang, issue du problème SAT. En utilisant deux techniques de conversion de CSP vers SAT, nous montrons comment cette heuristique se comporterait sur un CSP. Enfin, nous avons cherché à utiliser une hybridation entre un algorithme de recherche locale basé sur la pondération des contraintes et un algorithme MGAC équipé de l'heuristique dom/wdeg, en exploitant les possibilités d'apprentissage de l'un et l'autre algorithmes.
De manière transversale, l'ensemble des techniques développées dans le cadre de cette thèse a amené à la réalisation d'une API pour le langage Java, capable de résoudre un CSP au sein d'une application Java quelconque. Cette API a été développée dans l'optique "boîte noire" : le moins de paramètres et d'expertise possibles sont demandés à l'utilisateur. Un prouveur basé sur CSP4J a concouru lors les compétitions internationales de prouveurs CSP avec des résultats encourageants.
41

Mellouk, Abdelhamid. "Un système neuro- prédictif pour la reconnaissance automatique de la parole continue." Paris 11, 1994. http://www.theses.fr/1994PA112476.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse décrit le développement d'un système hybride pour le décodage acoustico- phonétique basé sur la coopération entre réseaux de neurones et programmation dynamique. La première partie est consacrée aux approches et techniques courantes les plus intéressantes pour la reconnaissance automatique de la parole, elle développe principalement la programmation dynamique, les modèles de Markov cachés et les réseaux connexionnistes. Nous présentons ensuite dans une deuxième partie notre modèle. Un état de l'art du domaine nous permet de le situer parmi l'ensemble des systèmes hybrides qui ont été récemment développés. Notre système met en oeuvre un ensemble de réseaux prédictifs pour capturer la dynamique du signal de parole. Ces réseaux permettent de modéliser des phonèmes et fournissent des scores à un module de programmation dynamique chargé de réaliser la segmentation. L'apprentissage est réalisé de façon itérative par des algorithmes de gradient stochastique. Nous développons une interprétation statistique du système qui permet d'établir les liens avec des approches markoviennes. Nous présentons des versions successives du système qui permettent de tester différentes hypothèses sur l'ensemble des composants: ordre et type de prédiction, discrimination. Pour cette dernière. Nous proposons et testons plusieurs critères locaux au niveau des trames et globaux au niveau phonétique et développons les liens avec d'autres approches discriminantes développées en parole. Les différentes versions du système ont été testées sur une base de données internationale qui nous a servi d'étalon, la base Timit. Le système final incorpore des modèles prédictifs avec un contexte gauche-droit et une discrimination réalisant un bon compromis efficacité- coût, ses performances en décodage le placent au niveau de l'état de l'art des systèmes actuels
42

Bouzid, Salah Eddine. "Optimisation multicritères des performances de réseau d’objets communicants par méta-heuristiques hybrides et apprentissage par renforcement." Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1026.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le déploiement des réseaux d’objets communicants «ROCs», dont les densités augmentent sans cesse, conditionne à la fois l’optimalité de leur qualité de service, leur consommation énergétique et par conséquent leur durée de vie. Il s’avère que le problème de déterminer le placement optimal, relativement aux différents critères de qualité, des nœuds de ces réseaux est un problème Np-Complet. Face à cette Np-complétude, et en particulier pour des environnements intérieurs, les approches existantes focalisent sur l’optimisation d’un seul objectif en négligeant les autres critères, ou optent pour une solution manuelle fastidieuse et coûteuse. Des nouvelles approches pour résoudre ce problème sont donc nécessaires. Cette thèse propose une nouvelle approche qui permet de générer automatiquement, dès la phase de conception des réseaux d’objets communicants, le déploiement qui garantit à la fois l’optimalité en termes de performances et de robustesse face aux éventuelles défaillances et instabilités topologiques. Cette approche proposée est basée d’une part sur la modélisation du problème de déploiement sous forme d’un problème d’optimisation combinatoire multi-objectifs sous contraintes, et sa résolution par un algorithme génétique hybride combinant l’optimisation multi-objectifs avec l’optimisation à somme pondérée, et d’autre part sur l’intégration de l’apprentissage par renforcement pour garantir l’optimisation de la consommation énergétique et la prolongation de la durée de vie. Elle est concrétisée par le développement de deux outils. Un premier appelé MOONGA (pour Multi-Objective Optimization of Wireless Network Approach Based on Genetic Algorithm) qui permet de générer automatiquement le placement des nœuds, qui optimise la connectivité, la m-connectivité, la couverture, la k-couverture, la redondance de couverture et le coût. Cette optimisation prend en considération les contraintes liées à l'architecture de l’espace de déploiement, à la topologie du réseau, aux spécificités de l'application pour laquelle le réseau est conçu et aux préférences du concepteur. Après optimisation de déploiement l’outil R2LTO (Pour Reinforcement Learning for Life-Time Optimization), permet d’intégrer un protocole de routage, basé sur l'apprentissage par renforcement, pour garantir l’optimisation de la consommation énergétique et de la durée de vie du ROC après son déploiement tout en conservant la QoS requise
The deployment of Communicating Things Networks (CTNs), with continuously increasing densities, needs to be optimal in terms of quality of service, energy consumption and lifetime. Determining the optimal placement of the nodes of these networks, relative to the different quality criteria, is an NP-Hard problem. Faced to this NP-Hardness, especially for indoor environments, existing approaches focus on the optimization of one single objective while neglecting the other criteria, or adopt an expensive manual solution. Finding new approaches to solve this problem is required. Accordingly, in this thesis, we propose a new approach which automatically generates the deployment that guarantees optimality in terms of performance and robustness related to possible topological failures and instabilities. The proposed approach is based, on the first hand, on the modeling of the deployment problem as a multi-objective optimization problem under constraints, and its resolution using a hybrid algorithm combining genetic multi-objective optimization with weighted sum optimization and on the other hand, the integration of reinforcement learning to guarantee the optimization of energy consumption and the extending the network lifetime. To apply this approach, two tools are developed. A first called MOONGA (Multi-Objective Optimization of wireless Network approach based on Genetic Algorithm) which automatically generates the placement of nodes while optimizing the metrics that define the QoS of the CTN: connectivity, m-connectivity, coverage, k-coverage, coverage redundancy and cost. MOONGA tool considers constraints related to the architecture of the deployment space, the network topology, the specifies of the application and the preferences of the network designer. The second optimization tool is named R2LTO (Reinforcement Learning for Life-Time Optimization), which is a new routing protocol for CTNs, based on distributed reinforcement learning that allows to determine the optimal rooting path in order to guarantee energy-efficiency and to extend the network lifetime while maintaining the required QoS
43

Imbach, Rémi. "Résolution de contraintes géométriques en guidant une méthode homotopique par la géométrie." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAD033/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Suivant le domaine où on les sollicite, les solutions d’un système de contraintes géométriques (SCG) peuvent être : – formelles et exactes : elles prennent par exemple la forme d’un plan de construction produisant toutes les solutions, obtenu en appliquant des règles dérivées de lemmes de géométrie. Beaucoup de SCG, surtout en 3D, résistent à cette approche ; – numériques et approchées : elles sont les solutions d’un système d’équations construit à partir des contraintes et trouvées grâce à des méthodes numériques efficaces quand elles ne recherchent qu’une solution. De par la nature des problèmes traités, chercher toutes les solutions conduit à une complexité exponentielle. Les méthodes par continuation, ou homotopie, permettent d’obtenir toutes les solutions d’un système d’équations polynomiales. Leur application à des SCG est coûteuse et difficilement sujette aux raisonnements permis par l’origine géométrique du problème car elles opèrent hors de l’espace des figures géométriques. Notre travail a pour objet la spécialisation d’une méthode par continuation à des SCG. La géométrie simplifie et justifie sa mise en œuvre dans l’espace des figures, ou des raisonnements géométriques sont possibles. On aborde également les cas ou l’ensemble de solutions d’un problème contient des éléments isolés et des continuums. Des solutions proches d’une esquisse fournie par un utilisateur sont d’abord trouvées. La recherche d’autres solutions, malgré sa complexité exponentielle, est rendue envisageable par une approche itérative. Une nouvelle méthode de décomposition est proposée pour maîtriser le coût de la résolution
Depending on the required application field, the solutions of a geometric constraints system (GCS) are either : – symbolic and exact such as construction plans, providing all the solutions, obtained by applying geometric rules. Many problems, mostly in a 3D context, resist to this approach ; – or numerical and approximated : they are the solutions of a system of equations built from the constraints, provided by generical numerical methods that are efficient when only one solution is sought. However, searching all the solutions leads to an exponential computation cost, due to the nature of problems. Continuation methods, also called homotopic methods, find all the solutions of a polynomial system. Using them to solve systems of equations associated to systems of constraints is nevertheless costly. Moreover, combining them with geometric reasoning is a challenge, because they act in a projective complex space and not in the realizations space. The aim of this work is to specialize a continuation method to GCS. Geometry is exploited to simplify and justify its adaptation in the space of realizations, so allowing geometric reasoning. Cases where the connected components of the solution space of a problem have heterogeneous dimensions are addressed. The method discussed here provides in a first step solutions that are similar to a sketch drawn by the user. Then a procedure is proposed to search new solutions. Its iterative nature seems to make the exponential complexity of this task bearable. A new decomposition method is proposed, that restrains the resolution cost
44

Jobczyk, Krystian. "Temporal planning with fuzzy constraints and preferences." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC259/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La planification temporelle constitue conceptuellement une partie du raisonnement temporelle et il appartient au domaine de recherche de l'intelligence artificielle. La planification temporelle peut être considérée comme une extension de la planification classique par les aspects temporels de l'action. La planification temporelle est généralement complété par des préférences ou des types différents decontraintes imposées à l'exécution des actiones. Il existe de nombreuses approches à ce problème. D'une part, il existe différents paradigmes pour la planification temporelle, par example: la planification par un recherche d'une solution optimale dans des graphes de planification (STRIPS), la planification via la satisfiabilité ou la planification pardes processus de Markov. Ces approches sont mutuellement incompatibles. D'autre part, la planification temporelle exige une sujet-spécification – comme il est défini d'une manière méthodologique. Selon cette situation, cette thèse vise à proposer une analyse approfondi de la planification avec des contraintes floues qui contient quelques remèdes à ces difficultés. À savoir, deux approches à la représentation et la modélisation de ces questions sont mises.Dans la première (chapitre 2, chapitre 3) - les relations floues d'Allen en tant que contraintes temporelles floues sont représentés par des normes de convolutions dans un espace de Banach des fonctions intégrables de Lebesgue. Cela nous permet de nous immergerles relations d'Allen dans les contextes computationnels de la planification temporelle (basée sur STRIPS et sur la procedure de Davis-Putnam) et d'élucider leur nature quantitative. Cette approche est développée dans un contexte des problèmes par systèmes multi-agents comme un sujet de cette approche. Dans les chapitres 4 et 5 les contraintes temporelles floues avec flou – introduit par préférences - sont représentées en termes logiques de la logique préférentielle de Halpern-Shoham. Cela nous permet d'adopter ces resultats dans une construction du contrôleur du plan. Cette approche est développée dans un contexte du problème du voyageur de commerce. Enfin, une tentative de réconcilier ces deux lignes de représentation des contraintes temporelles floues a été proposée dans le dernier chapitre
Temporal planning forms conceptually a part of temporal reasoning and it belongs to research area of Artificial Intelligence and it may be seen as an extension of classical planning by temporal aspects of acting. Temporal planing is usually complemented by considering preferences or different types of temporal constraints imposed on execution of actions. There exist many approaches to this issue. One one hand, there are different paradigms to temporal planning, such as: planning via search in graphs (STRIPS), planning via satisfiability or planning in terms of Markov processes. These approaches are mutually incompatible. In addition, temporal planning requires a subject-specification as it is rather defined in a methodological way. On the other hand, temporal constraints are represented and modeled in different ways dependently on their quantitative or qualitative nature. In particular, Allen’s relations between temporal intervals – an important class of temporal constraints – do not have any quantitative aspects and cannot be considered in computational contexts. According to this situation, this PhD-thesis is aimed at the proposing a depth-analysis of temporal planning with fuzzy constraints which contains some remedies on these difficulties. Namely, two approaches to the representation and modeling of these issues are put forward. In the first one (chapter 2, chapter 3) – fuzzy Allen’s relations as fuzzy temporal constraints are represented by norms of convolutions in a Banach space of Lebesgue integrable functions. It allows us immerse Allen’s relations in the computational contexts of temporal planning (based on STRIPS and on DavisPutnam procedure) and to elucidate their quantitative nature. This approach is developed in a context of Multi-Agent Problem as a subject basis of this approach. In the second one (chapter 4, chapter 5) – fuzzy temporal constrains with fuzziness introduced by preferences are represented in a logical terms of Preferential Halpern-Shoham Logic. It allows us to adopt these result in a construction of the plan controller. This approach is developed in a context of Temporal Traveling Salesman Problem as a subject basis of this approach. Finally, an attempt to reconcile these two lines of representation of fuzzy temporal constraints was also proposed
45

De, Wulf Martin. "From timed models to timed implementations." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210797.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:

Computer Science is currently facing a grand challenge :finding good design practices for embedded systems. Embedded systems are essentially computers interacting with some physical process. You could find one in a braking systems or in a nuclear power plant for example. They present several design difficulties :first they are reactive systems, interacting indefinitely with their environment. Second,they must satisfy real-time constraints specifying when they should respond, and not only how. Finally, their environment is often deeply continuous, presenting complex dynamics. The formal models of choice for specifying such systems are timed and hybrid automata for which model checking is pretty well studied.

In a first part of this thesis, we study a complete design approach, including verification and code generation, for timed automata. We have to define a new semantics for timed automata, the AASAP semantics, that preserves the decidability properties for model checking and at the same time is implementable. Our notion of implementability is completely novel, and relies on the simulation of a semantics that is obviously implementable on a real platform. We wrote tools for the analysis and code generation and exemplify them on a case study about the well known Philips Audio Control Protocol.

In a second part of this thesis, we study the problem of controller synthesis for an environment specified as a hybrid automaton. We give a new solution for discrete controllers having only an imperfect information about the state of the system. In the process, we defined a new algorithm, based on the monotonicity of the controllable predecessors operator, for efficiently finding a controller and we show some promising applications on a classical problem :the universality test for finite automata.
Doctorat en sciences, Spécialisation Informatique
info:eu-repo/semantics/nonPublished

46

Vu, Duc Tan. "Commande tolérante aux défauts des entraînements de machines synchrones à aimants permanents polyphasées non-sinusoïdales sous contraintes de courant et de tension pour les applications automobiles." Electronic Thesis or Diss., Paris, HESAM, 2020. http://www.theses.fr/2020HESAE040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entraînements électriques pour les véhicules électrifiés doivent répondre à certaines exigences spécifiques des marchés automobiles, tels qu'un rendement élevé, des densités volumiques élevées de puissance et de couple, un coût faible avec une protection contre les risques électriques, une fiabilité fonctionnelle élevée et une qualité de couple élevée. Dans ce contexte, les entraînements de machines synchrones à aimants permanents (PMSM) polyphasées sont devenus des candidats appropriés pour répondre aux exigences citées ci-dessus. L’objectif principal de cette thèse de doctorat vise à proposer et affiner des stratégies de commandes tolérantes aux défauts pour les entraînements de machines PMSM polyphasées non-sinusoïdales qui requièrent moins de contraintes lors de leur conception. Par ailleurs, les contraintes de courant et de tension définies par l’onduleur et la machine sont prises en compte pour optimiser en régime non-sinusoïdal le contrôle de la machine sans dépasser leurs limites admissibles. Cela permet idéalement un dimensionnement au plus juste et cela tout particulièrement dans la zone de défluxage. Les stratégies proposées de commandes tolérantes aux défauts, basées sur le modèle mathématique des entraînements polyphasés, enrichissent le domaine de contrôle des entraînements polyphasés en offrant de diverses options de contrôle. Le choix de l'une des options proposées de commande peut être un compromis entre un couple de haute qualité mais avec une valeur moyenne faible, et un couple moyen élevé mais avec une ondulation relativement élevée. Les performances de contrôle et de couple peuvent être affinées en utilisant l'intelligence artificielle avec un type simple de réseaux de neurones artificiels nommé ADALINE (neurone linéaire adaptatif). Grâce à leur capacité d'auto-apprentissage, à leur convergence rapide et à leur simplicité, les ADALINE peuvent être appliqués aux entraînements polyphasés industriels. Toutes les stratégies de contrôle proposées dans cette thèse de doctorat sont validées avec un entraînement d’une machine PMSM à sept phases. La force électromotrice non-sinusoïdale de la machine PMSM à sept phases, relevée expérimentalement, est complexe avec la présence de plusieurs harmoniques. Les résultats expérimentaux vérifient l'efficacité des stratégies proposées, et leur applicabilité dans une machine polyphasée avec une force électromotrice non-sinusoïdale complexe
Electric drives for electrified vehicles need to fulfil some specific requirements from automotive markets such as high efficiency, high volume power and torque densities, low-cost but safe-to-touch, high functional reliability, high torque quality, and flux-weakening control. In this context, multiphase permanent magnet synchronous machine (PMSM) drives have become suitable candidates to meet the above requirements. The main objective of this doctoral thesis is to propose and refine fault-tolerant control strategies for non-sinusoidal multiphase PMSM drives that require less constraints on their design. In addition, constraints on current and voltage defined by the inverter and the machine are considered to optimize the machine control under the non-sinusoidal condition without exceeding their allowable limits. Therefore, the system sizing is guaranteed, especially in flux-weakening operations. The proposed fault-tolerant control strategies, based on the mathematical model of multiphase drives, enrich the control field of multiphase drives by providing various control options. The selection of one of the proposed control options can be a trade-off between a high quality torque but a low average value and a high average torque but a relatively high ripple. The control and torque performances of the drives can be refined by using artificial intelligence with a simple type of artificial neural networks named ADALINE (ADAptive LInear NEuron). With self-learning ability, fast convergence, and simplicity, ADALINEs can be applied to industrial multiphase drives. All proposed control strategies in this doctoral thesis are validated with an experimental seven-phase PMSM drive. The non-sinusoidal back electromotive force (back-EMF) of the experimental seven-phase PMSM is complex with the presence of multi-harmonics. Experimental results verify the effectiveness of the proposed strategies, and their applicability in a multiphase machine with a complex non-sinusoidal back-EMF
47

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
48

Osorio, Fernando Santos. "INSS : un système hybride neuro-symbolique pour l'apprentissage automatique constructif." Phd thesis, 1998. http://tel.archives-ouvertes.fr/tel-00004899.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs méthodes ont été développées par l'Intelligence Artificielle pour reproduire certains aspects de l'intelligence humaine. Ces méthodes permettent de simuler les processus de raisonnement en s'appuyant sur les connaissances de base disponibles. Chaque méthode comporte des points forts, mais aussi des limitations. La réalisation de systèmes hybrides est une démarche courante Qui permet de combiner les points forts de chaque approche, et d'obtenir ainsi des performances plus élevées ou un champ d'application plus large. Un autre aspect très important du développement des systèmes hybrides intelligents est leur capacité d'acquérir de nouvelles connaissances à partir de plusieurs sources différentes et de les faire évoluer. Dans cette thèse, nous avons développé des recherches sur les systèmes hybrides neuro-symboliques, et en particulier sur l'acquisition incrémentale de connaissances à partir de connaissances théoriques (règles) et empiriques (exemples). Un nouveau système hybride, nommé système INSS - Incremental Neuro-Symbolic System, a été étudié et réalisé. Ce système permet le transfert de connaissances déclaratives (règles symboliques) d'un module symbolique vers un module connexionniste (réseau de neurones artificiel - RNA) à travers un convertisseur de règles en réseau. Les connaissances du réseau ainsi obtenu sont affinées par un processus d'apprentissage à partir d'exemples. Ce raffinement se fait soit par ajout de nouvelles connaissances, soit par correction des incohérences, grâce à l'utilisation d'un réseau constructif de type Cascade-Correlation. Une méthode d'extraction incrémentale de règles a été intégrée au système INSS, ainsi que des algorithmes de validation des connaissances qui ont permis de mieux coupler les modules connexionniste et symbolique. Le système d'apprentissage automatique INSS a été conçu pour l'acquisition constructive (incrémentale) de connaissances. Le système a été testé sur plusieurs applications, en utilisant des problèmes académiques et des problèmes réels (diagnostic médical, modélisation cognitive et contrôle d'un robot autonome). Les résultats montrent que le système INSS a des performances supérieures et de nombreux avantages par rapport aux autres systèmes hybrides du même type.
49

Hallé, Sylvain. "Spécification, validation et satisfiabilité [i.e. satisfaisabilité] de contraintes hybrides par réduction à la logique temporelle." Thèse, 2008. http://www.archipel.uqam.ca/1680/1/D1740.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années, de nombreux champs de l'informatique ont été transformés par l'introduction d'une nouvelle vision de la conception et de l'utilisation d'un système, appelée approche déclarative. Contrairement à l'approche dite impérative, qui consiste à décrire au moyen d'un langage formelles opérations à effectuer pour obtenir un résultat, l'approche déclarative suggère plutôt de décrire le résultat désiré, sans spécifier comment ce «but» doit être atteint. L'approche déclarative peut être vue comme le prolongement d'une tendance ayant cours depuis les débuts de l'informatique et visant à résoudre des problèmes en manipulant des concepts d'un niveau d'abstraction toujours plus élevé. Le passage à un paradigme déclaratif pose cependant certains problèmes: les outils actuels sont peu appropriés à une utilisation déclarative. On identifie trois questions fondamentales qui doivent être résolues pour souscrire à ce nouveau paradigme: l'expression de contraintes dans un langage formel, la validation de ces contraintes sur une structure, et enfin la construction d'une structure satisfaisant une contrainte donnée. Cette thèse étudie ces trois problèmes selon l'angle de la logique mathématique. On verra qu'en utilisant une logique comme fondement formel d'un langage de « buts », les questions de validation et de construction d'une structure se transposent en deux questions mathématiques, le model checking et la satisfiabilité, qui sont fondamentales et largement étudiées. En utilisant comme motivation deux contextes concrets, la gestion de réseaux et les architectures orientées services, le travail montrera qu'il est possible d'utiliser la logique mathématique pour décrire, vérifier et construire des configurations de réseaux ou des compositions de services web. L'aboutissement de la recherche consiste en le développement de la logique CTLFO+, permettant d'exprimer des contraintes sur les données, sur la séquences des opérations d'un système, ainsi que des contraintes dites «hybrides». Une réduction de CTL-FO+ à la logique temporelle CTL permet de réutiliser de manière efficace des outils de vérification existants. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Méthodes formelles, Services web, Réseaux.
50

Rialle, Vincent. "Décision et Cognition en Biomédecine : modèles et Intégration." Habilitation à diriger des recherches, 1994. http://tel.archives-ouvertes.fr/tel-00201144.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thématique centrale de ce mémoire concerne l'Intelligence Artificielle appliquée au diagnostic Médical (IAM). Son orientation repose sur des concepts d'apprentissage automatique de décisions plus que de connaissances pré-définies et figées, d'adaptation à de nouvelles situations plus que de comportements répétitifs et stéréotypés. Au goulot d'étranglement que constitue la construction d'une base de connaissances déclaratives, les systèmes préconisés opposent une utilisation intensive des bases de cas, véritables prolongements sur support informatique de la mémoire à long terme du médecin, et conduisent à l'émergence de capacités classificatoires automatisées au moyen d'algorithmes appropriés.
L'entreprise consistant à programmer une machine afin qu'elle produise des raisonnements habituellement attendus d'un spécialiste met au premier plan quelques difficiles questions relatives au pourquoi et au comment de tels systèmes. Le constat sinon d'échec du moins d'immenses difficultés de mise en œuvre des systèmes à bases de connaissances déclaratives, ouvrent la porte à un retour en force de l'expérience et de la mémoire cumulée de l'activité décisionnelle du praticien au cours des mois et des années de pratique. Dans cette optique, l'expérience emmagasinée sous forme de bases de cas dans la mémoire de l'ordinateur prend le pas sur la connaissance figée et laborieusement élaborée dans une base de connaissances pour la construction d'un système d'IAM. Des systèmes hybrides — permettant d'associer des connaissances déclarées par le spécialiste et des connaissances apprises automatiquement — constituent en quelque sorte un idéal que l'on s'efforce d'atteindre, notamment dans notre projet ESPRIT-III : MIX.
L'introduction de ce mémoire tente de préciser ce passage de la représentation à l'émergence de connaissances qui consacre en quelque sorte l'immersion de l'IAM dans les sciences de la cognition (et qui correspond en gros à mon parcours de chercheur depuis une douzaine d'années). Divers aspects de la problématique générale de la construction de classifieurs y sont abordés et une présentation succincte des diverses approches de l'émergence est proposée (connexionnisme, algorithmique génétique, induction...) et illustrée par le projet COGNIMED.
Autour et parfois en marge de cette problématique centrale, s'ordonnent un certain nombre de travaux que j'ai pu conduire ces dernières années dans les domaines de la psychiatrie-psychologie, de l'analyse textuelle et de la "philosophie de l'esprit". Ces travaux sont également évoqués.

Le mémoire est structuré en quatre parties principales et une annexe :
- Une partie introductive présentant de manière synthétique la thématique générale de recherche ainsi qu'un bref état de l'art du domaine dans lequel se placent mes travaux. La présentation des problèmes et des orientations de ce domaine sera appuyée par une bibliographie propre à l'introduction.
- La première partie est consacrée à la description des recherches qui ont été effectuées depuis une dizaine d'années. Outre la description des thèmes de recherche, cette partie inclut la présentation de quelques articles et résumés de travaux.
- La deuxième partie donne une liste complète et structurée des publications, communications, posters, etc.
- La troisième partie, orientée vers le futur, est consacrée aux projets imminents et aux perspectives de recherche et de développement à moyen terme.
- L'annexe présente l'activité d'encadrement d'étudiants de troisième cycle, directement liée aux activités d'enseignement et de recherche.

To the bibliography