Дисертації з теми "Modèles à base d'énergies"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Modèles à base d'énergies.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Modèles à base d'énergies".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Guillon, Damien. "Étude des mécanismes d'absorption d'énergie lors de l'écrasement progressif de structures composites à base de fibre de carbone." Toulouse, ISAE, 2008. http://www.theses.fr/2008ESAE0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maîtrise du comportement en cas de crash des structures en matériaux composites est une des difficultés qui accompagnent le développement industriel de ces structures. Le composite peut absorber de grandes quantités d'énergie si la structure s'écrase progressivement. Cette thèse vise à améliorer la compréhension des mécanismes de ruine mis en jeu dans ces fronts d’écrasements progressifs. Un montage expérimental innovant a été conçu. Il permet l'écrasement homogène, visualisé en direct, de plaques stratifiées. Une campagne expérimentale a permis d'obtenir une variété intéressante de mode de ruine. L'initiation, la stabilisation et les mécanismes d'absorption d'énergie dans les fronts d'écrasement sont analysés. Les relations entre chaque mode de ruine et l'influence des paramètres matériaux et expérimentaux sont expliquées. Une classification synthétique des modes de ruine est exposée. La modélisation numérique d'un front à l'échelle mésoscopique est proposée. Certains modes de ruine sont reproduits avec précision. Les mécanismes de ruine sont clairement identifiables et la contribution de chacun à l'absorption d'énergie est quantifiée.
2

Mabon, Jules. "Apprentissage de modèles de géométrie stochastique et réseaux de neurones convolutifs. Application à la détection d'objets multiples dans des jeux de données aérospatiales." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les drones et les satellites en orbite basse, dont les CubeSats, sont de plus en plus utilisés pour la surveillance, générant d'importantes masses de données à traiter. L'acquisition d'images satellitaires est sujette aux perturbations atmosphériques, aux occlusions et à une résolution limitée. Pour détecter de petits objets, l'information visuelle est limitée. Cependant, les objets d'intérêt (comme les petits véhicules) ne sont pas uniformément répartis dans l'image, présentant des configurations spécifiques.Ces dernières années, les Réseaux de Neurones Convolutifs (CNN) ont montré des compétences remarquables pour extraire des informations, en particulier les textures. Cependant, modéliser les interactions entre objets nécessite une complexité accrue. Les CNN considèrent généralement les interactions lors d'une étape de post-traitement.En revanche, les processus ponctuels permettent de modéliser la vraisemblance des points par rapport à l'image et leurs interactions simultanément. La plupart des modèles stochastiques utilisent des mesures de contraste pour la correspondance à l'image ; elles sont adaptées aux objets à contraste fort et faible complexité du fond. Cependant, les petits véhicules sur les images satellitaires présentent divers niveaux de contraste et une grande variété d'objets de fond et de fausses alarmes.Cette thèse de doctorat propose d'utiliser les CNN pour l'extraction d'informations, combinées aux processus ponctuels pour modéliser les interactions, en utilisant les sorties CNN comme données. De plus, nous introduisons une méthode unifiée pour estimer les paramètres du modèle de processus ponctuel. Nos résultats montrent l'efficacité de ce modèle sur plusieurs jeux de données de télédétection, avec régularisation géométrique et robustesse accrue pour un nombre limité de paramètres
Unmanned aerial vehicles and low-orbit satellites, including CubeSats, are increasingly used for wide-area surveillance, generating substantial data for processing. Satellite imagery acquisition is susceptible to atmospheric disruptions, occlusions, and limited resolution, resulting in limited visual data for small object detection. However, the objects of interest (e.g., small vehicles) are unevenly distributed in the image: there are some priors on the structure of the configurations.In recent years, convolutional neural network (CNN) models have excelled at extracting information from images, especially texture details. Yet, modeling object interactions requires a significant increase in model complexity and parameters. CNN models generally treat interaction as a post-processing step.In contrast, point processes aim to simultaneously model each point's likelihood in relation to the image (data term) and their interactions (prior term). Most point process models rely on contrast measures (foreground vs. background) for their data terms, which work well with clearly contrasted objects and minimal background clutter. However, small vehicles in satellite images exhibit varying contrast levels and a diverse range of background and false alarm objects.In this PhD thesis, we propose harnessing CNN models information extraction abilities in combination with point process interaction models, using CNN outputs as data terms. Additionally, we introduce a unified method for estimating point process model parameters. Our model demonstrates excellent performance on multiple remote sensing datasets, providing geometric regularization and enhanced noise robustness, all with a minimal parameter footprint
3

Laurencelle, François. "Étude d'un système d'énergies renouvelables à base d'hydrogène." Thèse, Université du Québec à Trois-Rivières, 2001. http://depot-e.uqtr.ca/2787/1/000681120.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Weibel, Thomas. "Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00866824.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de faciliter le diagnostic du cancer de la vessie. Durant une cystoscopie, un endoscope est introduit dans la vessie pour explorer la paroi interne de l'organe qui est visualisée sur un écran. Cependant, le faible champ de vue de l'instrument complique le diagnostic et le suivi des lésions. Cette thèse présente des algorithmes pour la création de cartes bi- et tridimensionnelles à large champ de vue à partir de vidéo-séquences cystoscopiques. En utilisant les avancées récentes dans le domaine de la minimisation d'énergies discrètes, nous proposons des fonctions coût indépendantes des transformations géométriques requises pour recaler de façon robuste et précise des paires d'images avec un faible recouvrement spatial. Ces transformations sont requises pour construire des cartes lorsque des trajectoires d'images se croisent ou se superposent. Nos algorithmes détectent automatiquement de telles trajectoires et réalisent une correction globale de la position des images dans la carte. Finalement, un algorithme de minimisation d'énergie compense les faibles discontinuités de textures restantes et atténue les fortes variations d'illuminations de la scène. Ainsi, les cartes texturées sont uniquement construites avec les meilleures informations (couleurs et textures) pouvant être extraites des données redondantes des vidéo-séquences. Les algorithmes sont évalués quantitativement et qualitativement avec des fantômes réalistes et des données cliniques. Ces tests mettent en lumière la robustesse et la précision de nos algorithmes. La cohérence visuelle des cartes obtenues dépasse celles des méthodes de cartographie de la vessie de la littérature.
5

Weibel, Thomas. "Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0070.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de faciliter le diagnostic du cancer de la vessie. Durant une cystoscopie, un endoscope est introduit dans la vessie pour explorer la paroi interne de l'organe qui est visualisée sur un écran. Cependant, le faible champ de vue de l'instrument complique le diagnostic et le suivi des lésions. Cette thèse présente des algorithmes pour la création de cartes bi- et tridimensionnelles à large champ de vue à partir de vidéo-séquences cystoscopiques. En utilisant les avancées récentes dans le domaine de la minimisation d'énergies discrètes, nous proposons des fonctions coût indépendantes des transformations géométriques requises pour recaler de façon robuste et précise des paires d'images avec un faible recouvrement spatial. Ces transformations sont requises pour construire des cartes lorsque des trajectoires d'images se croisent ou se superposent. Nos algorithmes détectent automatiquement de telles trajectoires et réalisent une correction globale de la position des images dans la carte. Finalement, un algorithme de minimisation d'énergie compense les faibles discontinuités de textures restantes et atténue les fortes variations d'illuminations de la scène. Ainsi, les cartes texturées sont uniquement construites avec les meilleures informations (couleurs et textures) pouvant être extraites des données redondantes des vidéo-séquences. Les algorithmes sont évalués quantitativement et qualitativement avec des fantômes réalistes et des données cliniques. Ces tests mettent en lumière la robustesse et la précision de nos algorithmes. La cohérence visuelle des cartes obtenues dépassent celles des méthodes de cartographie de la vessie de la littérature
The aim of this thesis is to facilitate bladder cancer diagnosis. The reference clinical examination is cystoscopy, where an endoscope, inserted into the bladder, allows to visually explore the organ's internal walls on a monitor. The main restriction is the small field of view (FOV) of the instrument, which complicates lesion diagnosis, follow-up and treatment traceability.In this thesis, we propose robust and accurate algorithms to create two- and three-dimensional large FOV maps from cystoscopic video-sequences. Based on recent advances in the field of discrete energy minimization, we propose transformation-invariant cost functions, which allow to robustly register image pairs, related by large viewpoint changes, with sub-pixel accuracy. The transformations linking such image pairs, which current state-of-the-art bladder image registration techniques are unable to robustly estimate, are required to construct maps with several overlapping image trajectories. We detect such overlapping trajectories automatically and perform non-linear global map correction. Finally, the proposed energy minimization based map compositing algorithm compensates small texture misalignments and attenuates strong exposure differences. The obtained textured maps are composed by a maximum of information/quality available from the redundant data of the video-sequence. We evaluate the proposed methods both quantitatively and qualitatively on realistic phantom and clinical data sets. The results demonstrate the robustness of the algorithms, and the obtained maps outperform state-of-the-art approaches in registration accuracy and global map coherence
6

Bensmaine, Fayçal. "Modélisation et commande d'un système de stockage d'énergie à base de supercondensateur pour l'hybridation des groupes électrogènes." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2341.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de recherche dans ce mémoire s’inscrivent dans l'étude et la commande d'un nouveau concept du groupe électrogène hybride permettant de réduire la puissance du moteur diesel (downsizing) d’économiser du carburant et d’améliorer le comportement de la génératrice synchrone durant les régimes transitoires. La solution adoptée consiste à mettre en parallèle à la génératrice synchrone un système de stockage d'énergie. Ce système est composé d'un onduleur avec un supercondensateur du côté du bus continu. L’objectif de la thèse a été de dimensionner l’ensemble supercondensateur /convertisseur statique et de développer une commande ayant des performances optimales pour obtenir le meilleur compromis entre l’énergie échangée dans le supercondensateur et l’efficacité sur la vitesse du groupe et sur l’amplitude des tensions de l’alternateur. Une commande par retour d’état avec intégration de l’écart en utilisant l’approche LMIs a été mise en place pour la synthèse des régulateurs des boucles de courants de l'onduleur. Une deuxième commande a été développée pour réguler la tension variable aux bornes du supercondensateur. Un simulateur regroupant l’alternateur et le système de stockage a été développé pour la mise au point de ces commandes. Toutes les validations ont été faites sur une maquette expérimentale spécifiquement élaborée pour cette thèse. Les essais ont été menés avec un moteur d’entraînement électrique et sur un diesel. En conclusion, les essais expérimentaux ont mis en évidence l’apport important de cette hybridation sur les variations de vitesse du diesel et sur la tension aux bornes de l’alternateur lors d’important impact ou de délestage de la charge
The research in this thesis are part of study and control of a new concept of hybrid generator to reduce the power of the diesel engine (downsizing) in order to save fuel and improve the behavior of the synchronous generator during transients. The adopted solution is to place in parallel with the synchronous generator an energy storage system. The latter consists of an inverter with a super capacitor on the DC bus. The aim of the thesis was to scale the entire supercapacitor / static converter and to develop a control law having the best performance with the best compromise between the energy exchanged in the supercapacitor, efficiency, the group speed and voltage amplitude of the generator. A feedback control condition with integration of the deviation using LMI's approach has been established for the synthesis of loop current regulators from the inverter.A second control law was developed to regulate the variable voltage across the supercapacitor. A simulator combining generator and storage system has been developed to test these commands.All validations were made on an experimental test rig specifically developed for this thesis. The tests were conducted with an electric drive motor in the test platform of the LIAS and with a diesel in that of the Leroy Somer Motors company.Finally, experimental tests have highlighted the significant contribution of this hybridization on the diesel speed variationsand on the terminal voltage of the alternator during impact or load shedding
7

Olivier, Pierre. "Estimation de performances et de consommation énergétique de systèmes de stockage à base de mémoire flash dans les systèmes embarqués." Thesis, Lorient, 2014. http://www.theses.fr/2014LORIS346/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Maitriser et optimiser les performances et la consommation énergétique dans les systèmes embarqués est aujourd'hui crucial. Pour ce faire, des techniques d'estimation de ces métriques sont utilisées dans des environnements où la réalisation de mesures est difficile. Ce travail cible l'évaluation des performances et de la consommation énergétique du service du stockage secondaire dans un système d'exploitation embarqué utilisant une mémoire flash NAND. L'un des moyens de gérer ce type de média est l'utilisation de systèmes de fichiers dédiés (Flash File Systems, FFS), pour lequel on peut constater un manque de travaux dans la littérature concernant les techniques d'estimation des performances et de la consommation. Les contributions apportées dans cette thèse s'articulent autour d'une méthodologie de modélisation pour l'estimation des performances et de la consommation des systèmes de stockage embarqués de type FFS. Cette méthodologie est divisée en trois phases. En phase d'exploration on identifie, via des micro-benchmarks, les éléments du système de stockage impactant les performances et la consommation du système embarqué. En phase de modélisation, cet impact est représenté sous la forme de modèles de différents types, dont les principaux sont les modèles fonctionnels, de performances et de consommation. Les paramètres de ces modèles sont extraits via des mesures. En phase de simulation, les modèles sont implémenté dans un simulateur, développé dans le cadre de cette thèse, permettant d'obtenir des estimations concernant les performances et la consommation d'un système de stockage à base de mémoire flash soumis à une charge d'entrées / sorties donnée
Controlling and optimizing embedded system performance and power consumption is critical. In this context, estimation techniques are used when performing measurement campaigns is difficult due to time or financial constraints. This work targets the performance and power consumption evaluation of the secondary storage service in an embedded operating system using NAND flash memory. One way to manage flash memory is to used dedicated Flash File Systems (FFS). One can observe a lack of work in the literature concerning FFS performance and power consumption estimation techniques.The contributions presented in this thesis rely on a three steps performance and power consumption modeling methodology. During the exploration phase, we identify through micro-benchmarking the main elements of a FFS based system impacting performance and power consumption of the embedded system. In the modeling phase, this impact is represented by building models of various types. The main models types are the functional, performance and power consumption models. Models parameters are extracted through measurements on a real platform. During the simulation phase the models are implemented in a simulator. This tool allows obtaining performance and power consumption estimations concerning a flash-based storage system processing a given I/O workload
8

Legsai-Talmi, Ghizlane. "Calcul de géométries et d'énergies moléculaires par mécanique moléculaire : programmes satellites du programme EMO, volume moléculaire, paramétrisation des métaux." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le theme de la presente these est l'etude de geometries et d'energies moleculaires par mecanique moleculaire. Nous avons d'une part teste la mecanique moleculaire sur de nombreuses molecules organiques et sur des molecules organometalliques, d'autre part facilite la mise en uvre de methodes connues en les reprogrammant, et mis au point de nouvelles methodes. Plus precisement ont ete examinees: 1) la gestion des parametres de mecanique moleculaire 2) le stockage et l'analyse statistique des geometries 3) la prediction de la densite cristalline en utilisant une methode basee sur la connaissance de la geometrie precise des molecules 4) la chaleur de formation des molecules. Un logiciel mettant en uvre une methode incrementielle a ete concu 5) la geometrie de complexes organometalliques. Dans certains complexes la configuration electronique du metal est introduite dans le calcul de mecanique moleculaire. Les resultats obtenus montrent la fiabilite des methodes de calcul par mecanique moleculaire pour la prediction des volumes et des chaleurs de formation et pour l'etude des geometries des molecules organometalliques
9

Roth, Anastasia. "Développement de méthodologies génériques pour la conception optimale et durable des parcs hybrides d'énergies renouvelables." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les enjeux planétaires du développement durable et du réchauffement climatique remettent en cause le fonctionnement de nos sociétés. La transition énergétique se traduit notamment par l’augmentation de l’utilisation des énergies renouvelables et constitue ainsi le contexte de nos travaux. Dans le cadre d’un contrat CIFRE avec l’entreprise VALOREM, nous proposons des méthodologies pour le développement et la conception d’installations renouvelables soutenables. L’approche d’Ingénierie Des Modèles mise en place nous permet de garder une démarche scientifique cohérente entre une vue très générale du contexte d’insertion des renouvelables et une vision plus technique et opérationnelle pour le développement d’installations renouvelables. Dans un premier temps, nous avons décrit de manière macroscopique le contexte d’insertion des énergies renouvelables en France, en proposant un cadre conceptuel pour le développement de projet d’aménagement du territoire. Il permet l’analyse des systèmes sociotechniques en transition grâce à une formalisation UML2 d’une part, et une méthode d’évaluation de la durabilité d’un processus d’autre part. Nous avons illustré ce cadre sur deux cas d’étude : le succès du développement de la centrale hydro-éolienne de l’île d’El Hierro dans les Canaries et l’échec du barrage de Sivens dans le Tarn en France. Par comparaison, nous montrons que l’implication des parties prenantes sur l’ensemble du processus de développement est cruciale pour le succès d’un projet. Nous avons ensuite proposé une implémentation logicielle permettant le suivi et le pilotage de projet d’aménagement du territoire en temps réel à l’aide d’outils d’intelligence artificielle. Conscient des limites opérationnelles de notre proposition, nous avons décidé de changer de point de vue pour adopter une vision plus technique sur les énergies renouvelables. La transition énergétique fait évoluer le système électrique français d’un modèle centralisé vers un modèle décentralisé, ce qui amène VALOREM à reconsidérer ses propositions techniques de production d’énergies renouvelables. Entre autre, l’entreprise tend vers l’hybridation de ses centrales et constate le besoin d’un outil de dimensionnement en phase d’avant-projet, afin d’identifier les opportunités d’activités. Nous faisons donc la proposition d’un prototype logiciel qui se veut flexible en termes de modélisation des centrales de production hybrides renouvelables et en termes de définition des objectifs et contraintes à satisfaire. Il est codé en C++ et basé sur des modèles d’optimisation linéaires. Nous illustrons son opérationnalité sur quatre cas d’étude : deux orientés marché électrique et deux en autoconsommation (l’un isolé, l’autre connecté au réseau). Les résultats des études montrent que les coûts de stockage batterie sont trop élevés pour pouvoir envisager l’installation de batteries dans les centrales hybrides renouvelables. Les systèmes en autoconsommation connectés au réseau semblent être plus prometteurs. Enfin, nous terminons par une analyse environnementale de différentes sources de production électrique afin de déterminer celles vers lesquelles la transition énergétique doit être axée. Les résultats montrent que la biomasse, l’éolien et le PV au sol sont les moyens de production les plus propres. La conclusion de la thèse propose une réflexion ascendante en complexité vers l’implication des acteurs dans les modèles de processus de développement territoriaux
Sustainable growth issues and climate change imply to shift our society organisation towards new paradigms. In the energy sector, it is illustrated by an energy transition via renewables. Within this context and the support of the company VALOREM, we propose a methodology for the sustainable development and design of renewable infrastructures. By using a Model Driven Engineering approach, we were able to adopt several viewpoints on renewable energy issues, while keeping a consistent scientific approach. First of all, from a holistic stance, we developed a conceptual framework for land settlement development process. Thanks to its modelling with UML2 and a methodology to assess the sustainability of processes, it can be used to analyse the trajectory of sociotechnical systems. The framework was tested on two case studies: the success of El Hierro hydrowind power plant implementation in Canary Islands and the failure of the Sivens dam project in the south of France. Their comparison shows that implication of stakeholders at all stages of the development process is crucial for the success of the project. We further propose to implement the conceptual framework as a software tool for the monitoring of land settlement project in real time, with the help of artificial intelligence concepts. However, this proposition was deemed not in line with Valorem’s priorities and we decided to focus on a technical instantiation of the framework for Hybride Renewable Energy Systems (HRES), which design and operation are part of VALOREM’s activity. As, the energy transition implies to change the electrical system model from a centralized to a decentralized one, there exists a need for a grassroots sizing tool for identifying new HRES opportunities. A software prototype for the grassroot optimal design of HRES was developed, offering flexibility in terms of modelling, setting constraints and defining objective functions. It is coded in C++ and based on linear programming model. We showed its relevance on four HRES case studies: two related to electricity market and two for self-supply of energy (one isolated and the other grid-connected). The results show that battery costs are too high to be profitable in HRES and that grid-connected systems seems to be a good alternative. Finally, we carried out an environmental impact assessment of several sources of electricity production to find out which are the “cleaner” ones. The results show that biomass, wind turbines and ground PV are those that should be considered for a sustainable energy transition. In the conclusion, we step back to a more complex viewpoint and develop perspectives to model human interactions within territory development process
10

Grignard, Arnaud. "Modèles de visualisation à base d'agents." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066268/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
11

Grignard, Arnaud. "Modèles de visualisation à base d'agents." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066268.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
12

Maupetit, Julien. "Génération ab initio de modèles protéiques à partir de représentations discrètes des protéines et de critères d'énergie simplifiés." Paris 7, 2007. http://www.theses.fr/2007PA077194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans l'ère post-génomique, de nombreuses protéines identifiées par leur séquence demeurent de structure inconnue, non résolue expérimentalement, et non accessibles aux méthodes de modélisation comparative. L'objet de mon travail de thèse a été d'explorer une approche de prédiction de novo de la structure des protéines. Cette méthode est fondée sur le concept d'alphabet structural, c'est à dire une description de la structure locale des protéines utilisant un nombre réduit de conformations prototypes. A partir de la seule séquence en acides aminés de la structure à prédire, nous avon mis en place une méthode de prédiction de fragments candidats de taille variable, couvrant plus de 98,6% de la structure de la protéine pour une taille moyenne 6,7 résidus. Les fragments prédits nous permettent d'approximer les structures protéiques avec une précision moyenne de 2,2 angströms. L'assemblage de ces fragments est réalisé par un algorithme glouton. Le champ de force OPEP a été optimisé puis implémenté dans l'algorithme glouton pour évaluer la pertinence des modèles générés. L'évaluation, en aveugle, de la méthode a été réalisée, pour la première fois, lors de notre participation à CASP7, ce qui nous a permis d'identifier les faiblesses de la méthode. A l'heure actuelle, l'amélioration du champ de force et de la procédure d'assemblage des fragments, nous permet, dans certains cas, de donner des résultats au niveau ou meilleurs que les serveurs réputés du domaine
In a post-genomic context, plenty of proteins identified by their sequence have no experimentally resolved structure, and fall out the range of application of comparative modelling methods. The goal of my PHD thesis has been to explore a new de novo protein structure prediction approach. Thus approach is based on the concept of structural alphabet, i. E. Of a local description of protein architecture by using a small number of prototype conformations. Starting from the amino acids sequence of the protein to model, we have developed a candidate fragments prediction method covering mode than 98. 6% of the protein structure with an average length of 6. 7 residues. This set of predicted fragments can approximate the protein structures with a precision of less than 2. 2 angströms. A greedy algorithm have been developed in the laboratory to assemble fragments. The OPEP force field has been optimized and then implemented in the greedy assembling procedure to evaluate the relevance of the generated models. Our participation to the CASP7 experiment came out some weaknesses of the method. For now, the improvement of the OPEP force field and the fragment assembly procedure leeds us to generate, in some cases, models as relevant or better than other famous protein structure prediction servers
13

Fadiga, Lamine. "Commande h∞ à base de modèles non entiers." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0090/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les études menées permettent d’étendre la méthodologie de commande H∞ aux modèles décrits par des équations différentielles faisant intervenir des ordres de dérivation non entiers. Deux approches sont proposées. La première consiste à réécrire le modèle non entier comme un modèle entier incertain afin de pouvoir utiliser les méthodes de commande H∞ développées pour les modèles entiers. La seconde approche consiste à développer des conditions LMI spécifiques aux modèles non entiers à partir de leur pseudo représentation d’état. Ces deux approches sont appliquées à l’isolation vibratoire d’un pont
The general theme of the work enables to extend H∞ control methodology to fractional order models. Two approaches are proposed. The first one consists in rewriting the fractional order model as an uncertain integer order model in order to use existing H∞ control methods for integer order models. The second approach consists in developing specific LMI conditions for fractional order models based on their pseudo state space representation. These two approaches are applied to the vibratory isolation of a bridge
14

Bagga, Mohamed Walid. "Cryptographie à base de politiques : théorie et applications." Paris, ENST, 2006. http://www.theses.fr/2006ENST0035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La cryptographie à base d'identités est l'un des sujets les plus étudiés par la communauté de recherche en cryptographique au cours des cinq dernières années. Alors que la notion d'identité est centrale aux primitives cryptographiques à base d'identités, elle est généralement insuffisante pour l'établissement de crédibilité, particulièrement dans les environnements ouverts à grande échelle, où les interactions se produisent souvent entre entités sans connaissance préalable les unes des autres. Une approche populaire pour déterminer la cédibilité des entités communicantes consiste à utiliser des politiques remplies pas des certificats numériques. Cette thèse présente le concept de cryptographie à base de politiques qui permet d'effectuer des opérations cryptographiques par rapport à ce genre de politiques. Intuitivement, un chiffrement à base de politiques permet de chiffrer un message par rapport à une politique de sorte que seule une entité conforme à la politique puisse déchiffrer le message, alors qu'une signature à base de politiques permet de signer un message par rapport à une politique de sorte que la signature soit valide si et seulement si elle ait été produite par une entité conforme à la politique. Nous présentons trois primitives de cryptographie à base de politiques utilisant les couplages bilinéaires et nous prouvons leur sécurité par rapport à des modèles de sécurité adaptés. Par ailleurs, nous validons l'utilité de notre concept à travers la description d'applications dans divers contextes: contrôle d'accès, renforcement de politiques de protection de vie privée, établissement de communautés ad-hoc, négociation de confiance et certification intermédiaire
Identity-based cryptography’ is one of the most popular topics addressed by the cryptographic research community in the last five years. As can be guessed from the name, the notion of ‘identity’ is central to identity-based cryptographic primitives. In general, identity is not sufficient for authorization and trust establishment, especially in the context of large-scale open environments like the Internet, where interactions often occur between parties with no pre-existing familiarity of one another. An increasingly popular approach to determining the trustworthiness of the interacting entities consists in using policies fulfilled by digital credentials. In this thesis, we present a new concept in cryptography, called ‘policy-based cryptography’, which allows to perform cryptographic operations with respect to policies fulfilled by digital credentials. Intuitively, a policy-based encryption scheme allows to encrypt a message with respect to a policy so that only an entity that is compliant with the policy can decrypt the message. Similarly, a policy-based signature scheme allows to generate a signature on a message with respect to a policy so that the signature is valid if and only if it was generated by an entity that is compliant with the policy. We present three policy-based cryptographic primitives from bilinear pairings over elliptic curves and prove their security under well-defined security models. We further illustrate the usefulness of our concept through the description of application scenarios in the contexts of access control, privacy policy enforcement, establishment of ad-hoc communities, automated trust negotiation and proxy certification
15

Sossa, Humberto. "Reconnaissance d'objets polyédriques par indexation dans une base de modèles." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00341784.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse au probleme de la reconnaissance d'objets en présence d'une vaste base de modèles. L'indexation de modèles peut être décrite comme suit: étant donne un groupe d'indices image, extraire rapidement de la base de modèles, les modèles contenant le groupe d'indices. La combinatoire du paradigme classique d'appariement indices-modèles étant prohibitive dans ce cas, nous proposons une methode d'indexation par une technique de hachage de graphes. Nous décrivons d'abord les principes: codage d'image et des modelés sous une forme de graphes, gestion d'une base de modèles par tables hash-codees, comparaison de graphes sur la base de leur caractérisation polynomiale, accès a la base de modèles. Ensuite, nous décrivons le système mis en œuvre selon ces principes, et nous présentons quelques résultats d'expérimentation
16

El, Harabi Rafika. "Supervision des processus chimiques à base de modèles Bond Graphs." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10074/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse proposé concerne la conception intégrée des algorithmes de surveillance des processus chimiques à base de modèles bond graph. Cette recherche est réalisée dans le cadre de la thématique «Bond graphs pour la supervision des procédés énergétiques» développée entre l’Université de Gabés (Tunisie) et l’Ecole Polytechnique Universitaire de Lille (France). Les processus chimiques sont des procédés polluants et à risque. Ils nécessitent alors pour la protection de l’environnement et du personnel des systèmes de surveillance en ligne pour la détection précoce et l’identification des défaillances. Un processus chimique est le siège de phénomènes de nature diverse : chimiques et ou biochimiques, thermo-fluidique, …. Leur modélisation nécessite alors une approche unifiée. L’outil bond graph par son caractère multidisciplinaire est bien adapté à cette tâche. D’autre part, cet outil peut aussi être utilisé pour la conception d’algorithmes de diagnostic grâce à ses propriétés comportementales, causales et structurelles et déterminer ainsi les conditions de surveillabilité structurelle des équipements pertinents sans calcul numérique. Les principales scientifiques contributions peuvent être résumées comme suit : (i) élaboration d’une bibliothèque de modèles Bond Graph de composants et phénomènes chimiques (ii) méthodologie de diagnostic à base de bond graphs pour la génération d’indicateurs de fautes sensibles à l’apparition des réactions secondaires sources de pollution et d’explosion, (iii) diagnostic robuste aux incertitudes paramétriques du modèle Bond Graphs couplés, (iv) informatisation des procédures d’analyse de surveillabilité d’une classe de procédés chimiques, (v) application à un procédé réel (installation d’estérification)
The proposed Ph.D. thesis deals with integrated design of bond graph model based for health monitoring of chemical processes. This research work is performed within the framework of the topic “Bond graphs for supervision of energetic processes" developed between the University of Gabés (Tunisia) and “Polytech’Lille”, the Engineering School within the University of Science and Technology of Lille. The chemical processes are polluting processes and with risk. They need, for staff safety and environmental protection, online surveillance for early detection and the identification of the failures. chemical processes occur phenomena of various nature: chemical and or biochemical, thermo-fluidic… Their modeling requires a unified approach. The Bond graph as a multidisciplinary tool is well suited to this task.Furthermore, this tool can be used also for the design of diagnosis algorithms thanks to its behavioral, causal and structural properties, and allows providing structural diagnosability conditions of the pertinent equipment without numerical calculation. The main scientific contributions of this research can be summarized as follows: (i)elaboration of a data base of dynamic bond graph models of components and chemical phenomena, (ii) methodology of bond graph model based diagnosis for systematic generation of fault indicators sensitive to the appearance of the secondary reactions source of pollution and explosion, (iii) robust diagnosis based on coupled uncertain bond graph model, (iv) computerization of the diagnosability analysis procedures applied to a class of a chemical process, (v) application to a real process (installation of esterification)
17

Roué, Séverine. "Nouveaux modèles de fils et de diodes moléculaires à base d'organofers." Rennes 1, 2002. http://www.theses.fr/2002REN10113.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit décrit la synthèse et les propriétés de nouveaux composés modèles pour l'électronique moléculaire à base d'un synthon organofer électroactif. Les complexes hétérobinucléaires rhénium-fer à ligand pontant diéthynylbenzène sont des modèles de diodes moléculaires photoluminescentes et éléctro-commutable : la photoluminescence étant activée par oxydation du fragment fer. Les études spectroscopiques menées sur les complexes symétriques cationiques à ligand heptadiyndiyle et octadiyndiyle montrent que le transfert d'électron a lieu à travers le ligand pontant saturé. Deux complexes binucléaires organofer symétriques à ligand polyalcynylthiophène ont été isolés sous trois degrés d'oxydations. Les interactions d'échange magnétique diminuent avec l'allongement de l'espaceur. Le complexe à valence mixte possédant 16 atomes de carbone dans l'espaceur présente le plus fort paramètre de couplage électronique observé à ce jour pour une distance intramoléculaire proche de 20 angströms.
18

Messai, Nadhir. "Surveillance du trafic urbain et interurbain à base de modèles neuronaux." Besançon, 2003. http://www.theses.fr/2003BESA2033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réduction des effets des congestions non récurrentes est un défi capital que les centres de gestion du trafic essayent de relever en se dotant de certains outils de surveillance. Cependant, les algorithmes de détection généralement employés relèvent de l'ingénierie de trafic plus que de la surveillance des systèmes et sont incompatibles avec les contraintes opérationnelles de l'exploitation des infrastructures. Ce travail présente une approche de surveillance à base de modèles neuronaux et apporte des arguments en faveur de l'utilisation des réseaux de neurones artificiels (RdN) en proposant des modèles et des algorithmes qui remédient à certaines limitations des approches classiques. Au niveau de la modélisation, les RdN sont utilisés d'une façon simple et systématique pour extraire des diagrammes fondamentaux (DF) qui ne nécessitent aucun effort de calibrage. Par ailleurs, nous formulons des algorithmes d'initialisation permettant de pallier à la difficulté de convergence vers des minima locaux très éloignés du minimum global. Les RdN sont également employés en tant que modèle prédicteur du débit. Cette approche de modélisation a l'avantage de s'affranchir des difficultés théoriques et expérimentales liées à la validation des modèles existants car elle s'appuie sur une procédure de validation systématique. Au niveau de la surveillance, nous proposons, dans un premier temps, un algorithme à base de modèle statique. La détection des incidents résulte d'une segmentation de l'espace débit/densité en quatre régions et de la classification des mesures dans l'une de ces zones. Afin de pallier aux limitations de cet algorithme statique, nous nous sommes intéressés à une approche de surveillance basée sur l'analyse de résidus issus de la comparaison du fonctionnement réel avec celui du modèle prédicteur du débit. Par ailleurs, nous développons une procédure alternative qui repose sur quatre réseaux récurrents connectés entre eux. Enfin, la problématique de la supervision du trafic au niveau d'un réseau routier est abordée. Des schémas modulaires et hiérarchiques basés sur des réseaux de Petri sont proposés. Ces schémas présentent l'intérêt de permettre un suivi temporel et spatial de la propagation des incidents et des congestions. Les approches de modélisation et de surveillance développées sont testées et comparées sur deux cas réels : un carrefour urbain de la ville de Nancy et une portion de l'autoroute Californienne I-880
The minimization of the effects of the nonrecurring congestions is a capital challenge that the management traffic centres try to raise using traffic monitoring tools. However, the algorithms employed are generally based on some heuristics and they are incompatible with the operational constraints of exploitation. This work presents a monitoring approach based on neural networks models and gives some arguments in favour of the use of neural networks (NN) for traffic modelling and monitoring. In the context of traffic modelling, NN are used in a simple and systematic way to extract fundamental diagrams (DF) which do not require any calibration effort. In addition, we formulate initialization algorithms which avoid the convergence towards local minima which are very far away from the global minimum. NN are also employed as models that predict the traffic flow. This modelling approach, which is based on a systematic validation procedure, has the advantage to keep away from the theoretical and the experimental difficulties related to the validation of the existing models. Once the modelling phase is achieved, we were interested in the monitoring problems. In this context, we propose, in a first stage, an algorithm based on the static model (DF). The incidents detection results from a segmentation of the space debit/density in four areas and the classification of the measured data in one of these areas. In order to take the edge off the limitations of this static algorithm, we were interested in a monitoring approach, which is based on the analysis of residues resulting from the comparison of real data with those obtained from the prediction model. Furthermore, we develop an alternative procedure which mixes four recurring networks. Lastly, the problem of traffic supervision on a network is tackled. Modular and hierarchical schemas which deal with this difficulty are proposed. These schemas are based on Petri nets and they have the potential to allow a temporal and a spatial observation of incidents and congestions propagations. The modeling and monitoring proposed approaches are tested and compared on two real systems: an urban crossroads of the town of Nancy and a portion of the Californian freeway I-880
19

Elouali, Nadia. "Approche à base de modèles pour la construction d’applications mobiles multimodales." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10084/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd'hui, les smartphones intègrent une grande variété de capteurs tel que l’accéléromètre, le capteur de lumière, le capteur d'orientation, etc. Créé pour détecter les informations du contexte, ces capteurs ont permis également l’apparition des nouvelles modalités d'interaction comme par exemple le secouage du téléphone ou la modification de son orientation. L’utilisation de ces modalités réduit les restrictions d’interaction avec les smartphones et ouvrent la voie à une grande expansion des interactions multimodales sous mobiles. Malheureusement, le contexte actuel de développement des logiciels mobiles rend difficile le développement d'applications multimodales. Dans cette thèse, notre challenge consiste à aider les développeurs pour faire face à cette difficulté. Nous proposons une solution à base des modèles qui vise à faciliter le développement d'interfaces mobiles multimodales. Nous adoptons les principes de l’Ingénierie Dirigée par les Modèles (IDM), qui convient parfaitement avec un tel contexte. Notre proposition consiste en un langage de modélisation nommé M4L (mobile multimodalité Modeling Language), ainsi qu’un framework nommé MIMIC (mobiles multimodalité Créateur) qui se base sur M4L pour permettre la modélisation graphique et la génération automatique des interfaces mobiles multimodales (en entrée et en sortie). Notre approche respecte les principaux critères de l’IDM afin d‘être efficace. Les résultats de nos évaluations suggèrent que l'utilisation de MIMIC (basé sur le langage M4L) facilite le développement des interfaces mobiles multimodales
Today, smartphones present a great variety of features and embed an important number of sensors (accelerometer, touchscreen, light sensor, orientation sensor…). Created for giving context-aware abilities, these sensors also allow new types of interaction like shaking the phone or changing its orientation. Such type of interaction reduces limitation of mobile phones and paves the way to a great expansion of multimodal mobile interactions. Unfortunately, the current context of mobile software development makes difficult the development of multimodal applications. In this thesis, we intend to help developers to deal with this difficulty by providing a mode-lbased solution that aims to facilitate the development of multimodal mobile interfaces. We adopt the principles of the Model Driven Engineering (MDE), which is particularly fitted for such context. Our proposition includes M4L (Mobile MultiModality Modeling Language) modeling language to model the (input/output) multimodal interactions and the MIMIC (MobIle MultImodality Creator) framework that allows the graphical modeling and automatic generation of multimodal mobile interfaces. Our approach respects the main criteria of the MDE in order to define an efficient model-based approach. The results of our evaluations suggest that using our approach facilitates the development of sensor-based multimodal mobile interfaces. With our contributions, we aim to facilitate the penetration of multimodal applications and benefit from their advantages
20

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
21

Zaraket, Toufic. "Stochastic activity-based approach of occupant-related energy consumption in residential buildings." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0033/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le secteur du bâtiment est considéré comme un gros consommateur d'énergie et une source de pollution majeure parmi tous les secteurs économiques. Il représente entre 16 et 50 pour cent des consommations nationales d'énergie. La réduction de ces consommations et des émissions est donc une étape importante vers un développement durable. Récemment, la transition vers la construction des bâtiments à faible consommation d’énergie a conduit à de nouvelles exigences en matière de performance et de durabilité, et ainsi encore complexifié le processus de conception des bâtiments. Le comportement des occupants est maintenant considéré comme un facteur déterminant de la performance énergétique d’un bâtiment, particulièrement dans le cas des bâtiments basse consommation (BBC). Pourtant, les outils de simulation utilisés dans l'industrie des bâtiments ne sont pas aujourd'hui en mesure de fournir des estimations fiables de la demande d'énergie des occupants. Par conséquent, les experts en énergie et bâtiments portent une grande attention à développer des méthodes plus précises pour la modélisation et la prévision de l’influence des occupants sur la performance du bâtiment. Ces modèles doivent pouvoir fournir des estimations plus précises des consommations d’énergie et évaluer la variabilité de ces consommations. En conséquence, l’objectif visé est de permettre aux experts en construction d’améliorer leurs solutions techniques, améliorer la performance de leurs services, et promouvoir des incitations mieux ciblées vers les usagers afin de réduire leurs consommations énergétiques. L'objectif de cette thèse est de proposer un modèle pour estimer la consommation d'énergie liée aux comportements des occupants de bâtiments résidentiels, en prenant en compte la variabilité des modes de consommation au travers de la diversité des profils socio-démographiques et économiques des occupants. Une approche stochastique basée sur la notion d’activité est donc adoptée. Avec ce modèle, la consommation d'énergie d'un ménage est estimée en additionnant la consommation d'énergie des différentes activités domestiques (comme faire la cuisine, le lavage du linge, etc.). La nature stochastique du modèle est due aux relations probabilistes établies entre les attributs des ménages d'une part (type de ménage, nombre d'occupants, etc.) et la possession des équipements domestiques, les caractéristiques des appareils, leur puissance, et les quantités d'activité d’autre part. Afin d'établir ces relations stochastiques, un nombre suffisant d'attributs est pris en compte pour caractériser un ménage. Le modèle proposé a été appliqué pour deux activités domestiques, à savoir regarder la télévision et laver le linge. Des simulations de Monte Carlo sont effectuées pour fournir des estimations de consommation d'énergie pour ces deux activités dans trois cas de figure : pour un ménage spécifique, pour des ménages générés aléatoirement avec des contraintes sur leurs attributs, et pour des ménages totalement aléatoires représentatifs de la population française. Une comparaison entre les résultats de la simulation de modèle d’une part et des données de consommation d'énergie réelle d’autre part, a permis de valider le modèle pour les deux activités considérées. Un cadre de généralisation du modèle pour d'autres activités domestiques a été introduit, et sa possible intégration dans le processus de conception des bâtiments a été discutée et illustrée au travers d’un certain nombre d’exemples
Résumé en Anglais : The building sector is considered as a major energy consumer and pollution source among all economic sectors. It accounts for important shares, ranging between 16 and 50 percent, of national energy consumption worldwide. Reducing these consumptions and emissions is thus an important step towards sustainable development. Recently, the shift towards constructing low-consuming and nearly zero-energy buildings lead to further requirements with regard to performance and sustainability, and thus caused the design process of buildings to be more complex. Occupants’ behavior is now considered as a key determinant of building’s energy performance especially in the case of green buildings. Yet, energy simulation tools used in buildings industry nowadays are not capable of providing accurate estimations of occupant-related energy demands. Therefore, buildings and energy experts are devoting considerable efforts on developing more precise methods for modeling and forecasting occupants influence on whole building performance. Such models can provide accurate energy estimates and can assess future consumption variability. Consequently, building experts may improve their technical solutions, ameliorate their service performances, and promote targeted incentives. The objective of this dissertation is to propose a model for forecasting occupant-related energy consumption in residential buildings, while accounting for variability in consumption patterns due to diversity in occupants’ socio-demographic and economic profiles. A stochastic activity-based approach is thus adopted. By activity-based, it means that energy consumption of a household is estimated by summing up the energy use of different activities performed (such as cooking, washing clothes, etc.). The stochastic nature of the model is due to the probabilistic mapping established between household attributes from one side (household type, number of occupants, etc.) and the corresponding appliance ownership, appliance characteristics and power rating, and activity quantities from the other side. In order to establish these stochastic relations, a fairly sufficient number of households’ characterizing attributes is taken into account. The proposed model is applied for two domestic activities, namely watching TV and washing laundry. Three types of Monte Carlo simulations are performed to provide energy estimates for these two activities: for a given specified household, for randomly generated households with constraints, and for totally random population-wise households. A comparison between model’s simulation results and real measured energy consumption data enables validating the model for the two considered activities. A generalization framework of the modeling approach for other domestic activities is sketched, and its possible integration into buildings design process is discussed and illustrated through a number of examples
22

Sandoval, Moreno John Anderson. "Contribution à la coordination de commandes MPC pour systèmes distribués appliquée à la production d'énergie." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT092/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte principalement sur la coordination des systèmes distribués, avec une attention particulière pour les systèmes de production d'électricité multi-énergiques. Aux fins de l'optimalité, ainsi que l'application des contraintes, la commande prédictive (MPC-Model Predictive Control) est choisi comme l'outil sous-jacent, tandis que les éoliennes, piles à combustible, panneaux photovoltaïques et les centrales hydroélectriques sont considérés comme les sources d'énergie a être contrôlées et coordonnées. En premier lieu, une application de la commande MPC dans un microréseau électrique est proposée, illustrant comment assurer une performance appropriée pour chaque unité de génération et de soutien. Dans ce contexte, une attention particulière est accordée à la production de puissance maximale par une éolienne, en prenant une commande basée sur un observateur quand la mesure de la vitesse du vent est disponible. Ensuite, les principes de contrôle distribué coordonnés, en considérant une formulation à base de la commande MPC, sont pris en considération pour le contexte des systèmes à grande taille. Ici, une nouvelle approche pour la coordination par prix avec des contraintes est proposée pour la gestion des contrôleurs MPC locaux, chacun d'eux étant typiquement associé à une unité de génération. En outre, le calcule des espace invariants a été utilisé pour l'analyse de la performance pour le système à boucle fermée, à la fois pour les schémas MPC centralisée et coordination par prix. Finalement, deux cas d'études dans le contexte des systèmes de génération d'électricité sont inclus, en illustrant la pertinence de la stratégie de commande coordonnée proposée
This thesis is mainly about coordination of distributed systems, with a special attention to multi-energy electric power generation ones. For purposes of optimality, as well as constraint enforcement, Model Predictive Control (MPC) is chosen as the underlying tool, while wind turbines, fuel cells, photovoltaic panels, and hydroelectric plants are mostly considered as power sources to be controlled and coordinated. In the first place, an application of MPC to a micro-grid system is proposed, illustrating how to ensure appropriate performance for each generator and support units. In this context, a special attention is paid to the maximum power production by a wind turbine, via an original observer-based control when no wind speed measurement is available. Then, the principles of distributed-coordinated control, when considering an MPC-based formulation, are considered for the context of larger scale systems. Here, a new approach for price-driven coordination with constraints is proposed for the management of local MPC controllers, each of them being associated to one power generation unit typically. In addition, the computation of invariant sets is used for the performance analysis of the closed- loop control system, for both centralized MPC and price-driven coordination schemes. Finally, a couple of case studies in the field of power generation systems is included, illustrating the relevance of the proposed coordination control strategy
23

Shabou, Aymen. "Minimisation multi-étiquette d'énergies markoviennes par coupe-minimum sur graphe : application à la reconstruction de la phase interférométrique en imagerie RSO." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00565362.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les approches markoviennes en imagerie et vision par ordinateur offrent un cadre mathématique élégant pour résoudre certains problèmes complexes. Le plus souvent, la fonction d'énergie globale modélisant le problème demeure difficile à minimiser. La première contribution de cette thèse consiste alors à proposer des algorithmes d'optimisation efficace de la classe d'énergies markoviennes multi-étiquettes de premier ordre ayant une attache aux données quelconque et un a priori convexe. Les algorithmes proposés reposent sur la technique de coupe-minimum sur graphe et des stratégies d'optimisation itérative par des nouveaux mouvements de partitions larges et multi-étiquettes, qui permettent d'avoir un compromis entre la qualité de l'optimum atteint et la complexité algorithmique. Le cadre applicatif principal de cette thèse est la reconstruction du relief par interférométrie radar à synthèse d'ouverture. Cette méthode de calcul de modèles numériques de terrain est confrontée le plus souvent à la nature très bruitée des données radar et aussi à la complexité des scènes naturelles et urbaines à reconstruire et à leur grande dimension. Ainsi, la seconde contribution de ces travaux de thèse consiste à proposer des modèles markoviens robustes face à la diversité des scènes à reconstruire dans le cas général et des algorithmes d'optimisation qui leur sont appropriés. L'approche générale est testée et validée sur un jeu de données radar synthétiques et réelles (ERS et ESAR)
The MRF in computer vision and image analysis is a powerful framework for solving complex problems using the MAP estimation. However, some image processing problems deal with high dimensional data and require non-convex MRF energy functions. Thus, optimization process becomes a hard task. The first contribution of this thesis is developing new efficient optimization algorithms for the class of the first order multi-label MRF energies with any likelihood terms and convex prior. The proposed algorithms rely on the graph-cut technique, and iterative strategies based on large and multi-label partition moves. These algorithms offer a trade-off between optimum quality and algorithm complexity. The main application of this work is the digital elevation model (DEM) estimation using interferometric synthetic aperture radar (InSAR) data. This problem is usually considered as a complex and an ill-posed one, because of the high noise rate affecting interferograms and the complex structures qualifying real natural and urban area. So, the second contribution of this work is developing new MRF models relying on the multichannel interferometric likelihood density function and the total variation regularization. Appropriate optimization algorithms are then proposed. The new approach is applied to synthetic and real InSAR data showing better performances than the state of the art techniques
24

Shabou, Aymen. "Minimisation multi-étiquette d'énergies markoviennes par coupe-minimum sur graphe : application à la reconstruction de la phase interférométrique en imagerie RSO." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00565362.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les approches markoviennes en imagerie et vision par ordinateur offrent un cadre mathématique élégant pour résoudre certains problèmes complexes. Le plus souvent, la fonction d'énergie globale modélisant le problème demeure difficile à minimiser. La première contribution de cette thèse consiste alors à proposer des algorithmes d'optimisation efficace de la classe d'énergies markoviennes multi-étiquettes de premier ordre ayant une attache aux données quelconque et un a priori convexe. Les algorithmes proposés reposent sur la technique de coupe-minimum sur graphe et des stratégies d'optimisation itérative par des nouveaux mouvements de partitions larges et multi-étiquettes, qui permettent d'avoir un compromis entre la qualité de l'optimum atteint et la complexité algorithmique. Le cadre applicatif principal de cette thèse est la reconstruction du relief par interférométrie radar à synthèse d'ouverture. Cette méthode de calcul de modèles numériques de terrain est confrontée le plus souvent à la nature très bruitée des données radar et aussi à la complexité des scènes naturelles et urbaines à reconstruire et à leur grande dimension. Ainsi, la seconde contribution de ces travaux de thèse consiste à proposer des modèles markoviens robustes face à la diversité des scènes à reconstruire dans le cas général et des algorithmes d'optimisation qui leur sont appropriés. L'approche générale est testée et validée sur un jeu de données radar synthétiques et réelles (ERS et ESAR).
25

Jacques, Julien. "Contribution à l'apprentissage statistique à base de modèles génératifs pour données complexes." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00761184.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire synthétise les activités de recherche que j'ai menées de 2005 à 2012, sur la thématique de l'apprentissage statistique des données complexes, abordée par le biais de modèles probabilistes paramétriques génératifs. Plusieurs types de données complexes sont considérées. Les données issues de populations différentes ont été abordées en proposant des modèles de lien paramétriques entre populations, permettant d'adapter les modèles statistiques d'une population vers l'autre, en évitant une lourde collecte de nouvelles données. Les données de rang, définissant un classement d'objets selon un ordre de préférence, les données ordinales, qui sont des données qualitatives ayant des modalités ordonnées, et les données fonctionnelles, où l'observation statistique consiste en une ou plusieurs courbes, ont également été étudies. Pour ces trois types de données, des modèles génératifs probabilistes ont été définis et utilisés en classification automatique de données multivariées. Enfin les données de grande dimension, que l'on rencontre lorsque le nombre de variables du problème dépasse celui des observations, ont été étudiées dans un cadre de régression. Deux approches, fruits de deux thèses de doctorat que je co-encadre, sont proposés: l'une utilisant des algorithmes d'optimisation combinatoire pour explorer de façon efficace l'espace des variables, et l'autre définissant un modèle de régression regroupant ensemble les variables ayant un effet similaire.
26

Gaétane, Ceglia. "Elaboration et caractérisation de matériaux polymères poreux modèles à base d'émulsions contrôlées." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2001. http://tel.archives-ouvertes.fr/tel-00731266.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des mousses de polymères modèles sont élaborées à partir d'émulsions afin d'en étudier les propriétés. De telles mousses sont intéressantes dans des applications variées d'amortisseurs (sécurité passive), de filtres ou d'isolation. Les objectifs de cette étude sont de comprendre l'origine des propriétés mécaniques des mousses et d'identifier les paramètres structuraux les plus pertinents. Pour cela, la première étape consiste en la fabrication de mousses de morphologies contrôlées à partir d'émulsions monodisperses très concentrées. Par polymérisation de la phase continue des émulsions, des mousses solides modèles à taille de cellules contrôlées et de porosité ouverte sont obtenues. Ensuite la structure de ces matériaux poreux est analysée et comparée à celle des émulsions initiales. Enfin, ces mousses sont caractérisées mécaniquement en compression. Nous présentons les résultats obtenus en variant de manière contrôlée la taille des pores et leur fraction volumique et les confrontons aux modèles existants.
27

Abdul, Ghafour Samer. "Interopérabilité sémantique des connaissances des modèles de produits à base de features." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00688098.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un environnement collaboratif de développement de produit, plusieurs acteurs, ayant différents points de vue et intervenant dans plusieurs phases du cycle de vie de produit, doivent communiquer et échanger des connaissances entre eux. Ces connaissances, existant sous différents formats hétérogènes, incluent potentiellement plusieurs concepts tels que l'historique de conception, la structure du produit, les features, les paramètres, les contraintes, et d'autres informations sur le produit. Les exigences industrielles de réduction du temps et du coût de production nécessitent l'amélioration de l'interopérabilité sémantique entre les différents processus de développement afin de surmonter ces problèmes d'hétérogénéité tant au niveau syntaxique, structurel, que sémantique. Dans le domaine de la CAO, la plupart des méthodes existantes pour l'échange de données d'un modèle de produit sont, effectivement, basées sur le transfert des données géométriques. Cependant, ces données ne sont pas suffisantes pour saisir la sémantique des données, telle que l'intention de conception, ainsi que l'édition des modèles après leur échange. De ce fait, nous nous sommes intéressés à l'échange des modèles " intelligents ", autrement dit, définis en termes d'historique de construction, de fonctions intelligentes de conception appelées features, y compris les paramètres et les contraintes. L'objectif de notre thèse est de concevoir des méthodes permettant d'améliorer l'interopérabilité sémantique des systèmes CAO moyennant les technologies du Web Sémantique comme les ontologies OWL DL et le langage des règles SWRL. Nous avons donc élaboré une approche d'échange basée sur une ontologie commune de features de conception, que nous avons appelée CDFO " Common Design Features Ontology ", servant d'intermédiaire entre les différents systèmes CAO. Cette approche s'appuie principalement sur deux grandes étapes. La première étape consiste en une homogénéisation des formats de représentation des modèles CAO vers un format pivot, en l'occurrence OWL DL. Cette homogénéisation sert à traiter les hétérogénéités syntaxiques entre les formats des modèles. La deuxième étape consiste à définir des règles permettant la mise en correspondance sémantique entre les ontologies d'application de CAO et notre ontologie commune. Cette méthode de mise en correspondance se base principalement, d'une part, sur la définition explicite des axiomes et des règles de correspondance permettant l'alignement des entités de différentes ontologies, et d'autre part sur la reconnaissance automatique des correspondances sémantiques supplémentaires à l'aide des capacités de raisonnement fournies par les moteurs d'inférence basés sur les logiques de description. Enfin, notre méthode de mise en correspondance est enrichie par le développement d'une méthode de calcul de similarité sémantique appropriée pour le langage OWL DL, qui repose principalement sur les composants des entités en question tels que leur description et leur contexte.
28

Rahal, Mohamed Ilyas. "Génération d'algorithmes de diagnostic robustes à base de modèles bond graph hybrides." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse concerne la conception intégrée d'un système de détection et localisation de fautes robuste aux incertitudes paramétriques pour les systèmes hybrides à base de modèle bond graph hybride(BGH) sous la forme LFT (Transformations linéaires fractionnelles). Sur la base de la littérature consultée, les systèmes hybrides sont principalement modélisés pour chaque mode de fonctionnement pour lequel sont générés des indicateurs de fautes déterministes. L'intérêt scientifique de la présente recherche peut être résumé comme suit : (1) l’utilisation d’un seul modèle BGH incertain basé sur les jonctions contrôlées et représentant l’ensemble des modes de fonctionnement, (2) exploitation des propriétés structurelles et causales du BGH LFT pour la génération systématique de Relations de Redondance Analytiques Globales (RRAG) et des seuils de détection robustes aux incertitudes paramétriques et, valides pour tous les modes de fonctionnement, et enfin (3) l’utilisation d’un seul outil : le modèle BGH de Diagnostic (BGHD), pour non seulement la modélisation mais aussi la surveillance en ligne. La démarche développée a été illustrée par un exemple pédagogique représentant un circuit électrique à commutation et par une application à un système hydraulique
The present PH.D thesis deals with integrated design of robust Fault Detection and Isolation system (FDI) based on Hybrid Bond Graph (HBG) in Linear Fractional Transformation (LFT) form. Based on consulted literature about hybrid systems, each operating mode is mainly modelled by specific model for which are generated determinist fault indicators. The innovative interest of developed research can be summarized as follows: (1) use only one HBG uncertain model based on controlled junctions and representing all operating modes, (2) structural and causal properties of the LFT HBG are exploited for systematic generation of Global Analytical Redundancy Relations (GARRs), and detection thresholds, robust to parameter uncertainties, and (3) finally use of only one tool: the Diagnosis Hybrid Bond Graph (DHBG) for not only modelling but also for online surveillance. The developed approach is illustrated by electrical circuit pedagogical example and application to hydraulic system
29

Trojet, Mohamed Wassim. "Approche de vérification formelle des modèles DEVS à base du langage Z." Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cadre général dans lequel se situe cette thèse concerne l’amélioration de la vérification et la validation des modèles de simulation par l'intégration des méthodes formelles. Notre approche consiste à doter les modèles DEVS d’une approche de vérification formelle basée sur le langage Z. DEVS est un formalisme qui permet la description et l'analyse du comportement des systèmes à évènements discrets, c'est à dire, les systèmes dont le changement d'état dépend de l'occurrence d'un évènement. Un modèle DEVS est essentiellement validé par la simulation qui permet de vérifier si celui ci décrit bien le comportement du système. Cependant, la simulation ne permet pas de détecter la présence d’une éventuelle inconsistance dans le modèle (un conflit, une ambiguïté ou une incomplétude). Pour cela, nous avons intégré un langage de spécification formelle dans le formalisme DEVS connu sous le nom de Z. Cette intégration consiste à: (1) transformer un un modèle DEVS vers une spécification Z équivalente et (2) vérifier la consistance de la spécification résultante utilisant les outils développés par la communauté Z. Ainsi un modèle DEVS est soumis à une vérification formelle automatique avant son passage à la phase de simulation
The general framework of the thesis consists in improving the verification and the validation of simulation models through the integration of formal methods. We offered an approach of formal verification of DEVS models based on Z language. DEVS is a formalism that allows the description and analysis of the behavior of discrete event systems, ie systems whose state change depends on the occurrence of an event. A DEVS model is essentially validated by the simulation which permits to verify if it correctly describes the behavior of the system. However, the simulation does not detect the presence of a possible inconsistency in the model (conflict, ambiguity or incompleteness). For this reason, we have integrated a formal specification language, known as Z, in the DEVS formalism. This integration consists in: (1) transforming a DEVS model into an equivalent Z specification and (2) verifying the consistency of the resulting specification using the tools developed by the Z community. Thus, a DEVS model is subjected to an automatic formal verification before its simulation
30

Ceglia, Gaétane. "Élaboration et caractérisation de matériaux polymères poreux modèles à base d’émulsions contrôlées." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14462/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des mousses de polymères modèles sont élaborées à partir d’émulsions afin d’en étudier les propriétés. De telles mousses sont intéressantes dans des applications variées d’amortisseurs (sécurité passive), de filtres ou d’isolation. Les objectifs de cette étude sont de comprendre l’origine des propriétés mécaniques des mousses et d’identifier les paramètres structuraux les plus pertinents. Pour cela, la première étape consiste en la fabrication de mousses de morphologies contrôlées à partir d’émulsions monodisperses très concentrées. Par polymérisation de la phase continue des émulsions, des mousses solides modèles à taille de cellules contrôlées et de porosité ouverte sont obtenues. Ensuite la structure de ces matériaux poreux est analysée et comparée à celle des émulsions initiales. Enfin, ces mousses sont caractérisées mécaniquement en compression. Nous présentons les résultats obtenus en variant de manière contrôlée la taille des pores et leur fraction volumique et les confrontons aux modèles existants
Polymer foams are cellular materials commonly used for safety applications in many industrial sectors (aeronautic, passive safety, gears…). To even improve their performances, the link between their structural parameters (cell sizes, density...) and their mechanical behaviour should be better understood and modelled. A way of producing such foams is to polymerize the continuous phase of highly concentrated emulsions. The advantage of such an emulsion-based strategy is that it becomes possible to take advantage of the good control over emulsion parameters (drop size, dispersed phase volume fraction, continuous phase composition) to elaborate model foams with cells and pores having narrow size distributions. The production of model foams makes it possible to determine independently the influence of each parameter on the compression modulus and to compare the results with existing models
31

Adrot, Olivier. "Diagnostic à base de modèles incertains utilisant l'analyse par intervalles : l'approche borante." Vandoeuvre-les-Nancy, INPL, 2000. http://www.theses.fr/2004INPL121N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le diagnostic de systèmes repose fréquemment sur un modèle censé représenter le comportement sain du système physique à surveiller. Le problème fondamental alors rencontré provient des imprécisions associées à ce modèle. Pour parvenir à discriminer un défaut d’une erreur de modélisation, une nouvelle stratégie de diagnostic a été définie. Celle-ci prend en compte des incertitudes pouvant fluctuer dans le temps et affecter n’importe quel paramètre du modèle en étant représentées par des variables bornées. La méthode proposée, appelée approche bornante, repose sur l’analyse par intervalles. Après avoir constaté les limites de la modélisation stochastique, nous avons justifié que l’approche bornante répondait bien aux objectifs de diagnostic, en conservant plus d’information que les méthodes traditionnelles de découplage, en générant de manière naturelles les seuils de détection et en permettant l’analyse d’incertitudes multiplicatives et variantes. Ensuite, tout en montrant le champ d’application de l’analyse par intervalles, les avantages et inconvénients de cet outil sont explicités. La résolution du problème de dépendance a été détaillée, notamment lorsque celui-ci se pose dans le cas d’un champ de vecteurs. Un formalisme permettant de traiter des domaines plus complexes que de simples pavés est alors proposé. De manière à éviter le phénomène d’enveloppement, une approche par Espace de Parité est proposée. L’objectif étant de construire des résidus découplés des variables d’état inconnues, l’intérêt de rechercher une matrice de projection incertaine plutôt que certaine a alors été montré. Les principes des tests de cohérence, permettant l’analyse de ces résidus, ont ensuite été détaillés. Enfin, des algorithmes de caractérisation, assurant l’estimation des caractéristiques des incertitudes, sont développés. Ce mémoire s’achève par la mise en œuvre, sur un exemple, des diverses méthodes proposées
32

Abakar, Adam Omar. "Elaboration, structuration et propriétés rhéologiques de nanocomposites polymères modèles à base de Laponite." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00756711.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail concerne l'étude du comportement rhéologique de nanocomposites modèles à base de Laponite dans du polyoxyde d'éthylène ou des mélanges polyoxyde d'éthylène avec du polyméthacrylate de méthyle. L'influence des paramètres moléculaires, masse molaire de la matrice et mode de protection des particules sur les propriétés rhéologiques a été étudiée. La meilleure dispersion est obtenue à partir d'une solution, la dilution d'un mélange maître conduisant à des matériaux hétérogènes. Les mélanges POE/PMMA sont compatibles à l'état fondu dans toute la gamme de concentrations mais hétérogènes à température ambiante au-dessus de 30% en poids de particules. En diluant un mélange Laponite/PEO dans le PMMA, nous avons montré que ces domaines se concentrent en particules en dessous de 30% de PEO et qu'une cocontinuité de phases PEO contenant les particules et PMMA essentiellement pur est formée au-dessus de 30% de PEO. La présence des particules diminue fortement la cristallinité.
33

Calvez, Benoît. "Le calibrage de modèles à base d'agents pour la simulation de systèmes complexes." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00422236.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'approche à base d'agents s'intéresse à la modélisation et la simulation de systèmes complexes. Un des aspects importants dans le processus de conception est lié à la mise au point des paramètres du modèle. En effet, ces modèles sont généralement caractérisés par de nombreux paramètres qui déterminent la dynamique globale du système simulé. L'espace des paramètres peut être alors gigantesque. De plus, le comportement de ces systèmes complexes est souvent chaotique. L'approche que nous suggérons est de considérer le problème de calibrage des modèles à base d'agents comme un problème d'optimisation. La validation peut alors être reformulée comme l'identification d'un jeu de paramètres qui optimise une fonction, par exemple une mesure de distance entre le modèle artificiel que nous simulons et le système réel. Nous avons proposé trois approches complémentaires dans le cadre de la thèse. La première approche se fonde sur l'application directe d'un algorithme d'optimisation où le modèle est vu comme une boîte noire dont les entrées sont les valeurs de paramètres et la sortie la valeur d'une fonction objectif évaluée après la simulation du modèle. La deuxième approche consiste ensuite à explorer différentiellement l'espace des paramètres en le découpant de manière adaptative en sous-espaces d'autant plus finement découpés que les paramétrages correspondants sont a priori intéressants. Enfin, la troisième approche consiste à effectuer une seule simulation où les agents sont modifiés en ligne.
34

Sifi, Mohcine. "Diagnostic à base de modèles non linéaires. : Application au circuit carburant d'une turbomachine." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0054/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de régulation des turbomoteurs actuels sont basés sur des architectures complexes que les constructeurs tendent à rendre plus modulaires avec des technologies plus économiques tout en garantissant un niveau de fiabilité supérieur ou égal. Dans ce contexte, la surveillance du circuit carburant, qui a pour but de déceler les dysfonctionnements des composants hydrauliques critiques, permet de réduire le coût de maintenance, d'améliorer le niveau de maintenabilité et d'assurer la disponibilité des turbomoteurs. La présente étude porte sur l'élaboration de méthodes de diagnostic performantes et robustes permettant la détection et la localisation des défauts impactant les fonctions hydrauliques primaires du circuit carburant. Des méthodes existantes de génération de résidus à base de modèles non linéaires sont présentées et appliquées au cas du circuit carburant. L'approche analytique pour le découplage, combinée avec des filtres de Kalman étendus, permet la structuration des résidus pour assurer la localisation des défauts. Une nouvelle approche basée sur la théorie de platitude différentielle est proposée pour le diagnostic de défauts des systèmes non linéaires avec une application au cas du circuit carburant. Les différentiateurs à modes glissants sont utilisés pour l'estimation des dérivées de signaux nécessaires à l'application de certaines méthodes de génération de résidus. Des simulations numériques illustrent la pertinence des résultats obtenus. Une application expérimentale est présentée en utilisant un jeu de données réelles issues d'un banc d'essais partiel et fournies par la société Turbomeca du groupe SAFRAN
The current gas turbine regulation systems are based on complex architectures that manufacturers tend to make more modular with more cost effective technologies while ensuring a greater or equal level of reliability. In this context, the fuel system health monitoring, which aims to identify critical hydraulic components dysfunction, allows to reduce maintenance costs, to improve maintainability level and to ensure gas turbine availability. The present study focuses on the development of performant and robust diagnosis methods for the detection and isolation of faults affecting primary fuel system hydraulic functions. Existing nonlinear model based residual generation methods are presented and applied to the fuel system. The analytical approach for decoupling, combined with extended Kalman filters, helps fault isolation by generating residual structures. A new approach based on differential flatness theory is proposed for nonlinear systems fault diagnosis with an application to the fuel system. Sliding mode differentiators are used to estimate derived signals that are necessary for the application of some residual generation methods. Numerical simulations illustrate the efficiency of obtained results. An experimental application is presented using a real data set from a partial test bench provided by Turbomeca company of the SAFRAN group
35

Bibas, Serge. "Gaspar : Simulateur à base de modèles pour la supervision de réseaux de télécommunication." Paris 13, 1997. http://www.theses.fr/1997PA132008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation de techniques de raisonnement sur les modeles permet une representation de la connaissance plus facile a acquerir et a maintenir qu'une expertise directe. Neanmoins, la combinatoire associee a ces techniques ne permet pas d'envisager un systeme temps-reel s'appuyant directement sur celles-ci. Nous proposons un systeme de supervision des reseaux de telecommunication s'appuyant, d'une part sur la generation hors ligne de sequences temporelles d'alarmes, aussi appelees chroniques ou scenarios, et d'autre part sur la reconnaissance en ligne et temps-reel de ces sequences
36

Ploux, Sabine. "Les modèles analogiques et le contrôle dans les systèmes à base de règles." Lyon 1, 1992. http://www.theses.fr/1992LYO10102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail aborde le probleme du controle dans les systemes a base de regles en utilisant une representation analogique des connaissances. Cette approche permet de fournir au systeme les regles sous forme purement declarative. Deux applications ont ete developpees: un demonstrateur en theorie des ensembles et un systeme de reconnaissance de l'ecriture manuscrite
37

Valette, Sébastien. "Modèles de maillages déformables 2D et multirésolution surfaciques 3D sur une base d'ondelettes." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0002/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur le développement de méthodes de traitement d'images à l'aide de maillages. Dans une première partie, nous proposons un nouveau support théorique et un algorithme pour l'analyse multirésolution des surfaces des objets 3D triangulés. Cette approche généralise la décomposition en ondelettes des maillages surfaciques, proposée par Lounsbery, dont la formulation initiale restreint son utilisation aux maillages régulièrement subdivisés. L'extension du domaine d'application de la méthode nécessite la prise en compte d'une subdivision non régulière, permettant l'analyse multirésolution de maillages quelconques par résolution d'un problème inverse. Nous démontrons également l'efficacité de notre approche pour la compression sans perte des maillages surfaciques. La deuxième partie traite de la segmentation et du suivi des objets dans les séquences vidéo 2D+t. Nous proposons un nouvel algorithme de maillage actif qui place les arêtes du maillage sur les discontinuités de mouvement. Le mouvement intérieur à chaque cellule est estimé par mise en compétition des estimations avant et arrière. Cette approche permet le déplacement des noeuds du maillage sans avoir à remailler les zones occultées ou découvertes. Une contrainte spatiale permet une meilleure déformation du maillage dans les régions homogènes. Une deuxième contrainte, de régularisation temporelle, assure la stabilité de l'évolution de la segmentation. La troisième apporte une conclusion au mémoire et ouvre des perspectives sur la représentation des objets vidéo représentés par des maillages, à l'aide d'une adaptation de l'algorithme de décomposition des maillages surfaciques 3D sur une base d'ondelettes
This work aims at providing mesh-based image processing algorithms. The first part introduces a new theoretical support and an algorithm for multiresolution analysis of 3D surface meshes. This approach is a generalization of the wavelet decomposition of surface meshes proposed by Lounsbery, which initial definition can be applied only to regularly subdivided meshes. This extension requires the definition of an irregular subdivision scheme, allowing multiresolution analysis on irregular meshes. The second part handles video objects segmentation and tracking in 2D+t sequences. We propose a new active mesh algorithm that moves the mesh nodes on motion discontinuities. The motion inside each cell is estimated by a competitive back-forward approach. This approach allows nodes displacements without remeshing motion occlusion regions. A spatial constraint allows a better deformation in homogeneous regions. A temporal regularization constraint ensures the tracking consistency. The third part adds a conclusion and possible future work on multiresolution video objects representation, with the algorithm proposed in the first part
38

Rogouschi, Nicoleta. "Classification à base de modèles de mélanges topologiques des données catégorielles et continues." Paris 13, 2009. http://www.theses.fr/2009PA132015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de recherche exposé dans cette thèse concerne le développement d'approches à base de cartes auto-organisatrices dans un formalisme de modèles de mélanges pourle traitement de données qualitatives, mixtes et séquentielles. Pour chaque type de données, un modèle d'apprentissage non supervisé adapté est proposé. Le premier modèle, décrit dans cette étude, est un nouvel algorithme d'apprentissage des cartes topologiques BeSOM (Bernoulli Self-Organizing Map) dédié aux données binaires. Chaque cellule de la carte est associée à une distribution de Bernoulli. L'apprentissage dans ce modèle a pour objectif d'estimer la fonction densité sous forme d'un mélange de densités élémentaires. Chaque densité élémentaire est-elle aussi un mélange de lois Bernoulli définies sur un voisinage. Le second modèle aborde le problème des approches probabilistes pour le partitionnement des données mixtes (quantitatives et qualitatives). Le modèle s'inspire de travaux antérieurs qui modélisent une distribution par un mélange de lois de Bernoulli et de lois Gaussiennnes. Cette approche donne une autre dimension aux cartes topologiques : elle permet une interprétation probabiliste des cartes et offre la possibilité de tirer profit de la distribution locale associée aux variables continues et catégorielles. En ce qui concerne le troisième modèle présenté dans cette thèse, il décrit un nouveau formalisme de mélanges Markovien dédiés au traitement de données structurées en séquences. L'approche que nous proposons est une généralisation des chaines de Markov traditionnelles. Deux variantes sont développées : une approche globale où la topologie est utilisée d'une manière implicite et une approche locale où la topologie est utilisée d'une manière explicite. Les résultats obtenus sur la validation des approches traités dans cette étude sont encourageants et prometteurs à la fois pour la classification et pour la modélisation
The research presented in this thesis concerns the development of self-organising map approaches based on mixture models which deal with different kinds of data : qualitative, mixed and sequential. For each type of data we propose an adapted unsupervised learning model. The first model, described in this work, is a new learning algorithm of topological map BeSOM (Bernoulli Self-Organizing Map) dedicated to binary data. Each map cell is associated with a Bernoulli distribution. In this model, the learning has the objective to estimate the density function presented as a mixture of densities. Each density is as well a mixture of Bernoulli distribution defined on a neighbourhood. The second model touches upon the problem of probability approaches for the mixeddata clustering (quantitative and qualitative). The model is inspired by previous workswhich define a distribution by a mixture of Bernoulli and Gaussian distributions. This approach gives a different dimension to topological map : it allows probability map interpretation and others the possibility to take advantage of local distribution associated with continuous and categorical variables. As for the third model presented in this thesis, it is a new Markov mixture model applied to treatment of the data structured in sequences. The approach that we propose is a generalisation of traditional Markov chains. There are two versions : the global approach, where topology is used implicitly, and the local approach where topology is used explicitly. The results obtained upon the validation of all the methods are encouragingand promising, both for classification and modelling
39

Malti, Rachid. "Représentation de systèmes discrets sur la base des filtres orthogonaux : application à la modélisation de systèmes dynamiques multi-variables." Vandoeuvre-les-Nancy, INPL, 1999. http://docnum.univ-lorraine.fr/public/INPL_T_1999_MALTI_R.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation, aspect fondamental de toutes les sciences appliquées, vise à établir des relations mathématiques entre les différentes variables caractéristiques d'un système. Les travaux développés dans ce mémoire entrent dans le cadre de la modélisation par fonctions orthogonales de systèmes dynamiques discrets LTI et stables. Plus particulièrement, les fonctions Dirac delta, Laguerre, Kautz, type Meixner et celles issues de la base orthogonale généralisée y sont présentées. Elles différent entre elles par le nombre de pôles qu'elles admettent et par leur convenance à l'identification de systèmes, à partir de conditions initiales mal connues. De plus, une nouvelle base orthogonale est proposée. Elle généralise la définition de la base de type Meixner à un nombre quelconque de pôles réels et est, de ce fait, plus adaptée à la modélisation de systèmes ayant plusieurs dynamiques, a partir de conditions initiales mal connues. Pour chaque base, la convergence des coefficients de Fourier et des séries fonctionnelles a été étudiée. Elle a pour but de justifier la troncature de la représentation, initialement infinie, a un ordre fini. La décomposition d'une fonction de transfert d'un modèle surparamétrise, sur des bases orthogonales, permet, dans certains cas, d'obtenir un modèle d'ordre réduit. En effet, un choix optimal de pôles minimise le nombre de filtres nécessaires à l'approximation de la fonction de transfert originelle. Dans ce cadre, le calcul des pôles optima passe obligatoirement par la résolution d'équations algébriques connues sous le nom de conditions d'optimalité. A partir d'une étude bibliographique détaillée, un des points forts, développés dans ce mémoire, concerne la synthèse des conditions d'optimalité de la base orthogonale généralisée pour un choix de pôles réels. Ces résultats ont été utilisés, d'une part, pour la réduction d'ordre de modèles et, d'autre part, pour l'identification de systèmes linéaires par des filtres issus de la base orthogonale généralisée. Une extension aux systèmes non linéaires a également été proposée par une technique de multimodèle.
40

Multari, Matthieu. "Étude d'une base compacte millimétrique à lentille diélectrique." Nice, 2008. http://www.theses.fr/2008NICE4111.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes radars en bande millimétrique ont depuis quelques années connu un intérêt croissant, notamment pour les applications automobile et de sécurité en vol. Les exigences sur les antennes sont nombreuses, un gain élevé est nécessaire concédant au diamètre de ces antennes des dizaines de longueurs d’ondes. La plupart des chambres anéchoïques ont des dimensions trop restreintes pour fournir un gain précis et des mesures de diagramme de rayonnement en champ lointain, une solution consiste en l’emploi d’une base compacte. La base compacte a la particularité de transformer le rayonnement en onde sphérique d’une antenne source, en onde localement plane, caractéristique d’un champ lointain dont la répartition transverse est constante en amplitude et en phase. Ceci se produit dans un volume limité, permettant une installation dans un environnement contrôlé à l’intérieur de la chambre anéchoïque. Parmi les différentes configurations de bases compactes nous nous sommes attachés à modéliser et concevoir une base compacte à lentille diélectrique en bande W. Cette solution que nous préconisons au LEAT pour les mesures d’antennes en ondes millimétriques dont nous disposons, est conditionnée pour ses caractéristiques radioélectriques mais aussi pour sa simplicité de fabrication, son encombrement limité et son faible coût. En collaboration avec le MikroWellenTechnik (MWT) Institute de l’Université d’Ulm en Allemagne, nous avons pu mener diverses études et réalisations afin d’améliorer les caractéristiques de notre base compact. Ceci a conduit dans un premier temps à la modélisation, avec le logiciel SRSRD, de sources primaires d’illumination, dont des lois d’éclairement spécifiques ont été comparées afin de définir celle qui pouvait le mieux correspondre à nos attentes. Ces lois d’illumination sont créées soit par des sources réelles de type cornet / guide d’onde ou associées avec une lentille diélectrique si plusieurs types de configuration ont mis en évidence les améliorations en terme de qualité de zone calme. Grâce aux études et mesures que nous avons menées, la loi de type « porte » a été retenue pour illuminer une grande lentille diélectrique, cette configuration constitue la base compacte. Afin d’améliorer les performances de notre base compacte, une étude précise nous a permis de modéliser et concevoir une source réelle de type « porte » en éclairant une petite lentille spécifiquement profilée, afin de recréer le diagramme désiré, illuminée par un cornet prolate qui assure un niveau d’éclairement de -20 dB sur ses bords.
41

Chaabna, Solène Houria. "Passivity-based modeling and power routing of a multi-source power cell for hydrogen production." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’hydrogène propre est une solution d’avenir pour le stockage d’électricité renouvelable. Cependant, une cellule multi-sources pour la production d’hydrogène présente de multiples phénomènes physiques, par exemple électriques, électro-chimiques, thermiques, fluidiques, etc. et la représentation des flux d’énergie y est très complexe. De plus, les échanges de puissance entre les composants de la cellule (sources renouvelables, pile à combustible, électrolyseurs, batteries) doivent être évalués de manière globale tout en préservant les réserves de puissance de chaque composant.Cette thèse propose une représentation d’état port-Hamiltonienne, dérivée d’un bond-graph, de chacun des composants d’une cellule de puissance pour la production d’hydrogène. A partir de cette représentation et des propriétés de passivité, il est possible de concevoir des algorithmes de commande. La notion de marge de passivité est introduite pour évaluer la robustesse par rapport aux incertitudes paramétriques ou aux perturbations connues. Pour chaque composant, la variation de puissance alimente un réservoir virtuel d’énergie. L’ensemble des réservoirs constitue ainsi une image des réserves de puissance du système. Au lieu d’utiliser un échange direct de puissance entre les composants et le réseau, nous proposons de gérer les flux de puissance entre les réservoirs, ce qui permet également de contrôler leurs niveaux d’énergie. La méthodologie permet de superviser en même temps la puissance et l’énergie, ce qui conduira à terme à gérer les modes opératoires de la cellule à partir des niveaux d’énergie. La méthodologie est appliquée à une plate-forme comportant des sources renouvelables, une pile à combustible et une batterie conventionnelle
Green hydrogen is emerging as a powerful solution for the storage of surplus electricity which is generated through renewable energy sources. However, a green hydrogen power cell involves multiphysics phenomena as electrical, fluidic, thermal, etc. and the representation of dynamical power flows therein is quite complex. Furthermore, the power exchange between the different components of the cell (Fuel cell, Electrolyzer, storage units, renewable sources) needs to be thought in terms of global performance while taking care of the energy reserves.This thesis proposes a Bond Graph derived port-Hamiltonian representation of all the components of a green hydrogen power cell. From this representation, it is possible to design passivity-based control algorithms. The notion of passivity margin is introduced to account for the robustness with respect to modeling uncertainties or known disturbances. For each component, the excess or shortage of power feeds an Energy Tank, which behaves as a virtual storage unit. Hence, the set of Energy Tanks is an image of the power reserves in the power cell. Instead of using conventional power routing between each component, we propose to manage power flows between the Energy Tanks, which allows us to control not only the power intensity, but also the level of energy within the tanks. Hence, the methodology enables to control both power and energy at the same time, paving the way to Operating Mode Management triggered by energy levels. An application is given on a platform including a fuel call, renewable energy sources, and a conventional storage unit
42

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
43

Mota, Jean-Marc. "Méthodes formelles pour la modélisation géométrique à base topologique : définitions et algorithmes avec la méthode B." Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
A méthode B est un langage de spécifications formelles largement utilisé pour le développement de logiciels critiques. Nous l'avons utilisée pour concevoir des logiciels complexes, appelés modeleurs géométriques, qui rendent possible la manipulation et la création des images de synthèses. Notre travail de formalisation et de preuve d'un noyau de modeleur géométrique à base topologique et d'une opération topologique réputée difficile permettant d'arrondir un objet, a montré les limites et les difficultés d'une approche consistant à traduire de manière quasi-syntaxique en B les définitions mathématiques existantes. Néanmoins, nous avons proposé une autre approche fondée sur une extension de la méthode B appelée B événementiel. Nous l'avons expérimenté avec succès sur un algorithme permettant de construire la subdivision du plan induite par un ensemble de droites. En conclusion, la méthode B semble être adaptée à la modélisation géométrique : l'expérience est donc à poursuivre
The B method is a formal specification language used in order to develop critical systems. We used this language to develop complex softwares called modellers. These softwares allow to handle and create computer-generated images. Our work consists in the formalization and the proof of a topology-based modeller kernel and of a complex operation which is the topological part of the rounding operation. It teaches us the limits and difficulties of the approach which consists in translating mathematical definitions directly into formal specifications. Nevertheless, we proposed another approach based on an extension of the B method called event B. We used it successfully to specify a geometrical algorithm which calculates the subdivision of the plan corresponding to a set of lines. In conclusion, the method B seems to be adapted to geometric modelling: the experience deserves to be continued
44

Guarnieri, Franck. "Modèles de systèmes et systèmes de modèles dans les systèmes à base de connaissances : application à la prévention des incendies de forêts." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10226.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation des processus environnementaux (incendies de forets, inondations, glissements de terrains, avalanches), quelqu'en soit l'objectif, exige la prise en compte simultanee de nombreux phenomenes. La variabilite des donnees, la diversite des milieux et la complexite des mecanismes physiques lies par exemple a la propagation d'un feu ou a l'ecoulement d'une avalanche, impliquent d'apprehender une multitude de parametres souvent difficiles a mesurer. Si certains phenomenes peuvent etre simules a l'aide de techniques classiques (modeles mathematiques, methodes statistiques), d'autres exigent le recours a des connaissances de specialistes, comme l'identification d'un regime de vent a l'echelle locale ou l'etude de transport de neige par le vent. Dans les deux cas, il s'agit de prendre en compte des connaissances relatives a des phenomenes ayant une extension spatiale. Il existe donc de nombreux modeles d'un meme systeme, plus ou moins parfaits ou complets, permettant d'eclairer tout ou partie de la realite etudiee. Ceci nous conduit a retenir le concept de systemes de modeles, afin d'apprehender la complexite d'une question particuliere: la prevention des incendies de forets. L'elaboration d'un systeme de modeles de la question etudiee et son integration au sein d'un systeme a base de connaissances aboutissent a la realisation d'un environnement de resolution de problemes: le systeme meris
45

Stroppa, Nicolas. "Définitions et caractérisations de modèles à base d'analogies pour l'apprentissage automatique des langues naturelles." Phd thesis, Télécom ParisTech, 2005. http://tel.archives-ouvertes.fr/tel-00145147.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le panorama du Traitement Automatique des Langues est dominé par deux familles d'approches~: dans la première, la connaissance linguistique s'exprime sous forme de règles (grammaticales pour le traitement syntaxique, d'inférence pour le traitement sémantique, etc.), et de représentations sur lesquelles ces règles opèrent. La deuxième repose sur l'hypothèse d'un modèle probabiliste sous-jacent aux données, modèle dont les paramètres s'infèrent à partir de corpus de données linguistiques annotées. Ces deux familles de méthodes, bien qu'efficaces pour nombre d'applications, présentent de sérieuses limitations. Pour la première, il s'agit de la difficulté et du coût de construction des bases de connaissances de haute qualité~: les experts sont rares et la connaissance accumulée sur un domaine $X$ ne se transporte pas toujours simplement sur un autre domaine $Y$. Les méthodes probabilistes, quant à elles, ne traitent pas naturellement les objets fortement structurés, ne prévoient pas d'inclusion de connaissances linguistiques explicites, et surtout, reposent lourdement sur le choix a priori d'un certain modèle, puisqu'utilisant principalement des techniques de statistiques paramétriques.

Dans le cadre d'un apprentissage automatique de données linguistiques, des modèles inférentiels alternatifs ont alors été proposés qui remettent en cause le principe d'abstraction opéré par les règles ou les modèles probabilistes. Selon cette conception, la connaissance linguistique reste implicitement représentée dans le corpus accumulé. Dans le domaine de l'Apprentissage Automatique, les méthodes suivant les même principes sont regroupées sous l'appellation d'apprentissage \og{}paresseux\fg{}. Ces méthodes reposent généralement sur le biais d'apprentissage suivant~: si un objet $Y$ est \og{}proche\fg{} d'un objet $X$, alors son analyse $f(Y)$ est un bon candidat pour $f(X)$. Alors que l'hypothèse invoquée se justifie pour les applications usuellement traitées en Apprentissage Automatique, la nature structurée et l'organisation paradigmatique des données linguistiques suggèrent une approche légèrement différente. Pour rendre compte de cette particularité, nous étudions un modèle reposant sur la notion de \og{}proportion analogique\fg{}. Dans ce modèle, l'analyse $f(T)$ d'un nouvel objet $T$ s'opère par identification d'une proportion analogique avec des objets $X$, $Y$ et $Z$ déjà connus. L'hypothèse analogique postule ainsi que si \lana{X}{Y}{Z}{T}, alors \lana{$f(X)$}{$f(Y)$}{$f(Z)$}{$f(T)$}. Pour inférer $f(T)$ à partir des $f(X)$, $f(Y)$, $f(Z)$ déjà connus, on résout l'\og{}équation analogique\fg{} d'inconnue $I$~: \lana{$f(X)$}{$f(Y)$}{$f(Z)$}{$I$}.


Nous présentons, dans la première partie de ce travail, une étude de ce modèle de proportion analogique au regard d'un cadre plus général que nous qualifierons d'\og{}apprentissage par analogie\fg{}. Ce cadre s'instancie dans un certain nombre de contextes~: dans le domaine des sciences cognitives, il s'agit de raisonnement par analogie, faculté essentielle au c\oe{}ur de nombreux processus cognitifs~; dans le cadre de la linguistique traditionnelle, il fournit un support à un certain nombre de mécanismes tels que la création analogique, l'opposition ou la commutation~; dans le contexte de l'apprentissage automatique, il correspond à l'ensemble des méthodes d'apprentissage paresseux. Cette mise en perspective offre un éclairage sur la nature du modèle et les mécanismes sous-jacents.

La deuxième partie de notre travail propose un cadre algébrique unifié, définissant la notion de proportion analogique. Partant d'un modèle de proportion analogique entre chaînes de symboles, éléments d'un monoïde libre, nous présentons une extension au cas plus général des semigroupes. Cette généralisation conduit directement à une définition valide pour tous les ensembles dérivant de la structure de semigroupe, permettant ainsi la modélisation des proportions analogiques entre représentations courantes d'entités linguistiques telles que chaînes de symboles, arbres, structures de traits et langages finis. Des algorithmes adaptés au traitement des proportions analogiques entre de tels objets structurés sont présentés. Nous proposons également quelques directions pour enrichir le modèle, et permettre ainsi son utilisation dans des cas plus complexes.


Le modèle inférentiel étudié, motivé par des besoins en Traitement Automatique des Langues, est ensuite explicitement interprété comme une méthode d'Apprentissage Automatique. Cette formalisation a permis de mettre en évidence plusieurs de ses éléments caractéristiques. Une particularité notable du modèle réside dans sa capacité à traiter des objets structurés, aussi bien en entrée qu'en sortie, alors que la tâche classique de classification suppose en général un espace de sortie constitué d'un ensemble fini de classes. Nous montrons ensuite comment exprimer le biais d'apprentissage de la méthode à l'aide de l'introduction de la notion d'extension analogique. Enfin, nous concluons par la présentation de résultats expérimentaux issus de l'application de notre modèle à plusieurs tâches de Traitement Automatique des Langues~: transcription orthographique/phonétique, analyse flexionnelle et analyse dérivationnelle.
46

Julien, David. "Goliath : un environnement à base de modèles et d'agents pour la conception d'interfaces utilisateur." Paris 6, 2004. http://www.theses.fr/2004PA066171.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Osmani, Aomar. "Diagnostic de pannes dans les réseaux : approche à base de modèles et raisonnement temporel." Paris 13, 1999. http://www.theses.fr/1999PA132044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse se situe dans le cadre de la construction d'un système d'aide à la supervision de réseaux de télécommunications qui soit à la fois efficace et générique. L'architecture proposée pour cela par le projet GASPAR comporte une approche à base de modèles pour générer automatiquement un système de supervision à base de règles. Nous nous sommes intéressé principalement à la modélisation et à la simulation du comportement du réseau. Nous avons amélioré quelques aspects de la modélisation utilisée et propose des algorithmes permettant de réduire l'explosion combinatoire due à l'incertitude sur l'ordre des événements. Nous avons mis en oeuvre ces analyses dans notre logiciel AUTMODSIM. Nous avons également introduit une approche d'apprentissage à partir d'exemples utilisant le formalisme d'intervalles généralisés. Nous avons accordé une grande importance dans notre travail à la gestion des informations temporelles. D'abord, dans le cadre du projet GASPAR, où nous avons proposé des algorithmes de simulation prenant en compte les informations temporelles imprécises. Puis, dans un cadre plus général du raisonnement sur le temps utilisant les techniques de satisfaction de contraintes où nous avons proposé deux formalismes : le raisonnement sur les intervalles généralisés et le raisonnement sur les intervalles décrits sur un cercle.
48

Gucik-Derigny, David. "CONTRIBUTION AU PRONOSTIC DES SYSTÈMES NON LINÉAIRES À BASE DE MODÈLES : THÉORIE ET APPLICATION." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est une contribution au problème du pronostic des systèmes complexes. Plus précisément, elle concerne l'approche basée modèles et est composée de trois contributions principales. Tout d'abord, dans une première contribution une définition du concept de pronostic est proposée et est positionnée par rapport aux concepts de diagnostic et de diagnostic prédictif. Pour cela, une notion de contrainte temporelle a été introduite afin de donner toute pertinence à la prédiction réalisée. Il a également été montré comment le pronostic est lié à la notion d'accessibilité en temps fini.La deuxième contribution est dédiée à l'utilisation des observateurs à convergence en temps fini pour la problématique du pronostic. Une méthodologie de pronostic est présentée pour les systèmes non linéaires à échelle de temps multiple. Puis, une troisième contribution est introduite par l'utilisation des observateurs par intervalle pour le pronostic. Une méthodologie de pronostic est proposée pour les systèmes non linéaires incertains à échelle de temps multiple. Pour illustrer les différents résultats théoriques, des simulations ont été conduites sur un modèle de comportement d'un oscillateur électromécanique
This thesis is a contribution to the problem of a complex system prognosis. More precisely, it concerns the model-based prognosis approach and the thesis is divided into three main contributions. First of all, a definition of prognosis concept is proposed as a first contribution and is positionned in reference to the diagnosis and predictive diagnosis concepts. For that, a notion of temporal constraint is introduced to give all pertinence to the prediction achieved. It is also shown how prognosis is linked to the finite time reachability notion. The second contribution is dedicated to the use of finite time convergence observer for the prognosis problem. A prognosis methodology is presented for nonlinear multiple time scale systems. Then, a last contribution is introduced through the use of interval observer for the prognosis problem. A pronognosis methodology is proposed for nonlinear uncertain multiple time scale systems. To illustrate the theorical results, simulations are achieved based on a model of an electromechanical oscillator system
49

Settouti, Lotfi. "Systèmes à base de traces modélisées : modèles et langages pour l'exploitation des traces d'interactions." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse s'inscrit dans le cadre du projet < personnalisation des environnements informatiques pour l'apprentissage humain (EIAH) > financé par la Région Rhône-Alpes. La personnalisation des EIAH est essentiellement dépendante de la capacité à produire des traces pertinentes et exploitables des activités des apprenants interagissant avec un EIAH. Dans ce domaine, l'exploitation des traces relève explicitement plusieurs problématiques allant de sa représentation de manière normalisée et intelligible à son traitement et interprétation en temps différé ou en temps réel au moment même de l'apprentissage. La multiplication des pratiques et des usages des traces requiert des outils génériques pour soutenir leurs exploitations. L'objectif de cette thèse est de définir les fondements théoriques de tels outils génériques permettant l'exploitation des traces d'interaction. Ceci nous a amené à définir la notion de Systèmes à Base de Trace modélisées : une classe de systèmes à base de connaissances facilitant le raisonnement et l'exploitation des traces modélisées. L'approche théorique proposée pour construire de tels systèmes s'articule autour de deux contributions : (1) La définition d'un cadre conceptuel définissant les concepts, l'architecture et les services mobilisés par les SBT. (2) La définition d'un cadre formel pour les systèmes à base de traces modélisées. Plus précisément, la proposition d'un langage pour l'interrogation et la transformation de trace modélisées à base de règles permettant des évaluations ponctuelles et continues. La sémantique formelle de ce langage est définie sous forme d'une théorie des modèles et d'une théorie de point fixe, deux formalismes habituellement utilisés pour décrire la sémantique formelle des langages de représentation de connaissances
This thesis is funded by the Rhône-Alpes Region as a part of the project < Personalisation of Technology-Enhanced Learning (TEL) Systems >. Personalising TEL Systems is, above all, dependent on the capacity to produce relevant and exploitable traces of individual or collaborative learning activities. In this field, exploiting interaction traces addresses several problems ranging from its representation in a normalised and intelligible manner to its processing and interpretation in continuous way during the ongoing TEL activities. The proliferation of trace-based exploitations raises the need of generic tools to support their representation and exploitation. The main objective of this thesis is to define the theoretical foundations of such generic tools. To do that, we define the notion of Trace-Based System (TBS) as a kind of Knowledge-based system whose main source of knowledge is a set of trace of user-system interactions. This thesis investigates practical and theoretical issues related to TBS, covering the spectrum from concepts, services and architecture involved by such TBS (conceptual framework) to language design over declarative semantics (formal framework). The central topic of our framework is the development of a high-level trace transformation language supporting deductive rules as an abstraction and reasoning mechanism for traces. The declarative semantics for such language is defined by a (Tarski-style) model theory with accompanying fixpoint theory
50

Chevalier, Alexis. "Etude expérimentale, élaboration et modélisation de matériaux composites à base de poudres magnétiques douces." Brest, 1998. https://tel.archives-ouvertes.fr/tel-00484041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les procedes de depots en couche epaisses, que l'on retrouve dans la mise en uvre des systemes de communications et de detections, sont a l'origine de l'interet croissant pour les materiaux magnetiques composites. Ces materiaux sont obtenus par melange, en proportions variables, d'une ou plusieurs poudres magnetiques choisies en fonction de leurs proprietes originales et de poudres non magnetiques. Ce travail, qui est une etude fondamentale des proprietes magnetiques des materiaux composites, a pour but la modelisation de leur susceptibilite magnetique en champ faible. Le modele que nous proposons pour decrire les proprietes magnetiques de ces materiaux composites est issu, comme la majorite des lois de melanges, d'une theorie de champ moyen. L'interet de ce modele est de presenter une forme analytique compacte qui ne fait intervenir qu'un nombre restreint de parametres dont le sens physique a ete defini dans cette etude. Le premier parametre est la susceptibilite intrinseque x#i, liee aux proprietes magnetiques des constituants du melange. L'etude experimentale, menee sur les composites a base de poudre de ferrites, a permis de montrer le caractere principalement rotationnel de l'aimantation dans les materiaux composites. Le second parametre intervenant dans notre modele est le coefficient effectif de forme n, lie au caractere disperse de la matiere. Il tient compte de maniere globale de l'ensemble des interactions qui dependent a la fois de la forme des particules et de leurs arrangements sous forme d'agregats. Les resultats experimentaux, obtenus sur des poudres de natures differentes, ont permis de valider l'aptitude du modele a predire les comportements de la susceptibilite magnetique des materiaux composites, aussi bien dans le domaine statique que dans celui des hyperfrequences.

До бібліографії