Dissertations / Theses on the topic 'Modélisation basée sur les agents'

To see the other types of publications on this topic, follow the link: Modélisation basée sur les agents.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modélisation basée sur les agents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bouzouba, Karim. "Modélisation des interactions basée sur le point de vue des agents." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ36240.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Six, Lancelot. "Vers un modèle de comportements de véhicules lourds en utilisant une méthode incrémentale basée sur la vérification et l'hystérésis : le modèle ArchiPL." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066497/document.

Full text
Abstract:
Les phénomènes de congestion sont dangereux, et couteux économiquement. La compréhension de ces phénomènes est un sujet majeur ayant occupé la communauté scientifique depuis la moitié du vingtième siècle. L'approche microscopique, cherchant à reproduire les phénomènes macroscopiques grâce à la modélisation des comportements individuels, a proposé un grand nombre de modèles. Cependant, alors que la littérature a mis en avant l'impact négatif des véhicules lourds, peu se sont intéressés à savoir si les véhicules lourds ont un comportement similaire à celui des véhicules légers. Les principaux modèles considèrent que les comportements sont indifférenciés, à quelques paramètres près. Dans ces travaux, nous proposons de remettre en cause cette hypothèse. Nous proposons une démarche incrémentale, VIM4MAS, au cours de laquelle nous cherchons à identifier les principales différences entre les propriétés du comportement d'un véhicule lourd avec celle d'un véhicule léger. Cette démarche nous permet de construire un modèle de véhicules lourds en se fondant sur un modèle pré-existant de véhicules légers et en n'apportant que les modifications nécessaires. Dans le cadre de cette démarche, nous proposons également une méthode d'analyse des comportements longitudinaux fondée sur l'étude des boucles d'hystérésis. Cette méthode permet d'étudier les capacités d'anticipation des conducteurs, selon une approche boite noire. Le modèle de véhicules lourds produit, ArchiPL, montre d'une part des comportements de meilleure qualité du point de vue individuel, et d'autre part une cohérence avec la littérature existante
Congestion phenomena are a major issue modern societies have to face. Understanding them, their creation, their evolution and their real impact are major questions addressed by the scientific community since the half of the twentieth century. A large number of simulation models have been developed to reproduce and study the traffic dynamics. Among them, microscopic model are designed to reproduce macroscopic phenomena such as congestion by reproducing individual vehicles' behavior. However, despite the negative influence of large vehicles on the flow, very few models took them into account. Those vehicles are usually dealt with as any other vehicle, except for a few parameters. In this thesis, we reconsider this hypothesis and try to identify how the behavior of large vehicles differs from other vehicles' behavior. We propose the VIM4MAS development methodology to help in this process. This method is used to improve a generic vehicle's behavior model and refine it until it can reproduce the most important aspects of the large vehicles' behaviors. To understand and identify key properties of longitudinal behaviors of vehicles, we have developed an analysis methodology based on the study of hysteresis phenomena. This analysis methodology allows to highlight key properties such as anticipation capabilities of drivers. The outcome of this work is the ArchiPL model for large vehicles' behaviors. This models shows an improvement of the behaviour quality at the microscopic level, while being consistent with the literature with respect to emergent phenomena
APA, Harvard, Vancouver, ISO, and other styles
3

Gangat, Yasine. "Architecture Agent pour la modélisation et simulation de systèmes complexes multidynamiques : une approche multi-comportementale basée sur le pattern "Agent MVC"." Phd thesis, Université de la Réunion, 2013. http://tel.archives-ouvertes.fr/tel-01022620.

Full text
Abstract:
La co-construction et la réutilisation de modèles font l'objet de plusieurs travaux dans le domaine de la simulation. Cependant, dans le domaine plus spécifique de la Simulation Orientée Agent (SOA), nous pouvons constater un manque sur ces deux points malgré un besoin fort de la part des thématiciens. La co-construction est essentielle pour optimiser la mise en commun du savoir de différents experts, mais nous faisons souvent face à des divergences de points de vue. Les méthodologies existantes pour la co-construction en SOA ne permettent qu'un faible niveau de collaboration entre thématiciens durant la phase initiale de modélisation, ainsi qu'entre les des thématiciens avec les modélisateurs ou les modélisateurs-informaticiens... Pour faciliter cette co-construction, nous proposons de suivre une méthodologie de conception favorisant cette collaboration. La réutilisation de modèle octroie un gain de temps significatif, une amélioration du modèle et l'apport de nouvelle connaissance. Les méthodologies en SOA dans ce domaine existent. Cependant, dans le spectre de réutilisation, elles sont souvent limitées au niveau du modèle complet ou de l'agent avec l'impossibilité de "descendre" plus bas. L'expérience de EDMMAS, un cas concret d'un modèle issu de trois réutilisations successives, nous a permis de constater une nouvelle complexité qui découle de la démultiplication des comportements des agents et crée un décalage conséquent entre le modèle opérationnel et le modèle conceptuel. Notre objectif est de promouvoir la réutilisation aussi bien des modèles, que des agents et de leurs comportements.Pour répondre à ces questionnements, nous proposons dans ce manuscrit une manière de codifier et d'intégrer la connaissance provenant de disciplines différentes dans le modèle, tout en utilisant des modules "composables" qui facilitent la réutilisation. Nous proposons (i) une nouvelle architecture Agent (aMVC), appliquée dans un cadre multidynamique (DOM), avec l'appui (ii) d'une approche méthodologique (MMC) basée sur la décomposition et réutilisation des comportements. Cet ensemble de propositions, (i) et (ii), permet de conduire un projet pluridisciplinaire de SOA avec un grand nombre d'acteurs, facilitant la co-construction des modèles grâce à l'instauration de nouvelles synergies entre les différents acteurs participant à la modélisation. Les concepteurs pourront travailler de manière autonome sur leur dynamique et la plateforme fera l'intégration de ces dernières en assurant la cohésion et la robustesse du système. Nos contributions offrent la capacité de créer les briques élémentaires du système de manière indépendante, de les associer et de les combiner pour former des agents, selon des dynamiques conformément à l'approche DOM. Elles permettent ainsi de comparer la logique selon différentes possibilités pour une même dynamique et d'ouvrir la perspective d'étudier un grand nombre d'alternatives de modélisation d'un même système complexe, et de les analyser ensuite à une échelle très fine.
APA, Harvard, Vancouver, ISO, and other styles
4

Meng, Anbo. "Contribution à la modélisation et l'implémentation d'un système d'e-Education basé sur les multi-agents." Metz, 2006. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2006/Meng.Anbo.SMZ0636.pdf.

Full text
Abstract:
Le but de cette thèse est de développer un environnement d'e-Education intelligent, flexible, personnalisé et ouvert afin de fournir un mécanisme efficace pour personnaliser l'apprentissage de l'étudiant et le processus pédagogique du professeur, pour diversifier les paradigmes d'étude et pour faciliter le développement des matériaux d'enseignement et d'étude. Cette thèse aborde donc une série de méthodologies, de théories, d'algorithmes. Et de technologies innovateurs et multi disciplines tel que les systèmes MultiAgents, les objets d'enseignement, les théories cognitives, les algorithmes génétiques, XML, J2EE etc. En particulier, cette dissertation se concentre sur l'approche des SMA comme conteneur et environnement de support à la fois pour intégrer et encapsuler les méthodologies et technologies mentionnées ci-dessus, que pour modeler et mettre en oeuvre plusieurs applications typiques d'e-Éducation à différents niveaux et dans différents contextes en termes de réalisation de contenu, d'étude individuelle et collective, d'aide appariée, et de génération et livraison de controle dans l'environnement d'étude distribué. Après avoir pris en compte i'avantage évident des SMA en termes d'autonomie, de capacité sociale et de réactivité, et avoir vérifier et valider la faisabilité et l'efficacité des modèles proposés dans cette thèse, une partie des ceux-ci ont été mis en application et simulés dans le cadre JADE. Les résultats finaux de simulation démontrent la rationalité et la praticabilité d'appliquer la technologie des systèmes de multi-agents pour modeler et mettre en application un systéme complexe et à grande échelle d'e-Education dans un environnement distribué
The goal of this PhD thesis is develop an intelligent, flexible, personalized and open e-Education environment so as to provide an efficient mechanism to personalize the learner's learning process and the teacher's pedagogic process, diversify the learning paradigms and facilitate the development of the teaching and learning materials. To achieve such goal, this thesis explored and adopted a series of innovative methodologies, théories, algorithmes, and technologies derived from multidiscipline such as Multi-Agent, system, learning Object, cognitive theorue, genetic algorithm, eXentensible Markup Langaguage, J2EE and so on. In particular, this dissertation concentrates on the approch of MAS as a container and supporting environment to integrating and encapsulating the above mentioned technologies and methodologies, as well as to modeling and implementating several typical e-Education applications different levels and different contexts in terms of content authoring, individual and collective learning, expertise peer help finding, and test generation, delivery, assessment in distributed learning environment after deliberately taking into consideration the obvious advantage of MAS in terms of autonomy, procativeness, social ability and reactivity, To verify and validate the feasibility and efficiency of the models proposed in thisthesis, part of the models have been implementted and simulated with the JADE framework. The final simulation results demonstrate the rationality and feasibility of applying multi-agent system technology to modeling and implementing large-scale and complex e-Education system in distributed environment
APA, Harvard, Vancouver, ISO, and other styles
5

Six, Lancelot. "Vers un modèle de comportements de véhicules lourds en utilisant une méthode incrémentale basée sur la vérification et l'hystérésis : le modèle ArchiPL." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066497.

Full text
Abstract:
Les phénomènes de congestion sont dangereux, et couteux économiquement. La compréhension de ces phénomènes est un sujet majeur ayant occupé la communauté scientifique depuis la moitié du vingtième siècle. L'approche microscopique, cherchant à reproduire les phénomènes macroscopiques grâce à la modélisation des comportements individuels, a proposé un grand nombre de modèles. Cependant, alors que la littérature a mis en avant l'impact négatif des véhicules lourds, peu se sont intéressés à savoir si les véhicules lourds ont un comportement similaire à celui des véhicules légers. Les principaux modèles considèrent que les comportements sont indifférenciés, à quelques paramètres près. Dans ces travaux, nous proposons de remettre en cause cette hypothèse. Nous proposons une démarche incrémentale, VIM4MAS, au cours de laquelle nous cherchons à identifier les principales différences entre les propriétés du comportement d'un véhicule lourd avec celle d'un véhicule léger. Cette démarche nous permet de construire un modèle de véhicules lourds en se fondant sur un modèle pré-existant de véhicules légers et en n'apportant que les modifications nécessaires. Dans le cadre de cette démarche, nous proposons également une méthode d'analyse des comportements longitudinaux fondée sur l'étude des boucles d'hystérésis. Cette méthode permet d'étudier les capacités d'anticipation des conducteurs, selon une approche boite noire. Le modèle de véhicules lourds produit, ArchiPL, montre d'une part des comportements de meilleure qualité du point de vue individuel, et d'autre part une cohérence avec la littérature existante
Congestion phenomena are a major issue modern societies have to face. Understanding them, their creation, their evolution and their real impact are major questions addressed by the scientific community since the half of the twentieth century. A large number of simulation models have been developed to reproduce and study the traffic dynamics. Among them, microscopic model are designed to reproduce macroscopic phenomena such as congestion by reproducing individual vehicles' behavior. However, despite the negative influence of large vehicles on the flow, very few models took them into account. Those vehicles are usually dealt with as any other vehicle, except for a few parameters. In this thesis, we reconsider this hypothesis and try to identify how the behavior of large vehicles differs from other vehicles' behavior. We propose the VIM4MAS development methodology to help in this process. This method is used to improve a generic vehicle's behavior model and refine it until it can reproduce the most important aspects of the large vehicles' behaviors. To understand and identify key properties of longitudinal behaviors of vehicles, we have developed an analysis methodology based on the study of hysteresis phenomena. This analysis methodology allows to highlight key properties such as anticipation capabilities of drivers. The outcome of this work is the ArchiPL model for large vehicles' behaviors. This models shows an improvement of the behaviour quality at the microscopic level, while being consistent with the literature with respect to emergent phenomena
APA, Harvard, Vancouver, ISO, and other styles
6

Gallab, Maryam. "Développement d’une approche d’aide à la maitrise des risques dans les activités de maintenance d'une chaine logistique : Approche par modélisation et simulation basée sur les systèmes multi-agents." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM028/document.

Full text
Abstract:
Cette thèse a pour objectif principal de développer un simulateur multi-agents pour concevoir un système d'aide à la maitrise des risques des activités de maintenance. Le but est d'explorer la complexité de la maintenance et de spécifier les interactions entre la fonction maintenance, l'analyse et l'évaluation des risques. Nous nous intéressons d’une part, à concevoir un modèle systémique permettant d’identifier et de modéliser un système industriel, à montrer les différentes interactions entre ses éléments, à analyser et évaluer les risques des activités de maintenance. Nous proposons la méthode MOSAR et le langage UML pour concevoir un modèle cognitif de référence. Ce modèle a servi de point de départ pour la conception d’une base de données à l’aide du langage SQL, qui est exploitée par le modèle Multi-Agents afin d’acquérir les informations nécessaires à son fonctionnement.D’autre part, nous développons une architecture d’un Système Multi-Agents qui a pour vocation d’anticiper les situations de défaillances et la prise de décisions à l’aide de la simulation du comportement du système étudié. Une comparaison entre les plateformes existantes dédiées aux Systèmes Multi-Agents est effectuée pour choisir la plateforme adéquate à notre problématique pour la réalisation de la simulation.Finalement, les modèles développés sont appliqués dans le cadre d’une chaîne logistique pour le chargement et le déchargement de GPL (Gaz de Pétrole Liquéfié). Un simulateur a été développé à l’aide de la plateforme AnyLogic dans le but d’étudier le comportement du système et de simuler les scénarios de défaillances choisis par l’industriel pour le calcul de la criticité à partir de trois paramètres (fréquence, gravité, détectabilité) et l’obtention d’un Tableau de Bord contenant un ensemble d’indicateurs de performance de la maintenance. Les modèles de simulation proposés permettent d’orienter les industries vers les bonnes décisions pour éviter les situations à risques pouvant déclencher des événements perturbateurs dommageables
The main objective of this thesis is to develop a multi-agent approach to designing a model to overcome risks of maintenance activities. The aim is to explore the maintenance complexity and to indicate the interactions between the maintenance function and the risk assessment.Firstly, we are interested in designing a systemic model to identify and model the industrial system, to show the different interactions between its elements, to analyze and to evaluate risks of maintenance activities. We propose the MOSAR method and the UML language to design a cognitive reference model. This model served as a starting point for designing a database using the SQL language, which is operated by Multi-Agent model to acquire the necessary information for its operation.On the other hand, we develop a framework of a multi-agent system that aims to anticipate failures scenarios and the decision-making by simulating the studied system behaviour. A comparison between the existing platforms dedicated to Multi-Agent Systems is performed to choose the appropriate platform for the simulation.Finally, the developed models are applied in the LPG supply chain (Liquefied Petroleum Gas). A simulator was developed using the AnyLogic platform in order to study the system behaviour and to simulate the failure scenarios chosen by the industry, for the calculation of the criticality from three parameters (Frequency, severity, detectability), and for obtaining a Dashboard containing a set of maintenance performance indicators. The proposed simulation models help to guide the industries toward good decisions to avoid risky situations that may trigger disruptive events damaging
APA, Harvard, Vancouver, ISO, and other styles
7

Benhlima, Ouidad. "Assessing Transport Modes' Impact on Spatial Accessibility." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST091.

Full text
Abstract:
Cette thèse évalue l'impact des modes de transport sur l'accessibilité, intégrant les approches d'accessibilité basées sur la localisation et l'utilité à travers le développement des métriques de la famille "Floating Catchment Area (FCA)" et de la modélisation basée sur les agents. À travers une étude de cas centrée sur la ville de Casablanca et ses zones environnantes, nous analysons les relations entre l'infrastructure urbaine, les options de transport, et les métriques d'accessibilité. La thèse évalue l'état actuel de l'accessibilité et les changements d'accès suite à des améliorations potentielles en simulant des modifications au réseau de transport public existant, y compris l'introduction de nouvelles lignes et services de transport. Les objectifs principaux incluent l'évaluation des différences dans l'accessibilité spatiale au sein de différents modes de transport et l'application de la modélisation basée sur les agents pour simuler et analyser l'impact des améliorations proposées de l'infrastructure de transport. Cette approche combine des perspectives théoriques et une application pratique pour informer les processus de prise de décision politique et de planification urbaine. À travers l'analyse de l'accessibilité, cette thèse contribue à la discussion plus large sur la création d'environnements urbains plus accessibles et équitables
This thesis evaluates transport modes' effects on accessibility, integrating location-based and utility-based accessibility approaches alongside the Floating Catchment Area (FCA) family of metrics and agent-based modeling. Through a case study centered on Casablanca and its surrounding areas, we analyze the relationships between urban infrastructure, transportation options, and accessibility metrics. The thesis assesses the current state of accessibility and the changes in access following potential improvements by simulating modifications to the existing public transportation network, including introducing new transport lines and modes. Key objectives include evaluating the differences in spatial accessibility within different transport modes and applying agent-based modeling to simulate and analyze the impact of proposed transport infrastructure enhancements. This approach combines theoretical insight and practical application to inform policymaking and urban planning processes. Through accessibility analysis, this thesis contributes to the broader discussion on creating more accessible and equitable cities
APA, Harvard, Vancouver, ISO, and other styles
8

Sellami, Bachir. "Afgar : un système à base de connaissance basé sur les objets pour l'Aide à la Fabrication des Grilles de service des Agents Roulants de la SNCF." Compiègne, 1992. http://www.theses.fr/1992COMPD556.

Full text
Abstract:
Cette thèse, effectuée à la demande de la SNCF, apporte une contribution à la résolution du problème des grilles de service des agents roulants. Elle a donné lieu à AFGAR. Le problème posé est un problème complexe, combinatoire, pour lequel il n'existe pas d'algorithme efficace. Concrètement il s'agit, partant d'un ensemble de journées de travail, de trouver si possible la meilleure succession de journées de travail et de repos périodiques qui respectent les contraintes temporelles, règlementaires et humaines. Le principe méthodologique de la démarche de modélisation a été de faire une séparation nette entre un modèle du processus avec sa logique de fonctionnement et un modèle de la stratégie de résolution (du problème) avec sa logique de raisonnement. Ayant à représenter deux types de connaissances (structurelles et fonctionnelles d'une part, expertes et déductives d'autre part), le choix d'un formalisme hybride (objets et règles) s'imposait. Nous avons donc opté pour le générateur (hybride : règles et objets) de systèmes experts SMECI. La partie raisonnement est basée sur le modèle systémique Opérand, Information et Décision (OID). La partie fonctionnement est basée sur une méthodologie objet qui permet de structurer tant les classes que les instances. En synthèse, nous proposons une ébauche de méthodologie de développement des systèmes à base de connaissances
APA, Harvard, Vancouver, ISO, and other styles
9

Deboscker, Stéphanie. "Les entérocoques résistants aux glycopeptides : épidémiologie et modélisation de leur transmission hospitalière." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAJ106.

Full text
Abstract:
L’objectif de notre travail était d’étudier les facteurs d'acquisition des entérocoques résistants aux glycopeptides (ERG) en situation épidémique, de décrire leur histoire naturelle et de modéliser leur transmission entre 3 services spécialisés. L’analyse multivariée bayésienne de notre première étude a montré que des antécédents d'hospitalisation et la prise d'antibiotiques et d'antiacides pendant l'hospitalisation favorisaient l'acquisition. La description de la cohorte de patients suivis depuis 2007a fait apparaître que la moitié des patients étaient pauci-excréteurs après 3 mois. Enfin l’analyse de la littérature a révélé que le modèle le plus pertinent pour simuler la diffusion hospitalière des ERG était celui basé sur les agents (agent-based model). Les simulations ont confirmé l’importance de l’hygiène des mains pour la prise en charge des patients, au regard d’autres mesures barrières. Avec une compliance à 80%, il n’y avait pas de cas secondaires dans 50% des simulations
The objective of our work was to study the factors associated with acquisition of glycopeptide-resistant enterococci (GRE) during a single-strain outbreak, to describe their natural history and to model their transmission between 3 specialized wards. The Bayesian multivariable analysis of our first study showed that a history of hospitalization and the use of antibiotics and antacids during hospitalization were associated with an increased risk of GRE acquisition. The description of GRE-carriers followed since 2007 then showed that half of the patients had negative screenings after 3months. Finally, the literature review revealed that the most relevant model for simulating GRE hospital diffusion was an agent-based model. The simulations confirmed the importance of hand hygiene for patient care in comparison to other barrier measures. With 80% compliance, there were no secondary cases in 50% of the simulations
APA, Harvard, Vancouver, ISO, and other styles
10

Chamekh, Fatma. "L’évolution du web de données basée sur un système multi-agents." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3083/document.

Full text
Abstract:
Cette thèse porte sur la modélisation d’un système d’aide à l’évolution du web de données en utilisant un système multi-agents. Plus particulièrement, elle a pour but de guider l’utilisateur dans sa démarche de modification d’une base de connaissances RDF. Elle aborde les problématiques suivantes : intégrer de nouveaux triplets résultant de l'annotation des documents, proposer le changement adéquat dans les deux niveaux, ontologie et données, en se basant sur des mesures de similarités, analyser les effets de changements sur la qualité des données et la gestion des versions en prenant en considération d'éventuels conflits. Cette question de recherche complexe engendre plusieurs problématiques dont les réponses sont dépendantes les unes des autres. Pour cela, nous nous sommes orientées vers le paradigme agent pour décomposer le problème. Il s’agit de répartir les tâches dans des agents. La coopération entre les agents permet de répondre au besoin de dépendance évoqué ci-dessus pour bénéficier de l’aspect dynamique et combler les inconvénients d’un système modulaire classique. Le choix d’un tel écosystème nous a permis de proposer une démarche d’évaluation de la qualité des données en employant un modèle d’argumentation. Il s’agit d’établir un consensus entre les agents pour prendre en considération les trois dimensions intrinsèques : la cohérence, la concision la complétude, la validation syntaxique et sémantique. Nous avons modélisé les métriques d’évaluation de chaque dimension sous forme d’arguments. L’acceptation ou pas d’un argument se décide via les préférences des agents.Chaque modification donne lieu à une nouvelle version de la base de connaissances RDF. Nous avons choisi de garder la dernière version de la base de connaissances. Pour cette raison, nous avons choisi de préserver les URI des ressources. Pour garder la trace des changements, nous annotons chaque ressource modifiée. Néanmoins, une base de connaissances peut être modifiée par plusieurs collaborateurs ce qui peut engendrer des conflits. Ils sont conjointement le résultat d’intégration de plusieurs données et le chevauchement des buts des agents. Pour gérer ces conflits, nous avons défini des règles. Nous avons appliqué notre travail de recherche au domaine de médecine générale
In this thesis, we investigate the evolution of RDF datasets from documents and LOD. We identify the following issues : the integration of new triples, the proposition of changes by taking into account the data quality and the management of differents versions.To handle with the complexity of the web of data evolution, we propose an agent based argumentation framework. We assume that the agent specifications could facilitate the process of RDF dataset evolution. The agent technology is one of the most useful solution to cope with a complex problem. The agents work as a team and are autonomous in the sense that they have the ability to decide themselves which goals they should adopt and how these goals should be acheived. The Agents use argumentation theory to reach a consensus about the best change alternative. Relatively to this goal, we propose an argumentation model based on the metric related to the intrinsic dimensions.To keep a record of all the occured modifications, we are focused on the ressource version. In the case of a collaborative environment, several conflicts could be generated. To manage those conflicts, we define rules.The exploited domain is general medecine
APA, Harvard, Vancouver, ISO, and other styles
11

Olmos, Marchant Luis Felipe. "Modélisation de performance des caches basée sur l'analyse de données." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX008/document.

Full text
Abstract:
L’Internet d’aujourd’hui a une charge de trafic de plus en plus forte à cause de la prolifération des sites de vidéo, notamment YouTube. Les serveurs Cache jouent un rôle clé pour faire face à cette demande qui croît vertigineusement. Ces serveurs sont déployés à proximité de l’utilisateur, et ils gardent dynamiquement les contenus les plus populaires via des algorithmes en ligne connus comme « politiques de cache ». Avec cette infrastructure les fournisseurs de contenu peuvent satisfaire la demande de façon efficace, en réduisant l’utilisation des ressources de réseau. Les serveurs Cache sont les briques basiques des Content Delivery Networks (CDNs), que selon Cisco fourniraient plus de 70% du trafic de vidéo en 2019.Donc, d’un point de vue opérationnel, il est très important de pouvoir estimer l’efficacité d’un serveur Cache selon la politique employée et la capacité. De manière plus spécifique, dans cette thèse nous traitons la question suivante : Combien, au minimum, doit-on investir sur un serveur cache pour avoir un niveau de performance donné?Produit d’une modélisation qui ne tient pas compte de la façon dont le catalogue de contenus évolue dans le temps, l’état de l’art de la recherche fournissait des réponses inexactes à la dernière question.Dans nos travaux, nous proposons des nouveaux modèles stochastiques, basés sur les processus ponctuels, qui permettent d’incorporer la dynamique du catalogue dans l’analyse de performance. Dans ce cadre, nous avons développé une analyse asymptotique rigoureuse pour l’estimation de la performance d’un serveur Cache pour la politique « Least Recently Used » (LRU). Nous avons validé les estimations théoriques avec longues traces de trafic Internet en proposant une méthode de maximum de vraisemblance pour l’estimation des paramètres du modèle
The need to distribute massive quantities of multimedia content to multiple users has increased tremendously in the last decade. The current solution to this ever-growing demand are Content Delivery Networks, an application layer architecture that handle nowadays the majority of multimedia traffic. This distribution problem has also motivated the study of new solutions such as the Information Centric Networking paradigm, whose aim is to add content delivery capabilities to the network layer by decoupling data from its location. In both architectures, cache servers play a key role, allowing efficient use of network resources for content delivery. As a consequence, the study of cache performance evaluation techniques has found a new momentum in recent years.In this dissertation, we propose a framework for the performance modeling of a cache ruled by the Least Recently Used (LRU) discipline. Our framework is data-driven since, in addition to the usual mathematical analysis, we address two additional data-related problems: The first is to propose a model that a priori is both simple and representative of the essential features of the measured traffic; the second, is the estimation of the model parameters starting from traffic traces. The contributions of this thesis concerns each of the above tasks.In particular, for our first contribution, we propose a parsimonious traffic model featuring a document catalog evolving in time. We achieve this by allowing each document to be available for a limited (random) period of time. To make a sensible proposal, we apply the "semi-experimental" method to real data. These "semi-experiments" consist in two phases: first, we randomize the traffic trace to break specific dependence structures in the request sequence; secondly, we perform a simulation of an LRU cache with the randomized request sequence as input. For candidate model, we refute an independence hypothesis if the resulting hit probability curve differs significantly from the one obtained from original trace. With the insights obtained, we propose a traffic model based on the so-called Poisson cluster point processes.Our second contribution is a theoretical estimation of the cache hit probability for a generalization of the latter model. For this objective, we use the Palm distribution of the model to set up a probability space whereby a document can be singled out for the analysis. In this setting, we then obtain an integral formula for the average number of misses. Finally, by means of a scaling of system parameters, we obtain for the latter expression an asymptotic expansion for large cache size. This expansion quantifies the error of a widely used heuristic in literature known as the "Che approximation", thus justifying and extending it in the process.Our last contribution concerns the estimation of the model parameters. We tackle this problem for the simpler and widely used Independent Reference Model. By considering its parameter (a popularity distribution) to be a random sample, we implement a Maximum Likelihood method to estimate it. This method allows us to seamlessly handle the censor phenomena occurring in traces. By measuring the cache performance obtained with the resulting model, we show that this method provides a more representative model of data than typical ad-hoc methodologies
APA, Harvard, Vancouver, ISO, and other styles
12

Hmaidi, Riadh. "Nouvelle stratégie basée sur les polypeptides comme agents modulateurs des processus tumoraux." Electronic Thesis or Diss., Amiens, 2022. http://www.theses.fr/2022AMIE0073.

Full text
Abstract:
Les produits d'origine naturelle sont de plus en plus recherchés et testés pour leur potentiel thérapeutique. Les peptides issus de venins de scorpions capables de moduler l'activité des canaux ioniques constituent de robustes outils biologiques essentiels pour une meilleure compréhension des mécanismes de fonctionnement de ces canaux transmembranaires, sélectifs notamment au sodium. Ils représentent parfois les molécules majeures du venin responsables de son effet hautement toxique qui se manifeste par des syndromes cardiogéniques et d'un œdème pulmonaire souvent fatal pour l'Homme. En modulant l'activité des canaux ioniques ces molécules sont potentiellement capables d'agir sur les processus cellulaires qui leur sont associés. Dans une première partie de ce travail, nous nous sommes intéressés au mécanisme d'interaction de la toxine AahII du venin du scorpion Androctonus australis hector (Aah) avec le canal sodique voltage-dépendant NaV1.5 et de son effet sur l'activité électrophysiologique de ce canal. Nous avons en particulier étudié la capacité du nanoanticorps anti-AahII (NbAahII 10 ou Nb10) à neutraliser l'interaction AahII/NaV1.5. Dans une seconde partie, nous avons investigué l'effet de différentes fractions peptidiques issues du venin de Aah sur la viabilité des cellules cancéreuses mammaires humaines. La toxine AahII est considérée comme l'α-toxine la plus active du venin de scorpion Aah. Elle a notamment été décrite pour ralentir l'inactivation des canaux sodiques NaV. Le nanoanticorps Nb10 a été développé afin de neutraliser l'effet de la toxine AahII. L'efficacité du Nb10 a été évaluée in-vivo sur des souris, mais son mécanisme d'action au niveau cellulaire reste inconnu. Nos travaux ont confirmé que AahII ralentit de manière dose dépendante l'inactivation des canaux sodiques NaV1.5 surexprimés dans des cellules HEK293, sans modifier l'amplitude du courant au pic d'une part et ont montré que le Nb10 neutralise l'effet de la toxine AahII sur la cinétique d'inactivation du canal d'autre part. L'analyse bioinformatique du complexe d'interaction de NaV1.5/AahII montre que la AahII partage la même surface d'interaction avec le Nb10, ce qui suggère fortement que ce dernier déplace dynamiquement la toxine AahII de son site de liaison sur le canal NaV1.5. Au niveau physiopathologique, nous avons montré que le traitement des cellules cancéreuses mammaires humaines MDA-MB-231 avec le Nb10 prévient l'augmentation de l'invasion cellulaire induite par AahII. Dans la seconde partie de ce travail, les 3 majeures fractions issues du venin de scorpion Aah, préalablement isolées par chromatographie à basse pression (M1, M2 et AahG50), ont été testées sur la viabilité et la migration des lignées cellulaires cancéreuses mammaires humaines, MCF-7 et MDA-MB-231. Ces fractions n'ont pas eu d'effet sur la migration cellulaire mais ont induit des effets très biphasiques sur la viabilité cellulaire, démontrant de manière intéressante des effets synergiques ou antagonistes des peptides qui les composent. Afin de purifier les peptides d'intérêts, une purification supplémentaire des fractions a été réalisée par chromatographie à haute pression (HPLC). Au total, trois polypeptides ont été identifiées pour induire une diminution de la viabilité des cellules cancéreuses mammaires et feront l'objet d'investigation plus poussée. En conclusion, nos résultats ont permis d'élucider les mécanismes physiologiques et moléculaires de neutralisation de l'α-toxine AahII par le nanoanticorps Nb10. De plus, nous avons pu identifier trois molécules peptidiques issues du venin de scorpion Aah possédant des propriétés anticancéreuses. Ces travaux se poursuivront par une étude structurale permettant d'élucider à une échelle tridimensionnelle, les topologies moléculaires sous-jacentes
Natural molecules are increasingly being researched and tested for their therapeutic potential. Scorpion venoms derived peptides modulating ion channels activity are robust biological essential tools for a better understanding of the action mechanisms of these transmembrane channels, particularly sodium channels. They represent sometimes the major molecules of the venom responsible for its highly toxic effect which manifests with cardiogenic syndromes and pulmonary edema often fatal for humans. By modulating ion channels activity, these molecules are potentially able to act on the cellular processes associated with them. In the first part of this work, we have studied the mechanism of interaction of the AahII toxin from the scorpion venom of Androctonus australis hector (Aah), with the voltage-gated sodium channel NaV1.5 and its effect on the electrophysiological activity of this channel. In particular, we studied the ability of the anti-AahII nanoantibody (NbAahII 10 or Nb10) to neutralize the AahII/NaV1.5 interactions. In the second part, we investigated the effect of different peptide fractions from Aah venom on the viability of human breast cancer cells. The toxin AahII is the most active α-toxin from the North African scorpion Androctonus australis hector that slows the fast inactivation of NaV channels. To fight scorpion envenomation, an anti-AahII nanobody named NbAahII10 (Nb10) was developed. The efficiency of this nanobody has been evaluated in vivo on mice, but its mechanism of action at the cellular level remains unknown. Our work confirmed that the AahII toxin slows the fast inactivation of the adult cardiac NaV1.5 channels, expressed in HEK293 cells, in a dose-dependent manner, while current amplitude was not affected, and showed that Nb10 can fully reverse the effect of the AahII toxin on the channel inactivation kinetics. Bioinformatic analysis of the NaV1.5/AahII interaction complex shows that AahII shares the same interaction surface with Nb10, which strongly suggests that Nb10 dynamically replaces the AahII toxin from its binding site on the NaV1.5 channel. At the pathophysiological level, we showed that treatment of human breast cancer cells MDA-MB-231 with Nb10 prevents the increase in cell invasion induced by AahII. In the second part of this work, the 3 major fractions from Aah scorpion venom, previously isolated by low-pressure chromatography (M1, M2, and AahG50), were tested on the viability and migration of human breast cancer cell lines, MCF-7 and MDA-MB-231. These fractions did not affect cell migration but induced very biphasic effects on cell viability, interestingly demonstrating synergistic or antagonistic effects of their component peptides. To purify the peptides of interest, additional purification of the fractions was performed by high-pressure chromatography (HPLC). In total, three polypeptides were identified to induce a decrease in breast cancer cell viability and will be further investigated. In conclusion, our results elucidated the physiological and molecular mechanisms of α-toxin AahII neutralization by the Nb10 nanoantibody. In addition, we were able to identify three peptide molecules from the scorpion venom Aah with anticancer properties. This work will continue with a structural study to elucidate the underlying molecular topologies at a three-dimensional scale
APA, Harvard, Vancouver, ISO, and other styles
13

Marque, Isabelle. "Segmentation d'images médicales tridimensionnelles basée sur une modélisation continue du volume." Phd thesis, Grenoble 1, 1990. http://tel.archives-ouvertes.fr/tel-00338755.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Labrecque, Patrick. "Modélisation vibratoire par composantes basée sur une technique expérimentale de mobilité." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ26581.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Quinnez, Bruno. "Modélisation des phénomènes aéroélastiques basée sur une linéarisation des équations d'Euler." Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0364.

Full text
Abstract:
Dans la première partie de cette thèse, on présente une méthode qui permet d'analyser les phénomènes aéroélastiques ou aéroacoustiques rencontres sur les structures vibrantes plongées dans un écoulement. Cette méthode est basée sur la linéarisation des équations d'Euler et elle permet donc de prendre en compte les aspects compressibles et tourbillonnaires des écoulements étudiés. Les équations d'Euler linearisées ont été écrites sous forme conservative. L’intégration en espace est réalisée à l'aide de la méthode des volumes finis, tandis que pour l'intégration en temps, les schémas explicites de Lax-Wendroff et des différences centrées ont été testés. Les conditions aux limites utilisées lors de cette étude sont de deux types: la condition aux limites de type structure vibrante et la condition aux limites non réfléchissante pour les parties frontière situées loin de la structure. Afin d'obtenir des temps de calcul raisonnables, une optimisation en vectoriel du programme a été réalisée en utilisant la méthode de concaténation des boucles et l'algorithme des directions alternées. Dans les domaines aéroélastiques et aéroacoustiques, des comparaisons avec les méthodes habituellement employées ont été effectuées. De bons résultats ont été obtenus dans des écoulements subsoniques et supersoniques. Pour les écoulements transsoniques, la méthode telle quelle n'est pas applicable. Pour simuler la propagation des ondes dans l'écoulement fluide, il faut si possible des maillages réguliers et orthogonaux afin d'éviter des réflexions parasites sur les irrégularités des mailles. On étudie donc dans la deuxième partie de cette thèse, une méthode de maillage structure tridimensionnel orthogonal. On utilise un découpage en tranches parallèles du volume à mailler. Chaque section est maillée à l'aide d'une transformation presque holomorphe. Le gauchissement de chacune des tranches est ensuite obtenu à l'aide d'un modèle de plaques
APA, Harvard, Vancouver, ISO, and other styles
16

Lamontagne, Philippe. "Modélisation spatio-temporelle orientée par patrons avec une approche basée sur individus." Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/64/1/LAMONTAGNE_Philippe.pdf.

Full text
Abstract:
Nous proposons un modèle spatialement explicite avec une approche basée sur individus qui simule les déplacements spatio-temporels des rorquals communs et des bélugas durant la saison touristique dans une portion de l’estuaire du Saint-Laurent. Ce modèle est une composante d’un outil d’aide à la décision, en cours de développement par notre groupe de recherche, pour tester différents scénarios de zonage et de règlementation dans le parc marin. Nous avons utilisé l’approche de modélisation orientée par patrons afin de reproduire les patrons de trajectoires, de répartition spatiale et de taille de groupe pour chaque mammifère. Ces patrons sont extraits d’une large base de données contenant des suivis d’individus obtenus par radio télémétrie et stations d’observation terrestre ainsi que plusieurs observations à partir de bateaux d’excursions entre 1994 et 2007 fournies par le groupe de recherche et d’éducation sur les mammifères marins. Nous avons implémenté et testé cinq différents modèles de déplacement des mammifères marins basés sur la théorie de la marche aléatoire. Pour comparer les patrons observés et simulés, nous avons utilisé la statistique de Kolmogorov-Smirnov, l’erreur moyenne absolue normalisée et la métrique d’efficience de modèle. Cette analyse a démontré que les mouvements simulés ne reproduisent pas correctement tous les patrons extraits précédemment. Ainsi, nous proposons un nouvel algorithme, basé sur la marche aléatoire corrélée avec une minimisation de la moyenne des biais normalisés, qui sélectionne un mouvement en trouvant un compromis entre les patrons conflictuels : angle de braquage, distribution spatiale et taille de groupe. Ce compromis est calculé par une fonction objectif pondérée qui cherche à minimiser le biais entre les patrons observés et simulés. Cet algorithme simule adéquatement les patrons de mouvement extraits de la base de données, en plus de respecter les contraintes de répartition spatiale et de taille de groupe. Cet algorithme sera intégré dans notre modèle global basé sur individus qui tente de reproduire les patrons de déplacement des rorquals communs et des bélugas en plus du trafic maritime dans l’estuaire du Saint-Laurent.
APA, Harvard, Vancouver, ISO, and other styles
17

Bedou, Isabelle. "Modélisation des Systèmes d'Information Coopératifs : une approche cognitive basée sur la négociation." Montpellier 2, 1998. http://www.theses.fr/1998MON20233.

Full text
Abstract:
L'approche des systemes d'information cooperatifs (sic) integrent des sources d'informations distribuees -bases de donnees ou systemes a bases de connaissances- pouvant utiliser des representations de connaissances et de donnees heterogenes. Une telle cooperation requiert tout d'abord de transformer les composants systemes d'information (si) passifs en agents dits intelligents, sociaux par nature, et capables d'interagir pour resoudre un probleme. Ceci peut se faire par l'ajout de specifications appropriees a chaque systeme composant. Toutefois, la mise en oeuvre d'une telle cooperation pose un certain nombre de problemes, les agents pouvant avoir des buts opposes, etre en concurrence pour l'obtention de ressources, des conflits pouvant apparaitre au niveau des connaissances et des croyances, ou encore n'avoir etabli aucun accord mutuel en ce qui concerne les plans d'actions. Pour de tels cas, la negociation est necessaire. Elle intervient donc dans le cadre de la resolution de conflits, mais aussi en l'absence d'accord (ce qui ne veut pas dire desaccord). Nous presentons un modele agent pour les sic et ainsi que l'architecture correspondante. Notre etude est centree sur le concept de negociation et montrons les avantages d'une telle approche. Nous definissons un protocole et decrivons les processus de decisions des differentes strategies de negociation. Nous avons valide ces concepts par une implementation dans le cas de confrontation de solutions et partages de connaissances.
APA, Harvard, Vancouver, ISO, and other styles
18

Libessart, Gwendal. "Modélisation prédictive des propriétés des sols urbains basée sur leur historique d'usages." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0120.

Full text
Abstract:
L'artificialisation des sols, et les enjeux environnementaux associés (îlots de chaleur, inondation, dégradation de biodiversité), sont devenus une problématique majeure de l'aménagement et de la planification urbaine. L'objectif de cette thèse est de proposer une approche de caractérisation des sols urbains fondée sur l'analyse de leur trajectoire historique d'usage, en considérant que les successions d'usages et les pratiques humaines associées, déterminent les propriétés physico-chimiques des sols. Pour ce faire, une démarche scientifique s'appuyant sur trois approches complémentaires a été menée pour aboutir à une proposition méthodologique opérationnelle de cartographie prédictive des propriétés des sols urbains. La première approche est cartographique et documentaire, elle vise à mieux caractériser les trajectoires historiques des sols urbains et ainsi mieux appréhender l'ensemble des pratiques humaines que subit les sols au cours du temps. Il s'avère qu'une vingtaine de trajectoires historiques suffisent à décrire la majorité de la superficie d'une unité urbaine. Par ailleurs, les trajectoires historiques majoritaires représentent des successions d'usages composées au maximum d'un à deux usages montrant une faible dynamique des changements d'usages et pratiques au cours du temps. La seconde approche est une approche de terrain ayant pour objectif de caractériser l'impact de trois trajectoires historiques représentatives des sols urbains sur les propriétés physico-chimiques des sols. Elle met en évidence le lien existant entre la trajectoire historique d'un sol et ses propriétés physiques et chimiques. L'impact des pratiques humaines sur les propriétés du sol semble de plus, être dépendant de l'intensité des pratiques exercée sur le sol. Ces liens encore aujourd'hui peu développés, pourraient être mis en avant par le développement d'un nouvel concept : l' « anthroposéquence ». La dernière approche est une approche expérimentale aidant à la caractérisation des processus pédogénétiques impliqués au cours de ces trajectoires historiques et à décrire l'évolution des propriétés physico-chimiques au cours du temps. Il en ressort que les effets individuels des pratiques peuvent être contraire à l'effet résultant de l'ensemble de ces pratiques. De plus, les processus pédogénétiques mis an avant au cours de ces expériences reflètent la réalité du terrain, renforçant ainsi la méthode expérimentale proposée. Ainsi, ces trois approches méthodologiques ont finalement été discutées afin de retranscrire les résultats obtenus en règles « simples » permettant la prédiction cartographique des types des sols et de certains paramètres agronomiques en milieux urbains par la connaissance des trajectoires historique
Land take and the associated environmental issues (heat islands, flooding, biodiversity degradation) have become a major issue in urban planning and development. The objective of this thesis is to propose an approach to characterise urban soils based on the analysis of their historical trajectory of land use, considering that the land use successions and the associated human practices determine the physico-chemical properties of soils. To do this, a scientific approach based on three complementary approaches was carried out to achieve an operational methodological proposal for predictive mapping of urban soil properties. The first approach is cartographic and documentary, and aims to better characterise the historical trajectories of urban soils and thus to better understand all of the human practices that the soils have undergone over time. It turns out that twenty historical trajectories are sufficient to describe the majority of the surface area of an urban unit. Moreover, the majority of historical trajectories represent land use successions composed of a maximum of one or two land uses, showing a low dynamic of land use changes and practices over time. The second approach is a field approach aimed at characterising the impact of three historical trajectories representative of urban soils on the physico-chemical properties of soils. It highlights the link between the historical trajectory of a soil and its physical and chemical properties. The impact of human practices on soil properties also appears to be dependent on the intensity of the practices carried out on the soil. These links, which are still underdeveloped, could be highlighted by the development of a new concept: the "anthroposequence". The last approach is an experimental approach that helps to characterise the pedogenetic processes involved during these historical trajectories and to describe the evolution of physico-chemical properties over time. It shows that the individual effects of practices can be contrary to the effect resulting from the whole of these practices. Moreover, the pedogenetic processes put forward during these experiments reflect the reality of the field, thus reinforcing the proposed experimental method. Thus, these three methodological approaches were finally discussed in order to transcribe the results obtained into "simple" rules allowing the cartographic prediction of soil types and certain agronomic parameters in urban environments through the knowledge of historical trajectories
APA, Harvard, Vancouver, ISO, and other styles
19

Belkaloul, Amine. "Modélisation des systèmes multi-corps rigides basée sur la méthode des réseaux virtuels." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27391/27391.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Webber, Carine. "Modélisation informatique de l'apprenant : une approche basée sur le modèle cK[c barré]." Université Joseph Fourier (Grenoble), 2003. http://www.theses.fr/2003GRE10048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Herbegue, Hajer. "Approche ADL pour la modélisation d'architecture basée sur les contraintes (calcul de WCET)." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2448/.

Full text
Abstract:
La modélisation des systèmes temps-réel nécessite la connaissance de la borne supérieure des temps d'exécution possibles des tâches temps-réel, appelée temps d'exécution pire-cas ou WCET-Worst Case Execution Time. Le calcul du WCET par analyse statique est basée sur l'analyse du flot de contrôle du programme. Les chemins d'exécution du programme sont composés de séquences d'instructions, qu'on appelle les blocs de base, et des contrôles. Une étape de l'analyse statique, appelée analyse du pipeline, permet d'étudier l'impact de la micro-architecture sur le temps d'exécution des instructions du bloc de base. Le travail de cette thèse s'intéresse à l'analyse du pipeline pour le calcul du WCET. Cette étape du flotot de calcul du WCET prend en compte les caractéristiques du jeu d'instructions et les caractéristiques matérielles du processeur. On a alors besoin de spécifications haut-niveau de l'architecture logicielle et matérielle des processeurs. Nous considérons les langages de description d'architecture (Architecture Description Languages-ADL) pour la description du processeur. Les ADLs, comme Sim-nML, HARMLESS, LISA, sont utilisés pour la génération d'outils ciblés (simulateurs, assembleurs), la vérification, etc. Parmi les outils, OTAWA est un environnement pour l'analyse de temps, qui implémente différentes méthodes de calcul du temps d'exécution pire-cas. Actuellement, OTAWA utilise le langage Sim-nML pour la spécification du jeu d'instructions (le niveau ISA) de l'architecture. Ce travail de thèse est une contribution à OTAWA par une approche ADL pour l'analyse du pipeline. Le but étant d'améliorer l'expressivité en terme de description des processeurs, nous proposons une extension du langage de description Sim-nML, comme première contribution. Cette extension permet de supporter, en plus de la description du jeu d'instructions, la description matérielle de processeurs complexes. Elle permet aussi de séparer l'étape de description d'architecture de l'étape d'analyse et de calcul du temps. Cette extension permet une description déclarative des ressources disponibles et de leurs caractéristiques et aussi de superposer le modèle d'utilisation de ressources des instructions à la description initiale des instructions, qu'on appellera modèle d'exécution. La deuxième contribution de cette thèse consiste à mettre en place une nouvelle méthode pour le calcul du temps d'exécution d'un bloc de base. Nous proposons une méthode nouvelle pour le calcul du temps de bloc de base, basée sur la programmation par contraintes (Constraint Satisfaction Problem-CSP). Nous avons inscrit cette méthode dans une approche automatisée, basée sur la spécification ADL du processeur et sur une séquence d'instructions à analyser (le bloc de base). Nous utilisons des langages de spécification de contraintes et des outils de résolutions. Le principe est d'exprimer les propriétés structurelles et temporelles de l'architecture et des instructions avec des contraintes
The analysis of the worst-case execution time (WCET) is necessary in the design of critical real-time systems. To get sound and precise times, the WCET analysis of these systems must be performed on binary code and based on static analysis. Each execution path of the analyzed program is split into code snippets, called basic blocs. A pipeline analysis consists in modeling the execution of basic blocks on the pipeline and evaluating the impact of the hardware features on the corresponding execution costs. This thesis focuses on the pipeline analysis for WCET computation. The pipeline analysis considers the instruction set architecture and the hardware features of the processor. Then, a high level specification of the software and hardware architecture is needed. We consider Architecture Description Languages (ADL) for processors description. The ADLs, like Sim-nML, HARMLESS, LISA, are used for the generation of retargetable tools, such as simulators, assemblers, in verification, etc. OTAWA is a framework dedicated to the WCET computation that is able to integrate different kind of methods of computation. The instruction set architecture (the ISA level) is expressed in the Sim-nML language. Our work consists in extending the OTAWA framework with an ADL-based approach for pipeline analysis. The aim of our work has been to enhance the expressivity of OTAWA with regard to the processor description language. In order to do so, we first extend the Sim-nML language, to support both the instruction set description and the hardware description. The extended Sim-nML supports the description of hardware components features and superpose the resource usage model of the instructions, that we call execution model, to the initial description. This document also presents a new method to compute a basic bloc execution time. The proposed method is based on constraint programming (Constraint Satisfaction Problem-CSP). We integrated this method in an automated approach, based on the Sim-nML specification of the target processor and based on the instruction sequence to analyse (the basic bloc). We use constraints to express the structural and the temporal properties of the architecture and the instructions, which resolution provides the time cost of basic blocs of a program. Our method uses well known constraint specification languages and resolution tools. The experimentations provide more accurate times. During this thesis, we have been concerned with the formalization of the architecture specification and the results validation. We propose a logic based description of the static and dynamic properties of the architecture and of the basic bloc instructions, presented as a set of high-level constraints. The goal is to provide a reusable library in which the architectuser can find a set of reusable quantitative properties, that assist him in the formalization of the architecture specification. A validation and animation tool was developed based on timed automata. We validate time results provided by the constraints solvers. We generate animated views that assist the architect to validate general dynamic properties and replay the instructions execution
APA, Harvard, Vancouver, ISO, and other styles
22

Cheaib, Nader. "Contribution à la malléabilité des collecticiels : une approche basée sur les services Web et les agents logiciels." Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tel-00541084.

Full text
Abstract:
L'objectif du TCAO (Travail Collaboratif Assisté par Ordinateur), est de trouver les moyens par lesquels les applications collaboratives sont susceptibles d'améliorer la collaboration entre les individus. De ce fait, il existe une grande nécessité de remédier des contraintes liées au manque de flexibilité et la rigidité des systèmes collaboratifs actuels, par l'adoption des solutions adéquates pour mettre en oeuvre une meilleure collaboration, selon le contexte et la tâche à effectuer entre les utilisateurs. En effet, le domaine du TCAO doit évoluer avec l'évolution des systèmes et des technologies qui touchent notre vie quotidienne, surtout l'évolution de l'internet qui nous rend totalement dépendant des services et applications qui existent "virtuellement", où la plupart des utilisateurs passent une bonne partie de leurs temps à exploiter des méthodes à rechercher et utiliser ces services qui correspondent le plus à leurs préférences. C'est pour cette raison que l'évolution du TCAO se montre essentielle pour faire face à l'évolution exponentielle des technologies d'internet, afin de créer ou de réutiliser plus facilement des applications chargées d'assister le travail communautaire des hommes, que l'on nomme applications collaboratives, ou collecticiels. Le sujet de thèse proposé couvre les aspects collaboratifs d'un système et les questions concernant son intégration. Plus particulièrement, notre objectif essentiel est de concevoir une architecture logicielle pour les collecticiels malléables, de sorte qu'elle puisse s'adapter aux changements et aux diversités des besoins des utilisateurs, ainsi que la tâche à effectuer. En conséquence, une forte exigence surgit en terme d'ouverture, où le système peut dynamiquement intégrer de nouveaux services sans arrêter le déroulement de la collaboration, ni manuellement recoder et recompiler l'application. Une deuxième exigence est d'assurer une certaine adaptabilité, où le système peut générer de nouveaux comportements à partir de la composition de deux ou plusieurs services. Finalement, une exigence surgit en terme d'interopérabilité, surtout dans le cas où les utilisateurs utilisent des applications incompatibles ou hétérogènes. Ainsi, la création, l'ajout, la suppression ou la manipulation des composants du système collaboratif sont faites via les services web. De plus, la recherche, l'invocation et l'intégration de ces services se fait à l'aide d'agents logiciels qui se chargeront, avec une assistance minimale de l'utilisateur, de rechercher les services les mieux adaptés à leurs spécifications. Dans cette thèse, nous créons un lien entre les concepts théoriques qui se développent au sein des laboratoires de recherche, et les technologies qui se développent d'une façon très rapide dans le secteur industriel, afin de concevoir des systèmes collaboratifs plus adaptés au monde informatique quotidien.
APA, Harvard, Vancouver, ISO, and other styles
23

Lacouture, Jérôme. "Ingénierie logicielle orientée service : une contribution à l'adaptation dynamique basée sur une approche mixte composant/agent." Pau, 2008. http://www.theses.fr/2008PAUU3011.

Full text
Abstract:
L'évolution des systèmes distribués est en train de prendre une nouvelle dimension avec l'essor de nouvelles technologies (Architectures Orientées Services, Grille informatique, informatique nomade et ubiquitaire). Au sein de tels environnements, l'architecture logicielle du système évolue en cours d'exécution, c'est-à-dire lors de la phase d'exploitation du cycle de développement. Par conséquent, persistance des services et aspects dynamiques constituent de nouveaux challenges et amènent à reconsidérer des problématiques inhérentes que sont la réutilisation des services existants et leur adaptation. Adapter, intégrer et coordonner « à la volée » les services disponibles, réagir dynamiquement à l'évolution des systèmes apparaissent aujourd'hui comme des soucis centraux de recherche. Les objectifs des travaux que nous présentons autour de l'approche CompAA s'inscrivent dans ce contexte et proposent une voie à une adaptation contextuelle, relative aux conditions environnementales (qualité de service, disponibilité sur le réseau), la plus dynamique et autonome que possible, par la découverte des services disponibles. Pour cela, nos contributions s'organisent autour de deux principales propositions : 1) un modèle de composants adaptables, s'appuyant sur les principes d'abstraction et de variabilité, et s'appuyant aussi sur une définition sémantique en termes de propriétés fonctionnelles et non-fonctionnelles permettant une interprétation automatique par des agents logiciels. 2) un processus d'adaptation dynamique mettant en oeuvre le modèle proposé. Le processus spécifié couvre des étapes allant de l'analyse des besoins jusqu'à l'adaptation de composants, en passant par des étapes de découverte et sélection de composants. Différentes politiques permettent un niveau d'adaptabilité accrue au sein même du processus. Un aspect prépondérant mis en valeur dans cette thèse réside dans l'originalité de l'approche qui vise à intégrer les avantages connus de deux paradigmes : composants et agents. Pour nous, il existe un réel intérêt à spécifier des entités possédant la structuration et les qualités de réutilisation des composants logiciels et évoluant de manière autonome et flexible à l'instar des agents logiciels. Le champ d'expérimentation au travers duquel sont éprouvées nos propositions est celui du e-learning, plus particulièrement au travers de notre participation au projet européen ELeGI (Eu-ropean Learning Grid Infrastructure). Au travers de différentes situations d'apprentissage, les participants évoluent en partageant leurs connaissances afin de progresser individuellement et collectivement. On se retrouvre donc dans un contexte où les connaissances et les besoins de chacun sont en perpétuelles mouvances. Le modèle CompAA trouve donc naturellement sa place dans ce genre d'activité et permet de garantir une certaine transparence à l'utilisateur tout en lui garantissant une qualité de service optimale en dotant le système d'entités plus autonomes et auto-adaptables
The evolution of the distributed systems is taking a new dimension with the development of new technologies (Services Oriented Architectures, Grid computing, nomad and ubiquitous computing). Within such environments, the software architecture of the system evolves at runtime, that is during the exploitation phase of the development cycle. Consequently, persistence of the services and dynamic aspects establish new challenges and bring to reconsider inherent problems that are the reuse of the existing services and their adaptation. To adapt, to integrate and to coordinate “on the fly" the available services, to react dynamically to the evolution of the systems appear as central research concerns today. The objectives of the works which we present around the CompAA approach join this context and propose a way in a contextual adaptation, relative to the environmental conditions (quality of service, availability on the network), most dynamic and most autonomous that possible, by the discovery of the available services. For that purpose, our contributions get organized around two main propositions : 1) a model of adaptable components, leaning on the principles of abstraction and variability, and also leaning on a semantic definition in terms of functional and non-functional properties allowing an automatic interpretation by software agents. 2) a process of dynamic adaptation implementing the proposed model. The specified process covers stages going of the analysis of needs until the adaptation of components, by way of stages of discovery and selection of components. Various policies allow a level of adaptability increased within the process. A dominating aspect emphasized in this thesis lies in the originality of the approach which aims at joining the advantages known for two paradigms : components and agents. For us, there is a real interest to specify entities possessing the structuring and the qualities of reuse of software components and evolving in an autonomous and flexible way following the example of the software agents. The field of experiment through which are tried our propositions is the one of the e-learning, more particularly through our participation to the European project ELeGI (European Learning Grid Infrastructure). Through various situations of learning, the participants evolve by sharing their knowledge to progress individually and collectively. In this context, the knowledge and the needs of each are in perpetual spheres of influence. The CompAA model finds naturally its place in this kind of activity and allows to guarantee a certain transparency to the user while guaranteeing him an optimal quality of service by endowing the system of more autonomous and more self-adaptable entities
APA, Harvard, Vancouver, ISO, and other styles
24

Kitio, Teussop Rosine. "Gestion de l'ouverture au sein d'organisations multi-agents : une approche basée sur des artefacts organisationnels." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00721828.

Full text
Abstract:
Les systèmes multi-agents sont des systèmes dans lesquels des entités logiciellesappelées agents interagissent de façon autonome dans des environnements partagés. Ces dernièresannées, de nombreuses recherches sur les organisations multi-agents ont été menées etdivers modèles organisationnels ont été proposés. Cependant, ils n'offrent pas de solution pourune gestion effective de la problématique d'ouverture dans des organisations multi-agents normatives.Dans cette thèse, nous nous sommes intéressées à l'étude de cette problématique etdonc à la spécification des besoins relatifs à la mise en oeuvre de l'ouverture au sein d'organisationmulti-agent. Nous avons ainsi identifié trois propriétés caractéristiques de cette problématique: l'interopérabilité d'une organisation avec son environnement extérieur et interne, lagestion des entrées / sorties et la gestion du contrôle et de la régulation des agents. Pour répondreà ces propriétés, nous avons proposé un langage de modélisation d'organisation (OML)MOISE qui est une extension de Moise+. MOISE permet de spécifier de façon explicite lesprocessus d'entrée / sortie dans une organisation et notamment les exigences relatives auxmissions, buts, et rôles de l'organisation. Nous avons également proposé une infrastructure degestion d'organisation (OMI) ORA4MAS qui s'inspire du méta-modèle Agents et Artifacts(A&A). Nous avons défini le concept d'artefact organisationnel pour implémenter les fonctionnalitéscorrespondant aux spécifications du langage MOISE. Nos propositions ont été illustréesavec une spécification d'organisation de gestion de la construction d'un édifice. La miseen oeuvre des propriétés d'ouverture a été expérimentée avec la gestion des processus d'entrée/ sortie des agents, la négociation des clauses de contrat, la coordination des coopérations desagents à la réalisation des buts de construction d'un édifice, le contrôle des comportements desagents relativement aux normes de l'organisation ainsi que leur régulation.
APA, Harvard, Vancouver, ISO, and other styles
25

Maître, Brigitte, and Hassan Laasri. "Coopération dans un univers multi-agents basée sur le modèle du blackboard : études et réalisations." Nancy 1, 1989. http://www.theses.fr/1989NAN10022.

Full text
Abstract:
Étude sur la coopération de plusieurs agents intelligents avec définition d'un mécanisme de contrôle à la fois efficace et souple pour gérer cette coopération. Énumération et évaluation des réalisations existantes suivies d'une approche implantée dans atome : outil d'aide au développement de systèmes multi agents
APA, Harvard, Vancouver, ISO, and other styles
26

Kitio, Teussop Rosine. "Gestion de l’ouverture au sein d’organisations multi-agents : une approche basée sur des artefacts organisationnels." Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0630/document.

Full text
Abstract:
Les systèmes multi-agents sont des systèmes dans lesquels des entités logiciellesappelées agents interagissent de façon autonome dans des environnements partagés. Ces dernièresannées, de nombreuses recherches sur les organisations multi-agents ont été menées etdivers modèles organisationnels ont été proposés. Cependant, ils n’offrent pas de solution pourune gestion effective de la problématique d’ouverture dans des organisations multi-agents normatives.Dans cette thèse, nous nous sommes intéressées à l’étude de cette problématique etdonc à la spécification des besoins relatifs à la mise en oeuvre de l’ouverture au sein d’organisationmulti-agent. Nous avons ainsi identifié trois propriétés caractéristiques de cette problématique: l’interopérabilité d’une organisation avec son environnement extérieur et interne, lagestion des entrées / sorties et la gestion du contrôle et de la régulation des agents. Pour répondreà ces propriétés, nous avons proposé un langage de modélisation d’organisation (OML)MOISE qui est une extension de Moise+. MOISE permet de spécifier de façon explicite lesprocessus d’entrée / sortie dans une organisation et notamment les exigences relatives auxmissions, buts, et rôles de l’organisation. Nous avons également proposé une infrastructure degestion d’organisation (OMI) ORA4MAS qui s’inspire du méta-modèle Agents et Artifacts(A&A). Nous avons défini le concept d’artefact organisationnel pour implémenter les fonctionnalitéscorrespondant aux spécifications du langage MOISE. Nos propositions ont été illustréesavec une spécification d’organisation de gestion de la construction d’un édifice. La miseen oeuvre des propriétés d’ouverture a été expérimentée avec la gestion des processus d’entrée/ sortie des agents, la négociation des clauses de contrat, la coordination des coopérations desagents à la réalisation des buts de construction d’un édifice, le contrôle des comportements desagents relativement aux normes de l’organisation ainsi que leur régulation
Multi-Agent Technology concerns the development of decentralized and open systemscomposed of different agents interacting in a shared environment. In recent years, organizationhas become an important in this research field. Many models have been, and are still,proposed. While no concensual model emerges of these different works, it appears that theyall lack the ability to build open and normative organizations in the sense of management ofentry / exit of agents into organization but also decentralized control / regulation of the autonomyof the agents. In this thesis, our objective consists in the definition of a new modeladdressing these requirements. Ours reseaches allow us to extend theMOISE+ organizationalmodeling language (OML) in a new version namming MOISE. In this one we define an Entry/ Exit specification allowing to explicitly specify the ways in which the agents can enter orexit in or from an organisation by providing some requirements according to the missions, thegoals and the roles of the organisation. The organizational management infrastructure (OMI)ORA4MAS proposed take advantage of the Agents and Artifacts (A&A) approach. We definedthe Organizational Artifacts concept as the basic building block of our OMI for themanagement of organized and open MAS. To focus our study, the organizational artifacts willbe defined considering the OML specification of the MOISE model. We experimented ourproposal with the specification of an application aiming to manage the build of a house. Wethen experimented the management of the candidate agents to enter in the organisation and cooperatewith the other to build the house according to a specified social scheme, the specifiednorms and their contract clauses negociated when they will be admitted in the organisation
APA, Harvard, Vancouver, ISO, and other styles
27

Li, Kai. "Modélisation du comportement hydromécanique des sols gonflants basée sur la théorie de l'état limite." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD004/document.

Full text
Abstract:
Les matériaux argileux sont soumis aux chemins complexes de succion/contrainte qui se manifestent par des désordres affectant principalement les structures construites en surface et les ouvrages enterrés. Dans ce contexte, il est important d’appréhender le comportement hydromécanique de ces matériaux afin de mieux maîtriser leur utilisation. Le comportement hydromécanique complexe des matériaux argileux est directement relié à leur structure interne qui a été le principal sujet de plusieurs études sur la micro- et macrostructure des sols. Ces études ont conduit aux développements des modèles élastoplastiques pour sols gonflants. Les modèles existants sont capables de simuler le comportement principal de sol gonflant non saturé, mais ils présentent un grand nombre de paramètres, ce qui prend du temps pour le calcul. Par conséquence, on propose une méthode simplifiée pour modéliser le comportement hydromécanique des sols gonflants basée sur la théorie de l’état limite. Ce modèle est tout d’abord validé par les résultats de l’essai oedométrique. Ensuite, il est implanté dans un code aux éléments finis (CAST3M) pour simuler le comportement in situ des sols gonflants. Enfin, l’application de la théorie de l’état limite au sol gonflant avec une grande densité est effectuée par la combinaison de l’écrouissage cinématique et l’écrouissage isotrope
Clayey materials are often subjected to the complex suction/stress paths, causing many problems in both surface structures and buried structures built on them. In this context, it is important to study the hydromechanical behavior of these materials in order to better control their use in civil engineering. The complex hydromechanical behavior of clay materials is basically connected to their fabric which has been the main subject of several studies on the micro- and macrostructure of soils. These studies have led to the development of elastoplastic models for expansive soils. The existed models are able to simulate the basic behavior of unsaturated expansive soil, but present a large number of model parameters, leading to a time-consuming calculation. Therefore, we propose a simplified method to model the hydromechanical behavior of expansive soils based on shakedown concept. This model is first validated by the experimental results of cyclic suction-controlled oedometer tests. Then, it is implemented in a finite element code (CAST3M) to simulate the in-situ behavior of expansive soils. Finally, the application of shakedown theory to heavily dense expansive soils is carried out by considering a combined hardening plasticity
APA, Harvard, Vancouver, ISO, and other styles
28

Krebs, Julian. "Le recalage robuste d’images médicales et la modélisation du mouvement basée sur l’apprentissage profond." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4032.

Full text
Abstract:
Cette thèse présente de nouveaux outils informatiques pour quantifier les déformations et le mouvement de structures anatomiques à partir d’images médicales dans le cadre d’une grande variété d’applications cliniques. Des outils génériques de recalage déformable sont présentés qui permettent l’analyse de la déformation de tissus anatomiques pour améliorer le diagnostic, le pronostic et la thérapie. Ces outils combinent des méthodes avancées d’analyse d’images médicales avec des méthodes d’apprentissage automatique performantes.Dans un premier temps, nous nous concentrons sur les problèmes de recalages inter-sujets difficiles. En apprenant à partir d’exemples de déformation donnés, nous proposons un nouveau schéma d’optimisation basé sur un agent inspiré de l’apprentissage par renforcement profond dans lequel un modèle de déformation statistique est exploré de manière itérative montrant une précision améliorée de recalage. Dans un second temps, nous développons un modèle de déformation difféomorphe qui permet un recalage multi-échelle précis et une analyse de déformation en apprenant une représentation de faible dimension des déformations intra-sujet. La méthode non supervisée utilise un modèle de variable latente sous la forme d’un autoencodeur variationnel conditionnel (CVAE) pour apprendre une représentation probabiliste des déformations qui est utile pour la simulation, la classification et la comparaison des déformations. Troisièmement, nous proposons un modèle de mouvement probabiliste dérivé de séquences d’images d’organes en mouvement. Ce modèle génératif décrit le mouvement dans un espace latent structuré, la matrice de mouvement, qui permet le suivi cohérent des structures ainsi que l’analyse du mouvement. Ainsi cette approche permet la simulation et l’interpolation de modèles de mouvement réalistes conduisant à une acquisition et une augmentation des données plus rapides.Enfin, nous démontrons l’intérêt des outils développés dans une application clinique où le modèle de mouvement est utilisé pour le pronostic de maladies et la planification de thérapies. Il est démontré que le risque de survie des patients souffrant d’insuffisance cardiaque peut être prédit à partir de la matrice de mouvement discriminant avec une précision supérieure par rapport aux facteurs de risque classiques dérivés de l’image
This thesis presents new computational tools for quantifying deformations and motion of anatomical structures from medical images as required by a large variety of clinical applications. Generic deformable registration tools are presented that enable deformation analysis useful for improving diagnosis, prognosis and therapy guidance. These tools were built by combining state-of-the-art medical image analysis methods with cutting-edge machine learning methods.First, we focus on difficult inter-subject registration problems. By learning from given deformation examples, we propose a novel agent-based optimization scheme inspired by deep reinforcement learning where a statistical deformation model is explored in a trial-and-error fashion showing improved registration accuracy. Second, we develop a diffeomorphic deformation model that allows for accurate multiscale registration and deformation analysis by learning a low-dimensional representation of intra-subject deformations. The unsupervised method uses a latent variable model in form of a conditional variational autoencoder (CVAE) for learning a probabilistic deformation encoding that is useful for the simulation, classification and comparison of deformations.Third, we propose a probabilistic motion model derived from image sequences of moving organs. This generative model embeds motion in a structured latent space, the motion matrix, which enables the consistent tracking of structures and various analysis tasks. For instance, it leads to the simulation and interpolation of realistic motion patterns allowing for faster data acquisition and data augmentation.Finally, we demonstrate the importance of the developed tools in a clinical application where the motion model is used for disease prognosis and therapy planning. It is shown that the survival risk for heart failure patients can be predicted from the discriminative motion matrix with a higher accuracy compared to classical image-derived risk factors
APA, Harvard, Vancouver, ISO, and other styles
29

Romero, Hernandez Ivan. "Modélisation, spécification formelle et vérification de protocoles d'interaction : une approche basée sur les rôles." Grenoble INPG, 2004. http://www.theses.fr/2004INPG0159.

Full text
Abstract:
Dans cette thèse nous présentons une approche pour la spécification, modélisation et validation des protocoles d'interaction entre agents réactifs. Cette approche est basée sur la notion de rôle-attribut, telle qu'elle est définie dans les méthodologies orientées agent GAIA et MAD KIT. Les rôles peuvent être vus comme des attributs sociaux assignés aux agents, et qui sont pris dans chaque interaction entre agents pour accomplir la fonctionnalité de l'ensemble, cette approche peut permettre d'envisager la définition de schémas de conduite entre des rôles génériques et les traduire vers un ensemble de comportements concrets. On propose pour vérifier la faisabilité de cette idée, une méthode assistée par ordinateur pour la traduction automatique d'une spécification visuelle représentant des rôles(diagrammes de séquence AUML), vers un modèle formel vérifiable avec un model-checker (PromelalSPIN)
Ln this thesis we present an approach for specifying, modelling and validating agent interaction protocols. This approch is based on the notion of role attribute, as it is implied on the agent-oriented methodologies MADKIT and GAIA. Roles could be seen as social attributes of agent groups, that are taken in the context of any given interaction. If we see roles like this, we could also imagine schemes to generate an actual specification with concrete agents from the generic specification using roles. To test this approch we propose a machine-assisted specification process that takes a role definiton expressed on a visual notation (AUML), and generates a formai equivalent on the language Promela
APA, Harvard, Vancouver, ISO, and other styles
30

Flipon, Baptiste. "Alliages à grains ultrafins et bimodaux : approche couplée expérience-modélisation basée sur la microstructure." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR06/document.

Full text
Abstract:
Ce travail porte sur l'élaboration et l'analyse du comportement mécanique d'alliages à distribution bimodale de taille de grains. Les applications concernent les aciers inoxydables austénitiques 304L et 316L. Une approche couplée expérience-modélisation est menée pour comprendre les réponses mécaniques macroscopiques et locales de ces nouveaux alliages en se basant notamment sur l'étude des mécanismes de déformation associés. L'utilisation de deux voies d'élaboration et l'optimisation de leurs paramètres a conduit à l'obtention d'un large choix d'échantillons avec différentes distributions bimodales et différentes proportions de chaque famille de taille de grains. L'influence de ces caractéristiques microstructurales sur le comportement a été analysée sur la base d'essais en traction simple sous chargement monotone ou en charges-décharges alternées. Une base de données étendue de propriétés a ainsi été constituée et des éléments de réponse concernant les mécanismes de déformation propres aux alliages bimodaux ont pu être apportés. La présence de grains de taille conventionnelle (Coarse Grain -CG) au sein d'une matrice à grains ultrafins (UltraFine Grain - UFG) semble favoriser la relaxation d'une partie des contraintes internes de la matrice et tend ainsi à retarder l'endommagement des alliages bimodaux en comparaison aux alliages unimodaux à grains ultrafins. Une modélisation à champs complets selon deux lois de plasticité cristalline tenant compte explicitement d'une longueur interne a été proposée. Sa première motivation est de fournir un outil de prédiction du comportement effectif des alliages bimodaux en fonction de leurs caractéristiques microstructurales. Elle donne par ailleurs accès aux champs locaux et permet d'appuyer les analyses expérimentales en partition des contraintes en montrant à la fois une relaxation partielle des contraintes dans la matrice UFG mais aussi des concentrations de contrainte aux interfaces CG/UFG
This work is focused on the elaboration and the mechanical behaviour of 304L and 316L austenitic stainless steel alloys with bimodal grain size distribution. The complementary approach between experiments and modelling enables a better understanding of both macroscopic and local mechanical responses and also of the associated deformation mechanisms.The use of two elaboration routes and optimized process parameters results in a wide range of samples with different bimodal grain size distributions. Grain sizes and fractions of each population are modified in order to study the influence of these microstructural characteristics on mechanical behavior. Uniaxial tensile tests are used to realize a database of mechanical properties of bimodal alloys and loading-unloading tests provides valuable informations about deformation mechanisms in these materials. With coarse grains (CG) embedded in an ultrafine grained (UFG) matrix, a relaxation of a part of the internal stresses seems to take place and leads to a delayed embrittlement of bimodal alloys as compared to their unimodal counterparts. Full-field modelling, based on two crystal plasticity laws with an explicit account of an internal length, is proposed. It constitutes a valuable prediction tool of effective properties of bimodal alloys in order, in particular, to study the effect of several microstructural characteristics. An access to local fields is also possible and tend, so far, to show similar results compared to experimental ones : stress relaxation is observed in the UFG matrix as well as stress concentrations at the CG/UFG interfaces
APA, Harvard, Vancouver, ISO, and other styles
31

Kallel, Asma. "Modélisation et conception d'une antenne plasma à balayage basée sur des ondes de fuite." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2514/.

Full text
Abstract:
Nous proposons dans cette thèse l'étude et la conception d'une antenne plasma à onde de fuite reconfigurable, en tirant profit du caractère accordable de la permittivité des décharges plasma par la puissance. La reconfigurabilité de l'antenne fonctionnant à fréquence fixe consiste au contrôle de la direction de rayonnement par la densité électronique du plasma, elle-même commandée par la puissance d'une source plasma radiofréquence externe fonctionnant à 13. 56 MHz. Le travail s'organise en trois parties. Dans un premier temps, nous développons un modèle théorique pour étudier les ondes de fuite dans une configuration canonique 2D. Ce modèle permet de dimensionner les paramètres de l'antenne : permittivité, épaisseur et longueur du plasma. Des simulations avec un logiciel de simulation permettent de valider ce modèle. Nous réalisons dans ce travail le dimensionnement d'une antenne fonctionnant à 10 GHz. Le balayage angulaire du rayonnement d'une soixantaine de degrés obtenu avec cette antenne nécessite une densité électronique du plasma allant jusqu'à. La deuxième partie du travail concerne l'aspect plasma. Nous choisissons tout d'abord une source plasma radiofréquence à couplage inductif pour notre antenne car répond aux critères fixés par le dimensionnement. Nous passons ensuite à la réalisation expérimentale de ce type de plasma ce qui nous permet de vérifier ces critères. Enfin, nous passons aux conditions expérimentales avec des simulations de l'antenne en 3D. Nous réalisons ensuite un prototype de l'antenne
In this work, a beam scanning leaky-wave antenna working at a fixed operating frequency and constructed from a grounded plasma layer is proposed. The radiation angle can be tuned by the plasma electron density which is controlled by the power. A 2D theoretical model based on a canonical structure is proposed to study the leaky waves. The antenna parameters (plasma thickness, length and permittivity) are dimensioned using this theoretical model, at 10 GHz, and a microwave source is chosen to excite the antenna. The scanning range of about 60° needs a plasma reaching an electron density of. In a second step an inductively coupled plasma source is chosen since it meets the dimensioning requirements. The measurements of the plasma parameters confirm the requirements. Finally, the antenna prototype is designed
APA, Harvard, Vancouver, ISO, and other styles
32

Kallel, Asma. "Modélisation et conception d'une antenne plasma à balayage basée sur des ondes de fuite." Phd thesis, Toulouse 3, 2014. http://oatao.univ-toulouse.fr/14142/1/kallel.pdf.

Full text
Abstract:
Nous proposons dans cette thèse l‘étude et la conception d‘une antenne plasma à ondes de fuite reconfigurable, en tirant profit du caractère accordable de la permittivité des décharges plasma par la puissance. La reconfigurabilité de l‘antenne fonctionnant à fréquence fixe consiste au contrôle de la direction de rayonnement par la densité électronique du plasma, elle-même commandée par la puissance d‘une source plasma radiofréquence externe fonctionnant à 13.56 MHz. Le travail s‘organise en trois parties. Dans un premier temps, nous développons un modèle théorique pour étudier les ondes de fuite dans une configuration canonique 2D. Ce modèle permet de dimensionner les paramètres de l‘antenne : permittivité, épaisseur et longueur du plasma. Des simulations avec un logiciel de simulation permettent de valider ce modèle. Nous réalisons dans ce travail le dimensionnement d‘une antenne fonctionnant à 10 GHz. Le balayage angulaire du rayonnement d‘une soixantaine de degrés obtenu avec cette antenne nécessite une densité électronique du plasma allant jusqu‘à . La deuxième partie du travail concerne l‘aspect plasma. Nous choisissons tout d‘abord une source plasma radiofréquence à couplage inductif pour notre antenne car répond aux critères fixés par le dimensionnement. Nous passons ensuite à la réalisation expérimentale de ce type de plasma ce qui nous permet de vérifier ces critères. Enfin, nous passons aux conditions expérimentales avec des simulations de l‘antenne en 3D. Nous réalisons ensuite un prototype de l‘antenne.
APA, Harvard, Vancouver, ISO, and other styles
33

Brousmiche, Kei-Léo. "Modélisation et simulation multi-agent de la formation et de la dynamique d’attitudes basées sur les croyances." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066623/document.

Full text
Abstract:
Nous étudions dans cette thèse la formation et la dynamique des attitudes sociales à l'aide de la simulation multi agent. L'attitude peut se définir comme une évaluation globale d'un objet social sur la base d'informations cognitives ou affectives. Nos travaux s'inscrivent dans le cadre de la simulation sociale qui tente de reproduire informatiquement des phénomènes sociaux complexes à une échelle macroscopique, sur la base de la représentation des individus et de leurs interactions au niveau microscopique. Tandis que les approches existantes dans cette discipline font généralement abstraction des travaux en sciences humaines sur le sujet de l'attitude, nous proposons de suivre une approche psychomimétique en micro-fondant le modèle cognitif de nos agents sur des théories issues de psychologie sociale et des sciences cognitives. Ainsi, nous proposons un modèle de dynamique d'attitude combinant des théories issues de travaux en sciences humaines et sociales de la perception des individus, la communication inter-personnelle et médiatique, la révision de croyances, la réponse émotionnelle ainsi que le sentiment de surprise. Ce modèle a pour objectif de reproduire au niveau microscopique la dynamique des attitudes vis-à-vis d'acteurs qui effectuent des actions observées par la population. Nous avons procédé à une analyse fonctionnelle des différents composants du modèle sur des scénarii abstraits afin d'étudier les capacités de notre modèle, en particulier les phénomènes descriptibles tels que la diffusion de l'information, la résistance à la désinformation ou le processus de conformité. Le modèle a été appliqué dans le contexte des opérations militaires françaises de stabilisation en Afghanistan. L'objectif de cette expérience consiste à reproduire les sondages d'opinions vis-à-vis des Forces en présence, récoltés durant l'intervention, à partir d'un scénario militaire qui a été reconstitué en partenariat avec les officiers en charge des opérations de 2011 à 2012. Les résultats de simulations qui suivent un processus de calibration du modèle affichent une erreur inférieure à 3 points d'écart par rapport aux données réelles. Enfin, nous proposons une analyse microscopique des résultats en appliquant des techniques de classifications automatiques sur les individus afin d'expliquer les différentes tendances d'attitudes au sein de la population
We study in this thesis the problem of social attitude formation and dynamics using multi agent simulation. The concept of attitude could be defined as a global evaluation of a social object, based on cognitive or affective information. Our works belongs to the field of social simulation which aims to reproduce in a virtual environment complex social phenomenon at a macroscopic level based on microscopic representations of individuals and their interactions. While existing approaches in this field rarely consider the results of studies in human sciences on the topic of attitude, we propose to follow a psychomimtic approach by micro-founding the cognitive model of our agents on human and social sciences' theories on individual's perception, inter-personal and media communication, belief revision, affective responses and the sentiment of unexpectedness. This model aims to reproduce at a microscopic level attitude dynamics toward actors who perpetuate actions witnessed by the individuals. We have proceeded to a functional analysis of the model's various components based on abstracts scenarios in order to study the capabilities of our model, and more precisely the describable phenomenon such as information diffusion, resistance to disinformation or the conformity process. The model has been applied in the context of French military operations of stabilisation in Afghanistan. The goal of this experience consists in reproducing opinion polls results of the locals toward the present Forces, collected during the intervention, based on a military scenario which has been recreated in partnership with officers who were in charge of operations between 2011 and 2012. Simulation results that follow a model calibration process show an error below 3 points of disparity compared to the real data. Finally, we propose a microscopic analysis of the results by applying automatic classification techniques on the simulated individuals in order to explain the multiple attitudes tendencies in the population
APA, Harvard, Vancouver, ISO, and other styles
34

Abdelfattah, Nahed. "Modélisation 2D 1/2 hiérarchique basée sur les cartes planaires : réalisation et évaluation d'une interface graphique utilisant cette modélisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1994. http://tel.archives-ouvertes.fr/tel-00820994.

Full text
Abstract:
Cette thèse propose une modélisation basée sur les cartes planaires. Les données d'un même niveau plan sont modélisées, selon leur sémantique, par des cartes planaires indépendantes qui sont superposées. L'empilement de telles cartes, géré par une représentation tridimensionnelle inspirée des techniques de dessin en perspective cavalière, permet de modéliser des données appartenant à des plans strictement parallèles. Une structure de données hiérarchique offre la possibilité de détailler une zone d'un plan (face d'une carte planaire) par un certain nombre de cartes planaires représentant différentes sémantiques. De plus, cette modélisation gère parfaitement les liens qui peuvent exister entre les objets modélises dans différentes cartes planaires. Elle permet ainsi de garder le sens global de l'ensemble des objets. Cette modélisation a été utilisée pour réaliser une interface graphique dans le cadre d'un projet européen esprit. Une évaluation ergonomique de cette interface est présentée ainsi que les améliorations apportées à cette interface suite à l'évaluation.
APA, Harvard, Vancouver, ISO, and other styles
35

Nahed, Abdelfattah. "Modélisation 2D 1/2 hiérarchique basée sur les cartes planaires : réalisation et évaluation d'une interface graphique utilisant cette modélisation." Saint-Etienne, 1994. http://tel.archives-ouvertes.fr/docs/00/82/09/94/PDF/1994_Nahed_Abdelfattah.pdf.

Full text
Abstract:
Cette thèse propose une modélisation basée sur la notion de carte planaire. Les données d'un même niveau plan sont modélisées, selon leur sémantique, par des cartes planaires indépendantes qui sont superposées. De même l'empilement de telles cartes, permet de modéliser des données appartenant à des plans strictement parallèles. La visualisation et la manipulation des données de plans strictement parallèles sont assurées par une représentation tri-dimensionnelle inspirée des techniques de dessin en perspective cavalière. Une structure de données hiérarchique offre la possibilité de détailler une zone d'un plan (face d'une carte planaire) par un certain nombre de cartes planaires représentant différentes sémantiques. De plus, cette modélisation gère parfaitement les liens qui peuvent exister entre les objets modélisés dans différentes cartes planaires. Elle permet ainsi de garder le sens global de l'ensemble des objets. Cette modélisation a été utilisée pour réaliser une interface graphique dans le cadre d'un projet européen Esprit MMI2. Une évaluation ergonomique de cette interface est présentée ainsi que les améliorations apportées à cette interface suite à l'évaluation
This thesis proposes a model based on the planar map notion. Data of the same plane level are modeled by severa! planar maps each of which corresponding to a class of semantics. These maps are independent and superposed. Modeling of data belonging to parallel planes is also allowed by planar maps superposing. Display and manipulation of data belonging to parallel planes are ensured thanks to a three-dimensional representation that is inspired by perspective techniques in draughtmanship domain. A hierarchical data structure offers the possibility to detail one zone of the plane (a face in planar map notion) by many planar maps corresponding to the different semantics. Furthermore, this model handles perfectly the semantic links that could lie abjects modeled in different planar maps. Hence, it preserves the whole meaning of the modeled scene. The proposed medel has been used to design a graphical interface within the scope of an european Esprit project MMI2. An ergonomie evaluation of that interface and refinements made in it as consequence of the evaluation are also presented in this thesis
APA, Harvard, Vancouver, ISO, and other styles
36

Hermellin, Emmanuel. "Modélisation et implémentation de simulations multi-agents sur architectures massivement parallèles." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT334/document.

Full text
Abstract:
La simulation multi-agent représente une solution pertinente pour l’ingénierie et l’étude des systèmes complexes dans de nombreux domaines (vie artificielle, biologie, économie, etc.). Cependant, elle requiert parfois énormément de ressources de calcul, ce qui représente un verrou technologique majeur qui restreint les possibilités d'étude des modèles envisagés (passage à l’échelle, expressivité des modèles proposés, interaction temps réel, etc.).Parmi les technologies disponibles pour faire du calcul intensif (High Performance Computing, HPC), le GPGPU (General-Purpose computing on Graphics Processing Units) consiste à utiliser les architectures massivement parallèles des cartes graphiques (GPU) comme accélérateur de calcul. Cependant, alors que de nombreux domaines bénéficient des performances du GPGPU (météorologie, calculs d’aérodynamique, modélisation moléculaire, finance, etc.), celui-ci est peu utilisé dans le cadre de la simulation multi-agent. En fait, le GPGPU s'accompagne d’un contexte de développement très spécifique qui nécessite une transformation profonde et non triviale des modèles multi-agents. Ainsi, malgré l'existence de travaux pionniers qui démontrent l'intérêt du GPGPU, cette difficulté explique le faible engouement de la communauté multi-agent pour le GPGPU.Dans cette thèse, nous montrons que, parmi les travaux qui visent à faciliter l'usage du GPGPU dans un contexte agent, la plupart le font au travers d’une utilisation transparente de cette technologie. Cependant, cette approche nécessite d’abstraire un certain nombre de parties du modèle, ce qui limite fortement le champ d’application des solutions proposées. Pour pallier ce problème, et au contraire des solutions existantes, nous proposons d'utiliser une approche hybride (l'exécution de la simulation est partagée entre le processeur et la carte graphique) qui met l'accent sur l'accessibilité et la réutilisabilité grâce à une modélisation qui permet une utilisation directe et facilitée de la programmation GPU. Plus précisément, cette approche se base sur un principe de conception, appelé délégation GPU des perceptions agents, qui consiste à réifier une partie des calculs effectués dans le comportement des agents dans de nouvelles structures (e.g. dans l’environnement). Ceci afin de répartir la complexité du code et de modulariser son implémentation. L'étude de ce principe ainsi que les différentes expérimentations réalisées montre l'intérêt de cette approche tant du point de vue conceptuel que du point de vue des performances. C'est pourquoi nous proposons de généraliser cette approche sous la forme d'une méthodologie de modélisation et d'implémentation de simulations multi-agents spécifiquement adaptée à l'utilisation des architectures massivement parallèles
Multi-Agent Based Simulations (MABS) represents a relevant solution for the engineering and the study of complex systems in numerous domains (artificial life, biology, economy, etc.). However, MABS sometimes require a lot of computational resources, which is a major constraint that restricts the possibilities of study for the considered models (scalability, real-time interaction, etc.).Among the available technologies for HPC (High Performance Computing), the GPGPU (General-Purpose computing on Graphics Processing Units) proposes to use the massively parallel architectures of graphics cards as computing accelerator. However, while many areas benefit from GPGPU performances (meteorology, molecular dynamics, finance, etc.). Multi-Agent Systems (MAS) and especially MABS hardly enjoy the benefits of this technology: GPGPU is very little used and only few works are interested in it. In fact, the GPGPU comes along with a very specific development context which requires a deep and not trivial transformation process for multi-agents models. So, despite the existence of works that demonstrate the interest of GPGPU, this difficulty explains the low popularity of GPGPU in the MAS community.In this thesis, we show that among the works which aim to ease the use of GPGPU in an agent context, most of them do it through a transparent use of this technology. However, this approach requires to abstract some parts of the models, what greatly limits the scope of the proposed solutions. To handle this issue, and in contrast to existing solutions, we propose to use a nhybrid approach (the execution of the simulation is shared between both the processor and graphics card) that focuses on accessibility and reusability through a modeling process that allows to use directly GPU programming while simplifying its use. More specifically, this approach is based on a design principle, called GPU delegation of agent perceptions, consists in making a clear separation between the agent behaviors, managed by the processor, and environmental dynamics, handled by the graphics card. So, one major idea underlying this principle is to identify agent computations which can be transformed in new structures (e.g. in the environment) in order to distribute the complexity of the code and modulate its implementation. The study of this principle and the different experiments conducted show the advantages of this approach from both a conceptual and performances point of view. Therefore, we propose to generalize this approach and define a comprehensive methodology relying on GPU delegation specifically adapted to the use of massively parallel architectures for MABS
APA, Harvard, Vancouver, ISO, and other styles
37

Mbarki, Mohamed. "Raisonnement stratégique et tactique : une approche pour la communication entre agents logiciels basée sur la pertinence." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27321/27321.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Brousmiche, Kei-Léo. "Modélisation et simulation multi-agent de la formation et de la dynamique d’attitudes basées sur les croyances." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066623.pdf.

Full text
Abstract:
Nous étudions dans cette thèse la formation et la dynamique des attitudes sociales à l'aide de la simulation multi agent. L'attitude peut se définir comme une évaluation globale d'un objet social sur la base d'informations cognitives ou affectives. Nos travaux s'inscrivent dans le cadre de la simulation sociale qui tente de reproduire informatiquement des phénomènes sociaux complexes à une échelle macroscopique, sur la base de la représentation des individus et de leurs interactions au niveau microscopique. Tandis que les approches existantes dans cette discipline font généralement abstraction des travaux en sciences humaines sur le sujet de l'attitude, nous proposons de suivre une approche psychomimétique en micro-fondant le modèle cognitif de nos agents sur des théories issues de psychologie sociale et des sciences cognitives. Ainsi, nous proposons un modèle de dynamique d'attitude combinant des théories issues de travaux en sciences humaines et sociales de la perception des individus, la communication inter-personnelle et médiatique, la révision de croyances, la réponse émotionnelle ainsi que le sentiment de surprise. Ce modèle a pour objectif de reproduire au niveau microscopique la dynamique des attitudes vis-à-vis d'acteurs qui effectuent des actions observées par la population. Nous avons procédé à une analyse fonctionnelle des différents composants du modèle sur des scénarii abstraits afin d'étudier les capacités de notre modèle, en particulier les phénomènes descriptibles tels que la diffusion de l'information, la résistance à la désinformation ou le processus de conformité. Le modèle a été appliqué dans le contexte des opérations militaires françaises de stabilisation en Afghanistan. L'objectif de cette expérience consiste à reproduire les sondages d'opinions vis-à-vis des Forces en présence, récoltés durant l'intervention, à partir d'un scénario militaire qui a été reconstitué en partenariat avec les officiers en charge des opérations de 2011 à 2012. Les résultats de simulations qui suivent un processus de calibration du modèle affichent une erreur inférieure à 3 points d'écart par rapport aux données réelles. Enfin, nous proposons une analyse microscopique des résultats en appliquant des techniques de classifications automatiques sur les individus afin d'expliquer les différentes tendances d'attitudes au sein de la population
We study in this thesis the problem of social attitude formation and dynamics using multi agent simulation. The concept of attitude could be defined as a global evaluation of a social object, based on cognitive or affective information. Our works belongs to the field of social simulation which aims to reproduce in a virtual environment complex social phenomenon at a macroscopic level based on microscopic representations of individuals and their interactions. While existing approaches in this field rarely consider the results of studies in human sciences on the topic of attitude, we propose to follow a psychomimtic approach by micro-founding the cognitive model of our agents on human and social sciences' theories on individual's perception, inter-personal and media communication, belief revision, affective responses and the sentiment of unexpectedness. This model aims to reproduce at a microscopic level attitude dynamics toward actors who perpetuate actions witnessed by the individuals. We have proceeded to a functional analysis of the model's various components based on abstracts scenarios in order to study the capabilities of our model, and more precisely the describable phenomenon such as information diffusion, resistance to disinformation or the conformity process. The model has been applied in the context of French military operations of stabilisation in Afghanistan. The goal of this experience consists in reproducing opinion polls results of the locals toward the present Forces, collected during the intervention, based on a military scenario which has been recreated in partnership with officers who were in charge of operations between 2011 and 2012. Simulation results that follow a model calibration process show an error below 3 points of disparity compared to the real data. Finally, we propose a microscopic analysis of the results by applying automatic classification techniques on the simulated individuals in order to explain the multiple attitudes tendencies in the population
APA, Harvard, Vancouver, ISO, and other styles
39

Sukiman, Muhamad Shafiq. "Etude des propriétés mécanique et thermique des biocomposites basée sur l'homogénéisation numérique." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10218/document.

Full text
Abstract:
Ce travail de thèse porte essentiellement sur la détermination des propriétés mécanique et thermique des biocomposites HDPE-particules de bois et PET-fibres de chanvre, en utilisant des approches expérimentales, numériques et analytiques. La recherche des propriétés effectives de ces biocomposites prend en compte différents paramètres tels que la morphologie et l’orientation des fibres, d'une part, la porosité, et l’interphase, d'autre part. En effet, une étude basée sur la technique d'homogénéisation numérique a été réalisée en vue de vérifier l'influence des fibres courtes et logues sur les propriétés apparentes des différents matériaux étudiés. Aussi, des calculs numériques ont permis d'évaluer les propriétés élastiques ainsi que la conductivité thermique des biocomposites en fonction de la fraction volumique des fibres et des particules. L'objectif ultime de ce travail consiste à une modélisation de la mise en forme des biocomposites par thermoformage. En effet, une étude a été axée sur la thermoformabilité d’un coffrage en biocomposite HDPE-particules de bois, en utilisant des données expérimentales pour mieux décrire le comportement mécanique et thermique en vue d'une modélisation numérique des différentes étapes du thermoformage, en fonction de la teneur en particules de bois
This thesis work concerns the determination of mechanical and thermal properties of HDPE-wood particles and PET-hemp fibers biocomposites using experimental, numerical and analytical approaches. The search for the effective properties of these biocomposites involves different parameters such as the fiber morphology and orientation on the one hand, and the porosity and the interphase on the other. A study based on the numerical homogenization technique has been carried out in order to verify the influence of short and long fibers on the apparent properties of the different materials. Numerical calculations have also allowed the estimation of the elastic properties as well as the thermal conductivity of the biocomposites in relation to the fiber and particle volume fraction. The ultimate objective of this work consists in the modelling of the thermoforming procedure on the biocomposites. A study on the thermoformability of the HDPE-wood particles biocomposite into a formwork in relation to the wood particle content has been carried out by using experimental data of the mechanical and thermal behavior for the numerical simulation of the thermoforming procedure
APA, Harvard, Vancouver, ISO, and other styles
40

Girard, André. "Réduction de bruit de signaux de parole mono-capteur basée sur la modélisation par EMD." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1553.

Full text
Abstract:
Le rehaussement de la parole est un domaine du traitement du signal qui prend de plus en plus d'ampleur. En effet, dans un monde où la télécommunication connaît un véritable essor, les technologies se doivent d'être de plus en plus performantes afin de satisfaire au plus grand nombre. Les applications qui nécessitent un rehaussement de la parole sont très nombreuses, la plus évidente étant sans doute celle de la téléphonie mobile, où de nombreux bruits environnants peuvent gêner la qualité et l'intelligibilité du signal de parole transmis. Il existe à ce jour de nombreuses techniques de rehaussement de la parole. Celles-ci peuvent d'ores et déjà se décliner en deux catégories distinctes. En effet, certaines techniques utilisent plusieurs microphones et sont qualifiées de multi-capteur, tandis que d'autres techniques n'en utilisent qu'un seul et sont alors qualifiées de mono-capteur.Le présent sujet de recherche se situe dans la catégorie des techniques mono-capteurs qui utilisent principalement les propriétés statistiques de la parole et du bruit afin de réduire au mieux le signal de bruit. La Décomposition Modale Empirique, ou EMD, est une méthode de transformée de signaux qui est apparue récemment et qui suscite de plus en plus l'intérêt des chercheurs en rehaussement de la parole. L'EMD s'avère être une méthode de décomposition de signal très efficace car, contrairement aux transformées plus classiques, l'EMD est une transformée non linéaire et non stationnaire. Ses propriétés statistiques, en réponse au bruit blanc gaussien, ont permis de conclure sur le comportement de cette approche similaire à un banc de filtres quasi-dyadique. Les méthodes existantes de rehaussement de la parole basée sur la modélisation par EMD s'appuient toutes sur ce comportement dans leur démarche de réduction de bruit, et leur efficacité n'est validée que dans le cas de signaux de parole corrompus par du bruit blanc gaussien. Cependant, un algorithme de réduction de bruit n'est intéressant que s'il est efficace sur des bruits environnants de tous les jours. Ces travaux de recherche visent ainsi à déterminer les caractéristiques de l'EMD face à des signaux de parole corrompus par des bruits"réels", avant de comparer ces caractéristiques à ceux issues de signaux de parole corrompus par du bruit blanc gaussien. Les conclusions de cette étude sont finalement mises en pratiques dans le développement d'un système de réduction de bruit qui vise à séparer au mieux le bruit du signal de parole, et ce quel que soit le type de bruit rencontré.
APA, Harvard, Vancouver, ISO, and other styles
41

Robinet, Vivien. "Modélisation cognitive computationnelle de l'apprentissage inductif de chunks basée sur la théorie algorithmique de l'information." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0108.

Full text
Abstract:
Cette thèse présente un modèle cognitif computationnel de l’apprentissage inductif qui se base d’une part sur le MDL et d’autre part sur le mécanisme de chunking qui est à la base de nombreux modèles cognitifs. Le MDL est quant à lui utilisé comme formalisation du principe de simplicité. Il permet d’implémenter la notion de simplicité grâce au concept clairement défini de taille de codage. Les résultats théoriques correspondants peuvent être établis grâce à la complexité de Kolmogorov dont le MDL fournit une approximation calculable. Utilisant ces deux mécanismes, le modèle proposé est capable de générer automatiquement la représentation la plus courte d’un ensemble de stimuli discrets. Les représentations ainsi produites sont comparées à celles créées par des participants humains confrontés aux mêmes stimuli. Le but de cette thèse est d’évaluer à la fois les fondements théoriques et l’efficacité pratique du principe de simplicité dans le cadre de la modélisation cognitive
This thesis presents a computational cognitive model of inductive learning based both on the MDL and on the chunking mechanism. The chunking process is used as a basis for many computational cognitive models. The MDL principle is a formalisation of the simplicity principle. It implements the notion of simplicity through the well-defined concept of codelength. The theoretical results justifying the simplicity principle are established through the algorithmic information theory. The MDL principle could be considered as a computable approximation of measures defined in this theory. Using these two mechanisms the model automatically generates the shortest representation of discrete stimuli. Such a representation could be compared to those produced by human participants facing the same set of stimuli. Through the proposed model and experiments, the purpose of this thesis is to assess both the theoretical and the practical effectiveness of the simplicity principle for cognitive modeling
APA, Harvard, Vancouver, ISO, and other styles
42

El, Moumen Ahmed. "Prévision du comportement des matériaux hétérogènes basée sur l’homogénéisation numérique : modélisation, visualisation et étude morphologique." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10077/document.

Full text
Abstract:
L’homogénéisation est une technique de passage Micro-Macro en tenant compte de l’influence des paramètres morphologiques, mécaniques et statistiques de la microstructure représentative d’un matériau hétérogène. La modélisation numérique a contribué fortement au développement de cette technique en vue de déterminer les propriétés physico-mécaniques des matériaux hétérogènes bi et multiphasiques. L’objectif principal de ce travail est la prédiction du comportement macroscopique élastique et thermique de matériaux hétérogènes. Les comportements mécaniques et thermiques ont été déterminés numériquement puis comparés aux résultats expérimentaux et analytiques. La variation du volume élémentaire représentatif (VER) en fonction de la fraction volumique et du contraste a été analysée. Cette étude a mis en évidence l’intérêt d’une détermination rigoureuse de la taille optimale du VER. En effet, celle-ci doit prendre en compte plusieurs paramètres tels que la fraction volumique, le contraste, le type de la propriété et la morphologie de l’hétérogénéité. Un nouveau concept de morphologie équivalente a été proposé. Ce concept introduit le principe d’équivalence des caractéristiques élastiques et thermiques des matériaux hétérogènes d’une microstructure de morphologie complexe avec celles d’une microstructure contenant des particules sphériques. Ce travail a conduit à l’élaboration d’une démarche globale de design microstructural en intégrant la morphologie réelle des phases des microstructures hétérogènes intégrant à la fois la visualisation des images, l’étude morphologique et la modélisation géométrique et numérique
The homogenization is a technique of Micro-Macro passage taking into account the influence of morphological, mechanical and statistical parameters of the representative microstructure of an heterogeneous material. Numerical modeling has contributed significantly to the development of this technique to determine the physical and mechanical properties of bi-and multi-phase heterogenous materials. The main objective of this work is the prediction of the macroscopic elastic and thermal behaviors of heterogeneous materials. The mechanical and thermal behaviors was determined numerically and compared with experimental and analytical results. The variation of the representative volume element (RVE) versus volume fraction and the contrast was analyzed. This study showed the importance of a rigorous determination of the optimal RVE size. Indeed, it must take into account several parameters such as : volume fraction, contrast, type of property and the morphology of the heterogeneity. A new concept of the equivalent morphology was proposed. This concept introduces the equivalence of the elastic and thermal characteristics of a microstructure of heterogeneous materials with complex morphology and those of a microstructure containing spherical particles. This work led us to developement of a comprehensive approach to microstructural design by integrating the real morphology of heterogeneous microstructure phases incorporating at the same time the image visualization, the morphological study and the geometric and numerical modeling
APA, Harvard, Vancouver, ISO, and other styles
43

Cozette, Maryne. "Développement d'une méthode d'exploration de la balance musculaire basée sur la modélisation du signal isocinétique." Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0018.

Full text
Abstract:
Objectif : Proposer une alternative fiable, et plus proche de la réalité fonctionnelle, en utilisant une approche isocinétique sectorielle représentée par le calcul de ratios agonistes/antagonistes par plage angulaire de 10°. Matériel et Méthode : Trois études ont été menées, chaque étude portant sur des sites articulaires particulièrement impliqués dans la motricité humaine, et également très concernés par la survenue de blessure en lien avec la balance musculaire des principaux groupes stabilisateurs. Il s'agit respectivement de l'articulation scapulo-humérale (muscles rotateurs interne/externe), de l'articulation fémoro-tibiale (muscles fléchisseurs/extenseurs), et du rachis lombaire (muscles fléchisseurs/extenseurs). Les sujets étaient des volontaires sains, non spécialistes d'une pratique sportive. Les ratios par plage angulaire de 10° étaient comparés entre les plages angulaires et également par rapport aux ratios classiques associés aux valeurs "pic". La reproductibilité était évaluée pour l'ensemble des ratios. Résultats : Nos études ont montré que les ratios par plage angulaire étaient évolutifs au cours du mouvement et significativement différents des ratios classiques. De plus, nos résultats ont mis en exergue une bonne reproductibilité absolue des ratios associés aux plages angulaires de 10°. Conclusion : La méthode sectorielle associée aux plages angulaires de 10° permet une évaluation fiable et pertinente de la balance musculaire
Objective : The general objective was to propose a reliable alternative to assess agonists-antagonists muscle balance in dynamic perspective by using a sector approach: the angular range method. Material and method : Three studies were conducted, each study involving joint particularly involved in human motion, and also in injury occurence related to the muscle balance between the main joint stabilizers. These are respectively scapulohumeral joint (internal ans external rotator muscles), femoro-tibial joint (flexor and extensor muscles), and lumbar spine (flexor and extensor muscles). Subjects were healthy volunteers, not specialists in a sport. The ratios by angular range of 10° were compared between the angular ranges and also compared to the classical ratios associated with the peak torques. Reliability was evaluated for all ratios. Results : All studies have shown that angular range ratios were signicantly different between angular ranges and also significantly different to the classical peak torque ratios. In addition, the results have highlighted a good absolute reliability of the ratios associated with the angular ranges of 10°. Conclusion : The sector method associated with angular ranges of 10° allows a reliable and relevant assessment of the muscle balance by a finer analysis of a major parameter of muscle function involved in physiopathology and motor performance
APA, Harvard, Vancouver, ISO, and other styles
44

Carabelea, Cosmin. "Raisonner sur l'autonomie d'un agent au sein de systèmes multi-agents ouverts : une approche basée sur les relations de pouvoir." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2007. http://tel.archives-ouvertes.fr/tel-00786141.

Full text
Abstract:
Nous prenons le point de vue d'un agent sur le point d'entrer dans une organisation multi-agent, où il aura à choisir parmi plusieurs rôles disponibles. Notre objectif est de donner à cet agent les moyens d'évaluer avant d'entrer dans une organisation les implications que cette action aura sur ses capacités de satisfaire les désirs de son utilisateur. Quand il entre dans une organisation, un agent devient le sujet de plusieurs contraintes imposées par des entités externes (d'autres agents, l'organisation même, la société). Comme le montre cette thèse, l'autonomie sociale de décision est une caractéristique d'un agent, qui est directement liée à ces contraintes sociales. En conséquence, nous basons l'évaluation faite par un agent des contraintes qui lui sont imposées sur le concept d'autonomie. Cette approche est illustrée à l'aide d'un scénario d'intelligence ambiante qui a été implémenté et déployé sur des objets portables.
APA, Harvard, Vancouver, ISO, and other styles
45

Couture, Adrien. "Automatisation de la modélisation numérique des microstructures de matériaux hétérogènes basée sur une intégration CAO-calcul." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS543.

Full text
Abstract:
La simulation numérique des matériaux hétérogènes suscite beaucoup d'intérêt de la part de la communauté scientifique puisqu'elle est une solution attrayante et économique au problème de la caractérisation du comportement thermomécanique des matériaux hétérogènes. Le comportement d'un matériau hétérogène est difficile à prédire même lorsque les propriétés des constituants sont connues et leurs forme et position bien définies. La modélisation numérique des matériaux hétérogènes permet de simuler des échantillons du matériau à étudier. Ces échantillons sont des Volumes Élémentaires Statistiques (VES) et représentent une portion de la microstructure du matériau. Pour obtenir une représentation statistique du comportement du matériau, il faut habituellement générer et simuler beaucoup de VES. L'objectif de cette thèse est de proposer une nouvelle approche automatisée de modélisation numérique des microstructures de matériaux hétérogènes basée sur l'intégration des outils de la Conception Assistée par Ordinateur (CAO), de la génération automatique de maillages et de la simulation par la Méthode des Éléments Finis (MEF). Cette approche est proposée dans le contexte des matériaux hétérogènes à particules, mais peut s'appliquer à toutes les formes de microstructures. Le potentiel de l'approche intégrée CAO-MEF est mis en évidence par une étude comparative de l'influence de la forme des constituants et du degré des éléments de maillage sur les propriétés thermomécaniques apparentes d'un composite verre / époxy. Une méthode novatrice qui permet de générer des microstructures à fractions volumiques élevées de particules élancées est introduite. Cette nouvelle méthode est utilisée pour simuler le comportement d'un composite constitué de particules de chanvre et d'une matrice cimentaire et les résultats numériques sont confrontés aux résultats expérimentaux
Numerical simulation of heterogeneous materials is of great interest to the scientific community since it is an attractive and economical solution to the problem of characterizing the thermomechanical behavior of heterogeneous materials. Heterogeneous materials behavior is difficult to predict even when the constituents properties are known and their shape and position well defined. This difficulty is related to the physical phenomena that occur at the constituents scale. They originate from the constituents interaction and the way they are assembled together. Numerical modeling of heterogeneous materials can simulate samples of the material to be studied. These samples are the Statistical Volume Elements (SVE) and represent a portion of the material microstructure. To obtain a statistical representation of the thermomechanical behavior, it is usually necessary to generate many SVE. This thesis objective is to propose a new automated approach to numerical modeling of microstructures based on the integration of Computer Aided Design (CAD) methods, automatic mesh generation methods and Finite Element Analysis (FEA) method. This approach is proposed in the context of heterogeneous particulate materials but can be applied to all types of microstructures. The potential of the CAD-FEA integrated approach is illustrated with a comparative study of the influence of the constituents shape and the mesh degree on the apparent thermomechanical properties of a glass / epoxy composite. An innovative method for generating microstructures with high volume fractions of slender particles is introduced. This new method is used to simulate the behavior of a hemp and cement composite and the numerical results are confronted with the experimental results
APA, Harvard, Vancouver, ISO, and other styles
46

Le, Moigne Rocco. "Modélisation et simulation basée sur systemC des systèmes monopuces au niveau transactionnel pour l'évaluation de performances." Nantes, 2005. http://www.theses.fr/2005NANT2040.

Full text
Abstract:
L'évolution rapide des technologies microélectroniques a entraîné l'apparition d'une nouvelle génération de composants sur le marché : les systèmes monopuces. La conception de ces nouveaux composants est complexe. De plus, il faut en permanence augmenter la productivité en conception des systèmes en vue d'accélérer la conception et la mise sur le marché d'un produit. Ces contraintes conduisent les concepteurs à étudier très tôt les performances des systèmes par modélisation et simulation. Ainsi, l'objectif global de cette thèse est de proposer aux concepteurs de systèmes un ensemble de modèles de haut niveau associé à un outil informatique leur permettant de réaliser la co-simulation de systèmes matériels/logiciels très tôt dans le cycle de conception. L'ensemble des modèles développés ont été intégrés dans la bibliothèque de simulation SystemC de CoFluent Studio™, produit commercial de la société CoFluent Design. Ce travail a été réalisé dans le cadre du projet MEDEA+ A502 MESA
The fast evolution of microelectronic technologies and their ever-improving integration capacities made possible the appearance of a new generation of components on the market: the “System-on-Chip”. The complexity involved when designing these new components and the permanent need to increase the productivity of the system design process in order to reduce the time-to-market leads designers to raise the level of abstraction of their simulation models. Thus, our goal is to provide a set of high-level models and software tools enabling designers to conduct very early in the design process the HW/SW co-simulation of systems. All models developed in this thesis are integrated to the SystemC simulation library of CoFluent Design's CoFluent Studio™ software environment. This work was done in the context of the MEDEA+ A502 MESA project
APA, Harvard, Vancouver, ISO, and other styles
47

Alby, Emmanuel. "Elaboration d'une méthodologie de relevé d'objets architecturaux : contribution basée sur la combinaison de techniques d'acquisition." Nancy 1, 2006. https://tel.archives-ouvertes.fr/tel-00132784.

Full text
Abstract:
Le relevé extérieur d’ouvrage architectural est le moyen de créer une représentation du bâtiment dans son état de conservation. Deux techniques d’acquisition à distance se distinguent par leur efficacité et la qualité des données produites : la photogrammétrie et le balayage optique. Ces deux techniques sont soumises aux règles de l’optique et ne permettent pas de mesurer les parties invisibles de l’objet. La combinaison des techniques peut améliorer la qualité des données, mais il subsiste toujours des zones non mesurées et de ce fait non représentables. Pour palier ce problème, nous émettons l’hypothèse que l’usage de connaissances architecturales peut permettre de recomposer les parties manquantes lors de la modélisation. Cette thèse propose un processus basé sur la combinaison de ces deux techniques et sur l’intégration des connaissances architecturales accessibles depuis la documentation écrite ou encore par les règles de construction des édifices. La complexité d’un ouvrage architectural et la multitude des données imposent une division de la modélisation en plusieurs étapes identifiables. Nous proposons de découper le processus de modélisation selon le mode de figuration des niveaux de détail utilisé pour la représentation de l’architecture. Les niveaux différents de détail permettent d’obtenir des étapes de modélisation clairement indentifiables, mais aussi un processus progressif où les informations peuvent être utilisées au fur et à mesure. Notre approche intègre ainsi les données dimensionnelles à la documentation architecturale, pour permettre la mise en place d’un processus de modélisation afin d’obtenir un modèle le plus complet possible
The external survey of an architectural work is a way to create a representation of the building in its conservation condition. Two techniques of remote acquisition differ by their effectiveness and the quality of the produced data: photogrammetry and laser scanning. These two techniques depend on optical principles: what cannot be seen cannot be measured. The combination of these techniques can improve the data quality, but unmeasured zones always remain, therefore cannot be represented. In order to solve this problem, we put forward the hypothesis that using architectural knowledge may allow to rebuild these zones during the modeling process. This study suggests a modeling process based on the combination of these two techniques and on the integration of the available architectural knowledge, from paper documentation or from the built works construction rules. An architectural work being complex and the data numerous, a division of the modeling process in several distinct stages appears necessary. We suggest dividing modeling process according to different figuration of level of details frequently used to represent architecture, and define a process using information in a progressive way. Thus our approach consists in integrating dimensional data into architectural documentation, in order to develop a modeling process providing a model as complete as possible
APA, Harvard, Vancouver, ISO, and other styles
48

Fernandez, Davila Jorge Luis. "Planification cognitive basée sur la logique : de la théorie à l'implémentation." Electronic Thesis or Diss., Toulouse 3, 2022. http://thesesups.ups-tlse.fr/5491/.

Full text
Abstract:
Dans cette thèse, nous définissons un cadre de planification cognitive permettant de doter des agents artificiels des compétences nécessaires pour représenter et raisonner sur les états mentaux d'autres agents. Notre cadre de planification cognitive est basé sur un fragment NP d'une logique épistémique avec une sémantique exploitant des bases de croyances et dont le problème de satisfiabilité peut être réduit à SAT. Nous détaillons l'ensemble des traductions pour la réduction de notre fragment à SAT. De plus, nous fournissons des résultats de complexité pour vérifier la satisfiabilité des formules dans notre fragment NP. Nous définissons une architecture générale pour le problème de planification cognitive. Ensuite, nous définissons deux types de problème de planification : informatif et interrogatif, et nous calculons la complexité pour trouver une solution au problème de planification cognitive dans chacun de ces deux cas. De plus, nous illustrons le potentiel de notre cadre pour les applications en interaction humain-machine à l'aide de deux exemples dans lesquels un agent artificiel est censé interagir avec un agent humain par le dialogue et persuader l'humain de se comporter d'une certaine manière. Enfin, nous introduisons une formalisation de la planification cognitive simple en tant que formule booléenne quantifiée (QBF) avec un nombre optimal de quantificateurs dans le préfixe. Le modèle de planification cognitive a été mis implémenté. Nous décrivons comment représenter et générer la base de croyance. De plus, nous démontrons comment la machine exécute le processus de raisonnement pour trouver une séquence d'actes de langage destinés à induire une intention potentielle chez l'agent humain. L'implémentation comporte trois composants principaux : la révision des croyances, la planification cognitive et le module de traduction. Ces modules fonctionnent de manière intégrée pour capturer les croyances de l'agent humain au cours du processus d'interaction humain-machine et générer une séquence d'actes de parole pour atteindre un objectif persuasif. Finalement, nous présentons un langage épistémique pour représenter les croyances et les actions d'un joueur artificiel dans le contexte du jeu de société coopératif Yokai. Ce jeu nécessite une combinaison de théorie de l'esprit (ToM), de raisonnement temporel et de raisonnement spatial pour qu'un agent artificiel joue efficacement. Nous montrons que le langage rend bien compte de ces trois dimensions et que son problème de satisfiabilité est NP-complet. Nous implémentons le jeu et réalisons des expériences pour comparer le niveau de coopération entre les agents lorsqu'ils tentent d'atteindre un objectif commun en analysant deux scénarios : lorsque le jeu se joue entre un humain et l'agent artificiel versus lorsque deux humains jouent ensemble
In this thesis, we introduced a cognitive planning framework that can be used to endow artificial agents with the necessary skills to represent and reason about other agents' mental states. Our cognitive planning framework is based on an NP-fragment of an epistemic logic with a semantics exploiting belief bases and whose satisfiability problem can be reduced to SAT. We detail the set of translations for the reduction of our fragment to SAT. In addition, we provide complexity results for checking satisfiability of formulas in our NP-fragment. We define a general architecture for the cognitive planning problem. Afterward, we define two types of planning problem: informative and interrogative, and we find the complexity of finding a solution for the cognitive planning problem in both cases. Furthermore, we illustrated the potential of our framework for applications in human-machine interaction with the help of two examples in which an artificial agent is expected to interact with a human agent through dialogue and to persuade the human to behave in a certain way. Moreover, we introduced a formalization of simple cognitive planning as a quantified boolean formula (QBF) with an optimal number of quantifiers in the prefix. The model for cognitive planning was implemented. We describe how to represent and generate the belief base. Furthermore, we demonstrate how the machine performs the reasoning process to find a sequence of speech acts intended to induce a potential intention in the human agent. The implemented system has three main components: belief revision, cognitive planning, and the translator module. These modules work integrated to capture the human agent's beliefs during the human-machine interaction process and generate a sequence of speech acts to achieve a persuasive goal. Finally, we present an epistemic language to represent the beliefs and actions of an artificial player in the context of the board game Yokai. The cooperative game Yokai requires a combination of theory of mind (ToM), temporal and spatial reasoning for an artificial agent to play effectively. We show that the language properly accounts for these three dimensions and that its satisfiability problem is NP-complete. We implement the game and perform experiments to compare the cooperation level between agents when they try to achieve a common goal by analyzing two scenarios: when the game is played between a human and the artificial agent versus when two humans play the game
APA, Harvard, Vancouver, ISO, and other styles
49

Vieira, De Mello Aline. "Tlmdt : une stratégie de modélisation basée sur temps distribué pour la simulation prallèle de systèmes multi-processeurs intégrés sur puce." Paris 6, 2013. http://www.theses.fr/2013PA066201.

Full text
Abstract:
Les architectures matérielles innovantes dans l’industrie de la microélectronique se caractérisent principalement par leur niveau incroyablement élevé de parallélisme. Plusieurs environnements de conception industriels et académiques sont apparus pour aider dans la modélisation, la simulation et la mise au point de “Massively Parallel Multi-Processors System on Chip” (MP2SoCs). Le langage de description matérielle SystemC est le point commun de tous ces environnements. La bibliothèque SystemC de classes C++ permet de décrire le matériel à différents niveaux d’abstraction, allant de RTL synthétisable à la modélisation de niveau transactionnel (TLM). Cependant, quand il s’agit de simuler une architecture contenant des centaines de processeurs, même la vitesse de simulation fourni par l’approche TLM n’est pas suffisante. Simultanément, les stations de travail multi-coeur sont de plus acessible au grand public. Malheureusement, le noyau de simulation SystemC est entièrement séquentiel et ne peut pas exploiter la puissance de traitement offerte par ces machines multi-coeurs. L’objectif stratégique de cette thèse est de proposer une approche de modélisation avec temps, pour les architectures numériques multi-processeurs complexes à mémoire partagée, appelée modélisation au niveau transaction avec temps distribué (TLM-DT). L’idée principale de l’approche TLM-DT est de ne plus utiliser le temps global de simulation SystemC, rendant ainsi possible l’utilisation d’un moteur de simulation véritablement parallèle et permettant une réduction significative du temps de simulation avec une perte limitée de précision
Innovative hardware architectures in the microelectronics industry are mainly characterized by their incredibly high level of parallelism. Despite their relative novelty, Multi-Processors System on Chip (MPSoCs) containing a few cores tend to be replaced by Massively Parallel MPSoCs (MP2SoCs), which integrate dozens or hundreds of processor cores interconnected through a possibly hierarchical network on chip. Several industrial and academic frameworks appeared to help modeling, simulating and debugging MP2SoC architectures. The SystemC hardware description language is the effective backbone of all these frameworks, which allows to describe the hardware at various levels of abstraction, ranging from synthesizable RTL (more accurate and very slow) to TLM (less accurate and very fast). However, when it comes to simulate an architecture containing hundreds of processors, even the simulation speed brought by TLM is not enough. Simultaneously, multi-core workstations are becoming the mainstream. Unfortunately, the genuine SystemC simulation kernel is fully sequential and cannot exploit the processing power provided by these multi-cores machines. In this context, the strategic goal of this thesis is to propose a general modeling approach for timed TLM virtual prototyping of shared memory MP2SoCs, called Transaction Level Modeling with Distributed Time (TLM-DT). The main idea of the TLM-DT approach is not to use anymore the SystemC global simulation time, becoming possible to use a truly parallel simulation engine and providing a significant reduction in simulation time with a limited loss of precision
APA, Harvard, Vancouver, ISO, and other styles
50

Noh, Mohd Hilmi. "Charge rapide de batteries lithium-ion basée sur la compensation de chute-ohmique." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI076/document.

Full text
Abstract:
L'objectif de cette thèse est l’étude de la charge rapide de batteries lithium-ion basée sur la méthode de la compensation chute ohmique. Cette méthode permet théoriquement de réduire le temps total de charge des batteries. Dans cette thèse, cette méthode a été mise en œuvre sur trois types différents de cellules de format 18650 : C/ FP, C/NMC et LTO/LFP. Cette méthode montre de bons résultats pour les batteries C/LFP et LTO/LFP avec une réduction du temps de charge total d'environ 70% par rapport à la méthode classique. Néanmoins, cette méthode présente des inconvénients comme notamment l’élévation de la température interne de la batterie pendant la charge rapide. De plus, cette méthode implique un courant élevé et conduit à des potentiels élevés qui peuvent engendrer également des dégradations. En particulier, nous avons démontré que la batterie C / LFP subissait des dégradations internes notamment une déformation mécanique de l’enroulement et une dégradation de la composition d’électrolyte
The aim of this thesis is to study fast-charging of lithium-ion, battery using the ohmic-drop compensation method. The latter method theoretically will reduce the total charging of the batteries considered. In this thesis, the ODC method was implemented on three different types of 18650 battery cells. These batteries are C/LFP, C/NMC and LTO/LFP. This method show a good result for C/LFP and LTO/LFP batteries with a reduction of total charging time of about 70% in comparison with the classical method. Nevertheless, there are some issues regarding this method; the temperature elevation of the battery is high during fast-charging. Indeed, almost all fast-charging procedure experiences the same problem concerning that matter. Moreover, with ODC fast-charging method, high current rate and high voltage will worsen the situation. These complications of the ODC fast-charging method are key points for both performance and durability of the batteries. Particularly, we have demonstrated that C/LFP battery underwent internal degradation as a mechanical deformation of the active materials and degradation of electrolyte
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography