Thèses sur le sujet « Gestion basée sur l'écosystème »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Gestion basée sur l'écosystème.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Gestion basée sur l'écosystème ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Montoroi, Jean-Pierre. « Dynamique de l'eau et géochimie des sels d'un bassin versant aménagé de Basse-Casamance (Sénégal) : conséquences sur la gestion durable de l'écosystème de mangrove en période de sécheresse ». Nancy 1, 1994. http://docnum.univ-lorraine.fr/public/SCD_T_1994_0401_MONTOROI.pdf.

Texte intégral
Résumé :
Pour lutter contre les effets néfastes d'une sécheresse prolongée, notamment la salinité élevée des eaux de surface, de nombreuses petites vallées de Basse-Casamance ont été aménagées par un barrage anti-sel. Cet ouvrage a pour fonction la collecte des eaux de ruissellement afin de les utiliser pour dessaler les sols sulfatés acides situés en amont. De la bonne utilisation de la ressource eau dépend l'avenir de la riziculture pratiquée dans ces vallées. L'objectif est d'expliquer les mécanismes mis en jeu dans la mobilisation des éléments solubles, de quantifier l'importance de ces mouvements et d'estimer les conséquences agronomiques. [. . . ]
Styles APA, Harvard, Vancouver, ISO, etc.
2

Loiseau, Charles. « Méthodes pour évaluer la planification de l'espace marin : La gestion des pressions anthropiques au cœur de la conservation des écosystèmes ». Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLP004.

Texte intégral
Résumé :
Face à l'intensification des pressions exercées par les activités humaines sur l'environnement marin, une organisation rationnelle de ces activités est nécessaire pour endiguer la dégradation des écosystèmes sur lesquels reposent l'approvisionnement en biens et services des sociétés humaines. Les concepts récents de l'approche écosystémique et leur prometteuse application à la planification spatiale maritime apportent des réponses à ce défi, mais la complexité du tissu formé par les écosystèmes marins et les usages humains interagissant avec rend difficile l'opérationnalisation de ces approches. Les travaux de cette thèse proposent de replacer la conservation des écosystèmes marins au cœur du processus de planification, par l'intégration des principes de la gestion écosystémique au sein de la planification spatiale maritime, et par l'évaluation du rôle des aires marines protégées (AMP) comme outil préférentiel pour la conservation des écosystèmes au sein du processus de planification. L'évaluation de l'impact cumulé des activités humaines à une échelle pertinente pour la gestion à Moorea, en Polynésie française, a permis de mettre en évidence la forte contribution des activités terrestres dans l'impact cumulé à l'échelle de lagon, soulignant la nécessité d'une gestion intégrée du continuum terre-mer. Nous démontrons ensuite la valeur ajoutée de cette même approche afin d'orienter de manière rationnelle et transparente les décisions de gestion et notamment la contribution des AMP à effectivement réduire les pressions humaines en leur sein. En effet, les AMP sont un outil de zonage préférentiel pour la conservation des écosystèmes marins et s'intègrent ainsi dans la planification spatiale maritime, à condition de gérer efficacement les activités responsables de pressions délétères sur le milieu. Nous avons utilisé un système de classification des AMP basé sur les activités régulées ou non en leur sein pour évaluer le niveau de protection réel des AMP en France et en Mer Méditerranée. Les résultats indiquent que, même si certains pays ont atteint les objectifs de 10% d'AMP en 2020, la grande majorité des AMP ne présentent pas de niveaux de protection suffisants pour délivrer des bénéfices socio-écologiques. Afin de s'assurer que les AMP puissent remplir leur rôle dans la conservation des écosystèmes, les objectifs récemment fixés pour 2030 fixent désormais 10% de protection stricte ou forte. Dans cette optique, nous analysé quels facteurs expliquent la présence des plus hauts niveaux de protection en Mer Méditerranée, et les résultats montrent les hauts niveaux de protection en Mer Méditerranée sont opportunistes et ne ciblent ni une biodiversité remarquable, ni des niveaux de pressions humaines élevés. Considérés ensemble, les résultats des différents chapitres mettent en lumière le manque de considération des objectifs de conservation, que ce soit au sein du MSP, par un manque d'approches dédiées localement à l'évaluation de l'impact cumulé des activités humaines et d'évaluation de différents scénarios de planification au regard des enjeux de conservation, et au sein des AMP, pourtant dédiées à l'atteinte de ces objectifs de conservation. Au-delà d'apporter ce constat, les différentes approches proposées ici permettent de replacer la biodiversité au cœur de la planification de l'espace marin
As the pressures exerted by human activities on the marine environment intensify, a rational organization of these activities is needed to stem the degradation of the ecosystems on which the supply of goods and services to human societies depends. Recent concepts of the ecosystem approach and their promising application to maritime spatial planning provide answers to this challenge, but the complexity of the tissue formed by marine ecosystems and the human uses interacting with them makes it difficult to operationalize these approaches. This thesis proposes to put marine ecosystem conservation back at the heart of the planning process, by integrating the principles of ecosystem-based management into maritime spatial planning, and by assessing the role of marine protected areas (MPAs) as a preferred tool for ecosystem conservation within the planning process. Assessing the cumulative impact of human activities at a scale relevant to management in Moorea, French Polynesia, has highlighted the strong contribution of land-based activities to cumulative impact at lagoon scale, underlining the need for integrated management of the land-sea continuum. We then demonstrate the added value of this same approach in guiding management decisions in a rational and transparent way, and in particular the contribution of MPAs to effectively reducing human pressures within them. Indeed, MPAs are a preferential zoning tool for the conservation of marine ecosystems, and can thus be integrated into maritime spatial planning, provided that the activities responsible for deleterious pressures on the environment are effectively managed. We used an MPA classification system based on regulated and unregulated activities to assess the actual level of protection afforded by MPAs in France and the Mediterranean Sea. The results show that, although some countries have achieved the target of 10% MPAs by 2020, the vast majority of MPAs do not have sufficient levels of protection to deliver socio-ecological benefits. In order to ensure that MPAs can fulfill their role in ecosystem conservation, the recently set targets for 2030 now set 10% of strict or strong protection. We therefore analyzed which factors explain the presence of the highest levels of protection in the Mediterranean Sea, and the results show that the high levels of protection in the Mediterranean Sea are opportunistic, targeting neither particular biodiversity components nor high levels of human pressure. Taken together, the results highlight the lack of consideration given to conservation objectives, both within the MSP, through a lack of approaches dedicated locally to assessing the cumulative impact of human activities and evaluating different planning scenarios with regard to conservation issues, and within the MPAs, which are nonetheless dedicated to achieving these conservation objectives. the various approaches proposed here make it possible to place biodiversity back at the heart of marine spatial planning
Styles APA, Harvard, Vancouver, ISO, etc.
3

Kaddah, Rim. « Gestion active de la demande basée sur l'habitat connecté ». Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0025/document.

Texte intégral
Résumé :
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
Styles APA, Harvard, Vancouver, ISO, etc.
4

Randimbiarison, Jérôme. « Signature numérique d'un document basée sur FIDO2 ». Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66598.

Texte intégral
Résumé :
En cette ère numérique, l’utilisation des documents papier s’avère peu pratique et inefficace, ce qui motive les sociétés à évoluer vers l’utilisation des documents électroniques (ou e-docs). Ce désir d’innover vers une opération sans papier peut améliorer l’efficacité et la qualité des services d’administrations publiques ou privées de manière à accélérer leurs activités et en même temps mieux satisfaire les besoins des clients. Cependant, cette pratique a créé des nouveaux besoins, tels que la signature numérique réelle de documents. Dans ce mémoire, nous avons proposé un nouveau schéma de signature numérique utilisant FIDO2, qui se trouve être une nouvelle norme d’authentification sécurisée en ligne basée sur la signature numérique. Le fait que FIDO2 soit un standard libre permet aux développeurs de logiciel et de matériel d’implémenter plus facilement leurs propres produits. Cela nous a inspiré à l’utiliser pour une fin de signature numérique, l’idée étant de remplacer le défi envoyé par le serveur avec le hash de e-docs et de l’envoyer à l’appareil du signataire afin que ce dernier signe avec sa clé privée. Comme dans le cas de l’infrastructure à clé publique, chaque utilisateur possédait une paire de clés, c’est-à-dire une clé privée et une clé publique. Un signataire doit confirmer son identification biométrique (empreinte digitale, reconnaissance faciale, voix, etc.) ou son code PIN pour accéder à la clé privée stockée localement sur son appareil et signer un document. Au cours de notre recherche, nous avons effectué plusieurs tests avec différents équipements (PC, USB FIDO, Smartphone) ainsi que différentes OS (Android, iOS, Windows). Les résultats de nos tests nous montrent que nous pouvons utiliser FIDO2 pour signer un document électronique. Cette nouvelle approche proposée peut être utilisée pour une signature face à face (en locale) ou à distance (en ligne). Le prototype développé pour la mise en œuvre de notre approche a été validé auprès d’usagers types (membres clients et conseillers) dans une entreprise.
In this digital era, the use of paper documents is impractical and inefficient, which motivates companies to move towards the use of electronic documents (or e-docs). This desire to innovate towards a paperless operation can improve the efficiency and quality of public or private administration services so as to speed up their activities and at the same time better meet customer needs. However, this practice has created new needs, such as the actual digital signature of documents. In this thesis, we have proposed a new digital signature scheme using FIDO2, which happens to be a new standard for secure online authentication based on digital signatures. The fact that FIDO2 is a free standard makes it easier for software and hardware developers to implement their own products. This inspired us to use it a digital signature purpose, the idea being, to replace the challenge sent by the server with the hash of e-docs and send it to the signer’s device so that the latter signs with his private key. As with public key infrastructure, each user had a key pair, that is, a private key and a public key. A signatory must confirm their biometric identification (fingerprint, facial recognition, voice, etc.) or PIN code to access the private key stored locally on their device and sign a document. During our research, we carried out several tests with different equipment (PC, USB FIDO, Smartphone) as well as different OS (Android, iOS, Windows). The results of our tests show us that we can use FIDO2 to sign an electronic document. This proposed new approach can be used for a face-to-face (local) or remote (online) signature. The prototype developed for the implementation of our approach has been validated with typical users (member-clients and advisers) in a company.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Piamrat, Kandaraj. « Gestion de ressources basée sur la qualité dans les réseaux sans-fil ». Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00647693.

Texte intégral
Résumé :
Les applications multimédias pour terminaux mobiles connaissent un succès grandissant. Cela oblige à développer de nouvelles méthodes plus efficaces de gestion des ressources des réseaux sans-fil du fait de leurs caractéristiques particulières : bande-passante limitée, état radio variable, interférences plus importantes, etc. Par ailleurs, les méthodes classiques de la gestion de ressources basées sur des paramètres techniques (perte/retard de paquets, gigue, etc.) ne parviennent pas à donner des évaluations précises de la qualité telle que perçue (encore appelée Qualité d'Expérience ou QdE) par l'utilisateur de ces applications. Cette thèse s'appuie sur une technique hybride nommée PSQA (Pseudo-Subjective Quality Assessment) d'évaluation pseudo-subjective en temps réel de la QdE pour proposer de nouvelles méthodes de gestion de ressources dans les réseaux multimédias sans-fil. Que ce soit du côté de l'opérateur réseau ou du côté de l'utilisateur, nous avons proposé des méthodes de contrôle d'accès et d'ordonnancement ainsi que des méthodes de sélection de réseaux d'accès dans le contexte des réseaux sans-fil hétérogènes utilisant différentes technologies (IEEE 802.11, UMTS, etc.). Les résultats obtenus encouragent l'utilisation du concept de QdE et ouvre la voie à un nouveau paradigme dans la gestion des ressources dans les réseaux multimédias sans-fil.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lhomme, Walter. « Gestion d'énergie de véhicules électriques hybrides basée sur la représentation énergétique macroscopique ». Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Lhomme.pdf.

Texte intégral
Résumé :
La résolution du problème de pollution est l'un des défis du XXIème siècle. Ces dernières années ont vu un développement important de Véhicules Électriques Hybrides (VEHs) qui allient les avantages des propulsions thermique (autonomie) et électrique (faible pollution). Le système embarqué est de plus en plus complexe car il multiplie les éléments de conversion énergétique ainsi que les couplages. L'objectif de ce travail est de proposer une méthodologie d'étude de VEHs pour en déduire des règles de commande (gestion locale de l'énergie) et de stratégie (gestion globale de l'énergie). Nous avons utilisé la Représentation Énergétique Macroscopique (REM), qui décrit de manière synthétique des systèmes complexes et leur commande, basée sur le principe d'action et de réaction des éléments connectés. Trois types de véhicules ont ainsi été étudiés, les architectures hybrides série, parallèle et mixte. La REM permet de mettre en avant les nœuds énergétiques des VEHs étudiés. En se basant sur l'exploitation des contraintes et propriétés énergétiques des sous systèmes associés, l'inversion de ces couplages fait apparaître, au sein de la structure de commande locale, les divers degrés de liberté qui mènent à l'articulation de la gestion globale de l'énergie des architectures étudiées. De part la complexité et la multidisciplinarité des véhicules hybrides, ce travail a également participé à l'extension des travaux de formalisme pour la commande et la gestion d'énergie des systèmes à énergies réparties. De nombreux travaux sont en cours et restent à faire pour développer ce type de véhicule.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Suksomboon, Patitta. « Représentation de ressources pédagogiques basée sur des ontologies ». Montpellier 2, 2007. http://www.theses.fr/2007MON20118.

Texte intégral
Résumé :
Avec le développement de la technologie Internet, le e-learning devient de plus en plus répandu. Aujourd'hui, le e-learning est l'un des plus importants canal pour la distribution de ressources pédagogiques et pour la communication entre enseignants et apprenants. Il consiste à concevoir, créer, délivrer, gérer et stocker les ressources pédagogiques pour les étudiants et à aider les enseignants à mettre à disposition leurs ressources sur Internet. Dans une première étape, il est utilisé par l'enseignant pour préparer ses cours, rechercher et collecter les ressources pédagogiques. Ensuite, ces ressources seront recherchées et accédées par les étudiants à travers des sites web dédiés à des cours. De nombreux cours sont disponibles sur le web ou sur des plateformes institutionnelles à destination des apprenants ; certains sont très consultés, d'autres fournissent peu de résultats. Le problème est d'identifier les bons objets d'apprentissage et de sélectionner les meilleurs enseignements afin de les proposer à l'étudiant. Ainsi les ressources pédagogiques nécessitent d'être organisées afin de faciliter l'accès de telles ressources aux apprenants et aux enseignants. Dans cette thèse, nous proposons une approche pour représenter les ressources pédagogiques basée sur des ontologies du domaine d'étude et sur des curriculum. Nous utilisons les ontologies pour modéliser les ressources pédagogiques en respectant le curriculum des auteurs, ceci facilitant le processus de conception et de développement. Ces travaux proposent une approche qui utilise une représentation du graphe du web, appelée S-node graph, un système pour la gestion des ressources pédagogiques basée sur les ontologies, et un outil appelé PeRMO (Pedagogical Resources Management). L'approche PeRMO fournit une représentation des objets d'apprentissage pour modéliser des sites web de cours, incluant une vue pour les utilisateurs
With the development of Internet Technology E-learning is becoming more and more widespread. Nowadays, e-learning is one of the most important channels for distribution and communication between teachers and learners. It refers to the use of computer technologies to design, create, deliver, manage and support learning for students and help teachers to provide their resources on the internet. Websites become more and more important communication lines between teachers and students. For teachers to prepare their courses, searching and collecting learning resources will be necessary in the preliminary step and those learning resources will be searched and browsed by students through many course's web sites over WWW technology. There are a multitude of courses available to students, some of which are very effective and some of which produce poor results. The problem is to distinguish between these learning objects and select the best ones for efficient home-study. Thus, pedagogical resources need to be organized to facilitate the access to these resources by teachers or students. In this research, we define an approach to represent pedagogical resources based on ontology and curriculum. It applies ontology to model pedagogical resources in respect with curriculum from authors, thus facilitating the design and development process. This research has produced both an approach that uses web graph representation, called S-node graph, and a system for Pedagogical Resources Management in respect with Ontology called PeRMO tool suit. The PeRMO approach provides learning objects representation to model course web sites, including a web view for users
Styles APA, Harvard, Vancouver, ISO, etc.
8

Kaoud, Hebatalla. « Une analyse de la gouvernance et l'innovation des clusters basée sur le modèle de la Triple-Hélice ». Thesis, Nantes, 2018. http://www.theses.fr/2018NANT2021/document.

Texte intégral
Résumé :
Le développement des clusters d’innovation ouvre plusieurs perspectives de recherches en raison de son importance dans le monde académique ainsi que dans les pratiques managériales. L’objet de cette recherche vise à confronter le modèle de la Triple Hélice « Etat, Industrie, Académie » en vue d’identifier des formes de gouvernance favorisant l’innovation des clusters. Nous accordons une importance particulière au rôle joué par l’état et aux politiques qu’il mène quant au développement de ces structures. La méthodologie repose sur une approche qualitative par « études de cas ». Trois études de cas ont été conduites sur des clusters égyptiens de type Technologie de l’Information et de Communication : Smart Village du Caire, Parc Technologique de Maadi et Greek Campus. Les données ont été recueillies auprès de sources différentes (entretiens semi-directifs, observations non participantes, exploitation des données secondaires). Une étude complémentaire a été effectuée au Maroc sur deux clusters afin de renforcer la validité externe de la recherche. Enfin, l’étude du modèle de CAPACITÉS, société de valorisation de l’Université de Nantes en France offre une mise en perspective. Les résultats de la recherche confirment la diversité des formes de gouvernance des trois clusters égyptiens (publique, privée, partenariat public privé) a impacté les stratégies à l’œuvre de l’innovation et l’entrepreneuriat. Cette thèse propose le modèle O2 Innovation pour l’innovation des clusters. Le modèle met en lumière l’importance de la diffusion de la culture de l’entreprenariat et souligne le rôle primordial de l’académie dans un processus d’innovation ouverte
The development of innovation clusters has opened several research perspectives due to its importance in the academic world and in the managerial practices. The purpose of this research is to mobilize the Triple Helix model "State, Industry, Academy" in order to identify forms of governance favouring innovation of clusters. We have attached particular importance on the role played by the state and the policies it conducts in the development of these structures. The methodology is based on a qualitative approach based on "case studies". Three case studies were conducted on clusters mainly in the field of the Information Technology and Communication in Egypt: Smart Village of Cairo, Maadi Technology Park and Greek Campus. Data were collected from different sources (semi-structured interviews, non-participant observations, and secondary data). A complementary study was carried out on The Electronics, Mechanics and Mechatronics Cluster in Morocco and on the Morocco Microelectronics Cluster in order to reinforce the external validity of the research. Last but not least, we explored the case of CAPACITES; a knowledge valorization company created by the University of Nantes in France. The results of the research confirm that the diversity of governance forms of the three Egyptian clusters (public, private, public-private partnership) impacted the strategies of innovation and entrepreneurship. This thesis proposes the model O2 Innovation for the innovation of the clusters. The model highlights the importance of spreading the culture of entrepreneurship while emphasizing on the primary role of the academy in an open innovation process
Styles APA, Harvard, Vancouver, ISO, etc.
9

Jaillet, Simon. « Catégorisation automatique de documents textuels : D'une représentation basée sur les concepts aux motifs séquentiels ». Montpellier 2, 2005. http://www.theses.fr/2005MON20030.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Arregle, Jean-Luc. « L'industrialisation des sociétés de conseil en management : une analyse basée sur les ressources ». Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX32030.

Texte intégral
Résumé :
Cette recherche etudie le niveau d'industrialisation (taille, standardisation, nouvelles technologies) des services de conseil en management en france sous un angle strategique en utilisant, de maniere exploratoire, l'approche basee sur les "ressources" qui considere le management strategique comme "les actions d'une entreprise pour identifier, proteger, et exploiter ses ressources pour creer un avantage concurrentiel sur ses marches". Ainsi, grace a une analyse laterale sur 31 entreprises, sont mises en evidence les 3 ressources critiques de ces entreprises : le reseau, la taille, le savoir-faire. De meme, des comportements differents ont ete constates selon que leur plate-forme strategique laterale etait basee sur des aptitudes ou des actifs. Enfin, des liaisons entre les differents niveaux d'industrialisation et les ressources critiques sont constatees. Elles montrent le caractere strategique de cette evolution, permettent de valider l'approche "basee sur les ressources" et de deduire qu'un moyen pour industrialiser les services professionnels est de modifier les marches des facteurs strategiques associes et leur processus d'accumulation. Des voies de recherche sont precisees qui relevent d'analyses longitudinales pour identifier les processus de constitutions des stocks d'actifs et le niveau de soutenabilite des avantages concurrentiels developpes
This research deals with the industrialization (size, standardization, information technology) of management consulting firms in france. The strategic perspective is supported by the "resource based" approach which defines strategic management as "firms attempt to identify, protect, and exploit their unique skills and assets in order to gain competitive advantage in the market place". A cross sectional analysis of 31 enterprises gives the possibility to identify 3 "core resources" : network, size, know how. In addition, competitive behaviours are identified according to the type of resources (skills versus assets). Linkages between different industrialization levels and "core resources" are observed showing the strategic dimension of this evolution. By the means, the resource based approach is validated. Subjects for further research are defined using time section analysis to identify the building of asset stocks and the level of sustainability of competitive advantages
Styles APA, Harvard, Vancouver, ISO, etc.
11

Benmouna, Amel. « Gestion énergétique reconfigurable d'un véhicule électrique basée sur l'identification en ligne des sources embarquées ». Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA020.

Texte intégral
Résumé :
Ce sujet de thèse porte sur l’étude de la gestion énergétique reconfigurable d’un véhicule électrique basée sur l’identification en ligne des sources embarquées. Ces dernières années, la gestion d’énergie d’un système hybride pour les applications automobiles a fait l’objet d’un grand nombre de travaux de recherche. Dans cette étude, la chaine énergétique considérée se constitue d’une pile à combustible comme source principale, de sources de stockage à savoir les batteries et/ou les supercondensateurs, de convertisseurs pour chaque source et enfin d’une charge émulant la demande en puissance. En effet, le problème qui se pose dans les systèmes hybrides est de trouver une stratégie permettant une meilleure répartition de la puissance électrique entre les différentes sources embarquées, ce qui constitue l’apport de ce travail de recherche. Ainsi que de définir des lois de gestion énergétique en considérant des mesures faites en temps réel dans le but d’augmenter la durée de vie et la fiabilité des sources d’une part, et la disponibilité du véhicule électrique d’autre part. Dans ce travail de thèse, le contrôle non linéaire nommé IDA-PBC (Interconnection and Damping assignment-Passivity Based Control) est utilisé avec la structure PCH (Port Controlled Hamiltonian) qui permet de présenter des propriétés structurelles du système à savoir l'énergie totale du système, l'amortissement et les interconnexions d'états. La méthode IDA-PBC est une technique non linéaire puissante, elle est considérée comme un moyen général pour stabiliser une grande classe de systèmes physiques. Dans une seconde partie de ce travail, une stratégie de gestion de l'énergie optimale est proposée pour le système hybride étudié qui est la combinaison entre l’IDA-PBC et la méthode d’Hamiltonian Jacobi Bellman. La preuve de stabilité est donnée et l'efficacité de la stratégie proposée est démontrée. Plusieurs validations expérimentales valident ce travail
This thesis deals with the study of the reconfigurable energy management of an electric vehicle based on the online identification of embedded sources. In recent years, the energy management of a hybrid system for automotive applications has been the subject of a great number of research. In this study, the energy chain considered consists of a fuel cell as the main source, storage sources such as batteries and/or supercapacitors, converters for each source and finally a load emulating the power demand. Indeed, the problem in hybrid systems is to find a strategy for a better distribution of electrical power between the different embedded sources, which is the added value of this research work. As well as defining energy management laws by considering real-time measurements in order to increase the lifespan and reliability of sources on the one hand, and the availability of the electric vehicle on the other hand. In this thesis, the nonlinear control called IDA-PBC (Interconnection and Damping assignment-Passivity Based Control) is used with the PCH (Port Controlled Hamiltonian) structure which allows to present structural properties of the system namely total system energy, damping and state interconnections. The IDA-PBC method is a powerful nonlinear technique, it is considered as a general means to stabilize a large class of physical systems. In a second part of this work, an optimal energy management strategy is proposed for the hybrid system under study, which is the combination of IDA-PBC and Hamiltonian's Jacobi Bellman method. Proof of stability is provided and the effectiveness of the proposed strategy is demonstrated. Several experimental validations are presented
Styles APA, Harvard, Vancouver, ISO, etc.
12

Ouertani, Mohamed Zied. « DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception ». Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Texte intégral
Résumé :
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Kitio, Teussop Rosine. « Gestion de l'ouverture au sein d'organisations multi-agents : une approche basée sur des artefacts organisationnels ». Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00721828.

Texte intégral
Résumé :
Les systèmes multi-agents sont des systèmes dans lesquels des entités logiciellesappelées agents interagissent de façon autonome dans des environnements partagés. Ces dernièresannées, de nombreuses recherches sur les organisations multi-agents ont été menées etdivers modèles organisationnels ont été proposés. Cependant, ils n'offrent pas de solution pourune gestion effective de la problématique d'ouverture dans des organisations multi-agents normatives.Dans cette thèse, nous nous sommes intéressées à l'étude de cette problématique etdonc à la spécification des besoins relatifs à la mise en oeuvre de l'ouverture au sein d'organisationmulti-agent. Nous avons ainsi identifié trois propriétés caractéristiques de cette problématique: l'interopérabilité d'une organisation avec son environnement extérieur et interne, lagestion des entrées / sorties et la gestion du contrôle et de la régulation des agents. Pour répondreà ces propriétés, nous avons proposé un langage de modélisation d'organisation (OML)MOISE qui est une extension de Moise+. MOISE permet de spécifier de façon explicite lesprocessus d'entrée / sortie dans une organisation et notamment les exigences relatives auxmissions, buts, et rôles de l'organisation. Nous avons également proposé une infrastructure degestion d'organisation (OMI) ORA4MAS qui s'inspire du méta-modèle Agents et Artifacts(A&A). Nous avons défini le concept d'artefact organisationnel pour implémenter les fonctionnalitéscorrespondant aux spécifications du langage MOISE. Nos propositions ont été illustréesavec une spécification d'organisation de gestion de la construction d'un édifice. La miseen oeuvre des propriétés d'ouverture a été expérimentée avec la gestion des processus d'entrée/ sortie des agents, la négociation des clauses de contrat, la coordination des coopérations desagents à la réalisation des buts de construction d'un édifice, le contrôle des comportements desagents relativement aux normes de l'organisation ainsi que leur régulation.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Yassir-Montet, Djida. « Une Approche hybride de gestion des connaissances basée sur les ontologies : application aux incidents informatiques ». Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0110/these.pdf.

Texte intégral
Résumé :
Le travail développé dans cette thèse concerne la problématique de gestion des connaissances au sein des organisations. Le but est de proposer des aides méthodologiques et des outils facilitant la capitalisation et la réutilisation des connaissances produites et/ou utilisées par les acteurs d’une entreprise. Nous avons proposé une approche hybride basée sur une ontologie du domaine. La mise en œuvre de cette approche privilégie l’utilisation des techniques du web sémantique tels que XML et OWL. Dans ce contexte, nous avons conçu une mémoire d’entreprise pouvant s’interfacer avec le système d’information de l’entreprise. En nous plaçant dans le contexte d’applications logicielles produites et/ ou mises en production par le CIRTIL, organisme attaché à la sécurité sociale, pour le compte de ses clients qui sont les URSSAF, nous avons élaboré une ontologie du domaine des incidents informatiques. Cette ontologie est considérée comme un modèle qui permet, en plus des représentations formelles et consensuelles des connaissances du domaine, un accès unique aux ressources de connaissances via une terminologie partageable et non ambiguë tout en offrant des mécanismes de raisonnement sur les connaissances modélisées
The work developped in this thesis deals with the problem of knowledge management within the organizations. Its aim is to propose methodological assistances and tools fa-cilitating the capitalization and reuse of knowledge producted and/or used by the actors of a company. We have suggested a hybrid approach based on a domain ontology. Set-tling down this approach requires the use of the techniques of the semantic Web such as XML and OWL. In this context, we have designed a corporate memory being able to interface with the information system of the company. Looking focustly on the context of software applications produced and/or being in production by the CIRTIL, organiza-tion attached to the social security in France for the account of its customers which are the URSSAF, we have developed a domain ontology of tha data-processing incidents. This ontology is regarded as a model which allows not only formal and consensual rep-resentations of knowledge of the field, but also a single access to knowledge resources thanks a shareable and nonambiguous terminology while offering mechanisms of rason-ing on modelled knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
15

Wang, Liming. « Gestion hiérarchisée de systèmes de production discrets : une approche basée sur les réseaux de Petri ». Metz, 1995. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1995/Wang.Liming.SMZ9527.pdf.

Texte intégral
Résumé :
Dans ce travail, nous nous sommes intéressés à la gestion hiérarchisée de systèmes de production discrets. Nous utilisons les réseaux de petri pour la modélisation de ces systèmes. La gestion de la production aboutit à l'ordonnancement. Le problème d'ordonnancement est généralement np-difficile, ce qui interdit de le résoudre sur un horizon suffisant pour prendre en compte les fluctuations de la demande. Un moyen possible pour contourner cette difficulté est d'utiliser une approche hiérarchique et de faire évoluer le système en suivant le principe des plans glissants. Plusieurs efforts ont été faits dans le domaine de la gestion hiérarchisée de systèmes de production. Cependant, une approche systématique de la conception d'une hiérarchie reste à trouver. Il nous semble que les réseaux de petri, et plus particulièrement un type de réseaux de petri appelé réseaux de petri à sortie contrôlables (co nets en anglais, co signifie controllable-output) sont particulièrement efficaces pour nous accompagner dans cette démarche. Dans notre travail, nous avons d'abord présenté un exemple simple de hiérarchie à deux niveaux. Il permet d'illustrer les avantages et les inconvénients d'une approche hiérarchique. Nous avons passé ensuite à une étude approfondie des co nets, et nous avons montré que les réseaux co constituent un outil satisfaisant pour notre approche, laquelle est à la fois modulaire et hiérarchique. Nous avons développé une méthode de simplification des modules et montré comment intégrer les modules simplifiés pour conserver les propriétés qualitatives souhaitées. Enfin, nous avons établi une démarche descendante qui consiste à résoudre le modèle global simplifié sur un horizon suffisamment grand, puis à se servir de la solution obtenue comme contrainte à satisfaire par les modules détaillés du niveau bas sur un horizon réduit. Ce travail peut être considéré comme une tentative de rationalisation de la gestion hiérarchisée
In this dissertation, we are interested in the hierarchical management of discrete manufacturing systems. The study is based on Petri net theory. Manufacturing system management is a complicated task in practice, which necessitates the use of hierarchical approaches to deal with various degrees of complexity. A lot of effort has been done in the field of hierarchical management of manufacturing systems. However problems still remain particularly the issue of system integration. We have found that Petri net, especially CO (Controllable-Output) nets as proposed by researchers in INRIA-Lorraine, are a nice tool to handle the problem of system integration. In this work, a simple two-level system is first studied, which illustrates the advantages and disadvantages of hierarchical approach. Then, CO nets are formally defined and the properties of CO nets and the inegration of CO net modules are investigated. Such an investigation suggests that CO nets are a nice tool in the modular modelling and hierarchical management of discrete manufacturing systems. Modular modelling and hierarchical management is the point of view taken throughout the research work in the dissertation. In order to facilitate the study of hierarchical management, we have also proposed a new concept and developped an efficient method for simplifying Petri nets, especially CO net modules. Finally, a prototype package HMPS based on its predecessor MASP is developped as a result of the modular modelling and hierarchical management of discrete manufacturing systems
Styles APA, Harvard, Vancouver, ISO, etc.
16

Kitio, Teussop Rosine. « Gestion de l’ouverture au sein d’organisations multi-agents : une approche basée sur des artefacts organisationnels ». Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0630/document.

Texte intégral
Résumé :
Les systèmes multi-agents sont des systèmes dans lesquels des entités logiciellesappelées agents interagissent de façon autonome dans des environnements partagés. Ces dernièresannées, de nombreuses recherches sur les organisations multi-agents ont été menées etdivers modèles organisationnels ont été proposés. Cependant, ils n’offrent pas de solution pourune gestion effective de la problématique d’ouverture dans des organisations multi-agents normatives.Dans cette thèse, nous nous sommes intéressées à l’étude de cette problématique etdonc à la spécification des besoins relatifs à la mise en oeuvre de l’ouverture au sein d’organisationmulti-agent. Nous avons ainsi identifié trois propriétés caractéristiques de cette problématique: l’interopérabilité d’une organisation avec son environnement extérieur et interne, lagestion des entrées / sorties et la gestion du contrôle et de la régulation des agents. Pour répondreà ces propriétés, nous avons proposé un langage de modélisation d’organisation (OML)MOISE qui est une extension de Moise+. MOISE permet de spécifier de façon explicite lesprocessus d’entrée / sortie dans une organisation et notamment les exigences relatives auxmissions, buts, et rôles de l’organisation. Nous avons également proposé une infrastructure degestion d’organisation (OMI) ORA4MAS qui s’inspire du méta-modèle Agents et Artifacts(A&A). Nous avons défini le concept d’artefact organisationnel pour implémenter les fonctionnalitéscorrespondant aux spécifications du langage MOISE. Nos propositions ont été illustréesavec une spécification d’organisation de gestion de la construction d’un édifice. La miseen oeuvre des propriétés d’ouverture a été expérimentée avec la gestion des processus d’entrée/ sortie des agents, la négociation des clauses de contrat, la coordination des coopérations desagents à la réalisation des buts de construction d’un édifice, le contrôle des comportements desagents relativement aux normes de l’organisation ainsi que leur régulation
Multi-Agent Technology concerns the development of decentralized and open systemscomposed of different agents interacting in a shared environment. In recent years, organizationhas become an important in this research field. Many models have been, and are still,proposed. While no concensual model emerges of these different works, it appears that theyall lack the ability to build open and normative organizations in the sense of management ofentry / exit of agents into organization but also decentralized control / regulation of the autonomyof the agents. In this thesis, our objective consists in the definition of a new modeladdressing these requirements. Ours reseaches allow us to extend theMOISE+ organizationalmodeling language (OML) in a new version namming MOISE. In this one we define an Entry/ Exit specification allowing to explicitly specify the ways in which the agents can enter orexit in or from an organisation by providing some requirements according to the missions, thegoals and the roles of the organisation. The organizational management infrastructure (OMI)ORA4MAS proposed take advantage of the Agents and Artifacts (A&A) approach. We definedthe Organizational Artifacts concept as the basic building block of our OMI for themanagement of organized and open MAS. To focus our study, the organizational artifacts willbe defined considering the OML specification of the MOISE model. We experimented ourproposal with the specification of an application aiming to manage the build of a house. Wethen experimented the management of the candidate agents to enter in the organisation and cooperatewith the other to build the house according to a specified social scheme, the specifiednorms and their contract clauses negociated when they will be admitted in the organisation
Styles APA, Harvard, Vancouver, ISO, etc.
17

Villarreal, Lizarraga Carmen Leonor. « Contribution au pilotage des projets partagés par des PME en groupement basée sur la gestion des risques ». Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7334/1/villarreal.pdf.

Texte intégral
Résumé :
Notre travail s’intéresse aux réseaux (ou groupements) de PME. Un réseau est constitué de PME, généralement localisées dans une même région, qui décident de se regrouper de manière plus ou moins durable et de coopérer entre elles sur un projet fédérateur : partager une ressource rare, jouer l’effet de volume face aux grands donneurs d’ordre, répondre à une proposition d’affaire. Ces regroupements se font sans perte d’identité de chacun et chacune des entreprises conserve des activités propres en dehors du groupement. Notre étude porte plus spécifiquement sur les groupements constitués en vue de réaliser des productions spécifiques en réponse à des appels d’offre. Ces PME organisent leur travail commun comme un projet partagé : un ensemble d’activités et d’opérations qui doit être réalisé par le groupement dans un temps défini. Si la gestion de projet classique peut s’appliquer au projet partagé, par définition, l’incertitude est plus difficile à gérer dans de telles organisations. La gestion des risques devient nécessaire pour répondre aux besoins de réactivité. Cette réactivité doit être prise en compte dès la phase de planification du projet. C’est la raison pour laquelle l’intégration des risques à la gestion du projet partagé apparaît comme une facteur important pour définir le cadre de pilotage. De plus, même si les niveaux de pilotage du groupement présentent des similarités avec ceux d’une entreprise, la coordination collective des activités exige de réaliser quelques adaptations et des recommandations spécifiques. L’objectif de ce travail est de définir les principales caractéristiques d’un cadre de pilotage du projet partagé en se fondant sur la gestion des projets et la gestion des risques. De plus, on cherche aussi à satisfaire les besoins propres au pilotage du groupement. Le cadre proposé est basé sur une étude empirique réalisée dans un groupement de douze PME du secteur aéronautique situé à Toulouse, France. Cette étude repose sur l’analyse des documents du groupement et la réalisation d’entretiens auprès des acteurs impliqués dans les projets.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lochon, Iris. « Effets du chaulage sur le fontionnement de l'écosystème prairial en moyenne montagne ». Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC053/document.

Texte intégral
Résumé :
La mise en place d’une agriculture plus durable nécessite une compréhension de l’impact des pratiques de gestion sur le fonctionnement des agroécosystèmes et sur la fourniture de services écosystémiques. En représentant près de 68% des terres agricoles mondiales et contribuant à la subsistance de plus de 800 millions de personnes, les prairies sont l’un des agroécosystèmes où l’optimisation des pratiques agricoles apparaît comme cruciale. Ce travail de thèse porte sur le chaulage, une pratique agricole connue pour lutter contre les effets de l’acidification des sols – qu’elle soit naturelle ou induite par la gestion – mais dont l’efficacité est variable en prairie permanente. De fait, la littérature documentant l’impact du chaulage en prairie permanente est limitée et ne prend en compte que rarement la multifonctionnalité de ces agroécosystèmes. Par une approche intégrant différents types d’expérimentations, mon travail de thèse a cherché à répondre à ce besoin et à renforcer les connaissances du chaulage sur le fonctionnement de l’écosystème prairial. Le développement d’expérimentations au champ (in situ), en conditions semi-contrôlées (mésocosmes) et d’incubations de sol au laboratoire (microcosmes) a permis d’explorer les effets du chaulage sur les différents compartiments de l’écosystème prairial (végétation, microorganismes, sol) ainsi que l’influence de facteurs modulant ces effets. Dans l’ensemble des expérimentations, le chaulage a effectivement augmenté le pH des sols. Toutefois, cette amélioration du statut acido-basique du sol ne s’est pas toujours traduite par une augmentation de la productivité du fourrage ou des biomasses microbiennes et racinaires. Mes travaux ont montré que le chaulage contribue aux émissions de gaz à effet de serre par différentes voies (réémission du carbone apporté sous forme de chaulage et stimulation de la minéralisation) et peut potentiellement réduire les émissions de CO2 à l’échelle de la respiration de l’écosystème. Collectivement mes résultats soulignent l’importance du contexte pédoclimatique sur l’impact du chaulage en prairie permanente, et la difficulté d’extrapoler les effets du chaulage, en particulier sur la production de fourrage et les émissions de gaz à effet de serre, d’une échelle d’étude fine à l’échelle de la parcelle en prairie permanente. L’efficacité du chaulage semble dépendre du type d’amendement et de son dosage et peut également interagir avec d’autres pratiques de gestion telles que la fertilisation azotée et le niveau d’intensité de gestion
The development of sustainable agriculture requires greater understanding of the impact of management practices on agroecosystem functioning, and on the ecosystem services provided by these agroecosystems. Representing nearly 68% of world's agricultural surfaces and contributing to the livelihoods of more than 800 million people, grasslands are one of the major agroecosystems where optimized agricultural practices are of concern. This PhD focuses on liming, a well-known practice for counteracting soil acidification (due to ongoing natural processes or accelerated by management practices), but which has variable efficiency in permanent grasslands. Indeed, liming effects on grassland are poorly documented and existing studies rarely take into account grassland multifunctionality. My thesis uses an integrated approach to improve the knowledge of liming impacts on grassland functioning. Different types of experiments – in the field (in situ), in semi-controlled conditions (mesocosms) and laboratory soil incubations (microcosms) – were used to study liming effects on different grassland compartments (vegetation, microorganisms, soil) along with possible interacting factors. Liming effectively increased soil pH in all the experiments. However, improving pH status did not always lead to greater forage production or increases in microbial and root biomass. My results showed that liming can enhance greenhouse gas emissions through several pathways (reemission of lime-derived carbon or stimulation of carbon mineralization), but may also reduce CO2 emissions from ecosystem respiration. Collectively, my findings emphasize the importance of pedoclimatic conditions for liming impacts on permanent grasslands and highlight the difficulty of upscaling liming effects, particularly on forage production and greenhouse gas emissions. The efficiency of liming appears to depend on the type and dose of soil improvers and can also interact with other management practices such as nitrogen fertilization and management intensification
Styles APA, Harvard, Vancouver, ISO, etc.
19

Gousseva, Natalia. « Etude méthodologique sur la prise en compte des différences culturelles dans la gestion des projets internationaux basée sur une recherche entre la France et la Russie ». Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090003.

Texte intégral
Résumé :
Le développement de la coopération internationale et des compagnies transnationales, ainsi que la réalisation des projets internationaux demandent l'application d'un nouveau modèle de gestion. L'objectif de cette thèse est d'apporter un éclairage nouveau à la recherche en management des équipes multiculturelles. Dans la présente étude, nous avons vérifié l'hypothèse selon laquelle l'efficacité de la gestion des projets internationaux dépend de l'obtention d'avantages tirés des différences culturelles. La recherche réalisée montre l'impact de celles-ci sur la gestion des projets internationaux, elle-même inséparable d'une composante culturelle qui représente l'ensemble des facteurs conditionnés par la culture nationale. Ainsi, la direction d'une équipe de spécialistes, le travail d'une équipe multinationale de projet, la prise de décision, le règlement des conflits et la motivation des membres d'une équipe multiculturelle dépendent de l'influence de la culture nationale
Development of international cooperation, increasing number of transnational companies and growing interests for international projects realisation require an application of new mode of management. The objective of this thesis is to shed a new light on the research of multicultural team management. In the framework of this research we testified the thesis hypothesis according to which the efficiency of international project management depend on using advantages of cross-cultural differences. The results of the conducted research show the great influence of cross-cultural differences on the international project management, as well as demonstrate dependence of management process from cultural component, presented by different factors of national culture. It confirms that leadership, multicultural team building and cooperation, the process of decision making, conflict resolving and motivation depend on the influence of national culture
Styles APA, Harvard, Vancouver, ISO, etc.
20

Houé, Thierry. « L'influence des stratégies logistiques sur l'ancrage territorial des activités : contribution à une approche basée sur l'identification et l'interprétation de formes résiliaires dans un cadre géographique de proximité ». Nancy2, 2005. http://www.theses.fr/2005NAN22005.

Texte intégral
Résumé :
La logistique fait aujourd'hui partie intégrante de la réflexion stratégique des entreprises. Le terme logistique tend toutefois à s'effacer progressivement au profit de la notion de supply chain qui renforce une approche inter-organisationnelle de la coordination des flux. Le passage à une attitude plus coopérative au sein de la chaîne logistique témoigne de la dilution des frontières des entreprises et de l'émergence de réseaux logistiques aux diverses caractéristiques. Distinguer la nature et le fonctionnement de ces réseaux ainsi que leur impact sur l'ancrage et l'essor territorial des activités logistiques représente la question centrale qui guide ce travail doctoral. Afin de répondre à cette interrogation, la recherche tente une identification et une interprétation de multiples formes résiliaires dans un cadre géographique de proximité symbolisé par la Région Lorraine. Un rappel de la nature intégrative et coopérative de la logistique associé à une lecture des stratégies de localisation de ce type d'activité révèlent la pertinence de la notion de réseau pour caractériser les mutations organisationnelles subies par ces dernières. Des apports provenant des sciences de gestion et d'autres disciplines (économie et sociologie) permettent une articulation soutenant une explication théorique globale du réseau. L'introduction du concept de proximité vient compléter ce cadre intégrateur en incorporant les dimensions spatiale et temporelle absentes des précédentes contributions mais néanmoins indispensables à l'étude de structures résiliaires logistiques comme à l'interprétation de leur influence sur l'établissement et l'enracinement des firmes. Une analyse qualitative du discours de plusieurs catégories d'acteurs logistiques lorrains privés et publics vient consolider les propositions de cette recherche et aboutit à la mise en évidence d'une pluralité de réseaux logistiques fondés sur différentes combinaisons de logiques de proximité. La recherche conclut à l'influence variable de ces formes d'organisation sur l'implantation et l'ancrage des acteurs. Ce travail s'achève par quelques réflexions et recommandations susceptibles de servir une politique de développement régional des activités de nature logistique
Today logistics is an integral part of companies' strategic reflection. However the term "Logistics" tends to progressively vanish in favour of the notion of "Supply Chain" reinforcing an inter-organizational approach of the coordination of flows. A more cooperative attitude within the supply chain is evidence of the disappearance of the borders between companies and reveals the rise of logistical networks with the varied characteristics. This doctoral work is an attempt to distinguish the nature and functioning of the networks together with their impact on the territorial rise ans establishment of logistical activities. In order to answer this question, the research endeavours to identify and interpret the multiple networking forms in a local geographical frame symbolized by the Lorraine Region. A summary of the integrating and cooperative nature of logistics associated with an analysis of the localization strategies of this type of activity reveal the pertinence of the notion of network to characterize the organizational changes that these strategies have undergone. Contributions of Management Sciences and of other disciplines (economics and sociology) allow to uphold a general theoretical explanation of the network. The introduction of the concept of proximity completes this integrating frame by incorporating the space and time dimensions lacking from the preceding contributions and yet indispensable to the study of logistical networking structures and to the interpretation of their influence on the companies' setting-up and implanting. A qualitative analysis of several private and public logistical actors from the Lorraine Region reinforces the research proposals and gives prominence to a plurality of logistical networks based on different combinations of proximity methods. The research concludes that these types of organization have a varying influence on the establishment of the actors. Finally, this work provides a few ideas and recommendations that can serve a regional development policy of logistical activities
Styles APA, Harvard, Vancouver, ISO, etc.
21

Mebarki, Nasser. « Une approche d'ordonnancement temps réel basée sur la sélection dynamique de règles de priorité ». Lyon 1, 1995. http://www.theses.fr/1995LYO10043.

Texte intégral
Résumé :
La gestion des files d'attente par des regles de priorite constitue une des approches les plus simples et les plus utilisees pour ordonnancer dynamiquement les taches dans l'atelier. De tres nombreuses regles de priorite ont ete proposees et etudiees par de tres nombreux chercheurs. Malheureusement, un des problemes les plus importants concernant l'utilisation des regles de priorite est constitue par le fait qu'aucune regle n'apparait comme globalement meilleure que les autres. L'efficacite et la pertinence des regles de priorite depend etroitement des criteres de performance evalues et des conditions operatoires effectives dans l'atelier et surtout de l'etat de l'atelier. Pour remedier a ces inconvenients, nous proposons dans cette these une approche d'ordonnancement temps reel basee sur une selection dynamique des regles de priorite. Cette selection est realisee en fonction des conditions operatoires, des objectifs de production et de l'etat de l'atelier. Puisque l'etat de l'atelier change au cours du temps, nous proposons d'analyser l'etat du systeme chaque fois qu'une decision d'ordonnancement doit etre prise, afin de prendre en compte l'etat reel de l'atelier. Cette analyse de l'etat de l'atelier permet d'etablir un diagnostic de l'etat de l'atelier, qui indique les dysfonctionnements et les deviations du systeme par rapport aux objectifs a atteindre. Ce diagnostic est etabli a partir de sympomes predetermines (presence de goulots d'etranglement, trop de retard), qui peuvent etre purement locaux lorsqu'ils concernent un objet precis du systeme (un ordre de fabrication particulier, une ressource particuliere, une file d'attente) ou globaux lorsqu'ils font reference a une deviation globale des objectifs de l'atelier (trop de retard). Cette approche a ete implementee dans un logiciel de simulation orientee objet. Sur un modele d'atelier job-shop, les tests conduits ont montre que cette approche comparee a de nombreuses regles de priorite, donnait de meilleurs resultats sur certains criteres de performance, tels que le retard conditionnel. De plus, l'avantage de cette nouvelle approche est particulierement sensible lorsqu'il s'agit de combiner differents criteres de performance
Styles APA, Harvard, Vancouver, ISO, etc.
22

Benasser, Ahmer. « L'accessibilité dans les réseaux de Pétri : une approche basée sur la programmation par contraintes ». Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-65.pdf.

Texte intégral
Résumé :
Le problème de l'accessibilité est d'un grand intérêt théorique. En effet, plusieurs problèmes relatifs à l'analyse des réseaux de Pétri peuvent être formulés en terme d'accessibilité. L'exploration du graphe d'accessibilité n'est pas une méthode de résolution satisfaisante du fait de l'explosion combinatoire. La notion de marquage partiel, permet de réduire cet explosion combinatoire. Les marquages partiels sont des marquages dont les composantes contiennent des variables contraintes. Ainsi, un marquage partiel représente un ensemble de marquages obtenus en instanciant les variables tout en respectant la contrainte qui les lie. De la même facon, un step partiel est un step non-clos et dénote ainsi un ensemble de steps. Le tir d'un step partiel à partir d'un marquage partiel capture le tir de n'importe quel step à partir d'un marquage quelconque représente par le marquage partiel. Nous montrons que la recherche de l'accessibilité d'un marquage peut être réduit à une recherche d'un marquage donné dans une séquence de marquages partiels
La complexité de l'exploration du graphe d'accessibilité est alors repoussée au niveau de la résolution de contraintes : la propagation des contraintes nous interdit d'explorer les branches qui correspondent à des séquences de steps qui ne mènent pas au marquage final désiré. Pour résoudre les problèmes d'ordonnancement, il est nécessaire d'introduire l'aspect temporel. Nous définissons un modèle de réseau de Pétri temporisé et autonome. A chaque marquage, nous associons une date pour chacune des places. Cette date correspond à la date de création du dernier jeton dans cette place. Ainsi, le temps n'est pas contrôlée par une horloge externe. Ce sont les tirs des transitions qui font varier localement au niveau des places le temps. L'algorithme d'accessibilité peut alors être adapté pour ce type de réseau. Nous obtenons alors des séquences de tirs dates qui peuvent etre interprétés comme des ordonnancements réalisables
Styles APA, Harvard, Vancouver, ISO, etc.
23

Schacht, Rodriguez Ricardo. « Planification de la mission des drones basée sur le pronostic et la gestion de la santé ». Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0257.

Texte intégral
Résumé :
Actuellement, les véhicules aériens télépilotés ou autonomes (UAV) multirotors, avec la capacité de décollage et d'atterrissage vertical, se sont avérés être une solution efficace et peu coûteuse dans les applications de vol civil grâce aux progrès significatifs dans le développement de méthodes plus efficaces de contrôle, planification de trajectoire et prise de décision. Pour de telles applications, les multirotors développent différentes tâches comme l'exploration, la photogrammétrie, la vidéo, la cartographie et plus récemment toutes celles dédiées à l'agriculture de précision comme l'irrigation et le suivi des cultures. Durant sa mission, le multirotor parcourt un ensemble de trajectoires reliées par emph{n} points de référence (ou way-points) dans une zone connue ou inconnue. Cependant, pendant l'accomplissement de la mission, différents facteurs négatifs affectent la performance du véhicule comme les conditions environnementales, l'apparition de défauts ou de pannes et les limitations énergétiques dues aux contraintes de l'alimentation en énergie. Le problème de limitation énergétique dans un multirotor est dû aux capacités de puissance que la batterie embarquée peut fournir. Les drones multirotors sont propulsés par des batteries Lithium Polymère (Li-Po) qui sont des batteries rechargeables de technologie Lithium-Ion. Ils possèdent un électrolyte polymère au lieu d'un électrolyte liquide et fournissent une puissance et une densité d'énergie élevées. Cependant, en fonction de l'utilisation, c'est-à-dire le nombre de cycles de charge/décharge et d'autres facteurs tels que les dommages provoqués par des décharges excessives, les performances de la batterie ont tendance à diminuer. Une telle diminution ou un tel vieillissement entraîne une réduction de l'efficacité de la batterie et donc du vol du multirotor en diminuant le temps de mission total ou l'endurance du vol, et conduit à un problème de manœuvrabilité, ce qui augmente le risque d'accident et de crash. Le travail présenté dans cette thèse aborde les questions relatives aux performances des batteries Li-Po et leur influence sur les tâches de planification et de suivi de trajectoire dans le cadre de vol de multirotors. En considérant les techniques de pronostic basées sur des modèles et les méthodes de planification de trajectoire, une stratégie de planification de mission hiérarchique basée sur la consommation d'énergie est proposée et validée au niveau de la simulation en considérant différentes situations de vol. Les performances du drone, ainsi que sa capacité à effectuer et à remplir une mission, sont pondérées en déterminant l'état de santé de la batterie (SoH) qui est un indice permettant de mesurer le niveau de dégradation de la batterie. Le SoH aide à estimer la durée de vie utile restante de la batterie (RUL) et établit la limitation d'énergie par le calcul de l'endurance maximale de vol (FE_{max}). De telles informations sont nécessaires à la génération de la planification des trajectoires qui ne prennent pas seulement en compte les contraintes liées à l'utilisation mais aussi la portée et les limites de la mission à exécuter
Rotorcraft Unmanned Aerial Vehicles (UAV) with take-off and vertical landing capabilities or multirotors have proved to be an efficient and low-cost solution for civil flight applications due to significant advances in the development of robust and more efficient altitude and attitude control strategies, planning and re-planning algorithms capable of detecting and avoiding obstacles and Fault Diagnosis & Fault Tolerant Control methods. In most applications where multirotors are used, they develop different task as exploration, photogrammetry, filming, mapping and more recently all those dedicated to precision agriculture such as irrigation and crop monitoring. During the task development, the multirotor executes a mission which consists to fly through a set of paths connected by n reference points (named way-points) inside a known or unknown area. However, during the mission development, different negative factors decrease the multirotor flight performance such as environmental conditions, occurrence of faults or failures in actuators/sensors and energetic limitations due to the power source constraints. The energetic limitation problem in a multirotor are due to power capabilities that on-board battery can supply. Due to power and energy requirements, multirotors are powered by Lithium Polymer batteries which are rechargeable batteries of Lithium-Ion technology. They possess a polymer electrolyte instead of a liquid electrolyte and provide high power and energy densities. However, according to the use due to the number of charge/discharge cycles and other factors like damage provoked by over-discharges, the battery performances tend to decrease. Such decrease or aging causes a reduction in the efficiency of the UAV multirotor flight by the decrease of the total mission time or flight endurance, and leads to maneuverability problem, which increases the risk of crash and collision. This thesis topic addresses the issues concerning to battery performances and its influence into the mission and path planning tasks. By considering model-based prognosis techniques and path planning methods, a hierarchy mission planning strategy based on energy consumption is proposed and validated at simulation level considering different flight situations. The UAV performances, as well as its capability to execute and fulfill a mission is weighted by the computation of the battery State of Health (SoH) which is an index to measure the degradation level of the battery. The SoH helps to estimate the battery Remaining Useful Life (RUL) and establishes the energy limitation by the computation of the Maximum Flight Endurance (MFE). Such information is necessary to path planning generation which not only consider the constraints related to the power source but also the scopes and limitations of the mission to be executed. In addition, the main concern of this thesis are long time-distance missions e.g exploration or inspection of remote areas where it is fundamental to have a proper use of energy aboard the multirotor
Styles APA, Harvard, Vancouver, ISO, etc.
24

Abdeldjelil, Hanane. « Une approche adaptative basée sur la diversité pour la gestion des fautes dans les services Web ». Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10212/document.

Texte intégral
Résumé :
Les services Web tolérants aux fautes sont des composants avec une grande résilience aux défaillances qui résultent de différentes fautes imprévues, par exemple des bugs logiciels ou crash de machine. Comme il est impossible de prévoir l'apparition d'éventuelles fautes, de nombreuses stratégies consistent à dupliquer, d'une manière passive ou active, les composants critiques (eg. services Web) qui interagissent durant une exécution d'application distribuée (eg. composition). La capacité d'une application à continuer l exécution en présence de défaillances de composants référé a la Tolérance aux Fautes (TF). La duplication est la solution largement utilisée pour rendre les composants tolérants aux fautes. La TF peut être assurée à travers la réplication ou la diversité. Nous nous intéressons particulièrement dans cette thèse à la diversité, et nous montrons comment un ensemble de services Web sémantiquement équivalents qui fournissent la même fonctionnalité (eg. prévisions météo), mais qui l'implémentent différemment, collaborent pour rendre un service Web TF. Nous illustrons les limites de la réplication (présence de fautes répliquées), et proposons la diversité comme une solution alternative. En effet, la littérature a révélé un intérêt limité dans l'utilisation de la diversité pour rendre les services Web tolérants aux fautes
Fault Tolerant Web services are components with higher resilience to failures that result out of various unexpected faults for instance software bugs and machine crashes. Since it is impractical to predict the potential occurrence of a fault, a widely used strategy consists of duplicating, in a passive or active way, critical components (e.g., Web services) that interact during a distributed application execution (e.g., composition). The ability of this application to continue operation despite component failures is referred to as Fault Tolerance (FT). Duplication is usually put forward as a solution to make these components fault tolerant. It is achieved through either replication or diversity. In this thesis, we are particularly interested in diversity, and we show how semantically similar Web services, i.e., offer same functionality (e.g., Weather Forecast) but implement this functionality differently in terms of business logic and technical resources, collaborate together to make web services fault tolerant. We illustrate the limitations of replication (e.g., presence of replicated faults) and suggests diversity as an alternative solution. Our literature review revealed a limited interest in diversity for FT Web services
Styles APA, Harvard, Vancouver, ISO, etc.
25

Tocquer, Gérard. « Les sources d'avantages concurrentiels dans les services : une approche basée sur les compétences ». Nice, 1995. http://www.theses.fr/1995NICE0040.

Texte intégral
Résumé :
L'objectif de cette these est de valider l'approche des ressources levier de la strategie, dans les services. L'auteur valide un modele qui integre a la fois le processus d'emergence des copetences et les consequences d'etre competent. Le domaine d'application est le transport aerien international. Les resultats montrent que la qualite de service est plus importante que la productivite pour expliquer les performances des compagnies aeriennes
The objective of his research is to validate the ressources based theory in the services sector. The research model integrates the process by which competences emerge and the consequences to be conpetent. The investigation field is the airlines industry. The results show that service quality is more important how service productivity for explaining airlines profitability
Styles APA, Harvard, Vancouver, ISO, etc.
26

Jlassi, Aymen. « Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop ». Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4042.

Texte intégral
Résumé :
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution
"Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem
Styles APA, Harvard, Vancouver, ISO, etc.
27

Chamekh, Fatma. « L’évolution du web de données basée sur un système multi-agents ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3083/document.

Texte intégral
Résumé :
Cette thèse porte sur la modélisation d’un système d’aide à l’évolution du web de données en utilisant un système multi-agents. Plus particulièrement, elle a pour but de guider l’utilisateur dans sa démarche de modification d’une base de connaissances RDF. Elle aborde les problématiques suivantes : intégrer de nouveaux triplets résultant de l'annotation des documents, proposer le changement adéquat dans les deux niveaux, ontologie et données, en se basant sur des mesures de similarités, analyser les effets de changements sur la qualité des données et la gestion des versions en prenant en considération d'éventuels conflits. Cette question de recherche complexe engendre plusieurs problématiques dont les réponses sont dépendantes les unes des autres. Pour cela, nous nous sommes orientées vers le paradigme agent pour décomposer le problème. Il s’agit de répartir les tâches dans des agents. La coopération entre les agents permet de répondre au besoin de dépendance évoqué ci-dessus pour bénéficier de l’aspect dynamique et combler les inconvénients d’un système modulaire classique. Le choix d’un tel écosystème nous a permis de proposer une démarche d’évaluation de la qualité des données en employant un modèle d’argumentation. Il s’agit d’établir un consensus entre les agents pour prendre en considération les trois dimensions intrinsèques : la cohérence, la concision la complétude, la validation syntaxique et sémantique. Nous avons modélisé les métriques d’évaluation de chaque dimension sous forme d’arguments. L’acceptation ou pas d’un argument se décide via les préférences des agents.Chaque modification donne lieu à une nouvelle version de la base de connaissances RDF. Nous avons choisi de garder la dernière version de la base de connaissances. Pour cette raison, nous avons choisi de préserver les URI des ressources. Pour garder la trace des changements, nous annotons chaque ressource modifiée. Néanmoins, une base de connaissances peut être modifiée par plusieurs collaborateurs ce qui peut engendrer des conflits. Ils sont conjointement le résultat d’intégration de plusieurs données et le chevauchement des buts des agents. Pour gérer ces conflits, nous avons défini des règles. Nous avons appliqué notre travail de recherche au domaine de médecine générale
In this thesis, we investigate the evolution of RDF datasets from documents and LOD. We identify the following issues : the integration of new triples, the proposition of changes by taking into account the data quality and the management of differents versions.To handle with the complexity of the web of data evolution, we propose an agent based argumentation framework. We assume that the agent specifications could facilitate the process of RDF dataset evolution. The agent technology is one of the most useful solution to cope with a complex problem. The agents work as a team and are autonomous in the sense that they have the ability to decide themselves which goals they should adopt and how these goals should be acheived. The Agents use argumentation theory to reach a consensus about the best change alternative. Relatively to this goal, we propose an argumentation model based on the metric related to the intrinsic dimensions.To keep a record of all the occured modifications, we are focused on the ressource version. In the case of a collaborative environment, several conflicts could be generated. To manage those conflicts, we define rules.The exploited domain is general medecine
Styles APA, Harvard, Vancouver, ISO, etc.
28

Izza, Saïd. « Intégration des systèmes d'information industriels : une approche flexible basée sur les services sémantiques ». Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2006. http://tel.archives-ouvertes.fr/tel-00780240.

Texte intégral
Résumé :
Nos travaux proposent une approche flexible d'intégration des applications industrielles qui s'intitule ODSOI (Ontology-Driven Service-Oriented Integration). Elle se focalise principalement sur trois sous-problématiques complémentaires qui sont respectivement la problématique de construction d'une architecture de services, la problématique d'enrichissement sémantique des services, et la problématique de construction de l'architecture d'intégration permettant d'offrir des mécanismes d'intégration basés sur la sémantique. Notre approche repose sur trois principes majeurs qui sont l'ouverture, l'unification et l'urbanisation. Le principe d'ouverture impose de s'inscrire dans le cadre d'utilisation de standards industriels. Le principe d'unification permet d'uniformiser les composants du système d'information. Et en dernier lieu, le principe d'urbanisation permet de mieux structurer l'architecture des services, l'architecture sémantique et aussi l'architecture d'intégration. Nous basant sur les trois architectures de notre approche, nous proposons alors une implémentation d'un prototype ainsi que diverses expérimentations que nous avons réalisées sur le terrain.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Qu, Xiaozhi. « Localisation basée amers visuels : détection et mise à jour d’amers avec gestion des incertitudes ». Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1005/document.

Texte intégral
Résumé :
En utilisant des amers visuels géoréférencés. Le processus d’appariement de flux d’images avec ces amers est guidé par les incertitudes des poses. On ajoute des contraintes absolues dans le système d’équations de l’ajustement de faisceaux. La dérive de la trajectoire du véhicule de cartographie est très fortement réduite. Chaque étape de l’algorithme est évaluée sur des séquences d’images réelles avec une vérité terrain. Le véhicule de cartographie est le processus de collecte des données géo-spatiales. Ces véhicules sont souvent équipés de deux types de capteurs: télédétection (caméras, Lidar, Radar) et géolocalisation (GNSS, IMU, Odomètre). Le géoréférencement des données précis et robuste constitue un enjeu majeur pour la mise en œuvre des systèmes de cartographie mobile. En effet, en milieux urbains denses, les phénomènes de masquages GNSS et de trajets multiples pertubent les mesures de GNSS et conduisent à des erreurs de localisations importantes. Les centrales inertielles de grandes précisions permettent de combler les manques de localisation GNSS. Elles garantissent une dérive de position suffisamment faible pour obtenir la qualité de géoréférencement nécessaire pour la numérisation à des fins cartographiques. Aujourd’hui, la maturité des systèmes de géolocalisation hybride (GNSS/IMU/Odomètre) offre des solutions industrielles fiables pour la collecte de données géoréférencées. Les agences de cartographie nationales et privées ont commencées à faire des acquisitions de données nécessaires à la constitution de données géo-spatiales à très grande échelle. Cependant, le coût très onéreux des systèmes de géolocalisation intégrant des centrales inertielles de grandes précisions restreint leur utilisation à la constitution de données géoréferencées. Une solution plus abordable est nécessaire pour équiper les véhicules employés pour les mises à jour régulières de ces données.L’objectif de cette thèse est de proposer une solution abordable de géolocalisation utilisable sur un grand nombre de véhicules pouvant être mobilisés pour la mise à jour de données géoréferencées.Nous proposons d’utiliser une ou plusieurs caméras sur un véhicule comme un système de géoréférencement. En effet la trajectoire du véhicule peut être estimée par une technique d’odométrie visuelle. Pour limiter la dérive de la trajectoire due à l’accumulation des erreurs, nous proposons de le recaler sur un ensemble d’amers visuels précisément géoréférencés. Ces amers sont reconstruits en utilisant les données géoréferencées générées par des systèmes de cartographies précis et onéreux. Les caractéristiques de route telles que les signalisations horizontales et verticales ont été choisi en tant que amers visuels.Un algorithme d’ajustement de faisceaux local a été adapté pour estimer la pose des caméras en utilisant un flux d’images acquis par un ou plusieurs caméras embarquées sur celui-ci. Une méthode rigoureuse de prise en compte des incertitudes permet de pondérer de manière automatique les différents types de contraintes dans le système d’équations de l’ajustement et d’estimer les incertitudes des paramètres. Ces dernières sont utilisées dans une approche appelée appariement par propagation qui permet d’accélérer le processus de suivi des points d’intérêt entre les images et d’éliminer un grand nombre de faux appariements. Cela réduit très fortement la dérive du véhicule en diminuant les sources des erreurs. Chaque étape de l'algorithme est évaluée sur des séquences d'images réelles avec des vérités terrains
Mobile mapping is the process of collecting geospatial data with a moving vehicle. These vehicles are often equipped with two types of sensors: remote sensing (cameras, lidar, radar) and geo-localization (GNSS, IMU, odometer). Precise and robust georeferencing has been a major challenge for the implementation of mobile mapping systems. Indeed, in dense urban environments, the masks of signals and multipath errors corrupt the measurements and lead to big positioning errors. High precision IMUs enable to bridge the gaps of positioning and ensure a drift low enough to fulfil the requirements of mapping in terms of accuracy. Nowadays, the hybrid positioning systems (GNSS / IMU / Odometer) are mature enough to provide reliable industrial solutions for the collection of geo-referenced data. National and private mapping agencies have started to collect the required row data for building geospatial repositories at very large scales. However, the very high cost of positioning systems incorporating high precisions IMUs restricts their use to the establishment of geospatial reference data and more affordable positioning solutions are needed for map updating purpose.The objective of this thesis is to provide a low cost positioning solution that can be used on a large number of map updating vehicles.We propose to use one or more cameras on a vehicle as a georeferencing system. Indeed, the vehicle’s trajectory can be estimated using visual odometry techniques. To limit the drift of the trajectory due to the accumulation of errors, we propose a registration on a set of visual landmarks that are precisely georeferenced. These landmarks are reconstructed using the reference data generated by precise and expensive mapping systems. Natural road features such as road markings and traffic signs were chosen as visual landmarks.A local bundle adjustment algorithm has been adapted to estimate the pose of the vehicle using a sequence of images acquired by one or more embedded cameras. A rigorous approach that takes into account the uncertainties enables to tune automatically the weights of every constraint in the equation system of the adjustment and to estimate the uncertainties of the parameters. They are used in a propagation based matching algorithm that accelerates the process of tracking the interest points between the images and eliminate many false matches. This significantly reduces the drift of the visual odometry by reducing the sources of errors. The remaining part of the drift is removed using georeferenced visual landmarks. The process of matching the image sequence with the landmarks is guided by the uncertainty of the poses. It adds a set of absolute constraints in the equation system of bundle adjustment. The drift is drastically reduced. Each step of the algorithm is evaluated on real image sequences with ground truths
Styles APA, Harvard, Vancouver, ISO, etc.
30

Akgul, Yeter. « Gestion de la consommation basée sur l’adaptation dynamique de la tension, fréquence et body bias sur les systèmes sur puce en technologie FD-SOI ». Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20132/document.

Texte intégral
Résumé :
Au-delà du nœud technologique CMOS BULK 28nm, certaines limites ont été atteintes dans l'amélioration des performances en raison notamment d'une consommation énergétique devenant trop importante. C'est une des raisons pour lesquelles de nouvelles technologies ont été développées, notamment celles basées sur Silicium sur Isolant (SOI). Par ailleurs, la généralisation des architectures complexes de type multi-cœurs, accentue le problème de gestion de la consommation à grain-fin. Les technologies CMOS FD-SOI offrent de nouvelles opportunités pour la gestion de la consommation en permettant d'ajuster, outre les paramètres usuels que sont la tension d'alimentation et la fréquence d'horloge, la tension de body bias. C'est dans ce contexte que ce travail étudie les nouvelles possibilités offertes et explore des solutions innovantes de gestion dynamique de la tension d'alimentation, fréquence d'horloge et tension de body bias afin d'optimiser la consommation énergétique des systèmes sur puce. L'ensemble des paramètres tensions/fréquence permettent une multitude de points de fonctionnement, qui doivent satisfaire des contraintes de fonctionnalité et de performance. Ce travail s'intéresse donc dans un premier temps à une problématique de conception, en proposant une méthode d'optimisation du placement de ces points de fonctionnement. Une solution analytique permettant de maximiser le gain en consommation apporté par l'utilisation de plusieurs points de fonctionnement est proposée. La deuxième contribution importante de cette thèse concerne la gestion dynamique de la tension d'alimentation, de la fréquence et de la tension de body bias, permettant d'optimiser l'efficacité énergétique en se basant sur le concept de convexité. La validation expérimentale des méthodes proposées s'appuie sur des échantillons de circuits réels, et montre des gains en consommation moyens allant jusqu'à 35%
Beyond 28nm CMOS BULK technology node, some limits have been reached in terms of performance improvements. This is mainly due to the increasing power consumption. This is one of the reasons why new technologies have been developed, including those based on Silicon-On-Insulator (SOI). Moreover, the standardization of complex architectures such as multi-core architectures emphasizes the problem of power management at fine-grain. FD-SOI technologies offer new power management opportunities by adjusting, in addition to the usual parameters such as supply voltage and clock frequency, the body bias voltage. In this context, this work explores new opportunities and searches novel solutions for dynamically manage supply voltage, clock frequency and body bias voltage in order to optimize the power consumption of System on Chip.Adjusting supply voltage, frequency and body bias parameters allows multiple operating points, which must satisfy the constraints of functionality and performance. This work focuses initially at design time, proposing a method to optimize the placement of these operating points. An analytical solution to maximize power savings achieved through the use of several operating points is provided. The second important contribution of this work is a method based on convexity concept to dynamically manage the supply voltage, the frequency and the body bias voltage so as to optimize the energy efficiency. The experimental results based on real circuits show average power savings reaching 35%
Styles APA, Harvard, Vancouver, ISO, etc.
31

Dion, Yves. « Optimisation de la gestion en temps réel des réseaux urbains de drainage basée sur la qualité des eaux ». Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1096/1/Dion_Yves.pdf.

Texte intégral
Résumé :
La gestion en temps réel des réseaux d’assainissement est de plus en plus privilégiée pour diminuer l’ampleur des inondations et réduire les impacts sur le milieu naturel. Cette gestion dynamique vise à suivre, analyser et contrôler le fonctionnement de ces réseaux avec un faible décalage dans le temps, par des actions correctives ou préventives. En temps de pluie, ces actions consistent à télécommander des ouvrages de contrôle, dans le but de minimiser les rejets d’eaux usées, vers les cours d’eau récepteurs. Trois pré-requis sont essentiels à la réussite d’une gestion en temps réel des réseaux de drainage pour un réseau instrumenté. Le premier consiste à acquérir une connaissance juste du comportement hydraulique du réseau en ayant recours à cette fin à la modélisation. Puis, il faut procéder à la prévision quantitative et qualitative des flux pour enfin déterminer des consignes optimales de gestion. Les travaux exposés dans l'article 1 permettent de simuler le comportement hydraulique des réseaux de drainage, en utilisant deux approches de modélisation, en vue d’analyser leur performance respective. La première approche, globale, est basée sur la méthode rationnelle généralisée; où l’ensemble du réseau situé en amont du point de régulation ou du tronçon de conduit à évaluer est représenté par un seul noeud de drainage. Le modèle hydraulique global basé sur cette méthode utilise l’équation de Bernoulli généralisée appliquée à chaque conduit à évaluer. La deuxième approche, plus détaillée, est basée sur le couplage du modèle du réservoir non linéaire pour simuler le ruissellement à l’exutoire de chacun des sous-bassins de drainage avec les équations de Saint-Venant, pour laminer les hydrogrammes ainsi obtenus dans les différents conduits de drainage. L'étude de cas a permis de comparer les résultats obtenus par ces deux approches en les appliquant à des petits réseaux synthétiques et réels. Des résultats sensiblement équivalents ont été obtenus par l’utilisation des deux approches. La méthode rationnelle généralisée, possède cependant, l’avantage d’atteindre les objectifs poursuivis en nécessitant, comparativement à la méthode du réservoir non linéaire, beaucoup moins de données de terrains et d’efforts de modélisation. En conclusion de ce premier article, le constat est à l’effet que le modèle proposé permet de simuler adéquatement le comportement d’un réseau d’égout avec un niveau de précision acceptable en vue de son utilisation pour gérer en temps réel ce réseau et pour des besoins d'évaluation de son comportement hydraulique. Les travaux présentés dans l'article 2 se rapportent au développement de modèles de prévision en temps réel des flux et des charges à l’exutoire de bassins de drainage urbain. Ces modèles visent à générer des hydrogrammes et des pollutogrammes à l’aide d’approches globales utilisant un minimum de paramètres du bassin versant. Pour atteindre cet objectif, une procédure structurée basée sur le couplage de la méthode de l’hydrogramme rationnel amélioré (IRH) et du modèle de Muskingum généralisé est proposée. L’équation du modèle hydrologique IRH, permet de générer les flux quantitatifs et qualitatifs du ruissellement directement à partir des données pluviométriques en se basant sur un nombre minimal de paramètres intrinsèques au bassin de drainage. Le modèle de Muskingum, transformé en modèle autorégressif, permet de simuler la propagation dans le réseau de drainage et la transformation des hydrogrammes et pollutogrammes ainsi obtenus. Le système d'équations est résolu en utilisant le filtre de Kalman pour réajuster en temps réel les paramètres des modèles utilisés, en fonction des erreurs de prévision calculées à chaque pas de temps. Ce filtre assure également de surmonter le manque de reproductibilité qui peut arriver lors d'un événement de pluie et d'un événement de pluie à un autre. Il permet par ricochet de s’affranchir de la procédure d'étalonnage, traditionnellement requise en modélisation statique classique. L’utilisation combinée des modèles de Muskingum généralisé et du modèle de l’IRH modifié a permis d’améliorer sensiblement les performances comparativement à leur utilisation séparée. De plus, le filtre de Kalman permet de prendre en considération les modèles non stationnaires dont les paramètres varient dans le temps, et améliore par ce fait, la précision des prévisions. L'article 3 est spécifiquement axé sur l'établissement de points de consigne optimaux à des exutoires de réseaux d'égouts urbains pour la conduite en temps réel en se basant sur des paramètres de la qualité de l'eau, afin de permettre le contrôle de l’interception des eaux usées urbaines en temps de pluie. La tâche principale de ce travail était d'évaluer la performance de cette approche qualité. La méthodologie a été testée avec succès en utilisant un réseau d'interception simplifié générique et les mesures issues de la campagne 2010 de caractérisation de la qualité de l'eau des débordements d’eaux usées du programme de surveillance de la Ville d’Hamilton (Ontario). Ce travail avec un réseau d'interception simplifié générique a démontré que cette approche permet d’intercepter plus de polluants que le scénario statique et que celui consistant à procéder dynamiquement à la maximisation des débits. L'étude de cas a montré que, malgré le fait que l'intercepteur générique est une représentation simplifiée, les résultats montrent qu'une approche de gestion basée sur la qualité de l'eau pourrait être une approche appropriée pour lutter contre la pollution. Les deux scénarios dynamiques faisant appel d’une part à une méthode d’optimisation mathématique des charges de pollution et d’autre part à une méthode heuristique de maximisation des charges de pollution à base de règles, considérés dans cette étude ont offert un meilleur rendement que le scénario de maximisation du débit, ce qui a confirmé la validité de la proposition de cette étude qui consiste à axer la conduite en temps réel d’un réseau sur une approche basée sur la qualité. Bien que le gain en performance pour un scénario de maximisation de débit en comparaison avec un scénario statique témoin est de 53%, il atteint 83% pour le scénario de maximisation des charges à base de règles et 100% pour le scénario d'optimisation mathématique des charges en utilisant la méthode du simplex. Cette approche, telle que proposée dans cette étude, pourrait constituer un moyen efficace pour prioriser des sites de débordements moins vulnérables sur la base de paramètres de qualité de l'eau, afin de tirer parti au maximum de la capacité disponible dans le système de collecte, afin d’acheminer la composante la plus polluée à être traitée à l'usine de traitement. Par conséquent, cet outil, tout en utilisant très peu de données, pourrait être considéré comme étant un outil complémentaire adéquat pour être utilisé comme une extension d'une approche de maximisation de flux, dans un système plus large de contrôle de la pollution, pour la gestion des réseaux d'égouts urbains.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Tebbani, Badis. « Gestion des réseaux basée sur les contrats de niveaux de service-SLA- : application dans un environnement sans fil- ». Paris 6, 2009. http://www.theses.fr/2009PA066560.

Texte intégral
Résumé :
Dans cette thèse, nous proposons d’abord un langage de spécification pour représenter les contrats de niveau de services SLA. Ensuite, nous proposons un mapping adaptatif des politiques de niveau système en configurations des équipements réseaux et des outils de contrôle et de supervision afin de pouvoir s'adapter en cas de changements de l'environnement, et d'optimiser l'utilisation des ressources du réseau. Enfin, nous proposons une mise en pratique de l'ensemble des paradigmes de la gestion des réseaux basée sur les contrats de niveau de service et les objectifs de haut niveau, à travers un cas d'utilisation réel. Nous appliquons notre architecture de gestion de la QoS basée sur les sessions utilisateurs SQoSMA, qui intègre tous les éléments de la spécification des SLAs et des politiques, afin de garantir la qualité des services VoWLANs (Voice over WLANs). Afin d'évaluer les performances de notre solution, nous procédons à une implantation complète de notre architecture SQoSMA et les éléments qui la composent. L'évaluation des performances de notre architecture démontre non seulement la faisabilité de notre solution, mais également le gain qu'elle apporte.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ghemmogne, Fossi Leopold. « Gestion des règles basée sur l'indice de puissance pour la détection de fraude : Approches supervisées et semi-supervisées ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI079.

Texte intégral
Résumé :
Cette thèse traite de la détection de fraude par carte de crédit. Selon la Banque Centrale Européenne, la valeur des fraudes utilisant des cartes en 2016 s'élevait à 1,8 milliard d'euros. Le défis pour les institutions est de réduire ces fraudes. En règle générale, les systèmes de détection de la fraude sont consistués d'un système automatique construit à base de règles "si-alors" qui contrôlent toutes les transactions en entrée et déclenchent une alerte si la transaction est considérée suspecte. Un groupe expert vérifie l'alerte et décide si cette dernière est vrai ou pas. Les critères utilisés dans la sélection des règles maintenues opérationnelles sont principalement basés sur la performance individuelle des règles. Cette approche ignore en effet la non-additivité des règles. Nous proposons une nouvelle approche utilisant des indices de puissance. Cette approche attribue aux règles un score normalisé qui quantifie l'influence de la règle sur les performances globales du groupe de règles. Les indice utilisés sont le "Shapley Value" et le "Banzhaf Value". Leurs applications sont: 1) Aide à la décision de conserver ou supprimer une règle; 2) Sélection du nombre k de règles les mieux classées, afin de travailler avec un ensemble plus compact. En utilisant des données réelles de fraude par carte de crédit, nous montrons que: 1) Cette approche permet de mieux évaluer les performances du groupe plutot que de les évaluer isolément. 2) La performance de l'ensemble des règles peut être atteinte en conservant le dixième des règles. Nous observons que cette application peut être comsidérée comme une tâche de sélection de caractéristiques:ainsi nous montrons que notre approche est comparable aux algorithmes courants de sélection des caractéristiques. Il présente un avantage dans la gestion des règles, car attribue un score normalisé à chaque règle. Ce qui n'est pas le cas pour la plupart des algorithmes, qui se concentrent uniquement sur une solution d'ensemble. Nous proposons une nouvelle version du Banzhaf Value, à savoir le k-Banzhaf; qui surclasse la précedente en terme de temps de calcul et possède des performances comparables. Enfin, nous mettons en œuvre un processus d’auto-apprentissage afin de renforcer l’apprentissage dans un algorithme. Nous comparons ces derniers avec nos trois indices de puissance pour effectuer une classification sur les données de fraude par carte de crédit. En conclusion, nous observons que la sélection de caractéristiques basée sur les indices de puissance a des résultats comparables avec les autres algorithmes dans le processus d'auto-apprentissage
This thesis deals with the detection of credit card fraud. According to the European Central Bank, the value of frauds using cards in 2016 amounted to 1.8 billion euros. The challenge for institutions is to reduce these frauds. In general, fraud detection systems consist of an automatic system built with "if-then" rules that control all incoming transactions and trigger an alert if the transaction is considered suspicious. An expert group checks the alert and decides whether it is true or not. The criteria used in the selection of the rules that are kept operational are mainly based on the individual performance of the rules. This approach ignores the non-additivity of the rules. We propose a new approach using power indices. This approach assigns to the rules a normalized score that quantifies the influence of the rule on the overall performance of the group. The indexes we use are the Shapley Value and Banzhaf Value. Their applications are 1) Decision support to keep or delete a rule; 2) Selection of the number k of best-ranked rules, in order to work with a more compact set. Using real credit card fraud data, we show that: 1) This approach performs better than the one that evaluates the rules in isolation. 2) The performance of the set of rules can be achieved by keeping one-tenth of the rules. We observe that this application can be considered as a task of selection of characteristics: We show that our approach is comparable to the current algorithms of the selection of characteristics. It has an advantage in rule management because it assigns a standard score to each rule. This is not the case for most algorithms, which focus only on an overall solution. We propose a new version of Banzhaf Value, namely k-Banzhaf; which outperforms the previous in terms of computing time and has comparable performance. Finally, we implement a self-learning process to reinforce the learning in an automatic learning algorithm. We compare these with our power indices to rank credit card fraud data. In conclusion, we observe that the selection of characteristics based on the power indices has comparable results with the other algorithms in the self-learning process
Styles APA, Harvard, Vancouver, ISO, etc.
34

Kanso, Marwa. « Contribution à la construction des configurations des systèmes manufacturiers : une approche basée sur la décision multi-critère ». Lorient, 2010. http://www.theses.fr/2010LORIS212.

Texte intégral
Résumé :
Les systèmes manufacturiers reconfigurables sont conçus pour assurer une réaction rapide qui permet d’ajuster les capacités de production et les fonctionnalités du système selon les changements du marché et/ou des perturbations soudain en cours de production. Cette réaction est fortement associée au caractère reconfigurable d’un tel système. Le défi présent est d’optimiser la reconfiguration pour assurer la continuité de la production en mettant en place des méthodologies de construction de configurations adaptées aux besoins et également aux caractéristiques du système. Un ensemble de critères est introduit pour assurer la prise en compte de métriques permettant de construire la configuration adaptée qui réponde au mieux aux exigences du système. La méthode ’aide à la décision multi-critère AHP est celle que nous avons proposée pour assurer les décisions qui répondent au compromis coût/performance. Une approche basée sur la décision multi-critère est donc proposée dans ce travail pour permettre la construction de configurations dans les systèmes manufacturiers. Une phase d’extension de la description du système est ainsi introduite pour prendre en compte les paramètres nécessaires aux calculs des critères. Le niveau de flexibilité des configurations construites garantit une continuité provisoire de la production ce qui permet d’éviter le processus de reconfiguration au mieux. Un outil de génération de configuration est développé et les diverses propositions ainsi que le fonctionnement de notre outil ont été validés sur deux applications expérimentales différentes
Reconfigurable manufacturing systems are designed to ensure a fast response to help adjust production capacity and system functionality according to market changes and/or sudden disruptions during production. This response is strongly associated to the reconfigurable character of such a system. The challenge today lies in the optimization of the reconfiguration so as to ensure production continuity by developing configuration construction methodologies to suit not only the needs of the system, but its characteristics as well. A set of criteria is used so that the defined metrics are taken into account in order to build the configuration that best meets the system requirements. The multi-criteria decision making method AHP is the one we have propped to make decisions which would ensure cost/performance trade off. An approach based on multi-criteria decision is proposed in this work to construct configurations in manufacturing systems. An extension phase of the system description is thus introduced to take into account the required parameters for criteria calculations. The flexibility level of the built configurations ensures provisional continuity of the production which avoids the reconfiguration process at best. A configuration generator tool has been developed and the various proposals, as well as the operation of our tool have been validated on two different experimental applications
Styles APA, Harvard, Vancouver, ISO, etc.
35

Tawbi, Chawki. « Adactif : extension d'un SGBD à l'activité par une approche procédurale basée sur les rendez-vous ». Toulouse 3, 1996. http://www.theses.fr/1996TOU30262.

Texte intégral
Résumé :
L'activite dans les sgbd est mise en uvre grace aux regles evenement-condition-action (eca) qui servent a specifier le comportement actif du systeme et sa reaction vis a vis des situations rencontrees dans la bd et dans son environnement. L'evenement specifie le moment du declenchement de la regle, la condition verifie si l'etat de la bd necessite l'execution de l'action qui a son tour execute des operations en reponse a l'evenement. Ces operations peuvent servir a annuler la cause de l'evenement ou a executer ses consequences. Dans les travaux effectues durant la these, nous nous sommes interesses a un langage dote de mecanismes temps-reel afin de s'en inspirer pour etendre un sgbd passif a l'activite. Nous nous sommes inspires des taches ada et de leur mecanisme de synchronisation (les rendez-vous) pour implanter les regles dans notre sgbd actif baptise adactif. Les regles dans adactif sont considerees comme des taches actives attendant un rendez-vous du systeme en l'occurence de l'evenement declenchant. Chaque tache a en charge la verification d'une condition et, si elle est satisfaite, l'execution de l'action associee decrite de facon procedurale. Les taches dans adactif ont ete realisees a l'aide des processus unix et evoluent en parallele. La synchronisation dans le systeme, quant a elle, est mise en uvre a l'aide des pipe-line unix. D'autre part, comme les evenements composes (formes d'une combinaison d'evenements) jouent un role important dans les sgbd actifs, nous proposons un mecanisme de detection de ce type d'evenements base lui aussi sur le principe de tache et de rendez-vous. Ainsi, un evenement compose est detecte par une regle en attente de rendez-vous avec les evenements composants. Lorsque ces derniers sont au rendez-vous, et apres que la composition ait ete realisee, cette regle signale l'evenement compose au systeme. Cette approche permettra a l'utilisateur de specifier ses propres operateurs de composition conformement a la semantique de son application
Styles APA, Harvard, Vancouver, ISO, etc.
36

Chazara, Philippe. « Outils d'élaboration de stratégie de recyclage basée sur la gestion des connaissances : application au domaine du génie des procédés ». Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0141/document.

Texte intégral
Résumé :
Dans ce travail, une étude est réalisée sur le développement d'une méthodologie permettant la génération et l'évaluation de nouvelles trajectoires de valorisation pour des déchets. Ainsi, pour répondre à cette problématique, trois sous problèmes ont été identifiés. Le premier concerne un cadre de modélisation permettant la représentation structurée et homogène de chaque trajectoire, ainsi que les indicateurs choisis pour l'évaluation de ces dernières, permettant une sélection ultérieure. Le deuxième se concentre sur le développement d'une méthodologie puis la réalisation d'un outil permettant la génération de nouvelles trajectoires en s'appuyant sur d'autres connues. Enfin, le dernier sous problème concerne le développement d'un second outil développé pour modéliser et estimer les trajectoires générées. La partie de création d'un cadre de modélisation cherche à concevoir des structures globales qui permettent la catégorisation des opérations unitaires sous plusieurs niveaux. Trois niveaux de décomposition ont été identifiés. La Configuration générique de plus haut niveau, qui décrit la trajectoire sous de grandes étapes de modélisation. Le second niveau, Traitement générique propose des ensembles de structures génériques de traitement qui apparaissent régulièrement dans les trajectoires de valorisation. Enfin, le plus bas niveau se focalise sur la modélisation des opérations unitaires. Un second cadre a été créé, plus conceptuel et comportant deux éléments : les blocs et les systèmes. Ces cadres sont ensuite accompagnés par un ensemble d'indicateurs choisis à cet effet. Dans une volonté d'approche de développement durable, un indicateur est sélectionné pour chacune de des composantes : économique, environnemental et social. Dans notre étude, l'impact social se limite à l'estimation du nombre d'emplois créés. Afin de calculer cet indicateur, une nouvelle approche se basant sur les résultats économiques d'une entreprise a été proposée et validée.L'outil de génération de nouvelles trajectoires s'appuie sur l'utilisation de la connaissance en utilisant un système de raisonnement à partir de cas (RàPC). Pour être adapté à notre problématique, la mise en œuvre de ce dernier a impliqué la levée de plusieurs points délicats. Tout d'abord, la structuration des données et plus largement la génération de cas sources sont réalisées par un système basé sur des réseaux sémantiques et l'utilisation de mécanismes d'inférences. Le développement d'une nouvelle méthode de mesure de similarité est réalisé en introduisant la notion de définition commune qui permet de lier les états, qui sont des descriptions de situations, à des états représentant des définitions générales d'un ensemble d'états. Ces définitions communes permettent la création d'ensembles d'états sous différents niveaux d'abstraction et de conceptualisation. Enfin, un processus de décompositions des trajectoires est réalisé afin de résoudre un problème grâce à la résolution de ses sous-problèmes associés. Cette décomposition facilite l'adaptation des trajectoires et l'estimation des résultats des transformations. Basé sur cette méthode, un outil a été développé en programmation logique, sous Prolog. La modélisation et l'évaluation des voies de valorisation se fait grâce à la création d'outil spécifique. Cet outil utilise la méta-programmation permettant la réalisation dynamique de modèle de structure. Le comportement de ces structures est régi par la définition de contraintes sur les différents flux circulants dans l'ensemble de la trajectoire. Lors de la modélisation de la trajectoire, ces contraintes sont converties par un parser permettant la réalisation d'un modèle de programmation par contraintes cohérent. Ce dernier peut ensuite être résolu grâce à des solveurs via une interface développée et intégrée au système. De même, plusieurs greffons ont été réalisés pour analyser et évaluer les trajectoires à l'aide des critères retenus
In this work, a study is realised about the creation of a new methodology allowing the generation and the assessment of new waste recovery processes. Three elements are proposed for that. The first one is the creation of a modelling framework permitting a structured and homogeneous representation of each recovery process and the criteria used to asses them. The second one is a system and a tool generating new recovery processes from others known. Finally, the last element is another tool to model, to estimate and to asses the generated processes. The creation of a modelling framework tries to create some categories of elements allowing the structuring of unit operations under different levels of description. Three levels have been identified. In the higher level, the Generic operation which describes global structure of operations. The second one is Generic treatment which is an intermediate level between the two others. It proposes here too categories of operations but more detailed than the higher level. The last one is the Unit operation. A second framework has been created. It is more conceptual and it has two components : blocs and systems. These frameworks are used with a set of selected indicators. In a desire of integrating our work in a sustainable development approach, an indicator has been chosen for each of its components: economical, environmental and social. In our study, the social impact is limited to the number of created jobs. To estimate this indicator, we proposed a new method based on economical values of a company. The tool for the generation of new waste recovery processes used the methodology of case-based reasoning CBR which is based on the knowledge management. Some difficult points are treated here to adapt the CBR to our problem. The structuring of knowledge and generally the source case generation is realised by a system based on connections between data and the use of inference mechanisms. The development of a new method for the similarity measure is designed with the introduction of common definition concept which allows linking states, simply put description of objects, to other states under different levels of conceptualizations and abstractions. This point permits creating many levels of description. Finally, recovery process is decomposed from a main problem to some sub-problems. This decomposition is a part of the adaptation mechanism of the selected source case. The realisation of this system is under logic programming with Prolog. This last one permits the use of rules allowing inferences and the backtracking system allowing the exploration to the different possible solution. The modelling and assessment of recovery processes are done by a tool programmed in Python. It uses the meta-programming to dynamically create model of operations or systems. Constraint rules define the behaviour of these models allowing controlling the flux circulating in each one. In the evaluation step, a parser is used to convert theses rules into a homogeneous system of constraint programming. This system can be solved by the use of solvers with an interface developed for that and added to the tool. Therefore, it is possible for the user to add solvers but also to add plug-ins. This plug-ins can make the assessment of the activity allowing to have different kinds of evaluation for the same criteria. Three plug-ins are developed, one for each selected criterion. These two methods are tested to permit the evaluation of the proposed model and to check the behaviour of them and their limits . For these tests, a case-base on waste has been created Finally, for the modelling and assessment tool, a study case about the recovery process of used tyres in new raw material is done
Styles APA, Harvard, Vancouver, ISO, etc.
37

Diego, Maza William David. « Contrôle de trafic et gestion de la qualité de service basée sur les mécanismes IP pour les réseaux LTE ». Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0406/document.

Texte intégral
Résumé :
Depuis quelques années le trafic de l'internet mobile ne cesse d'augmenter. Cette croissance soutenue est liée à plusieurs facteurs, parmi lesquels l'évolution des terminaux, la grande diversité des services et des applications disponibles et le déploiement des nouvelles technologies d'accès radio mobile (3G/4G). À cet égard, le standard 3GPP pour les réseaux LTE propose une architecture offrant une gestion fine de la QoS (par flux). Ce modèle, hérité des réseaux mobiles traditionnels orientés connexion, soulève des problèmes en termes de scalabilité, efficacité et performances. Les travaux entrepris dans cette thèse ont pour objectif principal de proposer des solutions plus simples et moins coûteuses pour la gestion de la QoS dans les réseaux mobiles. À cette fin, à l'issue d'une étude et de l'évaluation de l'impact de la signalisation associée au modèle de QoS standard, deux modèles alternatifs ont été proposés. Nous proposons tout d'abord un modèle basée sur les mécanismes IP inspiré de l'approche DiffServ (par agrégat) largement étudié dans les réseaux IP fixes. Ce modèle fournit une gestion de la QoS simple, efficiente et rentable, tout en garantissant des performances équivalentes au modèle standard. Cependant, elle nécessite une remise à niveau de tous les eNB, et donc une longue phase de transition. En conséquence, nous proposons SloMo qui vise à améliorer l'expérience des clients mobiles, mais avec un objectif de déploiement plus rapide. SloMo est une solution de gestion implicite de la QoS depuis un point unique situé sur le chemin des communications. SloMo exploite la dynamique instaurée par le mécanisme de contrôle de flux de TCP. Il vise à recréer un goulot d'étranglement dynamique dans un équipement contrôlé par l'opérateur lorsque les points de congestion réels ne sont pas accessibles. Une fois ce goulot d'étranglement déporté, il est alors aisé d'effectuer une gestion de la qualité IP classique dans l'équipement supportant Slo-Mo
The mobile data landscape is changing rapidly and mobile operators are today facing the daunting challenge of providing cheap and valuable services to ever more demanding customers. As a consequence, cost reduction is actively sought by operators as well as Quality of Service (QoS) preservation. Current 3GPP standards for LTE/EPC networks offer a fine tuning QoS (per-flow level), which inherits many characteristics of legacy telco networks. In spite of its good performance, such a QoS model reveals costly and cumbersome and finally, it remains very rarely deployed, thereby giving way to basic best-effort hegemony. This thesis aims at improving QoS in mobile networks through cost-effective solutions; To this end, after an evaluation of the impact and cost of signaling associated with the standard QoS model, alternative schemes are proposed, such as the IP-centric QoS model (per aggregate) inspired from the DiffServ approach widely used in fixed IP networks. This model provides a simple, efficient and cost-effective IP level QoS management with a performance level similar to standardized solutions. However, as it requires enhancements in the eNB, this scheme cannot be expected in mobile networks before a rather long time.Thus, we introduce Slo-Mo, which is a lightweight implicit mechanism for managing QoS from a distant point when the congestion point (e.g. eNB) is not able to do it. Slo-Mo creates a self-adaptive bottleneck which adjusts dynamically to the available resources taking advantage of TCP native flow control. Straightforward QoS management at IP level is then performed in the Slo-Mo node, leading to enhanced customer experience at a marginal cost and short term
Styles APA, Harvard, Vancouver, ISO, etc.
38

Nguyen, Huy-Hoang. « Coordination des avions pour la résolution de conflits : Une approche basée sur le graphe PERT disjonctif ». Compiègne, 2004. http://www.theses.fr/2004COMP1493.

Texte intégral
Résumé :
La forte croissance du trafic aérien, notamment dans l'espace européen, occasionne des situations de conflit plus complexes qui font augmenter la charge de travail des contrôleurs. Afin de trouver une solution globale pour un cluster comprenant plusieurs avions avec un grand nombre de conflits, on doit résoudre le problème de la coordination d'actions entre des avions pour la résolution des conflits. Ce problème est un problème combinatoire NP-difficile, si l'objectif est la minimisation du coût global. On ne connaît pas de méthode exacte donnant une solution globale à ce problème dans les situations où le trafic est dense. Dans cette thèse, nous élaborons une approche basée sur la théorie de l'ordonnancement et plus précisément sur les modèles disjonctifs: chaque cluster de n avions en conflit est modélisé par un graphe PERT disjonctif, chaque paire d'arcs disjonctifs représente un conflit entre deux avions impliqués dans le cluster. Il faut résoudre un problème classique d'ordonnancement avec des contraintes conjonctives et disjonctives dont l'objectif est la minimisation de la somme des retards. Le graphe PERT solution montre le séquencement des actions (manœuvres), que les avions impliqués dans le cluster devront effectuer pour la résolution des conflits. Cette nouvelle approche a été intégrée dans la plateforme de simulation eDEP. Elle a été expérimentée avec un cluster de 20 avions avec 37 conflits effectifs, et un cluster de 15 avions avec 49 conflits effectifs en des temps de calcul acceptables. Les résultats numériques obtenus montrent l'efficacité de l'approche basée sur l'ordonnancement disjonctif, que n'inclut pas la résolution de conflit.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Kexel, Christoph. « La production et la gestion des connaissances dans le marketing des moteurs de recherche : une approche basée sur l'apprentissage par l'action ». Nice, 2012. http://www.theses.fr/2012NICE0034.

Texte intégral
Résumé :
Depuis la fin des années 1980 le développement d’Internet a permis aux consommateurs de choisir parmi un très large éventail de produits et de fournisseurs et d’acheter de manière plus efficiente et flexible (Chaffey et al, 2006). Dans le marketing en ligne le consommateur potentiel ouvre un canal de communication vers le marketeur en cherchant de l’information sur les moteurs de recherche (Chaffey et al, 2006; Bogner, 2006), donc « être trouvé » représente le facteur crucial de succès pour les organisations contemporaines. Aujourd’hui, les entreprises modernes sont étonnamment réticentes à apprécier l’importance critique du marketing en ligne (Schubring, 2008). Cette dissertation a pour intention de créer une méthodologie pour améliorer les connaissances sur et les capacités de marketing en ligne des marketeurs. Tout d’abord, la thèse développe un model basé sur l’apprentissage par l’action pour transmettre les concepts de base nécessaires aux professionnels du marketing. Cette méthodologie est ensuite appliquée et évaluée dans un environnement contrôlé d’enseignement supérieur en transmettant l’expertise à un groupe de contrôle par la méthode traditionnelle. L’analyse de l’efficacité des différentes méthodes de transfert des connaissances est fournie pour identifier l’approche optimale d’apprentissage. Les données ainsi collectées sur l’amélioration possible des connaissances démontrent que le cadre développé dans la thèse produit des résultats optimaux dans toutes les sous-catégories du marketing par Internet. La thèse conclut que la méthodologie est capable de transmettre le savoir faire indispensable pour que les marketeurs puissent maitriser et utiliser le Web malgré ses extravagances. Ces résultats sont une avancée dans la pratique de la gestion en offrant une possibilité de formation efficace sur le lieu de travail pour la fonction organisationnelle du marketing en ligne. Dans un contexte plus général, ceci pourrait faciliter les modèles de formation corporative
Since the late 1980s the development of the Internet has empowered customers to choose from an extensive range of products and suppliers and to make purchases more efficient and flexible (Chaffey et al, 2006). In online marketing the potential customer opens a communication channel to the marketer by seeking information with search engines ((Chaffey et al, 2006), (Bogner, 2006)), so that ‘being found’ represents the crucial success factor for today’s organizations. However, modern firms are surprisingly sluggish in appreciating the critical importance of online marketing (Schubring, 2008). This dissertation aims to design a methodology for improvement of marketers’ knowledge and online marketing skills. The dissertation initially develops an action learning based model for conveying the basic concepts necessary for marketing practitioners. This methodology is then applied and evaluated in a controlled higher education environment by also conveying the expertise to a control group in a traditional form. An analysis of the efficacy of the different knowledge-transfer methods is provided in order to identify the optimal learning approach. The data collected on assumed knowledge improvements illustrate that optimal results have indeed been obtained in all subcategories of Internet marketing by the proposed framework. The dissertation concludes that the methodology is indeed able to instill the compulsory know-how in order that practitioners may cope with and make use of the World Wide Web – despite its vagaries. The findings advance business practice by providing a possibility of effective on-the-job training for the key organizational function of online marketing. This may facilitate corporate learning models in a more general context
Styles APA, Harvard, Vancouver, ISO, etc.
40

Haddad, Ramzi. « Coordination des conflits aériens en présence d’incertitudes : Une étude basée sur l'ordonnancement à contraintes de ressources ». Compiègne, 2006. http://www.theses.fr/2006COMP1634.

Texte intégral
Résumé :
Le volume du trafic aérien a augmenté de 80% en dix ans, une croissance qui est appelée à se poursuivre. Les systèmes actuels de gestion du trafic aérien (Air Traffic Control systems), avec les améliorations en cours, devraient permettre de faire face à cette augmentation jusqu'au milieu de la prochaine décennie. En réponse a cette nécessité, ce travail de thèse, qui se situe à la jonction de deux domaines : l'ordonnancement de projet à contraintes de ressources et la coordination du trafic aérien. Nous avons mis en place un système dynamique permettant de résoudre les problèmes de gestion du trafic sous incertitudes en intégrant diverses techniques adaptées aux aléas existant dans ce contexte. Notre domaine d'application privilégié était la coordination (En-Route) du trafic aérien. Ce type de projet présente des caractéristiques relevant aussi bien de l'ordonnancement que de la planification sous incertitudes
The volume of the air traffic increased 80% in ten years, a growth that is called to continue. The improvements of the present systems of air-traffic management should permit to face this increase until the middle of the next decade. Ln response to this necessity, this thesis work is located between the junctions of two domains: project resources constraints scheduling and the air-traffic coordination. We constructed a dynamic system that permits to resolve air traffic management problems under uncertainties while integrating various techniques adapted to the hazards existing in the context. Our privileged application domain was the coordination (En-Route) of the aerial traffic. This type of project presents features raising form scheduling and organization under uncertainties domains
Styles APA, Harvard, Vancouver, ISO, etc.
41

Mollo, Vanina. « Usage des ressources, adaptation des savoirs et gestion de l'autonomie dans la décision thérapeutique ». Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0601.

Texte intégral
Résumé :
Les décisions thérapeutiques en cancérologie ne sont plus le fruit de la médecine fondée sur l'expertise locale mais de la médecine fondée sur les preuves, qui vise à une gestion des soins de meilleure qualité. Les médecins disposent d'un référentiel thérapeutique (ensemble de règles) sur lequel ils doivent s'appuyer pour prendre des décisions de traitements. Lorsqu'ils sont confrontés à des situations inhabituelles (qui ne peuvent être traitées par application stricto sensu du référentiel), ils disposent d'un comité de concertation pluridisciplinaire (CCP). L'autonomie des médecins apparaît alors réduite par l'existence de ces outils. L'objectif de cette étude est de comprendre comment les médecins adaptent les règles protocolaires pour résoudre ces situations inhabituelles, comment l'autonomie se développe à partir des ressources existantes, et le rôle de ces dernières dans la construction et le développement des connaissances. Pour ce faire, une méthodologie d'extraction des connaissances d'aptation a été mise en oeuvre : dans un premier temps, 19 médecins ont raisonné à voix haute sur des problèmes hors référentiel; dans un second temps, 13 des 19 médecins ont été confrontés aux solutions de leurs confrères afin qu'ils les commentent (allo-confrontations individuelles). Quatre résultats principaux ont pu être mis en évidence. Même en situation inhabituelle, le référentiel sert de base au raisonnement des médecins ; les outils développés pour normaliser les pratiques médicales constituent moins des contraintes que des ressources que les médecins utilisent à leur manière, en fonction de leurs besoins Le CCP permet la construction d'un référentiel local pour les situations inhabituelles, et ce faisant, il participe au développement de l'espace d'autonomie des médecins Au-delà des ressources internes à l'organisation, la décision thérapeutique intègre les demandes éventuelles des patients, qui vont influencer l'attitude adoptée par les médecins dans la relation. Ces résultats amènent à s'interroger sur l'intégration de l'expertise locale dans l'évolution des règles, et plus particulièrement sur les outils ergonomiques susceptibles d'assister la construction et le développement des connaissances. De plus, ils fournissent des bases de réflexion relative à la participation des patients au processus de décision, qui constitue une problématique de plus en plus développée dans le domaine de la santé.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Varnier, Christophe. « Extensions du "Hoist scheduling problem" cyclique : résolution basée sur un traitement des contraintes disjonctives en programmation en logique avec contraintes ». Besançon, 1996. http://www.theses.fr/1996BESA2006.

Texte intégral
Résumé :
Cette thèse présente la résolution de deux extensions d'un problème connu dans la littérature sous le nom de «Hoist Scheduling Problem» cyclique. Ce problème est lié au pilotage des chaînes automatisées de galvanoplastie dans lesquelles un ou plusieurs robots doivent assurer la manutention de tous les produits présents sur la ligne. Après une analyse de l'état de la recherche concernant ce problème particulier, le deuxième chapitre est consacré à une étude de l'adéquation des outils de Programmation en Logique avec Contraintes pour la résolution des problèmes d'ordonnancement et plus particulièrement du «Hoist Scheduling Problem» cyclique. La troisième partie de la thèse s'articule autour de l'étude des solveurs de contraintes et du problème lié à la résolution de contraintes linéaires mutuellement exclusives. Une méthode d'arbitrage de ces disjonctions est présentée. L'approche proposée vise à réduire la taille de l'arbre de recherche d'une solution, par une élimination de nombreux points de choix et par une détection des echecs au plut tôt. Une application de cette procédure de résolution est réalisée pour deux extensions du «Hoist Scheduling Problem» cyclique. La première porte sur les changements de gammes opératoires pour les productions, dites par campagne, où des lots de pièces identiques se succèdent sur la ligne. Un ordonnancement cyclique des mouvements des robots assure la production de chaque lot individuellement. L'approche proposée, dans ce mémoire, permet la recherche d'ordonnancements transitoires admissibles pour le passage d'une production cyclique mono-produit à une autre. Enfin, une étude de l'implantation physique des cuves d'une ligne simple à un seul robot est développée. Un algorithme permettant de trouver simultanément l'ordonnancement cyclique des mouvements du robot et l'implantation de la ligne est proposé
Styles APA, Harvard, Vancouver, ISO, etc.
43

Lauters, François. « Impacts sur l'écosystème aquatique de la gestion par éclusées des ouvrages hydroélectriques : étude de quelques cours d'eau et analyse des phénomènes mis en jeu ». Toulouse 3, 1995. http://www.theses.fr/1995TOU30140.

Texte intégral
Résumé :
Des travaux ont ete menes sur trois cours d'eau pour evaluer les impacts de la gestion par eclusees des ouvrages hydroelectriques sur l'ecosysteme aquatique et analyser certains phenomenes impliques. L'etude des divers composantes du milieu (regimes hydraulique, thermique et physico-chimique, faune d'invertebres et de poissons) permet d'essayer de comprendre le fonctionnement d'un ecosysteme dans de tels troncons de riviere. Concernant la caracterisation du regime hydraulique, des outils sont proposes pour decrire au mieux la signature de l'eclusee. Concernant le regime thermique, des fluctuations de temperature apparaissent a certaines saisons lors des eclusees mais ne sont vraiment importantes que sur l'un des sites. Des modifications des conditions physico-chimiques sont parfois observees lors des turbinages en fonction des caracteristiques de la retenue (profondeur, qualite d'eau) et du type d'implantation de l'ouvrage. L'effet de ces phenomenes sur les organismes n'a pas ete ici mis en evidence. L'etude des invertebres a permis d'observer un phenomene de derive catastrophique lors des eclusees et d'analyser les conditions qui semblent la favoriser. Ce phenomene n'entraine pas systematiquement une reduction de la faune benthique. Les peuplements de poissons restent satisfaisants sur les sites etudies. Sur une riviere a peuplement plurispecifique, la sensibilite de certaines especes explique la reduction de leur densite et la modification des especes dominantes ; d'autres especes sont par contre abondantes. Sur un site a peuplement monospecifique de truites, les densites restent globalement satisfaisantes malgre des reductions locales des stocks. Le comportement des adultes (deplacement, alimentation) n'apparait pas perturbe ; leur abondance semble reliee a la qualite d'habitat minimale (observee a bas debit ou lors des eclusees) et a la presence d'abris. Les alevins apparaissent plus sensibles ; le phenomene d'entrainement lors des eclusees et la sensibilite a la variabilite des conditions d'habitat pourraient etre mis en cause. Les principales tendances mises en exergue ici devraient permettrent de guider a l'avenir l'expertise de tels sites
Styles APA, Harvard, Vancouver, ISO, etc.
44

Dahmani, Sarra. « Proposition d’un cadre méthodologique pour la gestion du processus de servicisation en entreprise industrielle : approche basée sur les risques décisionnels ». Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0789/document.

Texte intégral
Résumé :
Dans un contexte économique marqué par la saturation des marchés et l’évolution perpétuelle de l’environnement, la pérennité des stratégies de différentiation classiques basées sur l’innovation de produit, ou la baisse des prix est de plus en plus affaiblie. Une nouvelle approche d’évolution pour les entreprises industrielles consiste à proposer une offre de service qui peut se substituer à l’offre de produit initialement proposée par l’entreprise, il s’agit de proposer un ensemble intégré de produits et de services sous la forme de système produit-service (PSS). L’utilisateur pourrait ainsi bénéficier de la disponibilité des produits pour répondre à ses besoins sans pour autant les posséder. Le développement de la transition vers ces offres de PSS au sein de l'industrie manufacturière représente un mouvement scientifique qualifié de «servitization of manufacturing» ou de servicisation. La servicisation constitue un enjeu majeur de gestion pour les décideurs des entreprises industrielles. Il s’agit d’une transition qui implique d’importants défis techniques, managériaux, et culturels. Son déploiement dans l’entreprise porte différents risques et confronte les décideurs à plusieurs problématiques décisionnelles. Ce travail de thèse propose alors un cadre méthodologique global permettant d’intégrer la prise en compte des risques décisionnels dans la gestion de la transition vers un modèle d’offre intégrée de PSS. Nous considérons alors la servicisation comme un processus décisionnel porteurs de risques, qui peuvent être caractérisés et diagnostiqué, dans l’objectif d’améliorer les capacités décisionnelles de l’entreprise. Ce cadre méthodologique est structuré autour des composantes de modélisation du processus décisionnel de servicisation (selon un formalisme inspiré du cadre de modélisation d’entreprise GRAI) et de modélisation des risques, il est composé de trois phases successives :La phase A nommée « l’exploration du processus de servicisation », son objectif étant de rendre une représentation formalisée du processus décisionnel de servicisation de l’entreprise industrielle étudiée selon un modèle décisionnel de référence que nous avons construit au préalable; La phase B nommée « l’évaluation et la caractérisation des risques décisionnels », où il s’agit de caractériser les risques décisionnels selon leurs domaines d’occurrence et d’effet, afin d’en déduire une évaluation de la criticité des risques potentiels portés par le processus; Et la phase C nommée « le diagnostic et la remédiation des risques décisionnels », sa finalité consiste à rendre une interprétation des résultats de diagnostic, afin de proposer des pistes d’action pour les décideurs de l’entreprise étudiée, dans l’objectif de leurs apporter une aide au processus décisionnel.Deux études de cas sur des PME industrielles ont permis d’illustrer ce travail de thèse
The economic context marked by market saturation and constantly changing environment, the sustainability of traditional differentiation business strategies based on product innovation or decreased prices, is increasingly weakened. A new approach to development for industrial companies is to provide a service offering that can be substituted to product supply initially proposed by the company, it consists in offering an integrated product-service system (PSS). The user can thus benefit from the availability of products to meet his needs without owning them. The development of the transition to PSS within the manufacturing industry is a qualified scientific movement known as “servitization of manufacturing”.Servitization represents a major change for the management of industrial enterprises. This is a transition that involves significant challenges that can be: technical, managerial, and cultural. Its deployment in the enterprise carries different risks and confronts decision makers to several issues.This thesis proposes an overall methodological framework for integrating the consideration of decision risks in managing transition to an integrated PSS supply model. We consider servitization as a decision-making process carrying decisional risks that can be characterized and diagnosed with the purpose of improving decision-making capabilities of the business.This methodological framework is structured around the components of modeling servitization decision process (according to a formalism based on GRAI business modeling framework) and risk modeling; it is composed of three phases:Phase A named “explorating servitization process”, its purpose consists of making a formal representation of the industrial enterprise’s servitization decision-making process studied according to a decision-making reference model that we defined previously; Phase B named “evaluation and characterization of decisional risks” comes to characterize the decision risks according to their areas of occurrence and effects, in order to deduce a criticality assessment of potential risks carried by the process; And phase C named “diagnosis and remediation of decisional risks”, its purpose is to make an interpretation of diagnosis results and to propose a remedial plan to assist decision-makers in their decision making process. Two case studies on industrial SMEs are used to illustrate this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
45

Chauvin, Alan. « Contribution à l'optimisation globale pour le dimensionnement et la gestion d'énergie de véhicules hybrides électriques basée sur une approche combinatoire ». Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0101/document.

Texte intégral
Résumé :
L'hybridation des sources de puissance dans le domaine des applications embarquées s'est imposée comme une solution adéquate pour répondre aux législations environnementales et atteindre une meilleure efficacité énergétique. Toutefois, le choix dans le dimensionnement des composants et la stratégie de commande doivent répondre à un cahier des charges, souvent complexe et hétérogène, tout en limitant les coûts du système. La résolution de ce problème d'optimisation incluant de nombreuses variables peut s'avérer complexe à cause des non-linéarités présentes dans le problème formulé. Il faut donc disposer d'outils de résolution efficaces et capables de fournir une solution fiable. Dans cette thèse, nous proposons une méthode d'optimisation globale pour le dimensionnement et la commande optimale de véhicules hybrides basée sur l'optimisation combinatoire, et en particulier sur la programmation linéaire en nombres entiers (PLNE). A partir d'un problème d'optimisation non linéaire, le problème initial est reformulé en une multitude de sous-problèmes linéaires en nombres entiers sur lesquels un algorithme de Branch & Bound parallèle est exécuté. Afin de résoudre des problèmes de grande taille, un second algorithme basé sur le Branch & Cut est développé. Cette méthode est déployée pour l'étude d'un système d'alimentation hybride d'une mini-excavatrice électrique. Le problème d'optimisation, dans lequel des contraintes énergétiques et des contraintes de vieillissement sont implantées, est évalué suivant différents paramètres du cahier des charges. Enfin, cette approche est également appliquée pour l'optimisation de trajectoires d'un système multi-actionneur synchronisés
Hybridization of power sources for embedded applications becomes an interesting solution to respect environmental legislation and achieve a higher energy efficiency. However, the choice for components sizing and the energy management strategy need to meet specifications while reducing costs. To solve this optimization problems including several types of variables can be complex because of non linearities included in the formulated problem. Therefore the use of effective solving tools, able to provide a reliable solution, is required. In this thesis, a global optimization method is proposed for the design and the optimal control of hybrid vehicles based on combinatorial optimization, particularly on integer linear programming. From a non-linear optimization problem, the initial problem is reformulated into a multitude of integer linear sub-problems for which a parallel Branch & Bound algorithm is executed. In order to solve large-scale problems, a second algorithm based on the Branch & Cut is developed. This method is used for the study of a hybrid power supply system of a mini-excavator electric. The optimization problem, where energy constraints and aging constraints are implemented, is evaluated according to several parameters and specifications. Finally, this approach is also applied for the optimization of trajectories for a synchronized multi-actuators system
Styles APA, Harvard, Vancouver, ISO, etc.
46

Ramamonjisoa, David. « Architecture de copilotage et de contrôle d'exécution basée sur un système expert temps réel ». Compiègne, 1993. http://www.theses.fr/1993COMP574S.

Texte intégral
Résumé :
Le développement croissant du trafic routier, le besoin de confort et d'information des conducteurs et l'exigence générale d'une plus grande sécurité sont actuellement le grand souci des laboratoires de recherches et constructeurs automobiles des pays industrialisés. Le projet européen PROMETHEUS a pour objectif d'améliorer la sécurité de la circulation routière de 30% et l'efficacité de 20%. Dans le cadre de ce projet, une application de système d'aide au copilotage a été réalisée avec la mise au point d'un système de contrôle d'exécution des manoeuvres et de surveillance des environnements. Des outils à base de techniques d'intelligence artificielle et d'automatique ont été développés pour la réalisation d'un tel système. La démarche suivie est de spécifier une architecture de contrôle pour diminuer le temps de réponse du système et pour structurer les tâches de façon modulaire. Les modules de décision et de contrôle ont été développés à l'aide d'un système expert temps réel SUPER-TR. Une phase de simulation a permis de tester la rapidité et d'évaluer la base de connaissances du système. La mise à jour des stratégies et des modèles utilisés dans le copilotage est également effectuée au cours de cette phase.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Ding, Hongwei. « Une approche d'optimisation basée sur la simulation pour la conception des chaînes logistiques : applications dans les industries automobile et textile ». Metz, 2004. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2004/Ding.Hongwei.SMZ0414.pdf.

Texte intégral
Résumé :
Dans ce travail de recherche, nous proposons une approche d'optimisation multicritères basée sur la simulation pour la conception optimale des chaînes logistiques dans un contexte dynamique et incertain. Cette approche comprend un module d'optimisation basé sur des algorithmes génétiques multicritères et un module de simulation permettant l'évaluation de la chaîne étudiée au cours de l'optimisation. L'optimisation concerne à la fois la configuration de la chaîne logistique et le système de pilotage de ses différentes activités (approvisionnement, production, stockage, transport, etc. ). Ce système est caractérisé par des règles opérationnelles et leurs paramètres de contrôle pour la prise de décision durant la simulation. L'algorithme génétique explore les solutions candidates intéressantes (configuration de la chaîne + règles de pilotage) dont les performances sont automatiquement évaluées par le simulateur. La paramétrisation du module de simulation prend en compte les incertitudes liées à la demande, à la production, au stockage et à la distribution. Pour la validation de notre approche, deux cas d'études, proposés respectivement par deux partenaires du projet européen ONE de l'industrie automobile et textile, sont présentés. L'objectif du premier cas d'étude est de reconfigurer une partie du réseau actuel de production et de distribution de notre partenaire automobile. Proposé par notre partenaire de l'industrie textile, le deuxième cas d'étude est dédié au problème de choix des fournisseurs dans un environnement dynamique et stochastique. L'objectif est de déterminer la meilleure sélection des fournisseurs, des modes de transport utilisés ainsi que certains paramètres de contrôle liés au pilotage de la chaîne étudiée
In this thesis, a simulation-based multi-objective optimization method is proposed for supply chain design under realistic conditions. The proposed approach is comprised of two building blocks: an optimizer and a simulation model builder. The optimizer, based on a multi-objective genetic algorithm, is used to direct the search for best-compromised solutions with respect to various conflicting criteria, such as cost and customer service level. The optimization variables incorporate not only the supply chain structure but also the system control parameters. Candidate solutions suggested by the optimizer are evaluated through simulation, which enables realistic evaluations taking into account uncertainties and dynamics along supply chain. The simulation model builder is developed to facilitate automatic model creation, which is a challenging issue as decision variables also involve the supply chain network structure. Two real-life case studies, from the automotive and textile industry, are presented to validate the proposed method and to illustrate its various features
Styles APA, Harvard, Vancouver, ISO, etc.
48

L'Héritier, Cécile. « Une approche de retour d’expérience basée sur l’analyse multicritère et l’extraction de connaissances : Application au domaine humanitaire ». Thesis, Nîmes, 2020. http://www.theses.fr/2020NIME0001.

Texte intégral
Résumé :
Ce sujet de recherche est centré sur la problématique de gestion des connaissances et des savoir-faire au sein d’une l’organisation humanitaire intervenant en situations d’urgence. Dans le contexte d’une ONG, possédant une grande richesse immatérielle, la capitalisation – et à plus grande échelle de la gestion de connaissance – répond à des enjeux à la fois opérationnels et stratégiques. Les objectifs de ce travail de recherche consistent donc, dans une première phase, à définir, développer puis tester et valider des méthodes et outils adaptés pour mener une capitalisation au sein de l’organisation grâce au retour d’expérience. Dans un second temps, l’exploitation et l’analyse des récits et des données extraites permettront de définir les processus de décision qui ont été impliqués pour résoudre une situation d’urgence donnée. Plus précisément, il s’agira d’expliquer pourquoi et comment les décisions ont été prises en situation d’urgence. L’objectif sera de dégager, non pas une somme d’information mais une manière de réfléchir et de raisonner, transférable et réutilisable permettant de résoudre d’autres situations présentant des similitudes. L’ensemble de ce travail fournira des éléments et outils permettant l’amélioration des pratiques et leur diffusion ou transmission en facilitant et en rendant plus efficace la formation au sein de l’organisation. Le retour d’expérience, RETEX, sera abordé comme un des éléments d’une démarche de progrès, et non comme une évaluation formulant un jugement sur l’action par rapport à un cadre règlementaire. La capitalisation doit révéler la manière qui a permis d’atteindre le but, sans en juger la qualité. En effet, ici, l’objectif du RETEX n’est pas de mettre en lumière un dysfonctionnement, mais de mettre en place un historique des activités et processus déployés et de porter un regard critique sur leur gestion. Compte tenu, de la différence de contexte entre ONG et structures industrielles privées ; il est primordial d’extrapoler et d’adapter les méthodes de RETEX existantes pour l’industrie. Il s’agit donc ici de développer une méthodologie adaptée pour répondre aux problématiques spécifiques des organisations humanitaires. La méthodologie proposée sera testée et validée avec une ou plusieurs études de cas et permettra la formalisation de l'expérience, essentielle pour la rendre exploitable. Le travail s’attachera également à identifier et analyser les indicateurs de prise de décision dans les différents retours d’expérience et études de cas traités pour être en mesure d’expliquer la décision et en extraire une façon de réfléchir, et de éléments de l’ordre méthodologique
Because of its critical impacts on performance and competitivity, organizations’ knowledge is today considered to be an invaluable asset. In this context, the development of methods and frameworks aiming at improving knowledge preservation and exploitation is of major interest. Within Lessons Learned framework – which proposes relevant methods to tackle these challenges –, we propose to work on an approach mixing Knowledge Representation, Multiple-Criteria Decision Analysis and Inductive Reasoning for inferring general learnings by analyzing past experiences. The proposed approach, which is founded on a specific case-based reasoning, intends to study the similarities of past experiences – shared features, patterns – and their potential influence on the overall success of cases through the identification of a set of criteria having a major contribution on this success. For the purpose of highlighting this potential causal link to infer general learnings, we envisage relying on inductive reasoning techniques. The considered work will be developed and validated through the scope of a humanitarian organization, Médecins Sans Frontières, with a focus on the logistical response in emergency situations
Styles APA, Harvard, Vancouver, ISO, etc.
49

Amar, Bensaber Boucif. « Etude des protocoles de communication de groupe : MTCP, une solution basée sur une extension de TCP ». Paris 5, 1998. http://www.theses.fr/1998PA05S006.

Texte intégral
Résumé :
Notre objectif est de contribuer aux efforts de recherche dans le domaine des communications de groupe et en particulier de proposer une solution originale, robuste et stable pour tous les environnements de réseaux. Nous présentons une synthèse sur les protocoles pour la communication multicast. Nous rappelons les concepts de groupe et détaillons tous les aspects spécifiques de la gestion de groupe et les principales fonctionnalités des couches trois et quatre du modèle OSI sous l'angle de la communication de groupe. Nous proposons un service de transport multipoint 1-a-n (un émetteur, n récepteurs) totalement fiable, construit sur un protocole classique et largement diffusé, TCP. Notre solution baptisée MTCP (multicast TCP), s'appuie sur la fonction multicast des protocoles IP et IGMP. Nous utilisons une approche d'organisation hiérarchique basée sur la topologie d'un arbre de concentration ou figurent trois entités : l'émetteur, les serveurs, les récepteurs. Ce modèle prend en compte la répartition des récepteurs sur des réseaux hétérogènes et évite le problème d'implosion des informations de retour. Les taches de gestion de la conversation et de transfert de données sont déléguées aux serveurs qui ont chacun la responsabilité d'un sous-réseau. Une partie substantielle de cette thèse est consacrée à la description de l'interface avec l'utilisateur. Nous proposons une extension à la fois simple à mettre en œuvre et d'un cout faible. La partie la plus importante de notre travail est la spécification fonctionnelle du protocole MTCP. Nous décrivons le comportement de la machine protocolaire en réponse à chaque évènement. Enfin, nous présentons les résultats des simulations qui montrent la robustesse de notre protocole quel que soit l'environnement. Les résultats obtenus montrent la stabilité de MTCP : il offre la même qualité de service pour des communications de groupe de tailles différentes et ceci quelle que soit la dispersion géographique du groupe.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Darwich, Akoum Hind. « Approche organisationnelle basée sur le paradigme agent pour la synthèse et la réutilisation des connaissances en ingénierie collaborative ». Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0224/document.

Texte intégral
Résumé :
Il est bien connu qu’une nouvelle étude, menée au sein d’une entreprise, est souvent semblable à une étude précédente et par conséquent, peut être structurée selon un processus de référence commun au type d’étude correspondant. Dans notre travail, nous l’avons appelé démarche métier. Il s’agit d’une bonne pratique de réalisation d’un type d’études. La difficulté majeure réside dans la formalisation de cette démarche métier. Les approches traditionnelles de capitalisation des connaissances s’appuyant sur des verbalisations d’experts ont montré leur limite. Souvent réalisées en dehors de l’activité réelle, les experts omettent des détails qui peuvent être d’importance. Notre thèse repose sur l’idée qu’il est possible de construire le processus opérationnel mis en œuvre lors des activités collaboratives de conception, à partir des traces enregistrées lors de l’utilisation de l’outil numérique par les acteurs métier. Le processus opérationnel ainsi construit pourra aider les acteurs métiers et les experts à prendre du recul sur le travail réel et à formaliser et enrichir les démarches métier de l’entreprise. Notre travail s’est déroulé au sein du laboratoire ERPI (Équipe de Recherche sur les Processus Innovatifs) de l’Université de Lorraine et en collaboration avec la société TDC Software dans le cadre d’une thèse CIFRE. Les contributions que nous proposons sont les suivantes : • Un double cycle de capitalisation pour des activités instrumentées,• Une approche globale de gestion des démarches métier,• Une ontologie OntoProcess modélisant des aspects organisationnels génériques (séparant clairement des concepts liés aux traces et d’autres liés aux démarches métier) et des extensions métiers spécifiques à l’outil utilisé,• Un système multi-agents supportant l’approche globale de gestion des démarches métiers et s’appuyant sur l’ontologie OntoProcess,• Un système à base de traces permettant de construire un processus opérationnel à partir des traces enregistrées lors d’une étude
It is well known in the enterprises that each new projectto be carried out is usually similar to a certain previous projects. Those projects can be structured according to a common reference process depending on their type. In the dissertation, we call this reference process of the enterprise’s good practices the “expertise business process”. The main difficulty lies in the formalization of the expertise business process. The traditional knowledge capitalization approaches based on the experts’ debriefings showed their limits: the experts often leave out details which may be of relevance because the debriefings are habitually realizedexternally to the activities. Our thesis relies on the idea that it is possible to construct the operational process, implemented during the collaborative activities in a product development study, from the traces recorded by the used IT tools. The constructed operational process allows the business actors and experts to step back on their work and formalize the new deducted experience to enhance the expertise business processes of the firm. Our work had taken place in the ERPI (Equipe de Recherche sur les Processus Innovatifs) laboratory of the “Université de Lorraine” under a partnership with TDC Software society and through a CIFRE Convention. This dissertation offers five key contributions: • A double cycle to capitalize over the instrumented activities. • A global approach for the management of expertise business processes. • An ontology “OntoProcess” to conceive the generic organizational aspects, separating distinctly the concepts related to traces from those related to the business process, and providing extensions in function of the used tools. • A multi-agents system based on the ontology “OntoProcess” to support the presented global approach of the expertise business processes management. • A trace based system that allows the construction of the operational process from the traces registered over the study
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie