Dissertations / Theses on the topic 'Modèles CHARN'

To see the other types of publications on this topic, follow the link: Modèles CHARN.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles CHARN.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Salman, Youssef. "Testing a class of time-varying coefficients CHARN models with application to change-point study." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0170.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions un test du rapport de vraisemblance pour détecter les ruptures faibles dans la moyenne conditionnelle d'une classe de modèles CHARN à coefficients dépendants du temps. Nous établissons la structure de normalité asymptotique locale (LAN) de la famille de vraisemblances étudiées. Nous montrons l'optimalité asymptotique du test et donnons une expression explicite de sa puissance locale en fonction des potentiels points de rupture et des amplitudes des ruptures. Nous décrivons des stratégies de détection des ruptures et d'estimation de leurs localisations. Les estimateurs sont obtenus comme indices de temps rendant maximal un estimateur de la puissance locale. Les simulations numériques que nous faisons montrent de bonnes performances de notre méthode sur les exemples considérés
In this thesis, we study a likelihood ratio test for detecting multiple weak changes in the conditional mean of a class of time-dependent coefficients CHARN models.We establish the locally asymptotically normality (LAN) structure of the family of likelihoods under study. We prove that the test is asymptotically optimal, and we give an explicit form of its asymptotic local power as a function of candidates change locations and changes magnitudes. We describe some strategies for weak change-points detection and their location estimates. The estimates are obtained as the time indices maximizing an estimate of the local power. The simulation study we conduct shows the good performance of our methods on the examples considered
2

Zouaghi, Iskander. "Maturité supply chain des entreprises : conception d'un modèle d'évaluation et mise en oeuvre." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01015950.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de la maturité supply chain est une préoccupation croissante des entreprises évoluant dans un environnement qui se transforme profondément et simultanément dans plusieurs domaines. S'adossant à plusieurs initiatives proposées sous forme de référentiels, les entreprises progresser quelque peu avec difficulté. S'inscrivant dans un paradigme post-positiviste, cette recherche se concentre sur la conception d'un modèle qui permet d'évaluer la maturité, sur plusieurs dimensions, de la supply chain. Ces objectifs ont été atteints à partir d'une revue approfondie de la littérature, mais également à partir de la réalisation d'une étude empirique. D'une part, les concepts de supply chain, de supply chain management, de maturité supply chain, ainsi que des capacités relatives ont été revus en profondeur, et d'autre part, les référentiels d'évaluation dans le domaine de la logistique, de la gestion des opérations et du supply chain management ont été étudiés et confrontés aux capacités de maturité supply chain établies. Cela a donné lieu à la conception d'un modèle qui s'appuie sur les modèles antérieurs pour proposer des critères qui les complètent. Ce modèle a été validé auprès d'un échantillon de 115 répondants (Directeurs logistique, supply chain managers, etc.). L'analyse des données collectées s'est appuyée sur les modèles d'équations structurelles, en l'occurrence PLS-PM (régressions aux moindres carrées partiels). Cette analyse, précédée d'une analyse univariée et d'une analyse en composantes principales a permis de constater la validité convergente ainsi que la validité discriminante des échelles de mesures, mais également de l'existence de liens d'impacts variables entre les différentes dimensions et la maturité supply chain. Les résultats de cette recherche montrent que la maturité est principalement constituée par les dimensions opérationnelles et stratégiques, suivies par les dimensions informationnelles, structurelles, organisationnelles et humaines. La thèse établit le constat selon lequel la dimension de risques et de résilience, la dimension relationnelle et la dimension de développement durable et de responsabilité sociale ont le moins d'impact dans la structuration de la maturité supply chain. Une fois le modèle validé, la maturité effective des entreprises de l'échantillon a été évaluée en utilisant l'analyse Importance/Maturité. Les résultats émanant de cette analyse montrent une forte maturité supply chain des entreprises par rapport aux dimensions stratégiques, structurelles, organisationnelles, de risques et de résilience, ce qui n'est pas le cas par rapport aux autres dimensions, où l'analyse a décelé une maturité moyenne à faible.Cela suggère aux entreprises de concentrer leurs efforts sur les aspects opérationnels, relationnels, informationnels et relatifs au développement durable et à la responsabilité sociale.
3

Kissani, Ilham. "A contribution to supply chain design under uncertainty." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25733/25733.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Bouhaddou, Imane. "Vers une optimisation de la chaine logistique : proposition de modèles conceptuels basés sur le PLM (Product Lifecycle Management)." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0026/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Consciente que l’unité de compétitivité n’est plus l’entreprise mais toute la chaîne logistique contribuant à la réalisation du produit, les efforts consentis par l’entreprise se matérialisent, d’une part, par la volonté de maîtriser au mieux les activités de conception des produits et d’autre part, par la construction de collaborations entre tous les acteurs de la chaîne logistique participant au cycle de vie du produit. Cela a conduit à l’émergence d’une gestion collaborative du cycle de vie du produit appelée communément PLM. L’objet de cette thèse consiste à définir une démarche méthodologique pour répondre à la problématique suivante : Comment le PLM pourra t-il participer à l’optimisation de la chaîne logistique ? Nous adoptons, dans cette thèse, une approche hybride combinant PLM et modèles mathématiques pour optimiser les décisions de conception simultanée du produit et de sa chaîne logistique. Nous proposons des modèles conceptuels pour résoudre de manière formelle le compromis entre PLM et modèles mathématiques pour une optimisation de la chaîne logistique. Contrairement aux approches classiques centralisées utilisées pour traiter le problème intégré de conception du produit et de sa chaîne logistique et qui engendrent des modèles mathématiques compliqués, nous adoptons une démarche couplant des décisions centralisées quand il s’agit d’intégrer les contraintes des différents maillons de la chaîne logistique et une approche décentralisée quand il s’agit d’optimiser localement chaque maillon de la chaîne. Le mode décentralisé réduit la complexité de résolution des modèles mathématiques et permet à la chaîne logistique de répondre rapidement à l’évolution des conditions locales de chaque maillon. Le PLM joue le rôle d’intégrateur. En effet, le regroupement centralisé des informations par le PLM permet de prendre en considération la dépendance entre les maillons améliorant ainsi les résultats obtenus par optimisation locale
AIt is recognized that competition is shifting from “firm versus firm” perspective to “supply chain versus supply chain” perspective. Therefore, the ability to optimize the supply chain is becoming the critical issue for companies to win the competitive advantage. Furthermore, all members of a given supply chain must work together to respond to the changes of market demand rapidly. In the actual context, enterprises not only must enhance their relationships with each others, but also need to integrate their business processes through product life cycle activities. This has led to the emergence of a collaborative product lifecycle management commonly known as PLM. The objective of this thesis is to define a methodological approach which answers to the following problematic: How can PLM contribute to supply chain optimization ? We adopt, in this thesis, a hybrid approach combining PLM and mathematical models to optimize decisions for simultaneous design of the product and its supply chain. We propose conceptual models to solve formally the compromise between PLM and mathematical models for supply chain optimization. Unlike traditional centralized approaches used to treat the problem of integrated design of the product and its supply chain which generate complex mathematical models, we adopt an approach combining centralized decisions while integrating the constraints of the different supply chain partners during the product design and decentralized decisions when it comes to locally optimize each supply chain partner. The decentralized approach reduces the complexity of solving mathematical models and allows the supply chain to respond quickly to the evolution of local conditions of each partner. PLM will assure the integration of the different supply chain partners. Indeed, the information centralization by the PLM enables to take into consideration the dependence between these partners, improving therefore local optimization results
5

Coste, Nicolas. "Vers la prédiction de performance de modèles compositionnels dans les architectures GALS." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. Les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics
Validation, comprising functional verification and performance evaluation, is critical for complex hardware designs. Indeed, due to the high level of parallelism in modern designs, a functionally verified design may not meet its performance specifications. In addition, the later a design error is identified, the greater its cost. Thus, validation of designs should start as early as possible. This thesis proposes a compositional modeling framework, taking into account functional and time aspects of hardware systems, and defines a performance evaluation approach to analyze constructed models. The modeling framework, called Interactive Probabilistic Chain (IPC), is a discrete-time process algebra, representing delays as probabilistic phase type distributions. We defined a branching bisimulation and proved that it is a congruence with respect to parallel composition, a crucial property for compositional modeling. IPCs can be considered as a transposition of Interactive Markov Chains in a discrete-time setting, allowing a precise and compact modeling of fixed hardware delays. For performance evaluation, a fully specified IPC is transformed, assuming urgency of actions, into a discrete-time Markov chain, which can then be analyzed. Additionally, we defined a performance measure, called latency, and provided an algorithm to compute its long-run average distribution. The modeling approach and the computation of latency distributions have been implemented in a tool-chain relying on the CADP toolbox. Using this tool-chain, we studied communication aspects of an industrial hardware design, the xSTtream architecture, developed at STMicroelectronics
6

Estampe, Dominique. "Modèle d'évaluation des performances Supply Chain : outil de mesure de la crétion de valeur." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2009. http://www.theses.fr/2009ECAP0021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Supply Chain management a pour finalité de piloter un ensemble d'acteurs appartenant à une ou plusieurs chaînes dans le but d'optimiser globalement la chaîne et ainsi proposer de créer de la valeur commune. L'analyse systémique permet de mieux appréhender les attentes en termes de performance en se situant sur une perspective plus globale et en intégrant dans un ensemble chaque élément d'une chaîne. La mise en place des meilleures pratiques de Supply Chain management concourt à la création de valeur pour les clients et les actionnaires. Nous avons montré par un modèle statistique que plus les entreprises s’engagent dans une démarche d’excellence Supply Chain plus leur valeur clients et actionnaires sont élevées. Les entreprises ayant mis en place les meilleures pratiques du Supply Chain management sont celles qui sont amenées à observer les plus fortes valorisations vis-à-vis des actionnaires et des clients. Nous avons ensuite analysé les différents modèles d’évaluation de la performance du Supply Chain management et montré que les modèles existants ne sont pas tous orientés vers l’analyse de la création de valeur. Nous avons ainsi comparé quinze modèles en les distinguant en plusieurs catégories. Ayant constaté certains manques, nous avons proposé un modèle d'évaluation de la performance Supply Chain management (SCALE) orienté vers la création de valeur sur la chaîne permettant ainsi aux entreprises de s’orienter efficacement vers cette création de valeur étendue. Le modèle a été mis en oeuvre dans une entreprise de la grande distribution pour montrer l'impact de l'utilisation de ce modèle sur la création de nouvelles richesses pour l'entreprise et la chaîne. Les conclusions apportées par cette étude d’entreprise montrent que le modèle SCALE permet d'aider les décideurs des entreprises d’une chaîne à mieux piloter leurs organisations en prenant en compte les paramètres de chaque acteur et de l'environnement
The purpose of supply chain management is to pilot a group of actors belonging to one or several chains, thereby achieving a global optimisation of the chain(s) and creating shared value. Systemic analysis has improved understanding of actors’ performance expectations, and with today’s broader outlook, chains tend to be viewed as encompassing a whole range of disparate elements. Determining the best supply chain management practices helps to create value for customers and shareholders. Using a statistical model, we have been able to show that the more companies commit to a supply chain excellence approach, the greater the value for their customers and shareholders. The companies that have established the best supply chain management practices are those that will benefit most from customer and shareholder goodwill. We then analysed the different supply chain management performance evaluation models and showed that existing variants are not all geared towards value creation analysis. This led us to compare 15 models differentiated by several categories. Having observed several weaknesses in these variants, we came up with our own supply chain management performance evaluation model (SCALE), one that is more oriented towards value creation within the chain and will enable companies to move as efficiently as possible to adopt an extended value creation construct. The model was implemented in a large retail company to demonstrate how its utilisation can impact the creation of new wealth for company and chain alike. The conclusions of this corporate study show that the SCALE model helps corporate decision-makers within a particular chain to improve the way in which they pilot their organisations by incorporating the characteristic parameters of each actor and the environment as a whole
7

Yahiaoui, Meriem. "Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL006/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place
Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
8

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)
This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
9

Baumann, Emilie. "Modèles d’évaluation des performances économique, environnementale et sociale dans les chaînes logistiques." Thesis, Lyon, INSA, 2011. http://www.theses.fr/2011ISAL0037/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire présente un cadre d’évaluation des performances économique, environnementale et sociale dans les chaînes logistiques. Nous avons proposé un modèle de caractérisation de la performance « globale », intégrant les trois performances liées au développement durable (économique, environnementale et sociale) dans les chaînes logistiques. Ce modèle nous a permis d’analyser les impacts des pratiques de gestion des chaînes logistiques sur un ensemble d’enjeux durables, matérialisés par la Matrice de Performance Globale des Chaînes Logistiques (MPGCL). Un modèle analytique permet ensuite d’évaluer ces impacts sous une forme agrégée par un triplet : . Trois instanciations de la MPGCL ont été réalisées : académique (basée sur l’analyse de la littérature), industrielle (basé sur des référentiels industriels) et empirique (suite à une enquête de terrain). Une approche multicritère d’aide à la décision pour le choix des pratiques à mettre en œuvre (CAMPLID) a été proposée. Son application sur les instances de MPGCL permet un classement de bonnes pratiques des chaînes logistiques basé sur l’amélioration simultanée, et selon différentes stratégies, des trois performances économique, environnementale et sociale. Une étude plus spécifique selon une approche par simulation de l’impact des pratiques d’approvisionnement (approvisionnement individuel / mutualisé, différentes règles de réapprovisionnement) sur des enjeux durables complète ce travail
This thesis presents a framework for assessing economic, environmental and social performances in supply chains. We propose a characterization model for "global" performance, integrating the three performances related to sustainable development (economic, environmental and social) in supply chains. This model allows us to analyze the impacts of management practices in supply chains on a set of sustainability fields, materialized by the Global Performance Matrix of Supply Chain (MPGCL). An analytical model is used to evaluate these impacts in aggregate form by a triplet. Three instantiations of MPGCL are carried out: academic, industrial and empirical. A multicriteria decision-making approach for selecting practices to implement (CAMPLID) is proposed. Its application to MPGCL instances allows a ranking of supply chains best practices, based on the simultaneous improvement of the economic, environmental and social performances. A more specific study in a simulation of the supply practices (individual/shared supply, different rules replenishment) impacts on sustainability fields complete this work
10

Coste, Nicolas. "Vers la prédiction de performance de modèles compositionnels dans les architectures GALS." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00538425.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La validation, incluant vérification fonctionnelle et évaluation de performance, est un processus critique pour la conception de designs matériels complexes : un design fonctionnellement correct peut s'avérer incapable d'atteindre la performance ciblée. Plus un problème dans un design est identifié tard, plus son coût de correction est élevé. La validation de designs devrait donc être entreprise le plus tôt possible dans le flot de conception. Cette thèse présente un formalisme de modélisation par composition, couvrant les aspects fonctionnels et temporisés des systèmes matériels, et définit une approche d'évaluation de performance afin d'analyser les modèles construits. Le formalisme de modélisation défini, appelé Interactive Probabilistic Chain (IPC), est une algèbre de processus a temps discret. Nous avons défini une bisimulation de branchement et prouvé sa congruence par rapport à l'opérateur de composition parallèle, nous permettant une approche compositionnelle. les IPCs peuvent être vues comme une transposition des Interactive Markov Chains dans un espace de temps discret. Pour l'évaluation de performance, une IPC complètement spécifiée est transformée en une chaîne de Markov à temps discret, qui peut être analysée. De plus, nous avons défini une mesure de perfor- mance, appelée latence, et un algorithme permettant de calculer sa distribution moyenne sur le long terme. A l'aide d'outils permettant de traiter les IPCs, développés sur la base de la boîte à outils CADP, nous avons étudié les aspects de communication d'un design industriel, l'architecture xSTream, développée chez STMicroelectronics.
11

Caron, Francois. "Inférence bayésienne pour la détermination et lasélection de modèles stochastiques." Phd thesis, Ecole Centrale de Lille, 2006. http://tel.archives-ouvertes.fr/tel-00140088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples.
On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
12

Darvish, Maryam. "Supply chain optimization : location, production, inventory and distribution." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’environnement concurrentiel des affaires et la mondialisation oblige actuellement les entreprises à accorder une importance particulière à la performance de leur chaîne d’approvisionnement. Afin de se démarquer, les entreprises sont contraintes de prévoir et de gérer des paramètres de performance souvent contradictoires à savoir réduire le coût de leur chaîne d’approvisionnement et augmenter la qualité du service offert à leur clientèle. À cet égard, la planification intégrée de la chaîne logistique c’est-à-dire que les décisions relatives à la l’emplacement des usines, l’approvisionnement, la production, le stockage et la distribution s’avèrent majeures dans le gain d’efficience des entreprises et la réactivité d’une chaîne d’approvisionnement. La production et la planification de la distribution constituent deux opérations fondamentales dans la gestion de la chaîne logistique. Couramment, elles sont traitées de manière distincte du fait de leur complexité. Les coûts d’inventaire sont élevés dans cette approche dite aussi linéaire ou hiérarchique, eu égard à la nécessité de respecter les délais de traitement des commandes et d’assurer la satisfaction des clients. Cependant, il devient impératif de ne plus négliger les liens existants entre les décisions prises pour gérer la production et la distribution, afin de réaliser des économies de coûts dans la chaîne d’approvisionnement. Bien que l’intérêt pour la planification intégrée de chaîne d’approvisionnement soit grandissant, les modèles d’optimisation actuels laissent encore place à l’amélioration afin d’être plus réalistes. Dans cette recherche, nous étudions des problèmes logistiques riches et intégrés. La pertinence de notre apport réside dans l’ajout de variables opérationnelles telles que les fenêtres de temps de service ou la configuration de réseaux flexibles ainsi que de certaines caractéristiques environnementales, dans des modèles logistiques. Notre objectif est de mettre en évidence les valeurs d’intégration, en termes d’économies de coûts et de réduction de gaz à effet de serre. Premièrement, nous décrivons, modélisons et résolvons le problème qui se présent chez un partenaire industriel qui fabrique un seul produit. Dans ce système, la capacité de production et le niveau d’inventaire sont limités, les transferts inter-usines sont permis et les fenêtres de délais de livraison sont flexibles. En nous appuyant sur un vaste ensemble de données réelles collectées chez notre partenaire, nous comparons l’approche intégrée avec plusieurs scénarios de pratique courante. Nous utilisons une méthode exacte qui permet de résoudre chacun des scénarios et étudions les compromis entre les coûts et les niveaux de service dans une analyse de sensibilité détaillée. Les résultats obtenus démontrent ainsi comment l’application d’une approche synchronisée et holistique dans la prise de décision apporte de nombreuses opportunités bénéfiques pour les systèmes logistiques en général. Nous étendons par la suite notre étude aux systèmes de production multi-produits et multiéchelons. Cette nouvelle configuration du problème implique que les produits sont expédiés aux clients par l’intermédiaire d’un ensemble de centres de distribution dont le producteur peut contrôler l’emplacement. Dans cette analyse, la conception de notre réseau de transport est flexible puisqu’il peut varier au cours du temps. Plus le problème est riche et s’approche de la réalité, plus le problème devient difficile et compliqué à résoudre. Les meilleures solutions issues de l’approche intégrée sont obtenues au détriment d’une plus grande complexité d’implémentation et de l’allongement du temps d’exécution. Nous décrivons, modélisons et résolvons le problème en utilisant d’abord des approches de prise de décision intégrées puis des approches séquentielles afin de déterminer à quel le moment l’usage d’une approche plus complexe est avantageuse pour résoudre le problème. Les résultats confirment la pertinence de l’approche intégrée comparativement à l’approche séquentielle. Pour illustrer l’importance des économies réalisées grâce au caractère flexible de la conception de réseaux et des fenêtres de temps de livraison, nous décrivons, modélisons et résolvons un problème de localisation-tournées de vehicules intégré et flexible à deux échelons. Dans ce problème, le fournisseur livre la marchandise à ses clients grâce à un réseau d’approvisionnement à deux échelons, avec une pénalité pour chaque demande non réalisée dans la fenêtre de livraison prédéterminée. La problématique est ici traitée dans une configuration plus riche; la livraison est planifiée en tournées de véhicules. Le quatrième volet de cette thèse s’intéresse aux impacts environnementaux des décisions logistiques. En effet, le plus souvent, les recherches scientifiques sur l’optimisation des chaînes d’approvisionnement se concentrent uniquement sur les aspects économiques du développement durable et tendent à ignorer les deux autres dimensions. Nous abordons donc des problématiques d’optimisation connues sous de nouveaux angles. Nous étudions deux systèmes intégrés de production, d’inventaire, de localisation et de distribution dans lesquels une marchandise produite à une usine est livrée aux détaillants dans un horizon de temps fini. Une analyse de sensibilité élaborée nous permet d’améliorer nos connaissances sur les coûts et les émissions dans les chaînes d’approvisionnement intégrées, en plus d’améliorer notre compréhension des coûts associés à l’implantation de solutions respectueuses de l’environnement. Dans cette thèse, nous visons non seulement une meilleure compréhension de l’approche englobante de logistique intégrée mais nous développons également des outils opérationnels pour son application dans des cas complexes concrets. Nous proposons ainsi de nouveaux modèles d’affaires capables d’améliorer la performance de la chaine d’approvisionnement tout en développant des techniques d’implémentation mathématiques efficaces et efficientes. Mots Clés: Optimisation intégrée, Problème de dimensionnement dynamique de lots, Fenêtres de temps de livraison, Problèmes de localisation, Distribution.
Today’s challenging and competitive global business environment forces companies to place a premium upon the performance of their supply chains. The key to success lies in understanding and managing several contradicting performance metrics. Companies are compelled to keep their supply chain costs low and to maintain the service level high. In this regard, integrated planning of important supply chain decisions such as location, procurement, production, inventory, and distribution has proved to be valuable in gaining efficiency and responsiveness. Two fundamental operations in supply chain management are production and distribution planning. Traditionally, mainly due to the high complexity and difficulty of these operations, they have been treated separately. This hierarchical or sequential decision making approach imposes high inventory holding cost, as in the traditional approach inventory plays an important role in timely satisfying the demand. However, in the era of supply chain cost reduction, it is becoming increasingly apparent that the interrelations between different decisions, and especially production and distribution decisions, can no longer be neglected. Although the research interest in the integrated supply chain planning has been recently growing, there is still much room to further improve and make the existing models more realistic. Throughout this research, we investigate different rich integrated problems. The richness of the models stems from real-world features such as delivery time windows, flexible network designs, and incorporation of environmental concerns. Our purpose is to highlight the values of integration, in terms of cost savings and greenhouse gas emission reduction. First, we describe, model, and solve a plant-customer, single product setting in which production and inventory are capacitated and inter-plant transshipment is allowed. The problem is flexible in terms of delivery due dates to customers, as we define a delivery time window. Using a large real dataset inspired from an industrial partner, we compare the integrated approach with several current practice scenarios. We use an exact method to find the solution of each scenario and study the trade-offs between cost and service level in a detailed sensitivity analysis. Our results indicate how the use of a synchronized and holistic approach to decision making provides abundant opportunities for logistics systems in general. We further extend our study by considering a multi-product and multi-echelon setting. In this problem, products are shipped to customers through a set of distribution centers, and the producer has control over their locations. In this study our network design is flexible since it may change over time. As the problem gets richer and more realistic, it also becomes more complex and difficult to solve. Better solutions from the integrated approach are obtained at the expense of higher implementation complexity and execution time. We describe and model the problem, and solve it with both integrated and sequential decision making approaches to indicate when the use of a more complex approach is beneficial. Our work provides insights on the value of the integrated approach compared to the sequential one. To highlight how the two types of flexibility, from the network design and from the delivery time windows, lead to economic savings, we describe, model, and solve an integrated flexible two-echelon location routing problem. In this problem a supplier delivers a commodity to the customers through a two-echelon supply network. Here, we also consider a penalty for each demand that is not satisfied within the pre-specified time window. The problem is studied in a richer setting, as the distribution is conducted via vehicle routing. The fourth part of this thesis addresses the environmental impacts of logistic decisions. Traditionally, supply chain optimization has merely concentrated on costs or the economic aspects of sustainability, neglecting its environmental and social aspects. Aiming to compare the effect of operational decisions not only on costs but also on greenhouse gas emissions, we reassess some well-known logistic optimization problems under new objectives. We study two integrated systems dealing with production, inventory, and routing decisions, in which a commodity produced at the plant is shipped to the retailers over a finite time horizon. We provide elaborated sensitivity analyses allowing us to gain useful managerial implications on the costs and emissions in integrated supply chains, besides important insights on the cost of being environmentally friendly. In this thesis, we aim not only to better understand the integrated logistics as a whole but also to provide useful operational tools for its exploitation. We propose new business models capable of enhancing supply chain performance while at the same time developing mathematical and technical implementation for its effective and efficient use. Keywords: Integrated optimization; Dynamic lot-sizing; Delivery time window; Location analysis; Distribution
13

Yang, GuoLu. "Modèle de transport complet en rivière avec granulométrie étendue." Grenoble 1, 1989. http://www.theses.fr/1989GRE10011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les variations des lignes d'eau et du lit des rivieres alluvionnaires dans le cas du transport complet (charriage+suspension) des sediments en granulometrie etendue sont etudiees par un modele mathematique uni-dimensionnel. Dans ce modele le charriage et la suspension sont consideres comme deux phenomenes du transport en tenant compte d'un terme source-puits qui represente l'echange entre eux. Le terme source-puits est formule par un modele d'echanges stochastiques considerant trois etats: suspension, charriage et immobilite, les probabilites des etats sont obtenues par le processus de chaine de markov. Le modele conceptuel d'une "couche melangee" est introduit pour reproduire les phenomenes de pavage et de triage. Le systeme d'equations a resoudre est analyse par la methode des caracteristiques. Une solution numerique decouplee du systeme est presentee. Un nouvel algorithme, assurant le calcul couple du transport par convection-diffusion-reaction, est developpe. Des tests du modele mathematique sont systematiquement effectues afin d'examiner la sensibilite et montrer la precision du modele
14

Cauchemez, Simon. "Estimation des paramètres de transmission dans les modèles épidémiques par échantillonnage de Monte Carlo par chaine de Markov." Paris 6, 2005. http://www.theses.fr/2005PA066572.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Dolivet, Yacine. "Dualités, construction de modèles et polynômes biorthogonaux en théorie des supercordes." Paris 6, 2007. http://www.theses.fr/2007PA066597.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le premier chapitre de cette thèse nous développons des règles formelles pour l'oxydation et la réduction dimensionnelle de théories incluant le secteur bosonique des théories de supergravité. Ceci nous permet de mettre en évidence la symétrie de leurs équations du mouvement sous des superalgèbres de Borcherds. Nous présentons ensuite une construction explicite du groupe de dualité non-perturbatif SU(4,n) des modèles de corde avec supersymétrie d'espace-temps N=6 en dimension trois ainsi qu'une discussion de la c-map pour plusieurs modèles perturbatifs exacts de cordes obtenus par la construction fermionique. Enfin, nous effectuons des rappels sur la théorie de Chern-Simons et le lien existant avec les modèles de matrices. On y présente nos résultats sur la construction des polynômes biorthogonaux de Stieltjes-Wigert qui sont utiles à l'étude de la théorie de Chern-Simons formulée sur les espaces lenticulaires.
16

Yahiaoui, Meriem. "Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place
Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
17

Hellion, Bertrand. "Contrats de stabilité pour la planification tactique dans une chaîne logistique : nouveaux modèles de dimensionnement de lot." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI032/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons au relations d'approvisionnement qui lient un distributeur à ses fournisseurs. Plus précisément, nous définissons des contrats de stabilité, et nous étudions leurs impacts. Au niveau tactique, il s'agit de résoudre un problème de dimensionnement de lot, qui a pour contrainte les caractéristiques des contrats. Nous avons exhibé plusieurs cas particuliers de problèmes de dimensionnement de lot, pour lesquels nous avons trouvé des algorithmes polynomiaux. Nous avons étudié le comportement des contrats de stabilité grâce à une suite d'expériences. Ensuite nous avons essayé d'adapter les contrats de stabilité à un cas d'étude réel : l'industrie canadienne des pâtes et papiers
Our focus is the supply relationship between a retailer and its suppliers. In fact, we defined stability contracts between these actors and study their impacts. At a tactical level, it is equivalent to solve a lot sizing problem under specific constraints, which are defined by the contract features. We showed that several variants of the lot sizing problem can be optimally solved in polynomial time. We studied the stability contract by performing numerous experiments. Then we tried to adapt the stability contract to a real case study : the canadian pulp and paper industry
18

Li, Lei. "Hydrogen supply chain design." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse contribue au déploiement de l’infrastructure liée à l’énergie renouvelable qu’est l’hydrogène, en proposant de nouvelles stratégies basées sur des approches d’optimisation. Un état de l’art sur la conception de la chaîne logistique de l’hydrogène est préalablement réalisé, et permet d’identifier dans la littérature deux perspectives de recherche. La première concerne la couverture de la chaîne logistique globale, qui n’est pas assurée, d’une part en amont au niveau de la localisation des fournisseurs de matières premières et de l’approvisionnement des centres de production (aspect transport), d’autre part en aval au niveau de la localisation des points de distribution (stations-service) et de leur approvisionnement (transport). Pour intégrer ces composantes, un nouveau modèle de planification est élaboré. Il fusionne les modèles classiques, plus précisément un modèle de HSCND (Hydrogen Supply Chain Network Design) au niveau central, c’est-à-dire au niveau de la production et du stockage, et un modèle de HSRP (Hydrogen Refueling Station Planning) en bout de chaîne, qui considère la distribution. Ce nouveau modèle intègre également la prise en compte des sources d’approvisionnement. Il est exprimé sous forme d’un programme linéaire en nombres entiers mixtes, avec pour objectif la minimisation du coût de l’hydrogène à la pompe (LCOH). Son intérêt est validé par une étude de cas représentant la Franche-Comté en France.La seconde voie explorée est l’intégration des niveaux de décision stratégique et tactique. Il s’agit d’optimiser simultanément la localisation des stations-service et des tournées de ravitaillement de ces stations, en considérant comme actées les décisions prises précédemment depuis les sources d’approvisionnement jusqu’aux centres de production en hydrogène. L’objectif est de maximiser la capture du flux de demande, tout en minimisant le coût quotidien total. Deux algorithmes approchés sont développés pour résoudre ce problème, l’un basé sur une recherche adaptative de grand voisinage, l’autre sur un algorithme génétique. Le modèle et les algorithmes proposés sont appliqués à la région Bourgogne Franche-Comté en France
This thesis contributes to the deployment of the hydrogen infrastructures by proposing new strategies based on optimization approaches. A state of the art on the design of the hydrogen supply chain has been previously carried out, and allows to identify in the literature two research perspectives.The first one concerns the coverage of the entire supply chain, on the one hand upstream at the level of the location of raw material suppliers and the supply of production centres (transport aspect), and on the other hand downstream at the level of the location of distribution points (refueling stations) and their supply (transport). To integrate these components, a new planning model is developed. It merges the classical models, more precisely an HSCND (Hydrogen Supply Chain Network Design) model at the central level, i.e. at the level of production and storage, and an HSRP (Hydrogen Refueling Station Planning) model at the end of the chain, which considers distribution. This new model also integrates the consideration of supply sources. It is expressed as a mixed number integer linear program, with the objective of minimizing the least cost of hydrogen (LCOH). Its interest is validated by a case study representing Franche-Comté in France.The second research area explored is the integration of the strategic and tactical decision-making levels. The aim is to simultaneously optimize the location of refueling stations and the routes to supply these stations, by considering as actuated the decisions previously taken from the supply sources to the hydrogen production centers. The objective is to maximize the refueling demand flow captured, while minimizing the total daily cost. Two metaheuristic algorithms are developed to solve this problem, one based on an adaptive large neighbourhood search, the other on a genetic algorithm. The proposed model and algorithms are applied to the Bourgogne-Franche-Comté region in France
19

Renoncet-Ungeheuer, Marie-Noëlle. "Etude des mécanismes de protection dans deux modèles de filarioses : loa loa chez des mandrills vaccinés par larves irradiées, et Litomosoides sigmodontis chez des souris primo-infectées." Paris 6, 2001. http://www.theses.fr/2001PA066212.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Khader, Selma-Afakh. "Modèles de réapprovisionnement de stocks sous incertitudes et perturbations dans le contexte d’un e-détaillant." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0096/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objet de cette recherche est la modélisation et l'étude de l'impact de la prise en compte des perturbations et des erreurs sur les politiques de réapprovisionnement pour un e-détaillant. Une des principales incertitudes en gestion de stock est l’écart entre la quantité en stock lue dans le système d’information et la quantité réellement disponible dans le système physique. A travers une étude empirique nous avons montré que l’impact de ce type d’erreurs est important dans le cas du e-détaillant. Dans ce contexte, le système d’information joue le premier rôle dans le processus de satisfaction de la demande puisque c’est sur la confrontation entre la demande du client final et les quantités figurant dans le Système d’Information que repose la promesse de vente. A l’exception de quelques contributions, les perturbations en gestion des stocks ont été principalement étudiées dans le contexte du détaillant. Nous avons étudié l’impact de ces perturbations sur la politique de stockage dans un contexte e-détaillant en faisant l’hypothèse d’une modélisation multiplicative des erreurs afin d’optimiser le profit du e-détaillant, et proposé deux modèles de réapprovisionnement, mono- et deux- périodes. Pour le premier, nous avons proposé une extension du modèle classique de vendeur de journaux au contexte de e-détaillant/fournisseur, avec un processus de demande sujet à des perturbations. Une étude analytique nous a permis de comparer l’impact de deux types de modélisation des erreurs, additive et multiplicative. Le deuxième modèle est une extension du premier au cas deux périodes. Avec sa résolution exacte, nous avons démontré que le comportement des quantités optimales était non monotone et qu’une politique myopique n’est pas optimale pour le cas multi-périodes. Grace à une étude numérique nous avons pu proposer des recommandations pour les managers, quant aux quantités à commander pour les deux périodes. Un troisième modèle de réapprovisionnement étudie l’impact des perturbations pour un problème multi-périodes avec minimisation des coûts et en considérant deux taux de service à atteindre, l’un sur la satisfaction des demandes et l’autre sur la satisfaction des ventes. Dans ce contexte, nous avons étudié et discuté plusieurs stratégies d’alignement dont réalisation d’inventaires et déploiement de technologie RFID
The aim of this PhD research is to study the impact of the inventory inaccuracy issue on replenishment policies under the wholesaling / e-retailing context. The inventory inaccuracy is defined as a discrepancy between the quantity shown by the Informational System and the quantity actually Physically available for sales. Such discrepancy has as root many sources of errors such as execution, transaction, misplacement, supply unreliability or shrinkage errors. We provide empirical evidence on the wide presence of inventory inaccuracies through one case study of wholesaling organizations. In e-retailing context customers’ demands are remotely satisfied based on the inventory level shown in the information system. The main interest of the research community was about studying the inaccuracy under the retail context. After motivating our research empirically and by the literature review, we develop three inventory frameworks subject to inventory inaccuracies under the wholesaling / e-retailing context with different configurations of the stochastic errors describing the inaccuracy issue. The error configuration could be additive for some sources of inaccuracies such as transaction as well as multiplicative (also known as stochastically proportional) for other sources such as shrinkage. Our first inventory framework aims to extend single-period (Newsvendor) model to the e-retailing/wholesaling context subject to inaccuracy. In Addition, to providing managerial insights, we compare the behavior of the optimal ordering strategies under the additive and the multiplicative error settings. Our second inventory framework is an extension of the former to the case of two selling periods. By solving exactly the two-period problem, we show that the behavior of the optimal ordering quantities is not monotonic, and conclude that a myopic policy could not be optimal. Thanks to a numerical study, we derive some interesting managerial insights about the management of the error risk between the two selling periods. Thanks to the theoretical results of our second inventory framework, we propose a third framework dealing with the inventory inaccuracy issue under a multi-period setting by assuming cost minimizing as a target but also by considering two Cycle Service Level constraints to achieve, the former for the demand satisfaction and the latter for the sales commitment satisfaction. We provide a comprehensive numerical study by comparing several policies as making inspection and RFID deployment
21

Klibi, Walid. "The Design of Effective and Robust Supply Chain Networks." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26790/26790.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Viho, Agbélénko Goudjo. "Étude de modèles markoviens en génétique et calculs des temps d'absorption." Grenoble 1, 1996. http://www.theses.fr/1996GRE10121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'étude de la modélisation de l'évolution, par des processus markoviens, de l'effectif d'un gène donné au cours des générations dans une population à taille limitée. Dans une première partie, nous faisons un recensement des différents types de chaînes de Markov homogènes utilisées dans la littérature pour une telle modélisation. Quand la taille de la population est grande, il est possible d'obtenir la convergence de ces chaînes de Markov vers des processus de diffusion homogènes grâce aux théorèmes de convergence qui font l'objet de la deuxième partie. La troisième partie de cette thèse est consacrée aux différentes méthodes de calcul des temps moyens avant absorption qui correspondent ici aux temps moyens avant disparition ou invasion complète du gène donné en partant de différentes conditions initiales. La quatrième partie propose une modélisation simple d'une maladie génétique, la drépanocytose, et l'influence du paludisme comme facteur de sélection sur l'évolution de cette maladie en Afrique
23

Gosselin, Frédéric. "Modèles stochastiques d'extinction de population : propriétés mathématiques et leurs applications." Paris 6, 1997. http://www.theses.fr/1997PA066358.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des modeles d'extinction de population sont frequemment employes comme outils d'aide a la decision pour la gestion de populations animales ou vegetales menacees. Le but de cette these est de prouver des resultats mathematiques decrivant la maniere dont se passe l'extinction dans la plupart de ces modeles, et de les appliquer a quelques cas particuliers. Apres une revue bibliographique sur l'extinction de populations et les modeles utilises pour l'apprehender, je propose une serie de resultats mathematiques, pour la plupart asymptotiques, generalisant au cadre plus etendu des chaines de markov a espace d'etats denombrable des resultats connus pour les chaines de markov finies ou les processus de ramification. Je prouve l'extinction certaine de ces modeles et deux types de stabilisation stochastique et asymptotique conditionnellement a la non-extinction. C'est l'utilisation de resultats d'analyse lineaire qui aura permis une telle extension. Je presente ensuite deux manieres de simuler numeriquement ces modeles, dont l'une est en partie nouvelle, puis j'etudie a la lumiere des resultats de cette these un modele d'extinction correspondant a une population reelle. Je clos ce travail par une discussion sur l'applicabilite, l'utilisation et l'utilite de mes resultats pour la modelisation de l'extinction, mais aussi dans d'autres domaines biologiques. Les principales conclusions sont que mes resultats s'appliquent a un grand nombre de modeles d'extinction existants et possedent des applications conceptuelles interessantes en ecologie theorique, concernant les notions d'equilibre et de stabilite, mais qu'ils ne sont pas systematiquement utiles dans l'interpretation des simulations et qu'ils doivent etre utilises avec une certaine rigueur mathematique
24

Cortés, Juan. "Motion planning algorithms for general closed-chain mechanisms." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2003. http://tel.archives-ouvertes.fr/tel-00011002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un système robotique agit par le mouvement dans un monde physique. La capacité deplanification de mouvement est donc une composante essentielle de l'autonomie du système et constitue un domaine de recherche très actif en Robotique. Le champ d'application de ces méthodes dépasse aujourd'hui le cadre de la Robotique et intéresse des domaines aussi diversifiés que la CAO, la logistique industrielle, l'animation graphique ou la biologie moléculaire. Dans tous ces domaines on est confronté au mouvement de systèmes complexes contenant des chaînes cinématiques fermées. Cette thèse traite de la planification de mouvement pour de tels systèmes. La première partie présente notre contribution théorique et technique. Après avoir proposé une formulation générale de la planification de mouvement sous contrainte de fermeture cinématique, nous décrivons une méthode qui s'inscrit dans le cadre des techniques d'exploration par échantillonnage. Les outils algorithmiques que nous proposons permettent une application efficace de ces techniques à des systèmes mécaniques complexes. La deuxième partie traite de l'utilisation de ces outils pour la résolution de divers problèmes. En Robotique, nos algorithmes ont été appliqués à la synthèse de mouvement de mécanismes parallèles, à la manipulation coordonnée ainsi qu'à la planification de tâches de manipulation d'objets. Enfin, nous abordons une application originale à la biologie structurale pour l'étude des capacités de mobilité de boucles protéiques. Les résultats obtenus à travers ces applications montrent l'efficacité et la généralité de notre approche.
25

Rhinn, Hervé. "Approches transcriptionnelles appliquées à un modèle de traumatisme crânien chez la souris." Paris 6, 2007. http://www.theses.fr/2007PA066254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail vise à étudier les variations d'expression cérébrale d'ARNm à la suite d'un trauma crânien (TC) chez la souris. Une méthode d'analyse de données par PCR quantitative basée sur une modélisation de cette réaction ainsi qu'un protocole permettant de mesurer l'ADNc en présence d'ARN sont développés. Des facteurs de normalisation adaptés au modèle étudié sont identifiés. En utilisant ces résultats, les niveaux d'expression de gènes impliqués dans l'inflammation et l'apoptose par récepteurs de mort sont suivis par PCR quantitative pendant 48h après TC. L'utilisation de puces à ADN et la construction d'une banque soustractive permet par ailleurs d'identifier des gènes dont l'expression est induite dans le modèle étudié. L'effet thérapeutique de l’acide valproïque, la naltrexone et la minocycline, ainsi que leur influence sur le niveau d'expression de certains transcrits sont étudiés. Dans l'objectif d'une extinction spécifique de certains transcrits après TC, plusieurs formulations en lipoplexes ont été étudiées afin d'optimiser la transfection de siRNA in vitro. Des siRNA dirigés contre certains gènes des voies de l'apoptose et de l'inflammation (TNFR1, RIP, FADD et MMP9 ) ont été validés in vitro et testés in vivo après TC
This works aims at the study of mRNA epxression following a traumatic brain injury (TBI) in mouse. Methods are developed, for quantitative PCR (qPCR) analysis and for the quantification of cDNA mixed in solution with RNA. Normalization factors suitable for the study are validated. Based on these results, the mRNA levels of genes belonging to the inflammatory and death-receptor pathways are quantified after TBI using qPCR. DNA microarray and suppressive subtractive hybridization are used to identify new genes uprégulated after TBI. Three drugs (valproic acid, naltrexone and minocycline) are used after TBI, and their therapeutical benefits as well as their consequences on the expression levels of several gens are studied. In order to specifically silence the expression of some genes after TBI, the use of siRNA is planned. The formulation of siRNA in lipoplexes is studied in vitro in order to optimize their transfection efficiency, and siRNA targeting Fas, TNFR1, RIP, FADD and MMP9 are validated in vitro and tested in vivo after a TBI
26

Sun, Zhong-Ping. "Etude d'un modèle d'expression des lipoxygénases de lignées cellulaires utilisées pour la détection des virus." Limoges, 1994. http://www.theses.fr/1994LIMO304D.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

El, Garrab Hamza. "Amélioration de la chaine logistique de pièces de rechange en boucle fermée : application des modèles d’apprentissage." Thesis, Angers, 2020. http://www.theses.fr/2020ANGE0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de service après-vente et particulièrement dans la maintenance, l’intervention rapide et la réparation du bien du client est un élément clé pour sa satisfaction et pour la création de l’image de marque dans le marché. Le travail présenté dans cette thèse propose une approche Big Data et Machine Learning pour l’amélioration du flux informationnel de la chaine logistique de pièces de rechange. Notre contribution se focalise sur la prévision de la charge dans les centres de réparation des pièces de rechange, qui sont les fournisseurs principaux des pièces utilisés pour réparer les systèmes des clients. La grandeur de la chaine logistique et sa complexité, le grand nombre des références de pièces ainsi que la multitude des cas spéciaux (pays avec de lois spécifiques, pièces particulières…) fait que les approches classiques n’offrent pas des prévisions fiables pour les services de réparation. Dans ce projet, nous proposons des algorithmes d’apprentissage permettant la construction de la connaissance à partir de grands volumes de données, au lieu de l’implémentation manuelle. Nous allons voir les modèles dans la littérature, présenter notre méthodologie, et ensuite implémenter les modèles et évaluer leur performance en comparaison avec les algorithmes existants
In the field of after-sales service and particularly in maintenance, the quick intervention and repair of the customer's property is a key element for his satisfaction and for the creation of the brand image in the market. The work presented in this thesis proposes a Big Data and Machine Learning approach for the improvement of the information flow in the spare parts supply chain. Our contribution focuses on load forecasting in spare parts repair centers, which are the main suppliers of parts used to repair customers' systems. The size of the supply chain and its complexity, the large number of part numbers as well as the multitude of special cases (countries with specific laws, special parts...) makes that classical approaches do not offer reliable forecasts for repair services. In this project, we propose learning algorithms allowing the construction of knowledge from large volumes of data, instead of manual implementation. We will see the models in the literature, present our methodology, and then implement the models and evaluate their performance in comparison with existing algorithms
28

Ratsimbazafimahefa, Hanitra Myriam. "Proposition d'un modèle de circuit du médicament dans les hôpitaux publics de Madagascar." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le circuit du médicament à l’hôpital comporte quatre principales phases successives pour la prise en charge du patient hospitalisé : prescription, dispensation, administration, suivi du traitement. Toutefois, le médicament en tant que produit dispose traditionnellement d’un circuit logistique comprenant les étapes de sélection, achat et gestion de stocks. Chacune de toutes ces étapes du circuit du médicament fait intervenir différents acteurs et la pharmacie hospitalière en reste l’organe pivot à l’hôpital. La performance et la sécurisation du circuit du médicament font partie intégrante d’un système de santé efficace et doivent constituer une priorité du système de soins.Madagascar se trouve dans un contexte d’extrême pauvreté alors que 40% des dépenses de santé sont à la charge des ménages. Dans ce contexte, l’opérationnalité d’une pharmacie hospitalière est essentielle dans les hôpitaux publics dont les utilisateurs principaux sont particulièrement les populations de classe moyenne ou pauvre. Or, cette pharmacie hospitalière n’est qu’en phase de structuration à ce jour pour deux raisons : le manque d’effectifs pharmaceutiques disponibles pour ce secteur et la politique pharmaceutique hospitalière nationale encore mal définie.L'objectif de cette thèse est de contribuer à l’amélioration de l’accessibilité et de la qualité des soins de la population dans les hôpitaux publics de Madagascar en proposant un modèle optimal et justifié du circuit du médicament en tenant compte des ressources humaines, matérielles et financières. Dans une première étape, afin de compléter la littérature grise disponible au pays, une description et une analyse de l’organisation et du fonctionnement de la pharmacie hospitalière ainsi que de tout le circuit du médicament dans les hôpitaux publics ont été réalisées par une recherche qualitative. Pour cela, des interviews semi-structurés des acteurs de santé du circuit ont été menés. Les résultats mettent en évidence les lacunes en termes de cadrage de l’organisation et du fonctionnement de la pharmacie hospitalière à Madagascar. Le circuit du médicament est compliqué : sans méthode standardisée de référencement des médicaments, quantification des besoins ne tenant pas compte de méthodes validées, gestion des stocks manuelle rendant difficile la supervision, prescription sans protocoles thérapeutiques standards, délivrance nominative par du personnel non qualifié, administration sans assistance pharmaceutique. Par la suite, un focus sur l’approvisionnement, l’essentiel des activités actuelles de la pharmacie hospitalière malgache dans le circuit du médicament, a été réalisé dans un établissement hospitalier de référence choisi. Une étude rétrospective évaluative du circuit de médicaments traceurs : les antidouleurs a été menée. Les principaux indicateurs sont des indicateurs harmonisés de gestion des achats et des stocks définis par l’OMS. Le calcul des différents indicateurs montre un système d’approvisionnement suboptimal. Les pratiques de référencement, d’achat, de commande et de gestion des médicaments devront être définies. Pour arriver à cerner les priorités stratégiques de mise en œuvre de ces améliorations à Madagascar, une enquête d’évaluation auprès des acteurs de santé les plus impliqués dans le circuit du médicament a été conduite sur les 75 recommandations internationales sur le futur de la pharmacie hospitalière en terme de leur importance, de leur capacité de mise en œuvre efficace et de leur réalisabilité. 32/75 (42,7%) de ces recommandations internationales pourraient être priorisées. Sur la base de tous ces préalables, un modèle optimal d'organisation du circuit du médicament à l’hôpital est proposé et sera mis à la disposition du Ministère de la Santé pour être testé dans les hôpitaux publics. Le modèle visera principalement une « pharmaceutisation » des ressources humaines et des différentes étapes du circuit du médicament
Hospital drug supply chain consists of four major phases in patient management: prescription, dispensing, administration and monitoring of the treatment. However, as a product, medicine has traditionally logistic supply chain including selection, procurement and stock management. Each of these steps of drug supply chain involves different actors but hospital pharmacy remains their focal point in hospital. Drug supply chain performance and safety are essential parts of an effective health care system and had become priorities for public health.Madagascar is a very poor country whereas 40% of health expenditures in charge of households. In this context, making operational the hospital pharmacy is essential in public hospitals whose main users are especially the middle class and the poor. Yet, hospital pharmacy is only on a structuring phase for two reasons: the lack of available pharmacists for this sector and the unclear national pharmaceutical policy for hospitals.The objective of this thesis is to contribute to the improvement of accessibility and quality of public health care in public hospitals of Madagascar by providing a proposal of an optimal and justified model of drug supply chain taking account the human, material and financial resources.First, description and analysis of hospital pharmacies and the drug supply chain in public hospitals were done from qualitative research. For that purpose, semi-structured interviews have been conducted with health actors of the supply chain. The principal issue perceived by interviewees was the heterogeneity of the system in terms of technical and financing management. The drug supply chain is not under control: no internal procedure has been established for the selection of pharmaceutical products, the quantification of needs is complex, the stock management is difficult to supervise, a standard prescription protocol is lacking, the dispensing is performed by unqualified staff, no pharmaceutical preparation is manufactured in the hospitals and the administration occurs without pharmaceutical support. Then, we focused on procurement, the essential of current activities of Malagasy hospital pharmacies in drug supply chain. Our retrospective and evaluative study was conducted in a university hospital and utilized indicators for assessing the procurement management of medicines and preventing stock-outs and overstocking. The calculations of these indicators show a suboptimal drug supply chain. The drug supply chain needs some improvements. In order to define some strategic priorities of the implementation of these improvements, a survey on health actors was conducted in line with the international recommendations for hospital pharmacy. 32/75 (42,7%) of these recommendation could be conducted according to the participants. An optimal organizational model of drug supply chain is proposed and will be made available to the Ministry of health to be tested in public hospitals. This model aims at implementing the « pharmaceutization » of the resources and the different steps of the drug supply chain
29

Helali, Amine. "Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre
Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium
30

Besbes, Khaoula. "Supply chain design with product life cycle considerations." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0209/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail de recherche traite la problématique de la conception d’une chaîne logistique multi-niveaux tout en tenant compte du cycle de vie du produit. Par cycle de vie du produit, nous voulons dire la succession des quatre phases de commercialisation que traverse un produit à travers le temps, à savoir : l’introduction, la croissance, la maturité et le déclin. L’objectif est de mette en place un modèle mathématique qui soit fondé sur une analyse approfondie des différents acteurs de la chaîne, selon la phase du cycle de vie du produit.Trois principaux modèles ont été développés dans cette thèse. Chacun fait l’objet d’un chapitre à part entière.Le premier modèle développé vise à concevoir une chaîne logistique de coût minimum, tout en prenant en considération l’efficacité des différents acteurs potentiels calculée selon plusieurs critères (coût, qualité, innovation, qualité du service, délais de livraisons, …), ainsi que sa variation au cours du cycle de vie du produit. Un deuxième modèle a été mis en place pour la conception d’une chaîne logistique durable, tout en prenant en considération le cycle de vie du produit. Dans ce modèle, trois objectifs différents ont été pris en compte à la fois, à savoir, un objectif économique, un objectif environnemental et un objectif social. Dans les deux premiers modèles, nous avons supposé que le produit aura un cycle de vie classique. Cependant, dans la réalité, ceci n’est pas toujours le cas. En effet, quelques produits connaissent des cycles de vie très atypiques et donc très éloignés de la courbe d’un cycle de vie théorique. Pour ce faire, un troisième modèle stochastique a été proposé pour la conception d’une chaîne logistique robuste, tenant compte des différents scénarios du cycle de vie du produit
Our research addresses the problem of designing a multi-level supply chain, while taking into consideration the product life cycle. By product life cycle, we mean the succession of the four marketing stages that a product goes through since its introduction to the market and until it will be removed from. All products have a life cycle which can be classified into four discrete stages: introduction, growth, maturity and decline.Depending on the product life cycle phases, and based on a thorough analysis of the different supply chain potential actors, this study aims to establish mathematical models to design an efficient supply chain network. Three main models have been developed in this thesis. The first proposed model aims to design a product-driven supply chain with a minimal total cost, taking into consideration the evaluation of the different potential actors effectiveness, according to several criteria (cost, quality, innovation, quality service, timely delivery, ...).A second model was developed to design of a sustainable supply chain network, taking into account the product life cycle. In this model, three different objectives at the time were considered, namely, an economic objective, an environmental objective and a social objective.In the two previous models, we have assumed that the product has a classical life cycle. However, in the reality this is not always the case. Indeed, some products have very atypical life cycles, whose curves are very different from the classical one. To tackle this problem, in the third part of this thesis, we propose a stochastic model to design a robust supply chain network, taking into account the different product life cycle scenarios
31

Dubarry, Cyrille. "Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00762243.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
32

Lu, Ye. "Construction d’abaques numériques dédiés aux études paramétriques du procédé de soudage par des méthodes de réduction de modèles espace-temps." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI103/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le recours à des simulations numériques pour l’étude de l’influence des paramètres d’entrée (matériaux, chargements, conditions aux limites, géométrie, etc.) sur les différentes quantités d’intérêt en soudage (contraintes résiduelles, distorsion, etc.) s’avère trop long et coûteux vu l’aspect multi-paramétrique de ces simulations. Pour explorer des espaces paramétriques de grandes dimensions, avec des calculs moins coûteux, il parait opportun d’utiliser des approches de réduction de modèle. Dans ce travail, d’une façon a posteriori, une stratégie non-intrusive est développée pour construire les abaques dédiées aux études paramétriques du soudage. Dans une phase offline, une base de données (‘snapshots’) a été pré-calculée avec un choix optimal des paramètres d'entrée donnés par une approche multi-grille (dans l’espace des paramètres). Pour explorer d’autres valeurs de paramètres, une méthode d’interpolation basée sur la variété Grassmannienne est alors proposée pour adapter les bases réduites espace-temps issues de la méthode SVD. Cette méthode a été constatée plus performante que les méthodes d’interpolation standards, notamment en non-linéaire. Afin d’explorer des espaces paramétriques de grandes dimensions, une méthode de type décomposition tensorielle (i.e. HOPGD) a été également étudiée. Pour l’aspect d’optimalité de l’abaque, nous proposons une technique d’accélération de convergence pour la HOPGD et une approche ‘sparse grids’ qui permet d’échantillonner efficacement l’espace des paramètres. Finalement, les abaques optimaux de dimension jusqu’à 10 à précision contrôlée ont été construits pour différents types de paramètres (matériaux, chargements, géométrie) du procédé de soudage
The use of standard numerical simulations for studies of the influence of input parameters (materials, loading, boundary conditions, geometry, etc.) on the quantities of interest in welding (residual stresses, distortion, etc.) proves to be too long and costly due to the multiparametric aspect of welding. In order to explore high-dimensional parametric spaces, with cheaper calculations, it seems to be appropriate to use model reduction approaches. In this work, in an a posteriori way, a non-intrusive strategy is developed to construct computational vademecum dedicated to parametric studies of welding. In an offline phase, a snapshots database is pre-computed with an optimal choice of input parameters given by a “multi-grids” approach (in parameter space). To explore other parameter values, an interpolation method based on Grassmann manifolds is proposed to adapt both the space and time reduced bases derived from the SVD. This method seems more efficient than standard interpolation methods, especially in non-linear cases. In order to explore highdimensional parametric spaces, a tensor decomposition method (i.e. HOPGD) has also been studied. For the optimality aspect of the computational vademecum, we propose a convergence acceleration technique for HOPGD and a “sparse grids” approach which allows efficient sampling of the parameter space. Finally, computational vademecums of dimension up to 10 with controlled accuracy have been constructed for different types of welding parameters (materials, loading, geometry)
33

Wanderley, Matos de Abreu Thiago. "Modeling and performance analysis of IEEE 802.11-based chain networks." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le protocole IEEE 802.11, basé sur les principes CMSA/CA, est largement déployé dans les communications sans fil actuelles, principalement en raison de sa simplicité et sa mise en œuvre à faible coût. Une utilisation intéressante de ce protocole peut être trouvée dans les réseaux sans fil multi-sauts, où les communications entre les nœuds peuvent impliquer l'emploi de nœuds relais. Une topologie simple de ces réseaux impliquant une source et une destination est communément connue en tant que chaîne. Dans cette thèse, un modèle hiérarchique, composé de deux niveaux, est présenté dans le but d'analyser la performance associée à ces chaînes. Le niveau supérieur modélise la topologie de la chaîne et le niveau inférieur modélise chacun de ses nœuds. On estime les performances de la chaîne, en termes de débit obtenu et de pertes de datagrammes, en fonction de différents modes de qualité du canal. En termes de précision, le modèle offre, en général, des résultats justes. Par ailleurs, le temps nécessaire à sa résolution reste très faible. Le modèle proposé est ensuite appliqué aux chaînes avec deux, trois et quatre nœuds, en présence de stations cachées potentielles, de tampons finis et d'une couche physique non idéale. Par ailleurs, l'utilisation du modèle proposé permet de mettre en évidence certaines propriétés inhérentes à ces réseaux. Par exemple, on peut montrer que la chaîne présente un maximum de performance (en ce qui concerne le débit atteint) en fonction du niveau de charge de du système, et que cette performance s'effondre par l'augmentation de cette charge. Cela représente un comportement non trivial des réseaux sans fil et il ne peut pas être facilement identifié. Cependant, le modèle capture cet effet non évident. Finalement, certains impacts sur les performances des chaînes occasionnés par les mécanismes IEEE 802.11 sont analysés et détaillés. La forte synchronisation entre les nœuds d'une chaîne et comment cette synchronisation représente un défi pour la modélisation de ces réseaux sont décrites. Le modèle proposé permet de surmonter cet obstacle et d'assurer une évaluation facile des performances de la chaîne
The IEEE 802.11 protocol, based on the CMSA/CA principles, is widely deployed in current communications, mostly due to its simplicity and low cost implementation. One common usage can be found in multi-hop wireless networks, where communications between nodes may involve relay nodes. A simple topology of these networks including one source and one destination is commonly known as a chain. In this thesis, a hierarchical modeling framework, composed of two levels, is presented in order to analyze the associated performance of such chains. The upper level models the chain topology and the lower level models each of its nodes. It estimates the performance of the chain in terms of the attained throughput and datagram losses, according to different patterns of channel degradation. In terms of precision, the model delivers, in general, accurate results. Furthermore, the time needed for solving it remains very small. The proposed model is then applied to chains with 2, 3 and 4 nodes, in the presence of occasional hidden nodes, finite buffers and non-perfect physical layer. Moreover, the use of the proposed model allows us to highlight some inherent properties to such networks. For instance, it is shown that a chain presents a performance maximum (with regards to the attained throughput) according to the system workload level, and this performance collapses with the increase of the workload. This represents a non-trivial behavior of wireless networks and cannot be easily identified. However, the model captures this non-trivial effect. Finally, some of the impacts in chains performance due to the IEEE 802.11 mechanisms are analyzed and detailed. The strong synchronization among nodes of a chain is depicted and how it represents a challenge for the modeling of such networks. The proposed model overcomes this obstacle and allows an easy evaluation of the chain performance
34

Chraibi, Sarrah. "Faire ou faire-faire les Achats : le modèle de RFF et de SNCF Réseau à l’épreuve des faits." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIL443.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’externalisation peut s’avérer une épée à double tranchant : face aux opportunités qu’elle présente, les dangers qu’elle engendre, s’ils ne sont pas suffisamment maitrisés, peuvent aller jusqu’à menacer la pérennité de l’entreprise. L'externalisation des Achats à caractère stratégique est de son côté assez émergente et nécessite donc la mise en place d’une nouvelle méthode organisationnelle dans les pratiques de l’entreprise. Cette recherche démontre qu’un modèle de management mixte (vertical et horizontal) peut s’avérer efficace pour l’externalisation des Achats à caractère stratégique et s’intéresse ensuite à tous les Achats de l’entreprise en développant un modèle d’aide à la décision du faire ou faire-faire des Achats. La méthodologie suivie est qualitative se basant sur une étude de cas approfondie et des entretiens d’experts
A great deal of attention has been paid to the performance of business networks in supply chain management, firms are collaborating more to develop long term business relationships. However, limited empirical evidence exists to validate a plural management model as a key success factor in a strategic supplier relationship. The purpose of this research is to enrich our understanding about how to manage an external provider relationship in case of outsourcing strategic procurement by providing empirical evidence. Then this research draws a decision making process for the Make-or-Buy of procurement activities which includes: Analysis of the current situation, Preparation for the Make-or-Buy choice, Scope of Make-or-Buy, Make-or-Buy analysis and Make-or-Buy choice. This research examines an in-depth qualitative case and contributes to the literature by providing empirical evidence
35

Kochebina, Olga. "Study of Rare Charm Decays with the LHCb Detector at CERN." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112208/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les désintégrations charmées rares interviennent principalement via des courants neutres changeant la saveur (FCNC). Le Modèle Standard (SM) n'autorise les courants qu'au niveau des boucles. Dans les désintégrations du charme, les FCNC sont sujets à une très efficace suppression de GIM. Des processus très rares sont donc à considérer. Ils sont d'excellents outils pour la recherche Nouvelle Physique (NP) au-delà du SM. Les particules de NP pourraient devenir détectables en écartant des observables telles que des rapports de branchement et des asymétries CP et angulaires prévisions de le SM. Le sujet principal de cette thèse est la mesure du rapport de branchement D0->K-π+ρ/ω(->µ+µ-). Il sera précieux en particulier en tant que mode de normalisation lors de l'étude de toutes les désintégrations D0 -> h-h’+ µ+µ- : D0 -> K-π+µ+µ-, D0 -> π+π-µ+µ-, D0 -> K+K-µ+µ- et D0 -> K+π-µ+µ-. En utilisant 2/fb de données collectées par LHCb en 2012, nous mesurons: B(D0 -> K-π+ ρ/ω (->µ+µ-)) = (4.37± 0.12(stat.) ±0.53(syst.)) ×10^-6. C'est la toute première mesure de ce mode. Nous avons également étudié la sensibilité qu'attendra LHCb dans les modes D0 -> h-h’+ µ+µ- pour la mesure de rapport des branchements totaux et partiels, et pour celle d'asymétries, avec les échantillons de données qui seront collectés d'ici 10 ans. Par ailleurs, nous avons déterminé les incertitudes systématiques touchant les recherches de désintégrations à trois corps, D+(s) -> π+µ+µ- et D+(s) -> π-µ+µ+, effectués par LHCb dans les données recueillies en 2011 (1/fb). Enfin, les tests effectués sue les prototypes des cartes d'électronique embarquée qui assureront la lecture des calorimètres de l'expérience le LHCb mise à jour sont présenté dans cette thèse
Rare charm decays proceed mostly through the c -> u Flavor Changing Neutral Current (FCNC), which is possible only at loop level in the Standard Model (SM). In charmed decays, FCNCs are subject to a very efficient GIM suppression, leading to very rare processes. Consequently, rare charm decays are good tools to probe to New Physics (NP) beyond the SM. NP particles could become detectable by causing observables such as branching ratios and CP or angular asymmetries to deviate from the SM predictions. The main subject of this thesis is the measurement of the branching ratio of the D0 -> K-π+ ρ/ω (->µ+µ-) mode. It will be precious in the future, in particular as a normalization mode in the study of all: D0 -> h-h’+ µ+µ- decays D0 -> K-π+µ+µ-, D0 -> π+π-µ+µ-, D0 -> K+K-µ+µ- and D0 -> K+π-µ+µ-. Using 2/fb of 2012 LHCb data we find: B(D0 -> K-π+ ρ/ω (->µ+µ-)) = (4.37± 0.12(stat.) ±0.53(syst.)) ×10^-6. This is the first measurement of this mode. We also determined sensitivities to total and partial branching fractions and asymmetries in D0 -> h-h’+ µ+µ- decays with future LHCb datasets. In addition, the systematic uncertainties affecting the searches for the 3-body decays, D+(s) -> π+µ+µ- and D+(s) -> π-µ+µ+, carried out by LHCb based on the data collected in 2011 (1/fb). Finally, the results of the tests of front-end electronic board for the Upgrade of LHCb are presented
36

Yuan, Zhe. "Optimal models for the flexibility of supply chain policies and capacities with uncertain demands." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie la conception d’optimisation de la flexibilité de la politique de logistique et de la capacité de logistique avec une demande incertaine. Ces flexibilités jouent un rôle crucial dans la performance en garantissant la qualité du produit et en maximisant le profit. Nous nous concentrons sur la conception de la capacité de politique de logistique et de la capacité de logistique. Cette recherche étudie trois problèmes d’optimisation: une conception de la politique de commande dans le contrat quantité-flexibilité et la conception de la capacité dans deux entrepôts.Nous examinons d’abord la chaîne logistique à deux échelons entre le constructeur automobile et le détaillant, où le détaillant achète des automobiles écologiques au constructeur automobile et reçoit la demande de ses clients respectueux de l’environnement. Nous établissons une politique de commande dans un contrat à flexibilité de quantité qui prend en compte les exigences écologiques. La politique considère que le constructeur automobiledétermine le niveau de verdissement et que le détaillant détermine le prix de vente au détail avant la signature du contrat. Nous construisons les modèles pour décrire ce contrat dans les chaînes logistiques décisionnelles décentralisées et centralisées. Nous optimisons le niveau de verdissement pour maximiser les profits du constructeur automobile et le prix de vente au détail avec une demande sensible au respect de l’environnement visant à maximiser lesprofits du détaillant. Nous considérons en outre la décision d’équilibre entre le niveau de verdissement et le prix de détail pour maximiser les bénéfices de la chaîne logistique.Nous concevons ensuite les capacité s des robots et des cueilleuses dans un système RMFS (Robotic Mobile Fulfillment System), présenté par plusieurs robots soulevant et transportant des é tagres de stockage de meubles depuis les grilles de stockage jusqu’aux préparateurs de commandes. Nous construisons des modèles de Markov de grande-dimension pour décrire ce système avec des classes de clients, calculons le débit de ce système en fonction du nombre de robots et fournissons des règles de conception permettant de déterminer le nombre optimal de robots et leurs capacités, en tenant compte du compromis entre des robots. Nous vérifions les résultats analytiques des modèles de Markov avec des simulations. Nous consiérons en outre RMFS à sélecteur multiple et étudions sa conception optimale. Un autre objectif de la conception des capacités dans RMFS est considéré. Nous construisons des modèles de réseau de files d’attente pour décrire le système RMFS à l’aide de deux protocoles de partage de robots pour les sélecteurs, proposons les algorithmes correspondants, effectuons des analyses numériques et évaluons les performances du système RMFS en calculant letemps de traitement. Nous calculons ensuite le nombre et la vitesse optimaux des robots et fournissons les règles de conception efficaces pour RMFS.Enfin, nous concevons le stockage public. La conception des entrepôts de stockage publics doit s’adapter aux segments du marché afin d’augmenter le revenu moyen dans un environnement de forte demande. Cet article présente un modèle de revenu intégré aux théories de la file d’attente et de la demande de prix afin de résoudre le problème de conception et de tarification des entrepôts de stockage publics. Nous considérons deux cas de demande dans le modèle, à savoir une demande exponentielle et une demande linéaire par morceaux.Nous développons également une solution basée sur des techniques de programmation dynamiques pour résoudre le problème. En utilisant les données d’un entrepôt, nous menons des expériences numériques. Les résultats montrent que notre approche peut améliorer les revenus attendus des entrepôts publics à forte demande de 16,6 % en moyenne. Nous réalisons en outre une analyse de sensibilité du prix et étudions la relation entre le revenu et le prix
This thesis studies optimal models for the flexibility of supply chain policies and capacities with uncertain demand. This thesis investigates three optimization problems: An order policy design in the quantity-flexibility contract and the capacity design in robotic warehouses and self-storage warehouses.We first consider the two-echelon supply chain between the automobile manufacturer and the retailer, where the retailer purchases green automobiles from the automobile manufacturer and receives the green sensitive customer demand.We make an order policy in a quantity-flexibility contract that considers green sensitive demands. The policy considers that the automobile manufacturer determines the greening level and the retailer determines the retail price before establishing the contract. We build the models to describe this contract in both decentralized and centralized decision-making supply chains. We apply Stackelberg game to optimize the greening level for maximizing the automobile manufacturer's profit and optimize the retail price with green sensitive demand for maximizing the retailer's profit. We further consider the equilibrium decision between the greening level and the retail price for maximizing the profit of the supply chain.We then study capacities of robots and pickers in a Robotic Mobile Fulfillment System (RMFS), featured byseveral robots lifting and transporting movables storage shelves from storage grids to order pickers. We build high-dimension Markov models to describe this system with customer classes, calculate throughput of this system given the number of robots and provide design rules to determine the optimal number of robots and their capacities considering the trade-off between capacities of picker stations and robots. We verify the analytic results of Markov models with simulations. We further consider multiple-picker RMFS and study its optimal design. We consider another objective of designing capacities in RMFS. We build queue network models to describe the RMFS with two protocols in sharingrobots for pickers, propose the corresponding algorithms, conduct numerical analyses, and evaluate the performance of the RMFS by calculating throughput time. We then calculate the optimal number and velocity of robots and provide the effective design rules for RMFS.Finally, we study the self-storage warehouses. The design of self-storage warehouses needs to fit market segments to increase the average revenue in an environment of high demand. This thesis presents a revenue model integrated with queuing and price-demand theories to solve the design and pricing problem for self-storage warehouses. We consider two demand cases in the model, which are exponential demand and piecewise linear demand. We also develop a solution based on dynamic programming techniques to solve the problem. Using data from a warehouse, we conduct numerical experiments. Results show that our approach can improve the expected revenue of public storage warehouses with high demand by 16.6% on average. We further conduct a sensitivity analysis on price and investigate the relationship between revenue and price
37

Oger, Raphaël. "A decision support system for long-term supply chain capacity planning : a model-driven engineering approach." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2019. http://www.theses.fr/2019EMAC0013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La planification capacitaire des chaînes logistiques (SCCP) sur un horizon long-terme a pour objectif de définir un plan d’actions contenant l’ensemble des actions qui vont façonner la capacité disponible et requise des chaînes logistiques sur plusieurs années. Lorsque les entreprises réalisent leur SCCP sur un horizon long-terme, elles sont confrontées à une multitude d’options décisionnelles et de sources d’incertitudes, ainsi qu’à un environnement très dynamique. Chaque entreprise met en place son propre système d’aide à la décision (SCCP DSS) pour réaliser sa SCCP. Ce DSS est composé d’un processus de prise de décisions, d’un système d’information, et de personnes. Les entreprises peuvent utiliser les processus de prise de décisions et systèmes d'information existants pour créer leur propre SCCP DSS. Cependant, la revue de littérature relative aux processus de prise de décisions et systèmes d'information existants pouvant servir à la création d’un SCCP DSS a révélé les trois limitations suivantes : premièrement, les solutions existantes sont très chronophages. Cette limitation contraint les entreprises à ne prendre en compte qu’un nombre limité de scénarios alternatifs associés aux options décisionnelles et aux sources d’incertitudes. De plus, cela rend difficile le maintien à jour des analyses SCCP. Deuxièmement, les solutions existantes sont conçues pour réaliser les analyses SCCP sur des chaines logistiques prédéfinies et figées, sans considération de l’ensemble des potentielles alternatives structurelles. Troisièmement, les décideurs sont parfois réticents face aux méthodes d’optimisation du fait du manque de visibilité sur le processus d’obtention de la solution recommandée. Ainsi, cette thèse décrit la proposition d’un nouveau SCCP DSS ayant pour objectif de solutionner ces limitations. Il est composé d’une proposition de processus de prise de décisions SCCP tirant profit d’une proposition de système d'information SCCP. Le processus de prise de décisions SCCP est composé de deux processus : implémentation et routine. Le système d'information SCCP est composé de deux logiciels : un logiciel calculatoire et un logiciel de business intelligence. La proposition de SCCP DSS a été validée en réalisant deux projets pilotes avec deux partenaires industriels. Deux bénéfices majeurs ont été identifiés : premièrement, cela permet de prendre en compte une multitude d’options décisionnelles et de sources d’incertitudes durant les analyses SCCP à un rythme permettant un maintien à jour de ces analyses. Deuxièmement, cela permet aux décideurs d’avoir de la visibilité sur l’impact que leurs options décisionnelles et sources d’incertitudes auraient sur l’entreprise, ce qui renforce leur confiance vis-à-vis des décisions qu’ils peuvent prendre. Finalement, des perspectives de recherche ont été identifiées, incluant notamment la conception d’un SCCP DSS hyperconnecté qui collecterait automatiquement les informations et déclencherait des réunions de prises de décisions seulement quand cela est nécessaire plutôt qu’à une fréquence prédéfinie
Long-term Supply Chain Capacity Planning (SCCP) aims to define the plan of all actions to perform that will shape the available and required capacity of supply chains over several years. When performing long-term SCCP, companies are confronted with a multitude of decision options and uncertainty sources as well as a highly dynamic supply chain environment. Each company configures its own Decision Support System (DSS) to perform SCCP, composed of a decision-making process, an information system, and people. Companies can take advantage of existing decision-making processes and information systems to build their own SCCP DSS. However, the literature review on existing decision-making processes and information systems for SCCP revealed the following three major limitations: first, existing solutions are time-consuming. This constrains companies to consider only a small number of alternative scenarios associated with decision options and uncertainty sources. And it makes it difficult to keep SCCP analysis up to date. Second, existing solutions are designed to perform SCCP analysis on predefined supply chains without considering the whole set of potential alternative configurations. Third, decision-makers are reluctant to accept optimization methods because of the lack of visibility of the analysis leading to the recommended solution. Therefore, this thesis describes a new SCCP DSS proposal aiming to overcome these limitations. It is composed of an SCCP decision-making process proposal relying on an SCCP information system proposal. The SCCP decision-making process proposal contains two processes: implementation and routine. The SCCP information system proposal contains two software programs: a computational software program and a business intelligence software program. The SCCP DSS proposal was validated by undertaking two industrial pilot projects with two industrial partners. The following two major benefits have been confirmed: first, SCCP analysis can be performed in encompassing a multitude of decision options and uncertainty sources at a pace allowing updates in accordance with the pace of supply chain changes. Second, it provides decision-makers with the visibility and understanding of the impacts of their respective decisions and uncertainty sources which bolster their confidence in the decisions they can make. Finally, avenues for future research have been identified, including an opportunity for designing a hyperconnected SCCP DSS that automatically gathers information and triggers decision-making meetings when necessary rather than on a predefined frequency
38

Ferrari, Maxence. "Study of a biosonar based on the modeling of a complete chain of emission-propagation-reception with validation on sperm whales." Thesis, Amiens, 2020. http://www.theses.fr/2020AMIE0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le cachalot, Physeter macrocephalus, possède le plus grand biosonar de la nature. Composé de plusieurs poches d'huile, le sonar du cachalot est conçu pour fonctionner de la surface de la mer jusqu'à une profondeur de 2 kilomètres, émettant des clics pouvant aller jusqu'à 236 dB, et est polyvalent, car il produit des clics pour l'écholocation ou la socialisation. Cependant, la cire liquide qui compose le sonar a fait des cachalots la cible de la chasse jusqu'en 1986, lorsque la population restante était beaucoup trop petite pour rester commercialement viable, en particulier avec l'arrivée de produits similaires développés par l'industrie pétrochimique. La population de cachalots est toujours confrontée à certaines menaces humaines, comme l'ingestion de plastique et la collision avec des bateaux continuant de faire des ravages sur la population de cachalots. L'étude des cachalots donne ainsi des résultats dans de multiples domaines, en conservation, en éthologie, ainsi qu'en bioacoustique. Comprendre le mécanisme qui régit le sonar du cachalot aidera à étudier ces autres domaines, car il s'agit d'un élément clé de la vie du cachalot. Dans ce but, cette thèse a analysé trois bases de données aux caractéristiques distinctes, obtenant la trajectoire des plongées de cachalots. Les clics enregistrés ont été également reliés au cachalot qui les avait émis, et ce sur plusieurs années d'enregistrement fait sur la même population. Une simulation de propagation des ondes à travers la tête du cachalot a également été développée pour mieux comprendre le mécanisme complexe de ce sonar. Enfin, une méthode de couplage a été développée pour améliorer les paramètres de la simulation en utilisant les clics enregistrés des bases de données précédemment citées
The sperm whale, Physeter macrocephalus, posses the largest biosonar in nature. Made of multiple oil sac, the sperm whale sonar is tailored to function from the sea surface down to a depth of 2 kilometers, emitting click as loud as 236 dB, and is multipurpose, as it produces clicks for either echolocation or socializing. However, the liquid wax that composes is sonar, made the sperm whales the target of whaling until 1986, when the remaining population was far too small to remain commercially viable, especially with the arrival of similar products from the petrochemical industry. The sperm whale population still faces some human threats, with the ingestion of plastic and collision with boats continuing to take a toll on the sperm whale population. Studying sperm whales thus aport outcomes in multiple fields, in conservation, ethology, as well as in bioacoustics. Understanding the mechanism that rules the sperm whale sonar will help to study those other fields, as it is a key element in the sperm whale life. Aiming for that goal, this thesis analyzed three databases with distinct characteristics, obtaining the trajectory of sperm whale dives. Clicks were also linked with the sperm whale that emitted them over multiple years of recording for the same population. A simulation of propagation wave through the sperm whale head was also developed to better understand the complex mechanism of this sonar. Finally, a coupling method was developed to improve the parameters of the simulation using the recorded clicks from the aforementioned databases
39

Adamon, Gildas David Farid. "Modélisation de la cinétique de gazéification étagée de la biomasse tropicale : cas des balles de riz et des rafles de maïs." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2354/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les essais de gazéification effectués dans le cadre de cette étude ont été réalisés à l’aide d’une installation instrumentée et équipée d’un réacteur à lit fixe en utilisant du dioxyde de carbone d’une part, et de la vapeur d’eau d’autre part, comme réactifs. Dans cette étude, nous avons considéré le procédé de gazéification étagée. Par ailleurs, l’étude concernant la disponibilité de la ressource, effectuée sur dix ans, nous a permis de sélectionner deux résidus agricoles, en tenant compte de leur disponibilité dans le temps, l’absence de conflit nutritionnel ainsi que de leurs caractéristiques physicochimiques... A l’issue de cette étude, deux résidus agricoles ont été sélectionnés : les balles de riz et les rafles de maïs. L’étude de la pyrolyse de ces deux biomasses a été effectuée dans un four à moufle à une température de 450 °C pour un temps de séjour de 45 minutes. Un modèle mathématique basé sur la méthode de Newton a été proposé pour estimer le rendement en cokes des balles de riz et des rafles de maïs en fonction de la température, pour un temps de séjour fixé. Nous avons également procédé à une caractérisation physicochimique de ces deux résidus agricoles ainsi que de leurs cokes de pyrolyse. Plusieurs essais de pyrolyse ont également été réalisés en ATG afin de déterminer l’ordre réel des réactions de décomposition, par pyrolyse, de ces deux biomasses, en fonction de la température. Pour les essais de gazéification, ils ont été réalisés sur le coke de pyrolyse des deux biomasses retenues, à l’aide d’une installation équipée d’un réacteur à lit fixe d’une part, ainsi que par analyse thermogravimétrique d’autre part. Plusieurs modèles cinétiques (VRM, SCM et RPM) ont été utilisés pour modéliser la cinétique de gazéification des balles de riz et des rafles de maïs avec du dioxyde de carbone et de la vapeur d’eau. Il ressort que le modèle RPM est le plus adapté des trois modèles étudiés pour simuler au mieux la gazéification du charbon de balles de riz et de rafles de maïs dans les conditions opératoires étudiées dans la présente étude. Ainsi, les énergies d’activation obtenues sont respectivement de 165,8 kJ/mol et de 152,9 kJ/mol avec le dioxyde de carbone et la vapeur d’eau pour les balles de riz pendant que le facteur exponentiel varie de 2595.4 s-1 à 3473.4 s-1 avec des valeurs respectives du paramètre structural Ψ=3,8 pour la réaction de Boudouard et Ψ= 2.16 pour la vapogazéification. Cependant, les énergies d’activation obtenues pour les rafles de maïs sont respectivement de 114,4 kJ/mol et de 105,5 kJ/mol avec le dioxyde de carbone et la vapeur d’eau pendant que le facteur exponentiel varie de 13,9 s-1 à 18,3 s-1avec des valeurs respectives du paramètre structural Ψ=12,3 pour la réaction de Boudouard et Ψ= 8,68 pour la vapogazéification
The gasification tests in this study were carried out using an instrumented installation equipped with a fixed bed reactor using carbon dioxide and water steam, as reagents. In this study, we considered the stepped gasification process. In addition, the ten-year resource availability study allowed us to select two agricultural residues, taking into account their availability over time, the absence of nutritional conflict and their physicochemical characteristics… At the end of this study, two agricultural residues were selected: rice husks and corn cobs. The pyrolysis of these two biomasses was carried out in a muffle furnace at a temperature of 450 °C for a residence time of 45 minutes. A mathematical model based on the Newton method has been proposed to estimate the coke yield of rice husk and corn cobs as a function of temperature, for a fixed residence time. We also carried out a physicochemical characterization of these two agricultural residues as well as their pyrolysis cokes. Several pyrolysis tests have also been carried out in ATG in order to determine the real order of the decomposition reactions by pyrolysis, of these two biomasses, as a function of temperature. For the gasification tests, they were carried out on the pyrolysis coke of the two retained biomasses, using an installation equipped with a fixed-bed reactor on the one hand, and by thermogravimetric analysis of another hand. Several kinetic models (VRM, SCM and RPM) were used to model the gasification reaction kinetics of rice husk and corn cobs with carbon dioxide and water steam. It appears that the RPM model is the most suitable of the three models studied to best simulate the gasification reaction of char from rice husk and corn cobs under the operating conditions studied in this study. Thus, the activation energies obtained are respectively 165.8 kJ/mol and 152.9 kJ/mol with carbon dioxide and water steam for rice husk while the exponential factor varies from 2595.4 s-1 to 3473.4 s-1 with respective values of the structural parameter Ψ = 3.8 for the Boudouard reaction and Ψ = 2.16 for the water steam gasification. However, the activation energies obtained for corn cobs are 114.4 kJ/mol and 105.5kJ/mol respectively with carbon dioxide and water steam while the exponential factor varies from 13.9 s-1 to 18.3 s-1 with respective values of the structural parameter Ψ = 12.3 for the Boudouard reaction and Ψ = 8.68 for the water steam gasification
40

Aladenise, Nathalie. "Acquisition et modélisation de connaissances subjectives pour l'aide à la conduite des feux du char." Paris 6, 1999. http://www.theses.fr/1999PA066541.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est de répondre à un besoin militaire de synthèse des informations électroniques disponibles dans un char de combat par la proposition d'une aide à la décision de conduite des feux. Celle-ci se caractérise par la mise en évidence de l'ennemi prioritaire associé à un délai de riposte. Notre approche d'acquisition des connaissances est ne pas contraindre l'expression des connaissances de l'expert, mais au contraire d'adapter le système aux connaissances que l'expert manipule. Ces dernières sont de nature subjective. Nous utilisons la théorie sous-ensembles flous pour les modéliser. Ce travail détaille les différents types d'acquisition des connaissances réalisés auprès des experts pour l'acquisition des critères, des poids des critères, des règles d'inférence et des fonctions d'appartenance associées au vocabulaire subjectif, et positionne les nouvelles méthodes introduites dans leur état de l'art. La structuration de notre système sous la forme de déductions successives respecte la décomposition hiérarchique des connaissances manipulées. Nous débattons du choix de la classification floue ou de l'inférence flou comme raisonnement déductif et montrons sous quelles conditions ces deux approches sont équivalentes. Nous introduisons les propriétés d'additivité*, de sous-additivité* et de sur-additivité* afin de réaliser un choix conjoint des opérateurs de conjonction et de disjonction. Nous justifions le choix de notre opérateur de défuzzification, attaché à un sous-ensemble flou variant sur un univers de définition discret ordonné. Puis nous résolvons un problème d'ordonnancement de sous-ensembles flous pour exhiber le char ennemi prioritaire au sein d'une même classe de riposte. Notre système est structuré par un raisonnement instantané complété d'un raisonnement temporel. Les aspects temporels prennent en compte l'évolution de la situation ainsi que l'estimation des événements futurs. Ces deux aspects rendent la solution plus robuste.
41

Wiratsudakul, Anuwat. "Mathematical modelling of the infectious spread of avian influenza on a backyard chicken production chain in Thailand." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22469/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’Influenza Aviaire Hautement Pathogène H5N1 (IAHP à H5N1) a été déclaré en Thaïlande lors de plusieurs vagues épidémiques puis lors de cas sporadiques entre 2004 et 2008, et le risque persiste encore en Thaïlande. La plupart des foyers confirmés d’IAHP à H5N1 en Thaïlande ont eu lieu dans les populations de volailles de basse-cour. Les poulets de basse-cour sont élevés pour de nombreuses raisons, y compris pour un revenu supplémentaire. Ce commerce est géré informellement par les collecteurs de volailles qui peuvent être classés en collecteur-abatteur (TS), sous-collecteur (HT) et collecteur de collecteurs (TT). Ces collecteurs se déplacent entre villages avec les mêmes véhicules et matériel non nettoyés. Nous avons mesuré leurs activités commerciales dans l'espace et le temps. Nous avons développé un modèle spatial dynamique compartimental et stochastique de la filière de poulet de basse-cour dans une province. Nos résultats indiquent que ces échanges commerciaux peuvent contribuer à la propagation d’IAHP à H5N1 grâce au chevauchement des zones de collecte et aux distances parcourues. Des variations temporelles ont été observées lors de certaines grandes fêtes rituelles tel le Nouvel An chinois. Nous avons développé un modèle SIR couplé au modèle de la filière de poulets. Nous avons supposé que la maladie peut se propager par deux moyens : localement entre villages voisins et par les échanges commerciaux. Nous avons utilisé ce modèle infectieux de base pour tester plusieurs mesures de contrôle connexes. Nos résultats suggèrent que lors d’un foyer une interdiction totale et rapide de tous les échanges de volailles devrait être mise en oeuvre ainsi qu’une campagne de désinfection
Highly pathogenic avian influenza H5N1 (HPAI H5N1) was recognized in Thailand by multiple epidemic waves and some sporadic cases between 2004 and 2008 but the risk of disease remerging in Thailand still remains up to present. Most of HPAI H5N1 confirmed outbreaks in Thailand occurred in backyard chicken populations. Backyard chickens are reared for many purposes including for additional cash income. Backyard chicken trade is informally managed by poultry traders which can be categorized into trader–slaughterhouse (TS), household trader (HT) and trader of trader (TT). These traders roam around different villages with the same unclean vehicle and facilities. Thus, their trade patterns in space and time are necessary to be elaborately studied. In our study, we developed a spatial compartmental stochastic dynamic model of backyard chicken trade network in a province of Thailand. Our model results indicated that the structure of poultry networks may contribute to HPAI H5N1 spread through overlapped catchment areas and long distance trades. Also, temporal variations of live poultry movements were observed during some major ritual festivals especially Chinese New Year. Subsequently, we developed an SIR model upon the dynamic model of backyard chicken trade network. It was assumed in this study that the disease can spread by two means: local spread to neighboring uninfected villages and spread by poultry traders. Then, we used this baseline infectious model to test multiple related control measures. Our ultimate results suggested that a complete ban of all poultry traders should be promptly implemented with poultry area disinfection campaign once the outbreak occurs
42

Harman-Clarke, Adam. "Contraintes Topologiques et Ordre dans les Systèmes Modèle pour le Magnétisme Frustré." Thesis, Lyon, École normale supérieure, 2011. http://www.theses.fr/2011ENSL0659.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, l’étude de plusieurs modèles de systèmes magnétiques frustrés a été couverte. Leur racine commune est le modèle de la glace de spin, qui se transforme en modèle de la glace sur réseau kagome (kagome ice) et réseau en damier (square ice) à deux dimensions, et la chaîne d’Ising à une dimension. Ces modèles ont été particulièrement étudiés dans le contexte de transitions de phases avec un ordre magnétique induit par les contraintes du système : en effet, selon la perturbation envisagée, les contraintes topologiques sous-jacentes peuvent provoquer une transition de Kasteleyn dans le kagome ice, ou une transition de type vitreuse dans la square ice, due à l’émergence d’un ordre ferromagnétique dans une chaîne d’Ising induit seulement par des effets de taille fini. Dans tous les cas, une étude détaillée par simulations numériques de type Monte Carlo ont été comparées à des résultats théoriques pour déterminer les propriétés de ces transitions. Les contraintes topologiques du kagome ice ont requis le développement d’un algorithme de vers permettant aux simulations de ne pas quitter l’ensemble des états fondamentaux. Une revue poussée de la thermodynamique et de la réponse de la diffraction de neutrons sur kagome ice sous un champ magnétique planaire arbitraire, nous ont amené à une compréhension plus profonde de la transition de Kasteleyn, et à un modèle numérique capable de prédire les figures de diffraction de neutrons de matériau de kagome ice dans n’importe quelles conditions expérimentales. Sous certaines conditions, ce modèle a révélé des propriétés thermodynamiques quantifiées et devrait fournir un terreau fertile pour de futurs travaux sur les conséquences des contraintes et transitions de phases topologiques. Une étude combinée du square ice et de la chaîne d’Ising a mise en lumière l’apparition d’un ordre sur réseau potentiellement découplé de l’ordre ferromagnétique sous-jacent, et particulièrement pertinent pour les réseaux magnétiques artificiels obtenus par lithographie
In this thesis a series of model frustrated magnets have been investigated. Their common parent is the spin ice model, which is transformed into the kagome ice and square ice models in two-dimensions, and an Ising spin chain model in one-dimension. These models have been examined with particular interest in the spin ordering transitions induced by constraints on the system: a topological constraint leads, under appropriate conditions, to the Kasteleyn transition in kagome ice and a lattice freezing transition is observed in square ice which is due to a ferromagnetic ordering transition in an Ising chain induced solely by finite size effects. In all cases detailed Monte Carlo computational simulations have been carried out and compared with theoretical expressions to determine the characteristics of these transitions. In order to correctly simulate the kagome ice model a loop update algorithm has been developed which is compatible with the topological constraints in the system and permits the simulation to remain strictly on the groundstate manifold within the appropriate topological sector of the phase space. A thorough survey of the thermodynamic and neutron scattering response of the kagome ice model influenced by an arbitrary in-plane field has led to a deeper understanding of the Kasteleyn transition, and a computational model that can predict neutron scattering patterns for kagome ice materials under any experimental conditions. This model has also been shown to exhibit quantised thermodynamic properties under appropriate conditions and should provide a fertile testing ground for future work on the consequences of topological constraints and topological phase transitions. A combined investigation into the square ice and Ising chain models has revealed ordering behaviour within the lattice that may be decoupled from underlying ferro- magnetic ordering and is particularly relevant to magnetic nanoarrays
43

Tatou, Mouna. "Nanocomposites modèles silice-latex : Etude des propriétés rhéologiques et de la structure des charges et des chaînes par Diffusion de Neutrons aux Petits Angles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00570362.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour comprendre les mécanismes microscopiques du renforcement dans les nanocomposites, nous avons mis en œuvre un système nanocomposite modèle composé de nanoparticules de silice incorporées dans une matrice du copolymère PMMA/PBuA faite par filmification d'un latex. La formation des échantillons se fait par évaporation du solvant - l'eau – du système colloïdal mixte latex et silice. La structure de la charge peut être contrôlée par le pH en solution et la fraction volumique de la silice. La combinaison de diffusion de neutrons aux petits angles et microscopie électronique à transmission nous a permis d'établir un diagramme du nombre d'agrégation de la silice. Les tests mécaniques en traction uni-axiale sur des échantillons de structure définie nous ont donné accès à la relation entre la structure des charges et la rhéologie des nanocomposites. L'augmentation du nombre d'agrégation moyen augmente le renforcement du module de Young, et mène à une rupture précoce des films. Un optimum entre fort renforcement et grande déformation avant rupture peut être trouvé en s'intéressant à l'énergie de rupture. Lorsque l'on étudie la structure des chaînes dans les nanocomposites, il faut créer le contraste moyen nul pour la silice en introduisant des chaînes deutériées D. Nous avons pu suivre l'interdiffusion des chaînes H et D durant le recuit dans deux systèmes. Pour suivre la dissolution des billes de latex dans le polymère fondu, nous avons mis en place une modélisation quantitative des données structurales. Elle montre que la présence de la silice limite la mobilité des chaînes dans les nanocomposites.
44

Luo, Kai. "Analysis and optimization of single and dual sourcing decisions in supply chain." Thesis, Jouy-en Josas, HEC, 2011. http://www.theses.fr/2011EHEC0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette recherche est de développer des modèles aussi bien conceptuels, analytiques et managériaux en analysant un maillon de la supply chain, à savoir la relation entre un distributeur et deux fournisseurs opérant dans un environnement incertain. Dans la première partie de la thèse, nous considérons un seul produit, plutôt haut de gamme et/ou périssable, et nous faisons l’analyse sur un horizon d’une période. Dans ce cas précis, les caractéristiques unitaires du produit sont toutes non linéaires, à savoir : le prix, le coût de production, le coût de rupture, le coût de reprise. La demande est supposée être une variable aléatoire. Dans la deuxième partie de la thèse, nous nous inspirons des pratiques de firmes internationales qui s’approvisionnent, pour une partie de leur offre, dans des pays à bas coûts. Nous développons plusieurs modèles mais dont la structure de base est similaire, à savoir : deux produits (un haut gamme acheté localement et l’autre bas de gamme acheté dans les pays à bas coûts), un horizon de trois périodes, deux fournisseurs à capacité de production limitée et un distributeur ayant des capacités de stockage limitées. Une panoplie de résultats théoriques, numériques ainsi que des insights sont présentés.Les modèles développés peuvent être utilisés comme des outils d’aide { la prise de décision dans les environnements décrits dans cette thèse
The objective of this research is to develop conceptual, analytical, and managerial models and insights by analyzing a portion of the supply chain made up of a retailer dealing with two suppliers in an uncertain environment. In the first part of this thesis, we consider a single high-end (or perishable) product, single period, variable unit price, variable unit production cost, variable unit shortage cost, variable unit salvagevalue, stochastic demand problem. In a second part of the thesis, we consider settings inspired by the case of large international companies sourcing some of their products from low cost countries. This structure is as follows: two products (one sourced locally and the other sourced abroad), a three-period, two-stages, two capacitated suppliers, and a single capacitated retailer. Both analytical and numerical results are provided. Important theoretical results and insights are developed for these types of settings. These models can be used as decision-making aid tools in such environments
45

Godineau, Kévin. "Optimisation du pilotage de chaînes opto-mécaniques pour l'exécution de trajectoires en fabrication additive par fusion laser sur lit de poudre." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En fabrication additive métallique par fusion laser sur lit de poudre, la géométrie et les caractéristiques mécaniques des pièces produites sont générées au cours de la fabrication. Ces deux aspects sont grandement influencés par les trajectoires du spot laser et par la maîtrise de l'énergie apportée à la poudre localement. La commande numérique dont le rôle est de générer les consignes à envoyer aux actionneurs a donc un impact conséquent sur la qualité des pièces produites.Ces travaux proposent d'étudier l'impact des traitements effectués dans la commande numérique sur les trajectoires réalisées et sur l'énergie apportée à la matière. Dans la littérature, peu de travaux traitent de ces aspects en fabrication additive. C'est pourquoi une plateforme expérimentale est mise en œuvre et utilisée afin d'analyser et de mieux comprendre les opérations actuellement implémentées dans les commandes numériques industrielles.Un modèle mathématique représentatif de la géométrie de la machine est d'abord établi. Ce modèle permet de convertir les trajectoires du spot laser en consigne pour les actionneurs. Le modèle développé est utilisé afin d'améliorer l'étape de calibration des machines. Une fois le système calibré, les consignes envoyées aux actionneurs sont étudiées. Les différents traitements effectués dans la commande numérique industrielle sont analysés, des limitations sont mises en évidence et plusieurs propositions d'améliorations sont implémentées. Tous ces développements sont ensuite utilisés afin de maîtriser finement l'énergie apportée à la matière dans le cas de certaines trajectoires adaptées au procédé. Les développements scientifiques proposés dans ces travaux sont tous validés expérimentalement sur une machine de fabrication additive ou sur le banc d'essai développé. Les travaux effectués permettent d'envisager de nombreuses perspectives concernant l'amélioration des traitements réalisés dans la commande numérique en fabrication additive
In metal additive manufacturing by laser powder bed fusion, the geometry and mechanical characteristics of the produced parts are generated during the manufacturing process. These two aspects are greatly influenced by the laser spot trajectories, and by the control of the energy provided to the powder locally. The numerical control system, whose purpose is to generate instructions to be sent to actuators, has therefore a significant impact on the quality of the parts produced.This work proposes to study the local impact of the operations carried out in the numerical control on both the trajectories executed and the energy provided to the material. In the literature, few studies have addressed these aspects in additive manufacturing. For this reason, an experimental platform is implemented and used to analyze and better understand the operations currently implemented in industrial numerical controls.First, a mathematical model representative of the machine geometry is established. This model converts the laser spot trajectories into instructions for actuators. The model developed is used to improve the calibration step of the machines. Once the system is calibrated, the instructions sent to the actuators are studied. The various processes carried out in the industrial numerical control are analysed, limitations are highlighted and several proposals for improvements are implemented. All these developments are then used to precisely control the energy supplied to the material in the case of certain trajectories adapted to the process. The scientific developments proposed in these works are all validated experimentally on an additive manufacturing machine or on the test bench developed. The work carried out makes it possible to envisage many perspectives concerning the improvement of the treatments carried out inside the numerical control in additive manufacturing
46

Couvreur, Romain. "Geometric lattice models and irrational conformal field theories." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous étudions différents aspects des modèles critiques non-unitaires de physique statistique en deux dimensions. Notre approche, partant de modèles discrets sur le réseau, permet d'en apprendre plus sur les théories conformes associées. Celles-ci sont non-unitaires et souvent irrationnelles, logarithmiques ou encore non-compactes. Pour commencer, le problème de l'entropie d'intrication dans des chaînes de spin non-unitaires et son interprétation dans les modèles de boucles sont considérés. Le rôle de la charge centrale effective, une quantité pertinente pour étudier aussi d'autres problèmes de ce manuscrit, y est discuté. Ensuite, nous regardons deux problèmes liés au modèle de Chalker-Coddington, une chaîne de spin supersymétrique de dimension infinie, importante pour l'étude de la transition entre plateaux dans l'effet Hall quantique entier. Puisque ce modèle a un nombre infini de degrés de liberté, il a été proposé de considérer une série de troncations. Nous présentons de nouveaux résultats basés sur cette approche et développons cette méthode dans le cadre du mouvement Brownien dans sa formulation supersymétrique. Ensuite, un nouveau modèle est proposé pour interpoler la classe A et la classe C de l'effet Hall quantique. Le modèle de Chalker-Coddington est une réalisation particulière de la classe A tandis que la classe C, qui décrit la physique de l'effet Hall quantique de spin, est relié à un modèle de percolation. Ce modèle donne un exemple de flot sous l'action du groupe de renormalisation entre une théorie conforme compacte et non-compacte. La dernière partie de cette thèse discute la classification des observables sur réseau avec une symétrie discrète. Le processus est illustré sur le modèle de Potts avec sa symétrie sous l'action du groupe des permutations et des résultats déjà connus sont étendus au cas des opérateurs non-scalaires. Cette approche est importante dans l'étude de l'indécomposabilité des modèles non-unitaires et peut être utilisée pour étudier la percolation en dimension supérieure
In this thesis we study several aspects of two-dimensional lattice models of statistical physics with non-unitary features. This bottom-up approach, starting from discrete lattice models, is helpful to understand the features of the associated conformal field theories. They are non-unitary and often irrational, logarithmic or even non-compact. First, we study the problem of the entanglement entropy in non-unitary spin chains and its interpretation in loop models. We discuss the role of the effective central charge, a relevant quantity to study the next problems in this thesis. We then address two problems related to the Chalker-Coddington model, an infinite-dimensional supersymmetric chain important for the study of the plateau transition in the integer quantum Hall effect. Since the model has an infinite number of degrees of freedom, it has been proposed to study it with a series of truncations. We present new results based on this approach and extend this methodology to the case of Brownian motion in its supersymmetric formulation. Next, a new model is proposed to interpolate between class A and class C. The Chalker-Coddington model is a particular realisation of class A whereas class C, describing the physics of the spin quantum Hall effect, can be related to a model of percolation. This interpolating model provides an example of a RG-flow between a non-compact CFT and compact one. The last part of this thesis deals with the problem of classifying observables in lattice models with discrete symmetries. The process is illustrated on the Potts model and its symmetry under the group of permutations and previous results are extended for non-scalar operators. This approach is important to study indecomposability of non-unitary models and can be used to study models such as percolation in higher dimensions
47

Allaya, Mouhamad M. "Méthodes de Monte-Carlo EM et approximations particulaires : application à la calibration d'un modèle de volatilité stochastique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010072/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse poursuit une perspective double dans l'usage conjoint des méthodes de Monte Carlo séquentielles (MMS) et de l'algorithme Espérance-Maximisation (EM) dans le cadre des modèles de Markov cachés présentant une structure de dépendance markovienne d'ordre supérieur à 1 au niveau de la composante inobservée. Tout d'abord, nous commençons par un exposé succinct de l'assise théorique des deux concepts statistiques à Travers les chapitres 1 et 2 qui leurs sont consacrés. Dans un second temps, nous nous intéressons à la mise en pratique simultanée des deux concepts au chapitre 3 et ce dans le cadre usuel ou la structure de dépendance est d'ordre 1, l'apport des méthodes MMS dans ce travail réside dans leur capacité à approximer efficacement des fonctionnelles conditionnelles bornées, notamment des quantités de filtrage et de lissage dans un cadre non linéaire et non gaussien. Quant à l'algorithme EM, il est motivé par la présence à la fois de variables observables, et inobservables (ou partiellement observées) dans les modèles de Markov Cachés et singulièrement les modèles de volatilité stochastique étudié. Après avoir présenté aussi bien l'algorithme EM que les méthodes MCS ainsi que quelques une de leurs propriétés dans les chapitres 1 et 2 respectivement, nous illustrons ces deux outils statistiques au travers de la calibration d'un modèle de volatilité stochastique. Cette application est effectuée pour des taux change ainsi que pour quelques indices boursiers au chapitre 3. Nous concluons ce chapitre sur un léger écart du modèle de volatilité stochastique canonique utilisé ainsi que des simulations de Monte Carlo portant sur le modèle résultant. Enfin, nous nous efforçons dans les chapitres 4 et 5 à fournir les assises théoriques et pratiques de l'extension des méthodes Monte Carlo séquentielles notamment le filtrage et le lissage particulaire lorsque la structure markovienne est plus prononcée. En guise d’illustration, nous donnons l'exemple d'un modèle de volatilité stochastique dégénéré dont une approximation présente une telle propriété de dépendance
This thesis pursues a double perspective in the joint use of sequential Monte Carlo methods (SMC) and the Expectation-Maximization algorithm (EM) under hidden Mar­kov models having a Markov dependence structure of order grater than one in the unobserved component signal. Firstly, we begin with a brief description of the theo­retical basis of both statistical concepts through Chapters 1 and 2 that are devoted. In a second hand, we focus on the simultaneous implementation of both concepts in Chapter 3 in the usual setting where the dependence structure is of order 1. The contribution of SMC methods in this work lies in their ability to effectively approximate any bounded conditional functional in particular, those of filtering and smoothing quantities in a non-linear and non-Gaussian settings. The EM algorithm is itself motivated by the presence of both observable and unobservable ( or partially observed) variables in Hidden Markov Models and particularly the stochastic volatility models in study. Having presented the EM algorithm as well as the SMC methods and some of their properties in Chapters 1 and 2 respectively, we illustrate these two statistical tools through the calibration of a stochastic volatility model. This application is clone for exchange rates and for some stock indexes in Chapter 3. We conclude this chapter on a slight departure from canonical stochastic volatility model as well Monte Carlo simulations on the resulting model. Finally, we strive in Chapters 4 and 5 to provide the theoretical and practical foundation of sequential Monte Carlo methods extension including particle filtering and smoothing when the Markov structure is more pronounced. As an illustration, we give the example of a degenerate stochastic volatility model whose approximation has such a dependence property
48

Zingbagba, Mark. "Three essays on Upstream and Downstream Disruptions along Nutritional High-value Food Supply Chains in Emerging Countries." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose trois essais sur les perturbations tout au long de la chaîne de distribution des produits alimentaires à haute valeur nutritionnelle. Elle contribue à notre compréhension des menaces liées à la réalisation des objectifs de sécurité alimentaire dans les pays émergents. Contribuant à l'analyse économique de la chaîne de distribution et des questions agricoles, la thèse est fondée sur différents éléments théoriques relatifs à la chaîne de valeur, la croissance du marché, la transmission des prix et met en œuvre des techniques d'économétrie appliquée (économétrie des données de panel, économétrie des séries temporelles) à partir de base de données originales. L'objectif est d'analyser les sources et l'ampleur des perturbations dans la chaîne de distribution des produits à haute valeur nutritionnelle.La première partie de la thèse analyse les perturbations sur les marchés des produits alimentaires à haute valeur non-transformés et moins transformés. Le Chapitre 2 examine les perturbations en amont et en aval de la chaîne de distribution de ces produits. Le Chapitre 3 étend l’analyse du Chapitre 2 en prenant en compte les perturbations relatives aux produits ayant subi un niveau de transformation élevé. Dans les deux chapitres, les perturbations sont analysées en termes de changement de prix et de quantité, à la fois en amont et en aval. Le changement de quantité est considéré comme une perturbation préliminaire alors que celui de prix est secondaire. Utilisant le marché de São Paulo comme sujet d'étude, le Chapitre 4 analyse les effets du prix du diesel sur les différents segments de la chaîne de distribution des produits alimentaires à haute valeur nutritionnelle. Un modèle à correction d’erreur (MCE) qui prend en considération les effets des prix entre les différents produits est estimé pour vérifier si les chocs provenant du prix du diesel sont plus élevés en amont qu'en aval. Ce chapitre est analytiquement fondé sur la théorie de la transmission des prix.Les résultats des Chapitres 2 et 3 montrent que les désastres climatiques sont des sources dominantes de perturbation de la chaîne de distribution des produits alimentaires à haute valeur nutritionnelle. Leur effet est négatif pour tous les produits analysés, bien que l'ampleur de perturbation varie d’un produit à l’autre. Les résultats du modèle à correction d’erreur (MCE) du Chapitre 4 montrent que les effets du prix du diesel sur les prix des produits alimentaires à haute valeur nutritionnelle sont positifs et significatifs, alors que les effets en aval sont plus élevés que ceux en amont. Les résultats de la thèse ont des implications importantes pour le développement et la mise en œuvre des politiques d’alimentation dans les pays émergents. Le Chapitre 1, introduction générale, justifie l'étude des différences entre l'ampleur de perturbation en amont et celle en aval, et situe la thèse dans les littératures existantes. Une conclusion générale est proposée en Chapitre 5 avec des propositions pour de futurs travaux de recherche
This dissertation presents three essays on disruptions along nutritional high-value food supply chains in emerging countries. It extends our understanding of threats to the attainment of food security in emerging countries. With a contribution to agricultural economics, the dissertation relies on value chain, market growth and price transmission theories and applies both panel data and time series econometric techniques to analyse the sources and magnitudes of the disruption of nutritional high-value food chains.The first part of the dissertation examines disruptions in unprocessed and minimally processed nutritional high-value food markets. Chapter 2 examines upstream and downstream disruptions along these food chains. Chapter 3 extends the analysis in Chapter 2 by assessing how disruptions change when nutritional high-value foods are highly processed. For each of the two chapters, disruptions are studied in terms of changes in upstream and downstream quantities and prices, with the disruption of quantity considered primary while that of prices is secondary.Using the São Paulo food market as a case study, Chapter 4 analyses the effect of diesel price shocks on different segments of the nutritional high-value food supply chain. A Vector Error Correction Model (VECM) that takes into account upstream and downstream cross-price effects is estimated to ascertain if diesel price shocks are higher downstream based on price transmission theory.The results of Chapters 2 and 3 show that climatological disasters are the most dominant source of disruption of nutritional high-value food supply chains and the direction of impact is negative for all foods under study. The magnitude of disruption, however, varies by food. From the VECM results in Chapter 4, we see that the price of diesel has a positive and significant effect on food prices, while the effects downstream are lower than those upstream. These results have significant implications for the design and implementation of food policies in emerging countries.As a general introduction, Chapter 1 justifies the need to study upstream and downstream differences in the magnitude of supply chain disruption, by situating the dissertation in the existing supply chain and food price transmission literature. Chapter 5 concludes the study and offers suggestions for future research
49

Afshar, Mohammad. "Interactions calmoduline-cibles : modélisation moléculaire et approche expérimentale." Montpellier 1, 1995. http://www.theses.fr/1995MON1T029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Eskandarpour, Majid. "Generic models and optimization algorithms for sustainable supply chain network design." Thesis, Nantes, Ecole des Mines, 2014. http://www.theses.fr/2014EMNA0195/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le développement de modèles mathématiques et d’algorithmes d’optimisation pour la conception de chaînes logistiques durables. Nous proposons des modèles mono-périodiques, multi-produits et multi-modes de transport à quatre niveaux (fournisseurs, unités de production, entrepôts et clients) couvrant les piliers économique et environnemental du développement durable. Les variables de décision concernent la localisation des sites logistiques intermédiaires (unités de production et entrepôts), les choix de technologie et de mode de transport, et la détermination des flux de produits. Un premier modèle est basé uniquement sur la minimisation des coûts totaux. Ce modèle est étendu au cas bi-objectif en considérant la minimisation des émissions de CO2. Nous proposons une procédure d’optimisation basée sur la recherche à voisinage large (LNS : Large Neighborhood Search). L’application de cette méthode à un problème à variables mixtes tel que la conception de chaîne logistique est inédite. Notre extension au cas bi-objectif fait intervenir l’algorithme récent de recherche locale multi-directionnelle. Les expérimentations numériques permettent d’évaluer la pertinence de nos modèles et de comparer les performances de nos algorithmes à celles d’un solveur du marché
This thesis focuses on the development of mathematical models and optimization algorithms for the design of sustainable supply chains. We propose single-period, multi-commodity, multi-mode, four level models (suppliers, production facilities, warehouses and customers) covering economic and environmental pillars of sustainable development. The decision variables are related to the location of the intermediate logistics sites (production units and warehouses), the choice of technology and mode of transport, and the determination of product flow. A first model is based solely on minimizing total costs. This model is extended to bi-objective minimization by considering CO2 emissions. We propose an optimization procedure based on the Large Neighborhood Search (LNS) metaheuristic, which had almost never been applied to problems with mixed variables such as design supply chain. Our extension to the bi-objective case involves the use of the multi-directional local search (MDLS). Extensive numerical experiments assess the relevance of our model and compare the performance of our algorithms to those of a state-of-the-art solver

To the bibliography