Dissertations / Theses on the topic 'Méthodes de production'

To see the other types of publications on this topic, follow the link: Méthodes de production.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes de production.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chevalier, Milhe Nathalie. "Ordonnancement d'un système de production : méthodes de voisinage." Montpellier 2, 1994. http://www.theses.fr/1994MON20052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette these est de realiser l'ordonnancement d'un systeme de production. Le premier chapitre donne un apercu des differents problemes d'ordonnancement rencontres dans la litterature et des methodes classiques utilisees pour leur resolution. Le probleme d'ordonnancement a resoudre etant assez general, ces methodes sont difficilement applicables d'ou l'utilisation d'un algorithme de voisinage. Le deuxieme chapitre detaille trois algorithmes de voisinage: le recuit simule, la methode tabou et un algorithme genetique. Le troisieme chapitre est consacre a l'etude de chacun de ces algorithmes sur un probleme d'ordonnancement classique: le job-shop. Enfin, le quatrieme chapitre expose le probleme d'ordonnancement considere ainsi que sa resolution par la methode du recuit simule
2

Liess, Olivier. "Méthodes de décomposition non standard et applications." Avignon, 2006. http://www.theses.fr/2006AVIG0145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Oger, Julie. "Méthodes probabilistes pour l'évaluation de risques en production industrielle." Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-00982740.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
4

Korolev, Alexei. "Stratégie de production des molécules marquées par de méthodes biologiques." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Sur le marché actuel des composés marqués les nucléotides contenants le traceur radioactif sous forme d'isotope 32P, 33P ou 3 5 S occupent une place importante. En se basant sur le modèle de développement technologique proposé par le Laboratoire de gestion des projets industriels, nous avons élaboré et appliqué les méthodes de synthèse de ces composés qui permettent leur production à l'échelle industrielle (centaines de mCi). Dans la première partie de cette thèse nous avons analysé les voies de biosynthèse des nucléotides " in vivo " et les enzymes qui participent dans cette biosynthèse. L'optimisation des concentrations enzymatiques dans la méthode de Johnson et Walseth [112, 235, 236] a augmenté les rendements et les quantités des produits synthétisés. L'introduction de triose-phosphate isomérase (EC 5. 3. 1. 1) dans le schéma de biosynthèse qui utilise le fructose-1,6-diphosphate a créé Un circuit de régénération de D-glycéraldéhyde-3 -phosphate à partir de dihydroxyacétone-phosphate qui augmente la productivité et l'efficacité de la transformation. .
The nucleotids containing the radioactive tracers in the isotop form 32P, 33P or 35S hold an important place in market of the labelled compounds. In regard to the technology developpment model proposed by the Managementlaboratory for industrial projects, we have elaborated and applied the news synthesis methodes for these compounds which pennit their production industrially (hundreds of mCi). In the first part of this thesis we have analysed the paths for the nucleotide biosynthesis " in vivo " and the enzymes which participate in the biosynthesis. The optimisation of the enzyme concentrations in the Johnson-Walseth [112, 235, 236] method which increased the yields and the quantitys of the synthetized products. The introduction of the triose-phosphate isomerase (EC 5. 3. 1. 1) in the schema using the FDP created a regeneration circuit of D-glyceraldehyd-3-phosphate from DHAP which increased the production and the efficiency of the transformation. The elaboration of the new synthetic shemas based on transaldolases or transcetolases (EC classe 2. 2. 1. X) resulted in the creation of production methods protected by the patent (deposit). The optimisation of the HPLC purifications in the reversed phase helped us to lower considerably the number of operations necessary in order to obtain the final product. .
5

Lacomme, Philippe. "Optimisation des systèmes de production : méthodes stochastiques et approche multi-agents." Clermont-Ferrand 2, 1998. http://www.theses.fr/1998CLF21986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de l'optimisation et du pilotage des systèmes industriels de production à flux discrets, les problèmes à résoudre sont des problèmes de dimensionnement, de compréhension du fonctionnement du système, de suivi et de gestion de la production, de planification et d'ordonnancement ainsi que de pilotage. Il existe différents cas de figure suivant que l'on cherche à résoudre les problèmes de manière prédictive ou réactive et selon que le système étudié possède ou non un comportement déterministe (présence de pannes ou d'aléas). Une première partie de notre travail porte sur la résolution de problèmes dans le cas d'approche prédictive en utilisant des algorithmes stochastiques issus du recuit simulé. Une deuxième partie porte sur la résolution de problème d'ordonnancement et de planification avec une approche réactive grâce à un modèle déterministe du système. Nous proposons un environnement logiciel, le Couplage-Triple Déterministe qui utilise un modèle d'évaluation du critère à minimiser, un modèle d'optimisation et un module spécifiant le fonctionnement interne du système. Cet environnement est mis en œuvre sur un problème de planification dans les fonderies de type sable et un problème d'ordonnancement dans une ligne de traitement de surface. Une troisième partie porte sur l'impact des événements aléatoires dans les systèmes de production. Nous proposons le Couplage-Triple Stochastique afin de mesurer les conséquences des événements aléatoires et pour déterminer des ordonnancements de la production pour lesquels ces conséquences soient aussi faibles que possible. Nous proposons d'utiliser un Algorithme Stochastique d'Optimisation d'une Variable Aléatoire qui converge en probabilité. Le Couplage-Triple Stochastique est utilisé sur un problème de planification dans les fonderies de type sable et un problème d'ordonnancement dans un flow-shop stochastique. Une quatrième partie est consacrée à l'étude des problèmes de pilotage. Nous définissons la notion d'environnement de pilotage comme un cadre générique pour assister le concepteur d'un système de pilotage. Cet environnement de pilotage est utilisé pour définir et implanter un système de pilotage pour une ligne de traitement de surfaces.
6

Siebert, Nils. "Développement de méthodes pour la prédiction de la production éolienne régionale." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00287551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intégration à grande échelle de l'énergie éolienne dans les réseaux électriques peut poser des problèmes aux opérateurs de ces réseaux car, contrairement aux moyens de production conventionnels, la production éolienne est variable et non contrôlable. Pour réduire l'impact de certains de ces problèmes, les gestionnaires de réseaux expriment le besoin de prévisions à court terme (de 48 à 120 heures) de la production agrégée des parcs éoliens situés dans une région définie.
Le but de la thèse est de développer un cadre d'analyse et des outils permettant de faciliter la mise en place de modèles de prévision de la production éolienne régionale.
La thèse présente tout d'abord un cadre d'analyse permettant de caractériser la production éolienne régionale. Par ce biais, les propriétés saillantes de la production régionale, qui doivent être prises en compte lors de la conception d'un modèle de prévision régionale, sont identifiées.
Le problème de la prévision régionale est ensuite abordé comme un problème d'apprentissage statistique. Nous définissons trois approches de modélisation générique permettant la combinaison de sous-modèles. L'influence de ces approches sur la précision des prévisions est étudiée ainsi que celle du choix des sous-modèles. Pour permettre la comparaison de sous-modèles, nous introduisons un modèle de prévision éolienne dont la performance est comparable aux modèles de l'état de l'art.
Finalement, nous examinons l'impact sur la précision de prévision qu'a le choix des variables explicatives et nous proposons des règles générales de sélection dans le cadre de la prévision éolienne régionale. Pour faciliter le processus de modélisation, des méthodes de sélection automatique sont étudiées. Deux méthodes (une méthode filtre et une méthode wrapper) qui exploitent les caractéristiques propres au problème sont proposées. Nous montrons que ces méthodes sont plus performantes qu'une méthode générique de l'état de l'art.
7

Siebert, Nils Walter. "Développement de méthodes pour la prédiction de la production éolienne régionale." Paris, ENMP, 2008. http://tel.archives-ouvertes.fr/tel-00287551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intégration à grande échelle de l'énergie éolienne dans les réseaux électriques peut poser des problèmes aux opérateurs de ces réseaux car, contrairement aux moyens de production conventionnels, la production éolienne est variable et non contrôlable. Pour réduire l’impact de certains de ces problèmes, les gestionnaires de réseaux expriment le besoin de prévisions à court terme (de 48 à 120 heures) de la production agrégée des parcs éoliens situés dans une région définie. Le but de la thèse est de développer un cadre d’analyse et des outils permettant de faciliter la mise en place de modèles de prévision de la production éolienne régionale. La thèse présente tout d’abord un cadre d’analyse permettant de caractériser la production éolienne régionale. Par ce biais, les propriétés saillantes de la production régionale, qui doivent être prises en compte lors de la conception d’un modèle de prévision régionale, sont identifiées. Le problème de la prévision régionale est ensuite abordé comme un problème d’apprentissage statistique. Nous définissons trois approches de modélisation générique permettant la combinaison de sous-modèles. L’influence de ces approches sur la précision des prévisions est étudiée ainsi que celle du choix des sous-modèles. Pour permettre la comparaison de sous-modèles, nous introduisons un modèle de prévision éolienne dont la performance est comparable aux modèles de l’état de l’art. Finalement, nous examinons l’impact sur la précision de prévision qu’a le choix des variables explicatives et nous proposons des règles générales de sélection dans le cadre de la prévision éolienne régionale. Pour faciliter le processus de modélisation, des méthodes de sélection automatique sont étudiées. Deux méthodes (une méthode filtre et une méthode wrapper) qui exploitent les caractéristiques propres au problème sont proposées. Nous montrons que ces méthodes sont plus performantes qu’une méthode générique de l’état de l’art
The large-scale integration of wind power can be a challenge for power system operators because, unlike conventional power sources, wind power is variable and non-dispatchable. To alleviate some of the problems posed by large-scale wind power integration, power system operators express the need for short-term (48 to 120 hours ahead) forecasts of the aggregated output of all wind farms within a specified geographical region. The aim of the thesis is to develop a framework and tools to help in the implementation of statistical regional wind power forecasting models. We first propose a framework for the characterization of the regional wind power. In this way, salient aspects of the regional wind power forecasting problem that must be taken into account when designing a regional forecasting model are identified. We then examine the regional forecasting problem from a statistical learning perspective. We define three generic approaches that can be used to combine sub-models to build regional models. The influence of these approaches on forecast accuracy is examined, as well as that of the choice of sub-models. The comparison of sub-models is made possible by the introduction of a novel forecasting model whose performance is shown to be comparable to that of other state-of-the-art models. Finally, we examine the impact of explanatory variable selection on forecast accuracy and derive general guidelines applicable in the frame of regional wind power forecasting. To ease modelling, automatic selection techniques are investigated. Two variable selection methods (a filter and a wrapper method) that exploit problem-specific characteristics are proposed. These methods are shown to compare very favourably to a generic state-of-the-art method
8

Hail, Nourredine. "Méthodes algorithmiques pour les lignes de production avec des machines parallèles." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente un problème d'ordonnancement sur une ligne de production flexible. Dans une telle ligne, les postes de travail sont disposes séquentiellement, et chacun d'eux contient un certain nombre de machines parallèles identiques. Les pièces passent de poste en poste selon le même ordre et sont usinées par une des machines de chaque poste. Nos travaux portent sur l'étude de la minimisation de la date d'achèvement de la dernière pièce sur le dernier poste (makespan). Ce problème est np-difficile au sens fort. Nous étudions d'abord l'intérêt de ce type de ligne notamment en ce qui concerne la flexibilité, ensuite un état de l'art de ce domaine est présenté. Puis nous entamerons l'étude du flow shop flexible. Dans une première partie, nous proposons une borne inferieure pour le problème d'affectation (réduction à un seul poste). Ensuite nous développerons une heuristique pour ce cas particulier, en utilisant les algorithmes génétiques. Dans une seconde partie, nous présentons une heuristique pour un cas particulier du flow shop flexible à deux postes, puis on fera une étude théorique de sa performance. Nous proposons à la fin de cette thèse trois heuristiques pour le flow shop flexible, en utilisant trois méthodes différentes: l'amélioration locale, la méthode tabou et les algorithmes génétiques
9

Bloch, Gérard. "Modélisation des procédés : Des méthodes, un outil logiciel." Nancy 1, 1988. http://www.theses.fr/1988NAN10343.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Étude relative à l'analyse et à la modélisation des systèmes en particulier des procédés industriels. Elle décrit le logiciel d'exploitation de données et les phases successives de l'étude préliminaire du procédé à la validation finale des modèles, on obtient une large classe démodelés grâce à la régression linéaire et on considère un logiciel intéractif, ses fonctionnalités, son interprêteur
10

Schamper, Cyril. "Etude par simulation du suivi d'un réservoir en production par méthodes ElectroMagnétiques." Paris 6, 2009. http://www.theses.fr/2009PA066608.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de cette thèse, en partenariat entre l'UPMC et CGGVeritas, consiste en l'étude de faisabilité théorique du suivi CSEM du déplacement latéral de l’interface huile/eau au sein d’un réservoir terrestre avec un dispositif permettant d'obtenir l'information sur la répartition des fluides sur une grande surface. Après un état des lieux des méthodes géophysiques appliquées au suivi de réservoir d'hydrocarbures, une présentation de la théorie sur les algorithmes de simulation est donnée (Méthode des Moments et différences finies). Le développement est plus approfondi pour la Méthode des Moments. Le dispositif qui a montré la meilleure sensibilité consiste en un dipôle source vertical enterré à mi-profondeur entre le réservoir et la surface, et des récepteurs horizontaux de champ électrique posés à la surface. Le niveau du signal 4D, i. E. La différence de champ mesuré à deux instants différents, reste légèrement au dessus du bruit ambiant que l'on peut éliminer par sommation. L’inversion 4D a montré la possibilité d'interpréter les données synthétiques CSEM en utilisant une seule position de source et une grille de récepteurs posés à la surface. Les images tirées de ces essais d'inversion font bien ressortir l'interface huile/eau. La non prise en compte d'une couche fine d'une dizaine de mètres, avec un fort contraste de résistivité par rapport à l'encaissant, est pratiquement sans effet sur le signal mesuré directement à la surface, mais réduit la résolution de la frontière huile-eau lors de l'inversion 4D. Une bonne connaissance de la distribution de conductivité électrique de l'ensemble du terrain environnant reste donc nécessaire à l'inversion de données CSEM 4D
Low frequency electromagnetic methods from a controlled source (CSEM : Controlled Cource ElectroMagnetic) have been applied for a little more than a decade in oil exploration. As a complement to seismic methods, they permit lowering of the risk of «dry holes», since they are more sensitive to the nature of the uid contained in rock. Because of the numerous successes encountered, and experience acquired, petroleum companies foresee extending application of CSEM to the monitoring of reservoirs under production. The principal problems are monitoring the oil-water interface to avoid loss of production due to invasion by water, and to estimate the e_ciency of improved techniques on the recovery rate for production (EOR : Enhanced Oil Recovery). The interface of oil and water is subject to an essentially lateral displacement due of low thickness of hydrocarbon reservoirs having an area that exceeds several square kilometres. The work of this thesis, done in partnership between UPMC and CGG Veritas, consists of the theoretical feasibility of monitoring CSEM for the lateral displacement of oil-water interface with a n apparatus that permits obtaining information on the distribution of uids for a large surface reservoir. We are particularly interested in the land milieu. After an examination of the status of applied geophysical methods on the monitoring for hydrocarbon reservoirs, a presentation of the theory of simulation algorithms is made. For this thesis, two codes have been developed, parallelized and used on parallel machines for which the calculation grid is European, EGEE. The _rst uses the semi-analytic Method of Moments for the frequency domain, and by extension, for the time domain. The second is based on _nite di_erence for the time domain. The development is more concentrated on the Method of Moments (code : EM MOM). The EM MOM code was able to be tested during a cooperative mission with CIPR (Center for Integrated Petroleum Research) at the University of Bergen, Norway. The code permitted doing a sensitivity analysis in the frequency domain to identify device geometries better adapted to the monitoring of a hydrocarbon reservoir (depth of 1000 meters). The apparatus that yields the greatest sensitivity consists of a vertical dipole source buried at mid depth between the top of the reservoir and the ground surface, and of horizontal receptors for electrical _eld set on the ground surface. The level of 4D signal, i. E. , the di_erence of measured _eld at two di_erent instants («time lapse») remains at a level slightly over the ambient noise, which can largely be eliminated by summation (vertical stacking). A series of measures of ambient noise done by CGGVeritas, presented in the _rst part of this thesis, establishes this observation. A 4D inversion algorithm has demonstrated the possibility of interpreting the synthetic CSEM data by using a single position of source, and an array of receivers positioned on the surface. The images drawn from the inversion trials show the oil-water interface very well. The neglect of a narrow layer of a dozen meters having a strong contrast in conductivity with the terrain environment, is practically annulled for the signal measured at the surface, but reduces the resolution of the oil-water boundary in 4D inversion. A high level of knowledge of the distribution of electrical conductivity for the entire terrain environment is therefore necessary for the inversion of 4D CSEM data. Iv
11

Djellab, Housni. "Optimisation combinatoire dans les systèmes de production : hypergraphes et méthodes d'amélioration itératives." Clermont-Ferrand 2, 1997. http://www.theses.fr/1997CLF21952.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pratiquer une gestion efficace des systèmes de production modernes est une tâche difficile. En effet, de la conception du système à son fonctionnement performant, de nombreux problèmes, difficiles à résoudre, se posent à tous les niveaux. L'objet de cette thèse est la résolution des problèmes combinatoires de nature académique, avec certains aspects pratiques pour leur utilisation dans les ateliers de production : l'agencement des équipements en fonction des flux et l'ordonnancement,. . . Une première partie est consacrée plus particulièrement à l'utilisation des hypergraphes sont la représentation des problèmes liés à la gestion des outils sur une machine à commande numérique (NC-machine) et à l'agencement des machines sur une ou plusieurs lignes. Suite à cette représentation, nous avons proposé une méthode générique pour la représentation des hypergraphes. Une étude détaillée a été faite pour le choix approprié des paramètres de la méthode dont l'adaptation a donné de bons résultats pour la gestion des outils et l'agencement. La deuxième partie consiste à ajouter, pour des travaux existants, des modules permettant d'améliorer la qualité des solutions ou de réduire le temps de calcul. Nous avons proposé pour les méthodes d'amélioration itératives (recuit simulé, recherche tabou,. . . ) des systèmes de voisinage guidés qui tiennent compte des caractéristiques du critère à optimiser dans le cas d'un problème de flow-shop (chaîne de montage), l'adaptation de Pecos-Solver, langage de programmation par contraintes, pour le problème de job-shop (atelier généralisé) et l'utilisation combinée des méthodes d'ordonnancement et de la simulation à événements discrets dans le cas d'un problème de job-shop sans attente (atelier généralisé a flux continu de type traitement de surface HSP).
12

Claisse, Maxime. "Méthodes de pilotage des flux avec prise : en compte des incertitudes prévisionnelles." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC022/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Intégrée dans la chaîne décisionnelle de la Supply Chain à un niveau tactique, la Planification de Production est un process clé qui permet de répondre au mieux aux besoins selon les ressources de l’entreprise. Un des défis du domaine est la gestion des incertitudes prévisionnelles, ayant des conséquences importantes sur des indicateurs clés comme le taux de service ou les coûts. Pour y faire face, des méthodes améliorant la flexibilité des processus sont mais en place, comme le contexte de travail en Plan Glissant. Cependant, en actualisant fréquemment les données, la stabilité du système se retrouve dégradée. Ainsi, malgré les gains issus de la gestion des incertitudes, ce cadre crée une complexité dynamique à gérer. Ce travail traite de cette complexité issue de l’actualisation des prévisions pour la planification de production en plan glissant. Plus particulièrement, la question traitée ici concerne l’optimisation du plan de production, en considérant u n système mono-produit monoétage. Une modélisation mathématique générique est tout d’abord développée pour construire un modèle d’optimisation théorique du problème. Ensuite, une procédure de résolution optimale est développée en utilisant le cadre d’optimisation dynamique stochastique. Ce modèle est appliquée à des cas concrets pour lesquels l’optimalité des solutions calculées est prouvée analytiquement grâce à un raisonnement inductif basé sur des séquences de calcul d’espérances mathématiques. Des analyses numériques finalement conduites mettent en exergue les performances de la méthode développée, ses limites, et sa sensibilité vis-à-vis de l’environnement industriel
Production Planning, as part of tactical operations integrated into the Supply Chain process, is a key procedure allowing decisioners to balance demand and production resources. One of its most challenging issues is to handle uncertainties, especially the ones coming from the Forecasted Demand. In order to manage indicators at stake, such as service level and costs, best practices increasing flexibility in the process are implemented, as Rolling-Plan Framework. However, it creates instability since the updates procedures make the data set on change constantly. Consequently, although the gain in terms of flexibility is non-negligible for the uncertainties management, it generates on the other hand dynamics complexity. We study in this work how to deal this dynamics complexity generated by updates of the Forecasted Demand made in a Rolling-Plan Framework of a Production Planning Process. In particular, the question to which it answers is how to optimize the Production Plan in such a context. This issue is tackled considering a single item single level production system. A general mathematical model in the context of our study is built to be exploitable for analytical optimization. A theoretical optimization framework is designed, and a specific solutions computation framework using stochastic dynamic programming is developed. We apply it in some precise study cases in order to compute optimal solutions and get some valuable analytical results thanks to a dynamic computation process. The optimality of the solutions is proven through an inductive reasoning based on expectations computation. Solutions are finally implemented and calculated numerically with simulations in some particular numerical examples. Analyses and sensitivity studies are performed, highlighting the performances of our optimization method
13

Kassou, Ismaïl. "Amélioration d'ordonnancements par des méthodes de voisinage." Rouen, 1992. http://www.theses.fr/1992ROUES025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est de proposer des solutions pour l'amélioration d'ordonnancements d'ateliers de type job shop. La stratégie utilisée repose sur l'utilisation de méthodes de voisinage, telles que la trempe ou le recuit simulé ou les méthodes de recherche taboue, pour la transformation du planning courant. Un module d'optimisation a donc été greffé au logiciel de planification à court et moyen termes Fisias. Une étude a été menée, avec divers types de données issues de la littérature, de l'industrie ou générées aléatoirement, sur l'application du recuit et des méthodes de recherche taboue. Une importance particulière a été accordée aux voisinages (taille, choix, visite). On a développé une version hybride de recuit simulé qui visite en totalité ou partiellement ses voisinages ainsi qu'un recuit hybride qui choisit ses voisinages
14

Rebaï, Ismaïl. "Méthodes exactes et heuristiques pour le flow-shop de permutation." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAPA001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ordonnancement, qui est la programmation de l'exécution d'une réalisation en attribuant des ressources aux tâches et en fixant leurs dates d'exécution [CC88], est présent dans tous les domaines de l'économie. La théorie de l'ordonnancement traite aussi bien de modèles mathématiques que de la modélisation de situations réelles. C'est la synergie entre théorie et pratique qui fait apparaître de nouveaux modèles. Les problèmes d'atelier sont des problèmes d'ordonnancement d'aspect pratique extrêmement difficiles. Parmi les problèmes d'atelier, on distingue les job-shops et les flow-shops selon que les gammes dépendent des travaux - jobs - ou non. A l'origine, cette thèse a eu pour objectif de transposer des avancées récentes dans la résolution du job-shop à un problème plus particulier, le flow-shop de permutation. C'est ainsi que dans un premier temps, une première méthode basée sur les dates de disponibilité et les durées de latence a été élaborée. Des problèmes de grande taille en termes de travaux et d'opérations ont pu alors être résolus et ce, pour minimiser le makespan. Par la suite, nous avons généralisé ces dates de disponibilité et ces durées de latence aux machines associées aux tâches, et résolu des instances de flow-shops de très grande taille. Par ailleurs, quelques méthodes approchées ont été proposées et comparées à celles de la littérature. Puis, une méthode exacte a été mise au point pour l'optimisation des sommes de dates de fin d'exécution des travaux et de la somme pondérée de ces dates de fin. Une variante de cette méthode a elle aussi donné des résultats performants. Enfin, nous avons généralisé certaines de ces méthodes pour tenir compte des délais d'attente dus aux montagnes et démontages d'outils sur les machines, aux transports dans l'atelier ou aux décalages temporels. Nous avons également appliqué notre approche à un type particulier de flow-shop hybride &avec des contraintes d'ordre. Ceci montre la généralité de notre méthode.
15

Campos, Ciro Guillermo. "Développement de méthodes d'ordonnancement efficaces et appliquées dans un système de production mécanique." Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution continue des environnements de production et l’augmentation des besoins des clients, demandent un processus de production plus rapide et efficace qui contrôle plusieurs paramètres en même temps. Nous nous sommes intéressés au développement de méthodes d’aide à la décision qui permettent d’améliorer l’ordonnancement de la production. L’entreprise partenaire (Norelem) fabrique des pièces de précision mécanique, il faut donc prendre en compte les différentes contraintes de ressources (humaines et d’outillage) existantes dans l’atelier de production.Nous avons abordé l’étude d’un atelier d’ordonnancement de type open shop ou chemin ouvert, où une tâche peut avoir de multiples séquences de production puisque l’ordre de fabrication n’est pas fixé et l’objectif à minimiser est le temps total de séjour. Des contraintes d’affectation de ressources humaines (multi-compétences) et de disponibilité d’outillage ont été prises en compte.Des modèles mathématiques linéaires et non-linéaires ont été développés pour décrire la problématique. Etant donné que les méthodes exactes sont limitées aux instances de petites tailles à cause des temps de calcul, des méthodes de résolution approchées ont été proposées et comparées. De plus, nous avons abordé l’optimisation multi-objectif en considérant trois objectifs, la minimisation du temps total de séjour et l’équilibrage de charge des ressources (humaines et machines).L’efficacité des méthodes est prouvée grâce à des tests sur des instances théoriques et l’application au cas réel
The continuous evolution of manufacturing environments and the growing of customer needings, leads to a faster and more efficient production process that controls an increasing number of parameters. This thesis is focused on the development of decision making methods in order to improve the production scheduling. The industrial partner (Norelem) produces standardized mechanical elements, so many different resource constraints (humans and tools) are presented in its workshop.We study an open shop scheduling problem where one job can follow multiple production sequences because there is no fixed production sequence and the objective function is to minimize the total flow time. In addition, multi-skilled personnel assignment and tool’s availability constraints are involved.Mathematical models: linear and non-linear formulations have been developed to describe the problem. Knowing the exact method limitations in terms of instance sizes because of the duration, heuristics methods have been proposed and compared. Besides that, the multi-objective optimization was exposed to deal with three objectives as total flow time minimization and workload balancing concerning both, humans and machines.The efficiency of these methods was proved by several theoretical instance tests and the application on the real industrial case
16

Eyl, Véronique. "Études métaboliques et physiologiques d'hybridomes murins : comparaison entre différentes méthodes de production d'anticorps." Nancy 1, 1991. http://www.theses.fr/1991NAN10438.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Haouet, Chaker. "Méthodes de "production à la japonaise" et implications pour le contrôle de gestion." Paris 1, 1993. http://www.theses.fr/1993PA010027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre etude "methodes de 'production a la japonaise' et implications pour le controle de gestion" est une recherche de type empirique dont le but premier est d'apporter une contribution a la comprehension des pratiques de controle de gestion dans un contexte d'organisation de la production "juste a temps". Cette recherche concourt a la realisation de trois objectifs: 1- examiner les pratiques de controle de gestion mises en place dans des etablissements industriels engages dans des methodes de production dites "a la japonaise" ou "juste a temps"; 2- tenter d'apprecier et d'expliquer le degre d'evolution du controle de gestion industrielle du fait de la mise en place, partielle ou totale, d'une organisation de la production "juste a temps"; 3- tracer une esquisse de ce que pourrait devenir le controle de gestion dans ce contexte. Nous avons juge utile pour le lecteur de decrire ce que sont les methodes de "production a la japonaise", puis de rappeler les grands principes qui regissent le controle de gestion. Apres une enquete "en profondeur" aupres de 28 etablissements de production d'entreprises industrielles, appartenant a des secteurs varies d'activite, sur la relation entre controle de gestion et production "juste a temps", nous en avons analyse les resultats. Ceux-ci nous ont notamment conduit a identifier les variables permettant d'evaluer le degre d'avancement des etablissements dans la mise en oeuvre adaptative de leur controle de gestion, et de montrer que la ou celle-ci etait au point mort, des dysfonctionnements etaient clairement percus
This study "methods of production japanese style and implications for management control" , is an empirical research project whose primary goal is to contribute to an understanding of management control practices within the particular organizational context of "just in time" production. The study has three main objectives: 1- to examine the practices of management control employed in industrial establishments engaged in methods of "japanese style" or "just in time" production; 2- to attempt to appreciate and to explain the degree of evolution of industrial management control due to the utilizati partial or complete, of a "just in time" production organization; 3- to trace the possible future evolution of management control within this context. We have deemed it useful to our readers to begin with a description of "japanese style" methods of production, followed by an overview of the conventionally accepted principles which govern management control practices. After an indepth investigation of the relation between management control and "just in time" production as they occur in 28 systems of productional organization within industrial enterprises from various sectors of activity, we have analysed the results and attempted to posit some possible conclusions. The results of our study led us most notably to identify the variables permitting us to evaluate the degree of advancement of establishments in the adaptive installatio their management control applications, as well as to troubleshoot and clearly delineate the complications of disfunction applications. The final and concluding chapter advances the bases of principles of management control induced by the adoption of "japanese style production"
18

Trouillet, Benoît. "Sur l'évaluation du comportement logique des systèmes de production manufacturière par méthodes exactes." Lille 1, 2003. http://www.theses.fr/2003LIL10021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème considéré est celui de l'ordonnancement cyclique pour les systèmes de production manufacturière avec le respect de contraintes de fonctionnement. Cette problématique se traduit par l'étude de réseaux de Pétri dont les indéterminismes sont liés aux partages de ressources et des spécifications de fonctionnement imposées. L'idée consiste à considérer le comportement logique afin de garantir le fait que le réseau de Pétri sous-jacent respecte les contraintes de fonctionnement initialement imposées. Dans ce sens, une étude des partages de ressources s'impose afin de rendre déterministe le réseau de Pétri et de pouvoir envisager une mise en équations du modèle avec les outils existants ((max,+) ou (min,+)). Cette étude est réalisée par intégration des contraintes de fonctionnement dans le réseau de Pétri, c'est-à-dire une étude des contraintes de précédences entre les transitions en conflit d'accès à une même ressource. Ce qui se traduit par l'obtention d'un graphe d'événements éventuellement pondéré dont le fonctionnement est contraint par un système d'équations garantissant tous les séquencements possibles des ressources parmis les transitions en conflit
L'obtention d'un graphe d'événements permet d'envisager une approche algébrique du comportement logique du SFPM en considérant un marquage initial quelconque. Dans le cas d'une étude d'un graphe d'événements pondéré, la présence de poids sur les arcs induit l'utilisation de l'opérateur div correspondant à la division euclidienne. Ainsi, une abstraction du comportement logique conduit à un système d'équations non-linéaire au sens du dioïde (min,+). Ce qui justifie l'étude d'une méthode de linéarisation permettant l'expression du comportement logique à l'aide d'un système d'équation linéaire. Pour une classe de réseaux de Pétri, un algorithme de linéarisation est proposé. Par conséquent, l'ensemble des séquencements possibles des opérations du modèle intial, avec le respect des contraintes de fonctionnement, correspond à l'ensemble des solutions du système d'équations linéaires obtenu. Le comportement logique du réseau de Pétri initial peut être étudié sur un horizon (nombre de steps) quelconque, dont le résultat correspond aux séquences de franchissements engendrant un comportement cyclique d'horizon prédéfini. Dans ce cadre l'évaluation des performances des solutions obtenues peut être effectuée à priori
19

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Thesis, Metz, 2011. http://www.theses.fr/2011METZ019S/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
20

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Electronic Thesis or Diss., Metz, 2011. http://www.theses.fr/2011METZ019S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
21

Bayem, Herman. "Apport des méthodes probabilistes aux études d’insertion des énergies renouvelables dans les systèmes électriques." Paris 11, 2009. https://tel.archives-ouvertes.fr/tel-00447151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La production renouvelable (l’éolien, solaire photovoltaïque) a la particularité d’être variable et surtout non contrôlable du fait de la variabilité des sources. Compte tenu de ces particularités, les études d’impact des EnR sur les systèmes électriques, basées sur les méthodes déterministes s’avèrent inadaptées. L’objectif de ce travail est d’étudier l’apport des méthodes probabilistes dans les études d’intégration des EnR aux systèmes électriques. Les variations des paramètres du système imposent aux gestionnaires de réseaux des défis dont un des plus importants est la maîtrise de l’impact lié à ces variations. Cela passe par une caractérisation probabiliste du système électrique qui a été développée dans ce travail. Des méthodes probabilistes ont été développés pour réaliser les différentes analyses (transits, tensions, stabilité…) d’impact des EnR. De même pour les études d’intégration du type calcul du taux de pénétration en EnR dans un système donné, une méthode probabiliste a été proposée. Le principe de ces études est d’effectuer les analyses classiques sur grand nombre de points de fonctionnement représentatifs du comportement du système sur la période d’étude. Ces points de fonctionnement sont obtenus par tirage Monte Carlo sur les lois de probabilités des différents paramètres du système. A l’issue de ces analyses, l’impact des EnR est défini par un risque de défaillance. Il s’agit donc d’une étude du « risque de défaillance » à la différence d’une étude déterministe qui est du type « défaillance/pas défaillance ». Les méthodes déterministe et probabiliste ont été comparées pour deux cas : le raccordement d’une unité de production renouvelable à un réseau de distribution et l’étude du taux de pénétration d’un parc d’EnR dans un réseau de type insulaire
Renewable energy sources (RES) (especially wind and photovoltaic energy) have the particular feature of being variable and the controllabity of their production is very limited. For these reason, deterministic methods applied to RES' impact studies are inappropriate. The goal of this research work is to investigate the contribution of probabilistic methods for integration studies of RES in power systems. The management of parameters variations impacts on power systems brings up news challenges to system operators. The first step is the probabilistic modeling of the power system which is the first part of our work. The second step is the development of probabilistic methods which mix a probabilistic characterization of the power systems with a probabilistic model of RES production to estimate defined reliability criteria as well as probabilistic security criteria like risk of congestion, voltage level violations, etc. A probabilistic study is thus a risk analysis study, unlike a deterministic study which consists in the failure analysis of few specific situations. Pratical applications are presented and contributions of the probabilistic methods are discussed
22

Patchong, Alain. "Méthodes de modélisation, d'analyse et de diagnostic pour l'amélioration de l'efficacité d'un atelier de production." Valenciennes, 1997. https://ged.uphf.fr/nuxeo/site/esupversions/3681e5f7-c8a1-4c87-b5d3-67936f252624.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La logique industrielle actuelle dominée par la recherche permanente de l'amélioration de l'efficacité des systèmes de production amplifie l'intérêt du diagnostic de performance dont le but est d'orienter vers les actions les plus rentables. La mise en œuvre du diagnostic de performance nécessite l'utilisation des méthodes analytiques d'évaluation de performance. Une étude bibliographique comparative des méthodes existantes nous a permis de constater qu'elles n'étaient pas toujours satisfaisantes dans la résolution des problèmes industriels. D'où la nécessité de développer de nouvelles méthodes pour les deux types de lignes à géométrie particulière les plus courantes dans l'industrie : les lignes comportant des machines parallèles et les lignes de production fermées. Les méthodes mises au point sont appliquées dans l'évaluation de performance de l'atelier ferrage de Sevelnord (PSA et Fiat). Nous proposons également une méthode de suivi de performance d'un système de production ainsi qu'une méthode permettant de modéliser et d'analyser les lignes de production constituées de postes manuels et automatisés.
23

Dumetz, Ludwig. "Simulation combinée des processus de production et des processus de pilotage : analyse comparative de stratégies de pilotage pour la production de bois d'oeuvre." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de ce travail de thèse, nous avons conçu une plateforme de simulation permettant l’évaluation comparative de stratégies de pilotage pour la production de bois d’œuvre dans les scieries nord-américaines. Dans notre contexte, une stratégie de pilotage est composée de plusieurs paramètres tels que le choix des politiques d’acceptation des commandes, permettant d’accepter ou de refuser une commande en fonction de règles mises en place, le choix des modèles et algorithmes de planification utilisés à chaque étape de la production de bois d’œuvre, le choix du modèle au niveau tactique, les mécanismes de coordination utilisés, permettant de mieux coordonner les opérations de plusieurs entités distinctes ou de plusieurs niveaux de planification ; on parle notamment d’échange d’informations circulant entre les niveaux de planification tactique et opérationnel ou encore entre les entités/modèles utilisés au niveau opérationnel pour planifier la production de bois d’œuvre. Lors de la planification des opérations, les industriels doivent mettre en place ces stratégies de pilotage. Aujourd’hui, il est extrêmement compliqué de savoir quelle stratégie de pilotage mettre en place en fonction de son propre contexte de marché et de ses paramètres de production. L’objectif général est donc est de permettre d’évaluer et comparer des stratégies de pilotage aux niveaux tactique et opérationnel pour la production de bois d’œuvre, tout en tenant compte du contexte de marché de l’entreprise ainsi que de ses paramètres de production. Pour atteindre cet objectif, nous l’avons divisé en quatre objectifs spécifiques qui ont donnés lieu à trois publications. Pour notre premier objectif spécifique, nous avons développé un modèle de simulation permettant de représenter la génération, l’acceptation et la vente d’une commande pour une entreprise de sciage. Un module de planification de la production a également été couplé et est responsable de la gestion des stocks et de la génération des plans de production. Pour notre deuxième objectif spécifique, nous avons utilisons ce modèle de simulation pour pouvoir évaluer l’impact de politiques d’acceptation des commandes (telles que Availableto-promise (ATP), Capable-to-promise (CTP) ou encore On-Stock) sur les performances de l’entreprise en termes de volume de commandes acceptées dans un environnement à flux de produits divergent avec co-production. Bien que ces politiques d’acceptation des commandes aient été largement étudiées dans un contexte manufacturier traditionnel, le choix d’une politique plutôt qu’une autre est loin d’être trivial dans un tel contexte de divergence de flux physique. Nous montrons dans cette première contribution que dans ce type de contexte, le choix d’une politique d’acceptation de commande plutôt qu’une autre dépend fortement du marché et impacte fortement les performances de l’entreprise, en termes de commandes acceptées et de stock moyen annuel. Cet objectif spécifique a entrainé l’écriture d’un premier article. Pour notre troisième objectif spécifique, nous avons évalué des mécanismes de coordination mis en place au niveau opérationnel entre les différentes activités du processus de transformation de bois d’œuvre, qui est un processus décentralisé. La précédente plateforme de simulation a donc été adaptée et des mécanismes de coordination déjà publiés tels que « Twophases planning », ou « bottleneck-first planning » y sont évalués en utilisant un horizon roulant dans un environnement où les commandes sont générées dynamiquement. Nous montrons que les mécanismes de coordination déjà publiés et testés dans un environnement statique performent mal dans un environnement dynamique. Nous proposons donc un autre mécanisme de coordination « hybride flux poussé / flux tiré » exploitant le concept de point de découplage. Ce mécanisme s’avère meilleur que les précédents en permettant un plus grand nombre de ventes, ainsi qu’une réduction des stock moyens. Cet objectif spécifique a entrainé l’écriture d’un deuxième article. Enfin, pour notre quatrième objectif spécifique, nous nous intéressons à la planification de la production aux niveaux tactique et opérationnel. Nous utilisons le modèle de simulation pour comparer et évaluer l’impact de différents types d’informations transmises du niveau tactique au niveau opérationnel. Le niveau de planification tactique est alors pris en compte pour établir une planification à plus long terme. Nous montrons que le choix du type d’informations à transmettre du niveau tactique au niveau opérationnel varie selon plusieurs facteurs, tels que : la politique d’acceptation des commandes (ATP, CTP) utilisée par l’entreprise, l’ampleur de la saisonnalité des prix de vente, ou le fait d’être ou non dans un marché en surcapacité. Cet objectif spécifique a entrainé l’écriture d’un troisième article.
In this thesis, we designed a simulation platform to compare and evaluate production planning and order management strategies for lumber production in North American sawmills. In our context, a strategy is composed of several parameters such as the choice of order acceptance policies, allowing to accept or refuse an order based on implemented rules, the choice of planning models and algorithms used at each stage of timber production, the choice of model at the tactical level, the coordination mechanisms used, to better coordinate the operations of several distinct entities or of several planning levels; this includes the exchange of information between tactical and operational planning levels or between entities / models used at the operational level to plan timber production. Today, it is extremely difficult for a company to know which management strategy to put in place. The general objective is then to evaluate and compare tactical and operational planning strategies for timber production, taking into account the company's market context and its production parameters. To achieve this goal, we divided it into four specific objectives that resulted in three publications. In the first specific objective, we developed a simulation model to represent the generation, acceptance and sale of an order for a sawmill. We coupled a production planning module to this simulation model that is responsible for inventory management and the generation of production plans. In a second objective, we use this simulation model to be able to evaluate the impact of order acceptance policies such as Available-to-promise (ATP), Capable-to-promise (CTP) and Stock policies on the company’s performance in terms of volume of accepted orders in a product flow environment diverge with co-production. Although these order acceptance policies have been widely studied in a traditional manufacturing context, the choice of one policy over another is far from being trivial in such a context of divergence flow. We show that in this type of context, the choice of an order acceptance policy rather than another depends strongly on the market and impacts the performance of the company, in terms of accepted orders and average annual inventory. This specific objective leads to the first publication. In a third specific objective, we evaluated coordination mechanisms used at the operational level between the different activities of the timber processing process, which is a decentralized process. The previous simulation platform has been adapted and previously published coordination mechanisms such as "Two-phase planning" or "bottleneck-first planning" are evaluated using a rolling horizon in an environment where orders are generated dynamically. We show that coordination mechanisms already published and tested in a static environment perform poorly in a dynamic environment. We therefore propose another "hybrid push / pull" coordination mechanism exploiting the decoupling point concept. This mechanism is better than the previous ones by allowing a greater number of sales, as well as a reduction in average inventory. This specific objective leads to a second publication. Finally, in a fourth specific objective, we are interested in production planning at the tactical and operational levels. We use the simulation model to compare and evaluate different information transmitted from the tactical level to the operational level by simulating the production system, the planning process and the market behavior. The tactical planning level is then taken into account to establish longer-term production planning. We show that the choice of the type of information to be transmitted from the tactical level to the operational level varies according to several factors, such as: the order acceptance policy (ATP, CTP) used by the company, the extent of seasonality selling prices, or whether or not being in an overcapacity market. This specific objective leads to third publication
24

Sedqui, Abdelfettah. "Nouvelle approche pour la classification des gammes de production." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le recours à la Technologie de Groupe (T. G) basée sur l'exploitation des similarités entre produits aux différents stades de son élaboration est toujours d'actualité dans les approches en cours de la production (ingénierie concourante, fabrication à la demande,. . . ). Au niveau du Bureau des Méthodes, nous traitons deux problèmes essentiels relevant de la classification des gammes. Le premier rencontré est l'analyse des gammes logiques d'assemblage d'un produit. Il s'agit de sélectionner les gammes de remplacement selon un critère simple ou multiple, afin d'atteindre les objectifs économiques ou techniques fixés par l'entreprise. Le second problème est la classification en familles des gammes de production similaires vis à-vis de leur processus de réalisation en vue de la conception des cellules flexibles. Dans ce mémoire, après présentation de l'état de l'art, nous proposons une méthode originale pour résoudre le premier problème. Cette méthode, basée sur la génération des hypergraphes par arborescence, permet : - la représentation des gammes binaires par la description des différentes étapes de l'assemblage du produit, en mettant en évidence le caractère parallèle et/ou séquentiel du processus logique d'assemblage, -l'analyse des différentes gammes par le calcul d'une distance entre toutes les gammes admissibles. Cette méthode a été appliquée aussi dans le cas de la gestion dynamique des gammes d'assemblage. Pour résoudre le deuxième problème, nous proposons une nouvelle approche basée sur la théorie des langages pour la classification des gammes tout en gardant les approches antérieures basées sur l'analyse typologique et en particulier la classification hiérarchique : -Nous traitons le cas fondamental des gammes linéaires en proposant une distance entre ces gammes vérifiant les critères mis en évidence dans les travaux antérieurs dans ce domaine. - Nous traitons par la suite, le cas des gammes arborescentes en proposant un algorithme pour le calcul des distances entre arbres d'une façon générale et binaires en particulier. La classification des gammes binaires nous permet de généraliser les travaux qui jusqu'à présent traitaient des gammes linéaires et nous permet d'exploiter le parallélisme rencontré dans le cas d'assemblage/montage. - Nous résolvons le problème de représentation des données qui se posait au niveau des opérations se répétant plusieurs fois dans une gamme
[Resorting to Group Technology (GT) which is based on the exploitation of product similarities is always topical. Using this technique, we treat two essential problems that belong to the sequence classification. The first meeted is the analyse of assembly logic sequences of product. It is a question to select an alternative sequences verifying criteria in order to reach economic or technique objectives fixed by the firm. The second problem is the classification into families of manufacturing sequences that have similar manufacturing process for FMS (Flexible Manufacturing System) design. So, we propose an original method to solve the first problem. This method, based on hypergraphs generated by tree structure , permit : - the representation of binary sequences by describing the product assembling steps, highlight the parallel character and / or sequential logic of the assembly process , - the analyse of all sequences by calculation of distance between all admissible sequences. This method is used in dynamic control of assembling sequences. To solve the second problem, we propose a new approach based on language theory for sequences classification with keeping the prior approaches based on hierarchic classification : - we treat fundamental case of linear sequences. We propose distance between sequences that verify criteria described in the prior works. - after, we treat the case of arborescent sequences. We propose an algorithm for distance calculation between trees generally and binary trees in particular. This work permit to generalize the works that treat only linear sequences and permit to exploit the task parallelism in assembly sequence. - we solve too the data representation problem when an operation is repeating himself any times into a sequence. ]
25

Dagenais, Pierre. "Étude et développement de méthodes pour la production et la détection d'anticorps anti-peptides." Thèse, Université de Sherbrooke, 1994. http://hdl.handle.net/11143/12083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La première partie de la thèse porte sur l'étude de l'effet immunogène de l'introduction d'acides aminés pseudo-lipidiques (liés à de longues chaînes aliphatiques) dans des peptides synthétiques. Des chaînes lipophiles de 14 et de 18 carbones ont été liées à certains acides aminés, lesquels ont ensuite été incorporés à deux peptides modèles, soit l'angiotensine II et un épitope du parasite Schistosoma mansoni. Les peptides conjugués aux chaînes aliphatiques ont ensuite été injectés à des souris BALB/c et la production d'anticorps polyclonaux spécifiques à été évaluée par ELISA et confirmée par RIA. Cette production d'anticorps a été comparée à celle induite par les peptides conjugués à des porteurs protéiques, aux peptides non conjugués, et à des tétramères de ces mêmes peptides liés à un réseau de lysines (MAPS). Seuls les conjugués protéiques se sont avérés efficaces dans notre étude pour induire un haut taux d'anticorps spécifiques aux peptides. Les peptides avec acides aminés pseudo-lipidiques et les tétramères peptidiques ont également été inefficaces lorsqu'utilisés pour la détection d'anticorps en ELISA. Des études ont déjà rapporté l'excellent rendement du MAPS pour la production et la détection des anticorps, mais il semble que des difficultés soit reliées à la production de ces composés. L'analyse par spectrophotométrie de masse nous a effectivement révélé une grande hétérogénéité des produits finaux. La possibilité de produire des immunogènes peptidiques dont la structure peut être modifiée à volonté par l'incorporation d'acides aminés à fonctions pseudo-lipidiques est d'un grand intérêt, mais étant donné les difficultés de purification de ces composés, leurs inefficacités apparentes dans cette étude, et l'existence de nouvelles méthodes de production d'anticorps anti-peptides très efficaces, nous ne pouvont suggérer la conjugaison de chaînes aliphatiques aux haptènes peptidiques comme étant la façon la plus efficace pour produire des anticorps anti-peptides. Dans un deuxième temps, nous avons tenté de développer une méthode permettant de lier des petits peptides synthétiques de façon covalente sur les plaques ELISA de polystyrène. Ce projet avait pour but premier de produire un nouvel outil de travail pour notre projet principal en facilitant la liaison de courts peptides tels que l'Ang II aux plaques ELISA. Des plaques de polystyrènes ont d'abord été soumises à différentes doses de radiation gamma, puis ces dernières ont été activées chimiquement avec du N, N'-dicyclohexylcarbodiimide (DCC) en combinaison avec du N-hydroxysuccinimide (NHS), avant d'être incubées avec le peptide dans une solution aqueuse. Le taux de liaison du peptide a été évalué avec de l’125I-angiotensine II et la nature covalente du lien formé à été vérifié par des lavages au SDS 5% aqueux. L'irradiation des plaques provoque une augmentation de la liaison totale du peptide mais non de sa liaison covalente. Le traitement au DCC/NHS correspond à l'étape cruciale pour permettre la liaison covalente du peptide. Les deux traitements exécutés simultanément ont un effet synergique sur la liaison covalente et totale du peptide. Le degré supérieur de liaison obtenu avec la [Lys8]Ang II par rapport à la [Phe8]Ang II suggère que le peptide est lié par ses fonctions amines libres, à des fonctions carboxyliques présentes à la surface du polystyrène, et activées par le DCC/NHS. Des essais ELISA effectués avec le CGRP et des fragments de ce peptide ont permis de montrer que les peptides liés de façon covalente peuvent être très bien reconnus par des anticorps spécifiques, et que la liaison covalente permet d'augmenter la reconnaissance des peptides les plus courts. Les plaques ELISA sur lesquelles l'antigène a été lié sont de plus réutilisables, et peuvent être conservées plusieurs mois à la température ambiante. Cette méthode s'est toutefois avérée inefficace pour déceler des anticorps anti-angiotensine II, et un taux élevé de liaison non spécifique a été observé pour ce peptide avec certains séra hyperimmuns; mais étant donné les nombreux avantages de cette méthode de liaison, elle pourrait devenir intéressante dans le développement de nouvelles trousses diagnostiques. Étant donné la disponibilité des nombreux séra positifs anti-angiotensine II (Ang II) que nous avions produits, et l'accessibilité de nouveaux analogues non-peptidiques de l'Ang II au laboratoire, nous avons développé un second sous-projet dont le but était de concevoir un récepteur modèle pour l'Ang II à partir des anticorps anti-Ang II. Cette étude a donc porté sur les interactions retrouvées entre des anticorps anti-Ang II et différents antagonistes ou analogues non-peptidiques de l'hormone. Nous avons entrepris une étude de criblage, par ELISA de compétition, d'une série de séra polyclonaux anti-Ang II avec différents agonistes et antagonistes peptidiques et non-peptidiques de l'Ang II. Aucune réaction croisée n'a été observée avec différentes substances non reliées à l'Ang II (témoin) et avec des analogues non-peptidiques AT2. La grande majorité des séra réagissent spécifiquement avec le plus puissant antagoniste non-peptidique AT1 utilisé, le L-158,809 (5,7-dimethyl-2-ethyl-3-[[2'-(1H-tetrazol-5yl)[1,1']-biphenyl-4-yl]-methyl-3H imidazo [4,5b] pyridine. L'un des 8 sérum examiné reconnait l'ensemble des antagonistes non-peptidiques AT1. Ces interactions sont observées peu importe que l'Ang II soit présenté par l'une ou l'autre de ses extrémités en ELISA, ce qui suggère que le site de liaison de ces anticorps se situe au centre de la molécule. L'affinité des anticorps anti-Ang II pour les antagonistes non-peptidiques est nettement inférieure à celle observée pour l'agoniste [Sar1]Ang II : 3-4 mM vs 10 pM, mais similaire à l'affinité retrouvée pour les antagonistes peptidiques saralasine et [Sar1,Phe(Br5)8]Ang II ; 0.5 mM. Ces résultats démontrent qu'il existe une homologie structurale entre les antagonistes non-peptidiques AT1 et l'Ang II, et qu'il est possible de trouver des anticorps anti-Ang II capables d'imiter la structure de reconnaissance d'un récepteur de l'Ang II. De tels anticorps pourraient devenir des outils importants pour la conception de nouveaux ligands hormonaux.
26

Shahzad, Muhammad Kashif. "Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771672.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
27

Durcos, Sylviane. "Outils informatiques supports aux méthodes de modélisation et de conception de systèmes de production." Bordeaux 1, 1995. http://www.theses.fr/1995BOR10676.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de recherche presente dans ce memoire concerne la conception et le developpement d'outils logiciels supports aux methodes de modelisation et de conception (mmc) des systemes de production. Un etat de l'art detaille permet de justifier l'utilisation de l'approche orientee objets. Ceci nous amene a proposer un cadre de developpement a deux niveaux : - generique (pour tout logiciel a interface graphique avancee) et - specifique au domaine des mmc. Cette approche est appliquee au developpement d'un outil informatique support a gim (grai integrated methodology) dans le cadre du projet eureka time tool.
28

Ha, Thi Binh Minh. "Contributions à l'étude des méthodes de production de masse des cellules endothéliales cornéennes humaines." Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET001T/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La bioingénierie de greffons endothéliaux cornéens est une des solutions réalistes en cours de développement dans quelques laboratoires pour palier au grand déséquilibre entre pénurie mondiale de dons de cornée et besoins immenses et croissant des populations. Cette véritable médecine régénérative consistera à injecter des cellules endothéliales (CEs) dans la chambre antérieure aux stades précoces des dystrophies endothéliales et, pour les stades avancées des pathologies endothéliales, à reconstruire in vitro des greffons endothéliaux composés d'un support transparent et biocompatible colonisé par une monocouche des CEs. Dans les 2 cas, la première étape obligatoire est la production de masse de CEs ou de "CE-like". Dans ce travail, nous avons exploré les différentes possibilités pour obtenir suffisamment de CEs fonctionnelles pour envisager des applications cliniques : 1- L'expansion de CEs natives prélevées sur des cornées de donneurs, ou culture primaire, se heurtent aux capacités prolifératives limitées des CEs in vitro. Un des prérequis étant la compréhension des mécanismes d'arrêt de la prolifération des CEs humaines, nous avons fait la synthèse bibliographique des connaissances sur leur cycle cellulaire et leur sénescence, et présentons 2 articles originaux: le premier utilise un microarray spécifique de 112 gènes de contrôle du cycle cellulaire pour comparer les profils transcriptionnels des CEs de 6 modèles biologiques comportant théoriquement un stimulus prolifératif croissant: in vivo, post mortem, organoculture, culture primaire confluente, culture primaire non confluente et lignée immortalisée. Nous identifions de nombreux acteurs impliqués dans l'arrêt du cycle, en particulier ceux impliquant une réponse à des dommages oxydatifs de l'ADN. Le second article explore les capacités prolifératives résiduelles des CEs de donneurs âgés de plus de 50 ans, sont les plus nombreux en Europe et donc les pourvoyeurs habituels de CEs pour la bioingénierie. Nous montrons qu'une optimisation des techniques de culture permet d'obtenir in vitro une mosaïque endothéliale de 2000 cellules/mm2. Enfin, un troisième article montre qu'un stimulus physique inattendu constitué d'un train d'impulsion électrique permet d'obtenir un très grand nombre de figures mitotiques mais uniquement dans des zones de faible DCE, démontrant encore une fois l'importance majeur de l'inhibition de contact dans l'arrêt prolifératif. 2- La sélection et l'expansion, par culture en sphère, des progéniteurs endothéliaux de la périphérie endothéliale pourrait être un moyen de contourner la sénescence de la majorité des CEs. La synthèse bibliographique montre que la plupart des travaux publiés émanent d'une seule équipe japonaise. Dans notre second article, nous avons montré l'existence de rares "label-retaining cells" dans les cornées de donneurs âgés, qui pourraient correspondre à ces progénieteurs. Nous avons aussi montré qu'il était possible d'obtenir des sphères avec ces donneurs. 3- La différenciation de cellules souches embryonnaires, mésenchymateuses ou des cellules pluripotentes induites est enfin la troisième voie qui pourrait permettre de produire des CEs en grand nombre. La méthode d'induction de la différenciation pourrait reproduire le schéma physiologique et désormais bien caractérisé de formation de l'endothélium à partir du mésenchyme périoculaire dérivé de la crête neurale et que nous rappelons au début de notre mémoire bibliographique. Nous rappelons également les méthodes utilisables pour caractériser les cellules obtenues: vérification de leur identité par immunomarquage d'un panel de protéines caractéristique (en absence de marqueur unique spécifique) et vérification de leur fonctionnalité par mesures de leurs capacités de pompage ionique, au minimum de façon indirecte sur chambre d'électrophysiologie de type Ussing, au mieux de façon directe en quantifiant la déturgescence d'une cornée humaine conservée dans le bioréacteur breveté du BiiGC
Corneal endothelial engineering is becoming a more and more realistic solution to restore vision from corneal edema. This method focus to regenerate corneal endothelium by direct injection of corneal endothelial cells (ECs) into patient anterior chamber at the early stage of endothelial dystrophies, or by grafting a transparent biocompatible material covered by a monolayer of ECs. These two techniques require both in vitro isolation and amplification of ECs or endothelial-like cells. In this thesis, different strategies to obtain a high quantity of functional ECs for clinical application are explored: 1- Due to the limit proliferative capacity of EC, the first strategy consists to analyze mechanisms implicated EC cell cycle arrest and then to optimize protocol for native EC isolation or for cell proliferation activation ex vivo. This is summarized in three publications. The first publication describes the cell cycle regulation by comparing transcriptional expression of 112 genes in 6 biological models of EC with different proliferative profile: in vivo, postmortem, organ-culture, confluent primary culture, non confluent primary culture and immortalized cell line. , The key molecular actors identified using the combining microarray analysis and gene ontology methods are consistent with previous findings about oxidative DNA damage mechanism. The second publication characterizes EC differentiation process and its impact on EC proliferative capacity in old donor corneas. Analyses of differentiation/progenitor markers and of proliferative capacity underline the differentiation process of EC from the centre to the peripheral corneal endothelium. Thereby, an optimized culture protocol was developed, allowing the formation of high-density monolayer (> 2000 cells/mm2) with stable endothelial morphology. We proved the possibility to make profit from a majority of old-donor cornea grafts invalidated for penetrating graft In the third publication, the activation of endothelial cell cycle by electric pulses directly in corneal graft was characterized. We confirm the activation of endothelial cell cycle at different phases but also the damage of tissue during electroporation. 2- Second strategy consists of the amplification of ECs from potential EC progenitors. Using sphere forming culture and a new method to detect slow-cycling cells, we demonstrate the existence of "young" ECs population with higher proliferative capacity in corneal periphery. The isolation of ECs by sphere formation is one possible step for ECs selection in vitro. 3- The differentiation of embryonic stem cells, mesenchymal stem cells or induced pluripotent stem cells into corneal endothelial cells is the third approach considered by our laboratory. The manipulation of stem cells differentiation would be based on the molecular mechanisms implicated in the formation of corneal endothelium from periocular mesenchymal cells described in the first part of the bibliography. Finally, in order to validate the quality of endothelial cell mass obtained, we revisited recent methods for the evaluation of corneal endothelial identity (immunolocalisation of specific markers), for the measurement of pump activity of cell monolayer (Ussing chamber, perfusion chamber) or directly in deswelled cornea using the bioreactor patented by the BiiGC laboratory
29

Oré, Albornoz Ernesto. "Sur les méthodes de décomposition proximale appliquées à la planification de production électrique en environnement incertain." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC083/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Rigot-Muller, Patrick. "Les évolutions de la fonction méthodes dans l'industrie automobile : outils et enjeux organisationnels." Paris, ENMP, 2004. http://www.theses.fr/2004ENMP1257.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Lenoir, Arnaud. "Modèles et algorithmes pour la planification de production à moyen terme en environnement incertain : application de méthodes de décomposition proximales : Arnaud Lenoir." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21875.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite des problèmes d'optimisation de systèmes de grande taille en environnement incertain et plus particulièrement à la résolution de leurs équivalents déterministes par des méthodes de décomposition de type proximal. Deux nouveaux schémas de discrétisation des aléas basés sur l'estimation non-paramétrique de l'espérance conditionnelle sont proposés. Nous nous intéressons ensuite aux méthodes de décomposition en tirant parti de la théorie des opérateurs monotones. Nous mettons l'accent sur les propriétés différentielles des opérateurs de réflexion généralisée dont on cherche un point fixe, qui permettent de borner la vitesse de convergence. Nous suggérons quelques techniques d'accélération de la convergence des méthodes de type Rachford. Pour cela, nous analysons dans un premier temps la méthode d'un point de vue théorique avant de proposer des améliorations en réponse. Parmi elles, une mise à jour automatique du facteur d'échelle permet de corriger son éventuel mauvais choix initial. La preuve de convergence de cette technique se voit facilitée grâce aux résultats de stabilité de certaines lois internes vis-à-vis de la convergence graphique établis en amont. Nous soumettons aussi l'idée d'introduire des "sauts" dans la méthode lorsqu'elle est appliquée à des problèmes polyédraux. En dernier lieu, nous montrons qu'il est possible, en ajoutant un mécanisme de contrôle, de s'affranchir de la résolution de tous les sous-problèmes à chaque itération en préservant la convergence globale. L'intérêt pratique de ces suggestions est confirmé par des tests numériques sur le problème de gestion de production électrique
32

Nyouki, Evariste. "Asymétries et externalités d'informations, stratégies des compagnies et efficacité informationnelle de l'exploration pétrolière." Montpellier 1, 1998. http://www.theses.fr/1998MON10060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous partons du fait que, à la fois pour des raisons ayant trait à l'économie pure et a l'économie de l'énergie, il est important de rechercher l'efficacité de l'exploration pétrolière. Une manière pragmatique d'appréhender l'efficacité est de passer par l'efficacité informationnelle qui exige que les différents blocs soient forés dans l'ordre décroissant des rentabilités estimées, les estimations se faisant sur la base des meilleures (au sens de la fiabilité) informations disponibles. Reste alors à s'entendre sur ce que recoupe la notion de "meilleures informations disponibles". Il s'agira soit des informations détenues par les compagnies pétrolières les plus expérimentées (ce qui est dû à l'existence d'asymétries d'informations au profit de ces compagnies plus expérimentées), soit des informations révélées par le forage et qui permettent d'évaluer les chances de succès sur les blocs avoisinants présentant des conditions géologiques similaires (ce qui est dû à l'existence d'externalités informationnelles d'exploration). En prenant acte de ces asymétries et externalités d'informations, nous dirons que l'exploration est informationnellement efficace lorsque - d'une part les choix d'exploration initiaux sont guidés par les compagnies les plus expérimentées, - et d'autre part, durant la phase de forage, face à l'externalité informationnelle, les compagnies adoptent une exploration séquentielle, c'est à dire excluant a la fois le surinvestissement et le sous investissement stratégique. La problématique que nous abordons dans cette thèse est alors de savoir si des compagnies pétrolières, placées dans des conditions normales de concurrence, sont susceptibles de faire émerger un état d'exploration informationnellement efficace, l'analyse étant menée de manière théorique et empirique.
33

Emiel, Gregory. "Méthodes d'optimisation non differentiable pour la résolution de grands problèmes. Applications à la gestion à moyen-terme de la production." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2008. http://tel.archives-ouvertes.fr/tel-00363868.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à la résolution de problèmes d'optimisation non-differentiable de grandes tailles résultant le plus souvent d'une relaxation Lagrangienne d'un problème difficile. Cette technique est couramment utilisée pour appréhender des problèmes linéaires avec nombres entiers ou des problèmes convexes complexes. Le problème dual obtenu est non-différentiable - éventuellement séparable - et peut être résolu par exemple par un algorithme de faisceau. Le Chapitre 2 propose une revue de littérature des méthodes d'optimisation non-différentiable. Dans certaines situations, le problème dual peut être lui-même très difficile à résoudre et nécessiter des stratégies adaptées. Par exemple, lorsque le nombre de contraintes dualisées est très élevé, une dualisation explicite peut s'avérer impossible ou la mise a jour des variables duales peut échouer. Au Chapitre 3, nous étudions les propriétés de convergence lorsqu'une relaxation Lagrangienne dynamique est effectuée : seul un sous-ensemble de contraintes est dualisé a chaque itération, ce qui permet de réduire la dimension du problème dual. Une autre limite de la relaxation Lagrangienne peut apparaître lorsque la fonction duale est séparable en un grand nombre de sous fonctions, ou que celles-ci restent difficiles a évaluer. Une stratégie naturelle consiste alors à tirer partie de la structure séparable en effectuant des itérations duales en n'ayant évalué qu'un sous-ensemble des sous fonctions. Au chapitre 4, nous proposons d'utiliser une méthode de faisceau dans ce contexte incrémental. Enfin, le Chapitre 5 présente des applications numériques sur des problèmes de gestion de production d'électricité.
34

Chappaz, Eric. "Simulateur fondé sur la connaissance pour le pilotage de systèmes de production." Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Devant la complexite croissante des systemes de production (lignes multiproduits, ateliers flexibles, equipements entierement automatises) et pour produire encore plus, nous somme obliges a l'heure actuelle d'utiliser des moyens informatiques et automatiques differents de ceux qui existent deja. Nous avons elabore un simulateur de systemes de production a l'aide de techniques de programmation orientee objet avec un systeme a base de connaissance. Ces nouvelles techniques nous offrent de reels avantages tels que la rapidite de modelisation de modeles complexes, et surtout leur modification aisee lors de la phase de pilotage de la ligne
35

Lee, Kwang Hyung. "Analyse et modélisation des systèmes de production par les réseaux de Petri." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude de l a complexité des systèmes de production est aggravée par la rareté des méthodes et des outils d'analyse spécifiques. Nous avons choisi les réseaux de Petri comme méthode d' analyse et de conception , et comme langage de communication entre les concepteurs. L' aptitude des réseaux de Petri pour ana lyser et modéliser les systèmes de production est étudiée et comparée avec celle des autres modèles graphiques majeurs. Nous proposons une méthode de réduction hiérarchique des réseaux de Petri pour analyser l es réseaux complexes. Cette méthode conserve les propriétés de réseau vivant, borné et réinitialisable. Elle permet de décomposer hiérarchiquement un réseau complexe et de l’analyser par son réseau réduit et par ses sous-réseaux. La mise en œuvre de ce t te procédure de réduction est automatisée. A titre d'illustration, un atelier flexible a été modélisé par un réseau de Petri, et ce réseau a pu être réduit par cette procédure, en facilitant ainsi son analyse. Cette méthode et son application ont permis : - d'enrichir les possibilités d'utilisation des réseaux de Petri dans les systèmes de production, - de poser les bases de nouvelles recherches
In the f ace of the increased complexity of production systems, computer may allow managers an easy problem solving in production control. This trend of computerization has brought about a necessity of perfect understanding of such systems. The need of a tool or method for analysis of complex systems has been emphasized. In this thesis, Petri nets are chosen as a method of analysis and conceptualisation of automated production systems, and as a common language among computer scientists and production managers. The aptitude of Petri nets for modelling and analysis of production systems is studied and compared with other principal graphic models. The comparative study shows that the Petri nets has the best modelling and analysing power for the production systems. It is also pointed out that the space of reachable states of a Petri net is large in general and often it gives difficulties in analysing a complex net. A new method of hierarchical reduction on petri net is proposed et analyse a complex net. The prosed method conserves the properties of petri net such as liveness, boundedness and proper termination. This method allows to decompose hierarchically a net ant to analyse it by its reduced net and its sub-nets. This procedure od reduction has been automated. As an application, a flexible manufacturing system was modelled by petri and this net has been reduced by this automated process in facilitating its analysis
36

Agoua, Xwégnon. "Développement de méthodes spatio-temporelles pour la prévision à court terme de la production photovoltaïque." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM066/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution du contexte énergétique mondial et la lutte contre le changement climatique ont conduit à l’accroissement des capacités de production d’énergie renouvelable. Les énergies renouvelables sont caractérisées par une forte variabilité due à leur dépendance aux conditions météorologiques. La maîtrise de cette variabilité constitue un enjeu important pour les opérateurs du système électrique, mais aussi pour l’atteinte des objectifs européens de réduction des émissions de gaz à effet de serre, d’amélioration de l’efficacité énergétique et de l’augmentation de la part des énergies renouvelables. Dans le cas du photovoltaïque(PV), la maîtrise de la variabilité de la production passe par la mise en place d’outils qui permettent de prévoir la production future des centrales. Ces prévisions contribuent entre autres à l’augmentation du niveau de pénétration du PV,à l’intégration optimale dans le réseau électrique, à l’amélioration de la gestion des centrales PV et à la participation aux marchés de l’électricité. L’objectif de cette thèse est de contribuer à l’amélioration de la prédictibilité à court-terme (moins de 6 heures) de la production PV. Dans un premier temps, nous analysons la variabilité spatio-temporelle de la production PV et proposons une méthode de réduction de la non-stationnarité des séries de production. Nous proposons ensuite un modèle spatio-temporel de prévision déterministe qui exploite les corrélations spatio-temporelles entre les centrales réparties sur une région. Les centrales sont utilisées comme un réseau de capteurs qui permettent d’anticiper les sources de variabilité. Nous proposons aussi une méthode automatique de sélection des variables qui permet de résoudre les problèmes de dimension et de parcimonie du modèle spatio-temporel. Un modèle spatio-temporel probabiliste a aussi été développé aux fins de produire des prévisions performantes non seulement du niveau moyen de la production future mais de toute sa distribution. Enfin nous proposons, un modèle qui exploite les observations d’images satellites pour améliorer la prévision court-terme de la production et une comparaison de l’apport de différentes sources de données sur les performances de prévision
The evolution of the global energy context and the challenges of climate change have led to anincrease in the production capacity of renewable energy. Renewable energies are characterized byhigh variability due to their dependence on meteorological conditions. Controlling this variabilityis an important challenge for the operators of the electricity systems, but also for achieving the Europeanobjectives of reducing greenhouse gas emissions, improving energy efficiency and increasing the share of renewable energies in EU energy consumption. In the case of photovoltaics (PV), the control of the variability of the production requires to predict with minimum errors the future production of the power stations. These forecasts contribute to increasing the level of PV penetration and optimal integration in the power grid, improving PV plant management and participating in electricity markets. The objective of this thesis is to contribute to the improvement of the short-term predictability (less than 6 hours) of PV production. First, we analyze the spatio-temporal variability of PV production and propose a method to reduce the nonstationarity of the production series. We then propose a deterministic prediction model that exploits the spatio-temporal correlations between the power plants of a spatial grid. The power stationsare used as a network of sensors to anticipate sources of variability. We also propose an automaticmethod for selecting variables to solve the dimensionality and sparsity problems of the space-time model. A probabilistic spatio-temporal model has also been developed to produce efficient forecasts not only of the average level of future production but of its entire distribution. Finally, we propose a model that exploits observations of satellite images to improve short-term forecasting of PV production
37

Roboam, Michel. "Modèles de références et intégration des méthodes d'analyse pour la conception des systémes de production." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Developpement de la methode grai permettant l'etude des systemes de decision et mise en evidence de la necessite de definir des outils concernant l'aspect d'integration pour les tests de coherence et des modeles de reference de coordination et de synchronisation
38

Lhéritier, Bernard. "Méthodes analytiques pour l'évaluation de réseaux de files d'attentes : applications aux systèmes flexibles de production." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un systeme flexible de production peut etre modelise par reseau de files d'attente. Nous faisons une synthese de travaux recents sur le developpement de modeles analytiques, et nous presentons de nouveaux modeles. Les modeles de quatrieme et cinquieme chapitres peuvent etre qualifies de modeles simplifies, puisqu'ils ne prennent en compte qu'un seul type de synchronisation: un nombre limite de palettes (au quatrieme chapitre), ou la capacite limitee du systeme automatise de transport (au cinquieme chapitre). Nous analysons des modeles complexes en utilisant une methodologie de decomposition au sixieme chapitre. L'evaluation est faite a la fois par methodes analytiques et par methode markovienne. Nous pouvons ainsi analyser des synchronisations type "rendez-vous". . . .
39

Blouin, Véronique. "Développement de méthodes de production et d'analyse de vecteurs recombinants dérivés de l'adéno-associated virus." Nantes, 2007. https://archive.bu.univ-nantes.fr/pollux/show/show?id=460f68ce-89fe-4d3a-a3bf-7702282acf51.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreuses études in vivo ont montré que les vecteurs recombinants dérivés de l'adéno-associated virus (AAVr) peuvent transduire efficacement de nombreux organes et conduisent à une expression stable et à long terme du gène. Ces résultats encourageants ont conduit au développement rapide des essais cliniques utilisant les vecteurs AAVr-2. Cependant ces essais chez l'homme nécessitent de grandes quantités de vecteurs AAVr. Les techniques conventionnelles de production et purification montrent alors leurs limites. Nous avons donc développé des méthodes de productions alternatives plus simples et reproductibles, en établissant des lignées stables, d'encapsidation, contenant intégré dans leur génome les gènes rep-cap hybrides pour les sérotypes-1 et -5. Nous avons aussi décrit une procédure de purification par chromatographie liquide basée sur des résines échangeuses d'ions. Cette procédure a l'avantage d'être directement applicable à grande échelle, et pourrait s'adapter à différents sérotypes. Cette méthode permet de purifier le sérotype-5, le plus divergent au niveau de la séquence protéique de la capside comparée à 1'AAVr-2. Les stocks d'AAVr obtenus présentent une pureté supérieure aux méthodes traditionnelles et transduisent aussi efficacement les organes cibles. Afin de mieux caractériser et différentier les capsides AAVr des différents sérotypes de plus en plus nombreux, nous avons montré que la digestion protéolytique des virions AAVr-2, donne un profil de digestion unique. Cette analyse protéolytique des capsides AAVr permet de distinguer les AAVr-2 des AAV-1 et -5
Numerous in vivo studies have demonstrated that rAAV vectors can efficiently transduce many tissues and lead to stable gene expression. These encouraging results have led to a rapid development of clinical trials involving the use of rAAV-2 vectors. However, the obtainment of large-scale rAAV-2 vector stocks for clinical assay is still hampered by the conventional production methods that are not efficient and difficult to scale-up. We develop a simple and reproducible alternative method based on stable packaging hybrid cell lines containing integrated into their genome the rep-cap genes of serotypes -1 and -5. Another critical step for the assessment of these vectors in clinical trials is the method used for purification of rAAV particles. We developed a purification method, which comprises two-step chromatography process based on the use of ion- exchange resins. This process can be easily scaled up and could be applied to different AAV serotypes. We purified the serotype-5, the most divergent in terms of capsid composition compared to AAV-2. The rAAV stocks obtained are pure and transduced efficiently target tissues. To characterize rAAV capsid from different serotype, we have shown that proteolytic digestion of rAAV virions is able to generate a characteristic cleavage pattern that can be use to distinguish AAV-2 from AAV-1 and -5
40

Li, Xiaohui. "Ordonnancement de la production : systèmes hybrides." Troyes, 2011. http://www.theses.fr/2011TROY0015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans cette thèse s'inscrit dans le cadre du projet Etat-Région MOSYP. Le but de ce projet est de développer des outils et des techniques pour améliorer la compétitivité des systèmes de production. L’objectif est d’analyser les variables des systèmes étudiés et de proposer des modèles de bon fonctionnement. Dans ce travail, un problème d’ordonnancement des machines parallèles et un problème d’ateliers de type flowshop hybride (HFS) ont été traités. Les temps de préparation entre les opérations, les dates de début au plus tôt et les dates de fin au plus tard sont pris en considération. Une résolution multi objectif a été adoptée et les critères sont : le makespan et la somme des retards. Une modélisation mathématique, une résolution exacte mais aussi des méthodes approchées sont proposées. Ces dernières sont basées sur des algorithmes évolutionnaires : NSGA-II et SPEA-II. Un contrôleur de logique floue est utilisé pour améliorer le paramétrage de ces algorithmes. Ensuite, un algorithme basé sur la dominance de Lorenz est adapté afin d’améliorer l’efficacité de l’ensemble de Pareto. Une nou-velle méthode de décomposition est également proposée pour découper le problème HFS en sous-problèmes. Pour démontrer l’efficacité de ces algorithmes, une méthode exacte (TPM) est développée. Enfin, une méthode d’optimisation basée sur la simulation est testée. Une étude de cas pratique proposée par les partenaires du projet a été menée. Un modèle de simulation sous ARENA est proposé pour évaluer des performances ainsi qu’une technique d’optimisation
The work presented in this thesis is a part of the MOSYP, state-region project. The goal of this project is to develop tools and techniques to improve the competitiveness of production systems. The objective is to analyze the variables of the studied systems and to propose efficient functioning models. In this work, parallel machines scheduling problem and a hybrid flowshop scheduling problem (HFS) have been studied. The sequence dependent setup times, the released date and the due date are considered. A multiobjective resolution has been adopted and two criteria are considered: the makespan (maximum duration of treatment) and the total tardiness. Mathematical formulations, an exact resolution and approximated methods are proposed. The latter are based on evolutionary algorithms: NSGA-II and SPEA-II. A fuzzy logic controller is used to improve the parameters settings of these algorithms. Then, an algorithm based on the Lorenz dominance is adapted to improve the efficiency of the Pareto front. A new decomposition method is also proposed to decompose the HFS problem into sub-problems. To prove the efficiency of these algorithms, an exact method (TPM) is developed to identify the optimal solutions. Finally, a simulation based optimization method is tested. A practical case study proposed by the project partners has been conducted. A simulation model under the ARENA software is proposed to evaluate the performances as well as an optimization technique
41

Hadj, said Ahmed. "Intégration du stockage dans les méthodes de planification des réseaux électriques basse tension." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT004/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’ouverture des marchés de l’énergie et les nouveaux usages ont induit à des changements significatifs sur les réseaux de distribution (le réseau basse tension – BT – notamment), comme : l’augmentation des interconnections de production à partir de sources d’énergies renouvelables (EnR), l’accroissement de la pointe de consommation, entre autres. Ces derniers créent des contraintes électriques. Dans l’optique d’une gestion pragmatique des réseaux électriques intelligents, des gisements de flexibilité comme le pilotage des charges/sources ou le stockage sont recherchés pour offrir des nouvelles solutions à ces contraintes. Cette thèse étudie ainsi les enjeux de la gestion du stockage et son impact dans les méthodes de planification des réseaux BT. Ainsi, dans un premier temps, les impacts du stockage et de la production photovoltaïque sur des grandeurs utilisées dans la planification des réseaux de distribution sont étudiés. Dans un second temps, une méthode de calcul des coûts des pertes est adaptée à la présence du stockage et/ou de la production PV. Dans une dernière partie, des algorithmes de fonctions avancées de conduite sont développés afin d’illustrer la valeur économique du stockage dans la planification des réseaux BT, et comparés à une planification classique plus couteuse
The opening up of energy markets and new uses have led to significant changes in distribution grids, in particular low-voltage grids. Notably, it has led to an augmentation in the integration of renewable energy production, an increase in the peak consumption, among others. This is accompanied by the appearance of the electrical constraints with which power systems must cope. This has resulted in the development multiple flexibility capabilities such as load/source management or energy storage, providing new solutions, now to be considered in planning methods. This thesis studies the issue of energy storage in the low-voltage grid planning. The first part of this thesis studies the impact of storage and photovoltaic production on variables involved in distribution grid planning. In the second part, a method for calculating the cost of losses is adapted to the presence of energy storage and/or PV production. Finally, advanced d operation algorithms are developed to illustrate the economic value of energy storage in LV distribution grid planning, compared to a more expensive conventional planning method
42

Lafontaine, Édith. "Méthodes et mesures pour l'évaluation de la performance et de l'efficacité des équipements miniers de production." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23714/23714.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Lafontaine, Edith. "Méthodes et mesures pour l'évaluation de la performance et de l'efficacité des équipements miniers de production." Master's thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18357.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Vallières, Marise. "Comparaison de méthodes de refroidissement et de déshumidification pour une production en serre de tomates biologiques." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au Québec, les coûts de chauffage représentent jusqu’à 30 % des coûts de production d’une serre. De ces coûts de chauffage, de 13 à 18 % sont nécessaire pour refroidir et déshumidifier la serre (de Halleux et Gauthier, 1997). La méthode traditionnelle de refroidissement et de déshumidification (R/D) utilisée dans une serre est la ventilation-chauffage, qui consiste à remplacer une partie de l’air chaud et humide de la serre par de l’air froid et sec de l’extérieur. Cette méthode limite toutefois l’injection de dioxyde de carbone (CO2). L’objectif du projet est de maintenir les consignes optimales de température et d’humidité dans une serre de tomates biologiques cultivées en plein sol, afin de produire en serre semi-fermée et conserver un taux élevé en CO2 pour stimuler la photosynthèse. Pour ce faire, deux méthodes expérimentales de R/D ont été mises à l’essai. La première méthode étudiée est la R/D par condensation de la vapeur d’eau sur un échangeur de chaleur eau-air. La seconde méthode étudiée est la R/D par condensation de la vapeur d’eau sur un rideau d’eau. Les deux méthodes expérimentales de R/D ont permis de maintenir les températures désirées dans la serre tout en maintenant les volets de la serre en position semi-fermée, ce qui a permis de maintenir des concentrations en CO2 significativement différentes dans la serre comparativement à la méthode de R/D par ventilation naturelle.
45

Balin, Savaş. "Amélioration de processus de production de services par la simulation." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de l’amélioration de processus de production de services. Après avoir discuté des concepts de services, on présente les deux approches de la qualité : la « qualité conçue » et la « qualité perçue ». L’« amélioration d’un processus » passe par sa transformation pour augmenter son « efficacité » et/ou son « efficience ». On défend l’idée que la mobilisation de la simulation est incontournable pour atteindre cette amélioration mais aussi pour concevoir des processus performants de production de services. Dans la seconde partie de la thèse, on présente les techniques de simulation de processus : « simulation basée sur les objets (SBO) », « simulation orientée objets (SOO) » et «simulation multi-agents (SMA) ». La position défendue dans cette thèse est que la SBO peut suffire dans la réalisation des objectifs retenus et dans la modélisation de certaines des dimensions les plus importantes de la qualité perçue, même si ce type d’usage est quasi inexistant. On étudie ensuite les apports de la SBO sur un exemple très complexe de service d’urgences d’un hôpital
The purpose of this thesis is to study the improvement of services production. We begin the first part by discussing service concepts. We examine two points of view: “conceived quality” and “perceived quality”. Process improvement consists in a process transformation which aims at increasing system “effectiveness” and “efficiency”. We defend that the use of simulation is essential for the instrumentation of services process conception and transformation. In the second part, we discuss simulation techniques: “Object Based Simulation (OBS)”, “Object Oriented Simulation (OOS)” and “Multi-Agent Based Simulation (MABS)”. We claim that OBS can be sufficient to realize objectives mentioned above and to model some of the most important perceived quality dimensions, which is not the common use of this technique. We finish our thesis by discussing the contribution of the simulation on an extremely complex example, a hospital emergency department
46

Idri, Imane. "Mise en place, extrapolation et optimisation d’un procédé de production de caramels prébiotiques riches en DiAnhydrides de Fructose (DAF) : exploration d’autres méthodes de production." Paris 6, 2010. http://www.theses.fr/2010PA066447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La production d’alicaments, spécialement les prébiotiques, fait l'objet de recherches importantes dans le secteur agroalimentaire. Dans ce cadre, cette étude a pour objectif le développement et la mise au point de procédés de production de caramels riches en DiAnhydrides de Fructose (DAF), molécules possédant des propriétés prébiotiques. La synthèse de caramels prébiotiques à l’échelle de 100 mL à partir de fructose, d’eau et de résine permet d’obtenir des produits dont le rendement en DAF est de l’ordre de 30 %. La réaction présente expérimentalement des contraintes car le milieu est un mélange pâteux diphasique particulièrement difficile à homogénéiser. La valorisation de cette synthèse nécessite donc d’étudier la faisabilité de ce procédé à une échelle supérieure et d’étudier la possibilité d’autres modes de production de ces caramels tout en conservant la formulation réactionnelle initiale. Le premier travail a consisté à mettre en place un plan de Doehlert pour conduire la mise à l’échelle de la synthèse dans un réacteur discontinu double enveloppe de 1 L. L’établissement d’un modèle du rendement en DAF en fonction des variables opératoires a permis d’une part de définir les variations de la réponse pour des conditions expérimentales acceptables et d’autre part d’obtenir conséquemment un rendement optimal de 50 % avec une rhéologie du milieu moins contraignante. Par la suite, il a été montré que la technologie des réacteurs micro-onde permettait d'obtenir des caramels riches en DAF. L'utilisation d'un réacteur fermé micro-onde (25 mL) après étude du temps d'exposition et de la puissance d'irradiation a permis d'avoir des rendements de 50 % en un faible temps.
47

Weil, Georges. "L'hôpital au service du malade : transfert des concepts, des méthodes, des outils de la gestion de la production." Grenoble 1, 1990. https://theses.hal.science/tel-00337856.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Berchet, Claire. "Modélisation pour la simulation d'un système d'aide au pilotage industriel." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse portent sur l'amélioration du potentiel de la simulation des systèmes de production manufacturiers. Ce vaste potentiel, est malgré tout, trop peu employé pour différentes raisons : la modélisation difficile ou même impossible du système de pilotage associé au système de production, la manipulation de concepts complexes des simulateurs, le manque de méthodologie pour l'élaboration des modèles, etc. L'objectif des travaux présentés est d'exploiter davantage les capacités de la simulation, afin qu'elle devienne un véritable outil «actif» d'aide au pilotage. Pour ce faire, nous proposons d'introduire un pilotage de type interprété dans la simulation, grâce aux concepts suivants, constituant la base de notre approche : ○ la structure globale, support des relations de coordination et de coopération entre les unités de pilotage, propose un cadre référentiel selon une structure coordonnée hiérarchisée, autour de trois axes (hiérarchique, horizontal et temporel). ○ le Centre de Pilotage (CP), concept principal, représente l'unité de pilotage utilisée pour introduire le pilotage de façon formalisée dans la simulation. Ses composantes, son processus interne, ainsi qu'une typologie des informations circulant entre les CPs, sont analysés. ○ la structure locale présente une typologie du pilotage adaptée à notre besoin avec le pilotage «a priori», le pilotage «réactif pour anticipation» et le «pilotage a posteriori». Les efforts de formalisation rendent l'approche pédagogique et permettent : ○ d'utiliser des concepts accessibles, génériques, réutilisables, proches des besoins du terrain et compréhensibles pour tout utilisateur, ○ d'agir de façon structurée sur le système piloté, ○ de proposer une méthodologie de mise en place du modèle. Le formalisme retenu est le langage de modélisation UML. Le modèle est développé sous Java, donnant ainsi naissance à la plate-forme Apollo. Une application industrielle, réalisée dans l'entreprise ALCATEL, est présentée.
49

Jia, Tianqiang. "Vers une meilleure gestion des ressources d'un groupe autonome de fabrication." Tours, 1998. http://www.theses.fr/1998TOUR4023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'amélioration de la performance du système de fabrication est l'une des problématiques préoccupantes des industriels. Ce problème est d'autant plus difficile que l'on doit concilier a la fois les objectifs de compétitivité de l'entreprise déclinés en qualité, coût, délai, flexibilité et productivité, et les objectifs des individus traduisant leur évolution en terme de compétence et de carrière. La cle de cette réussite se trouve entre autres dans une meilleure gestion des ressources humaines et technologiques. Notre travail s'inscrit dans ce contexte et a pour objectif de proposer une méthodologie opérationnelle d'aide a la conduite d'activité de fabrication dans une perspective d'amélioration de la réactivité et de l'efficacité. En se basant sur les travaux d'aicoscop et des relations tâche - compétence - ressource, notre intérêt se porte d'abord sur le processus décisionnel, la typologie des situations de prise de décisions dans l'atelier et la caractérisation du système de conduite. Nous nous intéressons ensuite a la prise en compte de la compétence des ressources a deux niveaux : au niveau organisationnel, nous spécifions un modèle d'organisation du travail favorisant la mobilisation des compétences ; au niveau individuel, nous proposons une méthodologie de conduite qui conciliera la performance cherchée en terme de productivité, mais aussi la performance personnelle en créant des situations d'apprentissage ; et enfin, deux exemples d'application sont présentes en vue de valider notre travail.
50

Vong, Lilita. "SPECIATION CHIMIQUE DU FER DANS L'OCEAN : Les complexes fer-porphyrines, méthodes de détection et mécanismes de production." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2008. http://tel.archives-ouvertes.fr/tel-00354951.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La biodisponibilité du fer est un facteur limitant de la production phytoplanctonique dans de nombreuses régions océaniques. Le fer dissous (<0,2 µm) consommé par les micro-organismes est complexé à 99 % par des ligands organiques dont l'origine et la nature chimique restent peu connues.

Les porphyrines, molécules ubiquistes synthétisées par tous les organismes, sont capables de chélater le fer, sous la forme de complexes fer-porphyrines. A la mort des organismes, ces complexes pourraient donc être libérés dans l'eau de mer en tant que produits de dégradation cellulaire et pourraient participer à la complexation organique du fer. L'objectif de ce travail de thèse est donc de tester cette hypothèse.

La première partie consistait à mettre au point une première méthode de dosage correspondant à une analyse par injection en flux et détection par chimiluminescence (FIA-CL). Un protocole a été développé pour l'analyse d'échantillons d'eau de mer. Des tests d'interférences suggèrent que la FIA-CL est bien spécifique aux complexes fer-porphyrines. Plusieurs tests d'augmentation de la sensibilité ont permis d'atteindre une limite de détection de 0,11 nM d'équivalent hémine (fer-porphyrine de référence). Des premières concentrations en fer-porphyrines ont ainsi pu être déterminées dans différents types d'environnements naturels (eau de mer, eau douce et eau intermédiaire) riches en matière organique.

La seconde partie visait à étudier un processus de relarguage des fer-porphyrines, tel que le broutage du phytoplancton par le zooplancton. Lors de cette étude, l'existence d'une interférence provoquée par les radicaux superoxyde générés lors de la croissance du phytoplancton a été mise en évidence, lors de la mesure des fer-porphyrines. Un protocole d'élimination de ces interférences a donc été établi. Par des expériences de culture, avec un modèle simple « phytoplancton-zooplancton », la libération des fer-porphyrines dans l'eau de mer a pu être mise en évidence.

Ce travail de thèse pourra permettre d'étudier le devenir des fer-porphyrines dans l'eau de mer et leur rôle dans la complexation organique du fer.

To the bibliography