Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Gestion des procédés.

Dissertationen zum Thema „Gestion des procédés“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Gestion des procédés" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Fall, Ibrahima. „Gestion optimisée de produits-modèles de procédés logiciels“. Paris 6, 2012. http://www.theses.fr/2012PA066018.

Der volle Inhalt der Quelle
Annotation:
Actuellement, la communauté des procédés logiciels ne porte que peu d'attention aux artefacts de ces procédés. Leur gestion est minimale. Or l'introduction des principes de l'ingénierie des modèles dans les procédés logiciels modifie en profondeur la nature de ces artefacts et augmente leur complexité: ils deviennent des modèles (que nous appelons produits-modèles). La prise en compte de cette complexité est alors impérative en vue d'optimiser la gestion de ces produits-modèles. Dans cette thèse, nous posons le problème de la modélisation des relations entre produits-modèles en analysant l'importance de ces relations dans la gestion de l'évolution des produits-modèles lors de l'exécution du procédé qui les utilise et/ou les produit. Ainsi nous illustrons qu’exploiter les modèles de relations à l’exécution du procédé optimise la gestion des produits-modèles en matière de cohérence, de synchronisation ou encore de flexibilité dans la granularité des produits-modèles. Notre contribution est composée de deux éléments majeurs qui sont relatifs à la modélisation puis à l'exécution de procédés. Du point de vue de la modélisation des procédés, nous avons proposé un méta-modèle permettant de structurer les éléments relatifs à la spécification des produits-modèles. Ce méta-modèle contient les concepts nécessaires à la définition des relations entre ces éléments et d'associer à ces relations les caractéristiques nécessaires à une meilleure gestion des produits-modèles à l'exécution des procédés modélisés. Notre approche supporte les relations d'inclusion (Nest) et de partage d'éléments (Overlap) entre deux ou plusieurs produits-modèles d'un procédé en exécution. Du point de vue de l'exécution des procédés, dans le but de structurer les entités logiques à travers lesquelles sont gérés les produits-modèles d'un procédé modélisés avec les concepts du précédent méta-modèle, nous avons proposé un autre méta-modèle. Ce dernier contient les concepts nécessaires à la représentation des objets de procédé correspondants aux produits-modèles ainsi qu'aux relations, en conformité avec le premier méta-modèle. Dans le but d'assurer une correspondance entre les concepts des deux méta-modèles ainsi que de permettre une exploitation automatique des concepts de modélisation à travers ceux d'exécution, la proposition comprend également des règles de transformation entre ces différents concepts. Les apports de notre approche sont relatifs à la gestion des produits-modèles de procédés en exécution. Il s'agit d'une cohérence relationnelle systématique, d'une synchronisation également systématique, d'une construction assistée, d'une flexibilité du point de vue de la granularité, et d'une intégrité ou cohérence sémantique de ces produits-modèles. Nous avons également conçu et réalisé un prototype qui simule un environnement de modélisation et d'exécution de procédés selon notre approche
Currently, software process artefacts are under-considered by the software process modelling and execution community. They are minimally managed. Moreover, the application of the principles of the model driven engineering on software processes have deeply changed the nature and increased the complexity of software artefacts : they become models (model-products hereafter). Taking into account such a complexity is a necessity with a view to optimize model-products management policies. This thesis has focused on the issue of the specification of the relationships between model-products by analysing the importance of the use of those relationships in model-products evolution management during process execution. We therefore have illustrated that using the respective specifications of relationships during process execution optimizes the management of model-products evolution in term of their consistency, their synchronization, and a flexibility in their granularity. Our solution fits in two major points that respectively relate to process modelling and enactment. According to process modelling, we have proposed a meta-model that captures the concepts to use to specify the model-products and the relationships between them. The meta-model takes also into account the details on these relationships as they are useful for an enhancement of used model-products management policies during the execution of the modelled processes. Our approach currently supports the nest and the overlap relationships. According to the process execution point of view, in order to structure the logical entities through which are managed the model-products of a process, we have proposed another meta-model. Such a meta-model therefore specifies process objects that represent model-products and their relationships during process execution. This meta-model also supports the nest and the overlap relationships, in compliance with the first one. The proposition also comprises transformation rules used to map concepts of the two meta-models and therefore to give the possibility of an automatic use of the modelling concepts through the enactment ones. The contributions of the approach are related to model-products management during process enactment. They essentially consist of a systematic synchronization and relational consistency between model-products, their aided creation, a flexibility in the granularity of their use, and their semantic integrity. We finally have prototyped a process modelling and enactment environment that implements our approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Gagnon, Bertrand. „Gestion d'information sur les procédés thermiques par base de données“. Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Kabbaj, Mohammed Issam. „Gestion des déviations dans la mise en œuvre des procédés logiciels“. Toulouse 2, 2009. http://www.theses.fr/2009TOU20035.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous proposons une démarche originale afin de gérer l’évolution des procédés lors de leur mise en œuvre, basée sur la gestion des déviations. Une déviation est considérée comme une action utilisateur qui viole l'une des contraintes du modèle de procédé. La détection des déviations consiste à comparer le modèle du procédé mis en œuvre, appelé « modèle de procédé », et le processus réel de développement observé via un système de monitoring des actions des utilisateurs. Le processus observé est capturé dans un « modèle observé ». Les aspects dynamiques et comportementaux sont décrits en termes de cycles de vie des éléments de procédé. Les deux modèles sont traduits en une représentation en logique des prédicats du 1er ordre. La détection et l'analyse des déviations sont basées sur une démarche formelle exploitant ces prédicats logiques. La prise de décision s'appuie, elle, sur un modèle de tolérance à base de règles exprimant la décision à prendre en tenant compte des contextes dans lesquels les déviations se produisent. La pertinence de la méthode réside dans sa capacité à proposer deux modes de gestion des déviations selon le contexte de la mise en œuvre : acceptation des déviations après adaptation dynamique du modèle de procédé pour les déviations considérées comme mineures. Ainsi, le traitement diffère en fonction du contexte de l'évolution du modèle de procédé souhaitée. Nous avons validé notre approche sur une étude de cas qui illustre la démarche employée. Un prototype opérationnel d'environnement exploitant cette démarche a été développé
In this thesis, we propose an original approach to process enactment evolution, based on formal management of process deviations. Deviations are defined as operations that violate process constraints. Once a deviation is detected, a deviation-tolerance model attached to the preset process is used to decide whether to accept or to reject the deviation. Detecting deviations consists to compare the enactable process model and the observed process of actual development through a monitoring system of user actions. The observed process is captured in observed process model. His behavioral and dynamic aspects are described in terms of the process elements life cycles. The observed model, is described in terms of current states of process elements, and history of operations performed by human actors. Both models are translated into first-order logic representation. Detecting and analysis of deviations are based on a formal approach exploiting this logical representation. The decision rests on a rules-based tolerance model that expresses decision to make with respect to contexts in which deviations occur. The method relevance lies in its ability to offer two managing deviations methods depending on the enactment context : acceptance of deviations after dynamic adaptation of process model for deviations that are considered as major ones, or mere tolerance, without changing process model for deviations considered as minor ones. Thus, treatment differs depending on the context of the desired evolution of process model. We have validated our approach with a case study that illustrates this approach. A prototype of a PSEE exploiting this approach has been developped
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Bérard, Frédéric. „Stratégies de gestion de production dans un atelier flexible de chimie fine“. Toulouse, INPT, 2000. http://www.theses.fr/2000INPT002G.

Der volle Inhalt der Quelle
Annotation:
Les ateliers flexibles multi-objectifs de chimie fine sont mis en uvre pour elaborer, a faibles tonnages, des gammes variees de produits a forte valeur ajoutee. Leur fabrication, impliquant de nombreuses etapes de synthese, est soumise a des contraintes strictes relatives, d'une part, a l'instabilite du marche (duree de vie courte, fluctuation de la demande) et, d'autre part, a des normes rigoureuses sur la qualite et la protection de l'environnement. Dans ce contexte, une gestion efficace de tels ateliers doit concilier les performances locales des operations unitaires et la performance globale de l'atelier. Ce memoire propose differentes strategies de resolution de ce probleme a travers une methodologie a trois volets. La premiere phase concerne le developpement d'un modele de simulation a evenements discrets pour representer le fonctionnement global de l'atelier au cours du temps et determiner la faisabilite de l'ordonnancement. Il integre les principales caracteristiques du domaine de la chimie fine. Toutefois, son ecriture en langage oriente-objet, c++, a pour but de le rendre adaptatif a d'autres applications. La deuxieme etape est relative a la definition de protocoles operatoires et a permis de determiner, a travers un exemple, une strategie de recyclage pour minimiser tant la consommation des matieres premieres que le rejet d'effluents. Cette phase implique la modelisation de certaines operations unitaires afin de definir leurs conditions d'exploitation. Le couplage du simulateur d'atelier avec une procedure d'optimisation par algorithme genetique permet ensuite de resoudre efficacement le probleme de planification au caractere combinatoire tres marque. Trois cas de figure sont traites : maximisation de la production pour un fonctionnement par campagnes cycliques, maximisation de la production d'une seule campagne a horizon fini, minimisation des delais. Dans tous les cas, un gain significatif est obtenu par rapport a une recherche manuelle par essais-erreurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Dehoumon, Mathieu. „Les procédés de gestion par l'OIT de la discrimination au travail dans les Etats africains“. Thesis, Grenoble, 2011. http://www.theses.fr/2011GREND008.

Der volle Inhalt der Quelle
Annotation:
En matière de travail, la discrimination est une atteinte aux droits humains notamment les principes et droits fondamentaux garantis par l'Organisation Internationale du Travail (OIT) à travers sa Constitution (1919) et surtout la Convention N°100 (1951) portant sur l'égalité de rémunération entre homme et femme pour un travail de valeur égale, et, la Convention N°111 (1958) relative à l'élimination de la discrimination en matière d'emploi et de profession. La pratique de la discrimination dans les Etats africains semble être liée au contexte de pauvreté et d'exclusion alimentant les sentiments d'injustice ou d'inégalité entre homme et femme, entre les travailleurs en fonction, les travailleurs potentiels et les employeurs. Parmi les victimes de ce fléau, les femmes sont les plus exposées en toute méconnaissance des normes nationales et internationales de protection de leurs droits ; il y a aussi les personnes appartenant aux minorités, et, certaines personnes marquées par des caractéristiques particulières dont l'ethnie, l'origine familiale ou politique. Elles sont confrontées à de nouvelles formes de discrimination qui présentent des caractères plus subtiles. Ce travail de recherche analyse alors les mécanismes de gestion par l'OIT de la discrimination au travail dans les Etats africains lorsque survient un différend fondé sur le sexe ou la race d'un travailleur. En faisant ressortir la pertinence des procédés politique et juridique de gestion par l'OIT de la discrimination au travail, cette étude montre que des facteurs socioculturels, le manque de volonté politique et la fragilité de la culture juridique favorisent considérablement les difficultés d'application effective du principe de non-discrimination au travail dans certains Etats africains. Elle apprécie l'efficacité des deux procédés tout en insistant sur leur caractère complémentaire. Dès lors, ce travail vient contribuer d'une part, à la recherche de solutions aux conflits sociaux qui naissent des inégalités homme/femme et des exclusions ethniques sur le lieu de travail ; et d'autre part, à aider à comprendre les comportements des acteurs et des agents sociaux ainsi que les enjeux dans l'organisation et l'administration du travail dans les Etats africains notamment lorsque s'imbriquent des intérêts divergents
In the matter of labour, discrimination is a violation of Human Rights particularly the principles and fundamental rights guaranteed by the International Labour Organisation (ILO) through its Constitution (1919) and especially Convention No. 100 (1951) related to the equal remuneration between men and women for a work of an equal value, and Convention No. 111 (1958) on the elimination of discrimination in employment and occupation. The practice of discrimination in African countries seems to be related to the context of poverty and exclusion entertaining feelings of injustice or inequality between men and women, between workers in a same office, between potential workers and employers. Among the victims of this scourge, women are most at risk in any breach of national and international standards of protection of their rights ; there are also persons belonging to minorities, and marked by some special features including ethnicity, family origin or political affiliation. They face new forms of discrimination that are more subtle. This research then analyzes the ILO's management mechanisms on discrimination at work in some African countries when there is a litigation based on a worker's sex or race. Highlighting the relevance of the ILO's political and legal processes of management on discrimination at work, this study attests that socio-cultural factors, lack of political will and the deficiency of the legal culture greatly enhance the difficulties of application of the principle of non-discrimination at work in some African countries. It also assesses the effectiveness of both methods while emphasizing on their complementary nature. Therefore, this research is to contribute firstly, to look for solutions to social conflicts that arise from male/female inequalities and ethnic exclusion in the workplace, and secondly, to help understand the actors and social agents' behavior and the issues in the organization and administration of labour in African countries such as overlap of interests
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dames, Maysoun. „Gestion de procédés discontinus : méthodologie de modélisation et d'optimisation d'opérations de dispersion liquide-liquide en cuve agitée“. Phd thesis, Toulouse, INPT, 2005. https://hal.science/tel-04582971.

Der volle Inhalt der Quelle
Annotation:
Les dispersions liquide-liquide et les émulsions sont présentes dans un grand nombre de domaines industriels ainsi que dans une grande variété de produits. Leur élaboration est parmi les opérations les plus complexes. L'influence très importante et combinée, des propriétés physico-chimiques des produits et de l'hydrodynamique dans l'appareil utilisé rend extrêmement difficile la prédiction des caractéristiques de la dispersion et, a fortiori, l'optimisation du procédé. Notre étude porte sur le cas de deux types de dispersions liquide-liquide, ayant en commun d'être réalisées en cuve agitée, mais à vocations très différentes. Le premier cas concerne une opération d'extraction, tandis que le deuxième vise la fabrication d'un produit dont une propriété doit être contrôlée (la taille des gouttes). Selon la nature et la complexité des phénomènes envisagés, nous avons développé deux démarches différentes. Dans le premier cas, nous avons adopté une démarche expérimentale pour optimiser le rendement d'une étape de procédé de purification des acrylates multi-fonctionnels. Le résultat a mis en évidence l'influence prépondérante de certains paramètres opératoires et a ouvert la voie vers le développement d'un nouveau procédé répondant à des exigences environnementales et économiques. Dans la deuxième application, concernant l'élaboration d'émulsions présentant des propriétés particulières, nous avons appliqué une démarche synthétique, basée sur le couplage entre un réseau de neurones, en tant qu'outil de modélisation non linéaire de la relation fonctionnelle entre le diamètre moyen de gouttes et les différentes variables opératoires, et un algorithme génétique, comme un moyen de prédiction de conditions opératoires satisfaisant à un critère donné (d32). L'application de ces outils dans le domaine physique s'est révélée d'un grand intérêt. Elle ouvre une immense voie vers la maîtrise de la complexité des procédés en imposant plusieurs scénarii d'opération possibles
Liquid-liquid dispersions and emulsions are formed in a large number of industrial domains, as well as in a wide range of products. However, their development presents one of the most complex operations. Dispersions are highly dependant on the physicochemical properties of products used and the hydrodynamics in the apparatus, which makes the prediction of the dispersion characteristics, and in particular, the optimization of the process, extremely difficult. This thesis investigates two types of liquid-liquid dispersions. Each type is discussed via separate case studies both created in an agitated vessel. The first case investigates an extraction operation, while the second concerns emulsions manufacturing, where by the drop size must be controlled. According to the nature and the complexity of the phenomena considered, two different approaches have been developed. In the first case, an experimental approach has been employed in order to optimize the yield in the purification step of a multi-functional acrylates process. The results show that there are predominant influences of certain operating parameters. It argued therefore that there is a need to develop a new process which considers environmental and economic requirements. In the second case, the development of emulsions with particular properties was investigated. The case adopts a synthetic approach that is based upon coupling a neural network and a genetic algorithm. Neural network is used as a non-linear modelling tool to determine the functional relationships between the means drop diameter and different operating variables. The genetic algorithm is used as a means for prediction the operating conditions that enable a given criteria (d32) to be reached. The application of these tools in the physical domain studied was shown to be of great interest. It is anticipated that such tools will lead to the development of new ways to control complex processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Collignon, Roland. „Gestion temps réel de la qualité d'une ligne d'embouteillage, apport de la méthode de maîtrise statistique des procédés“. Nancy 1, 1997. http://docnum.univ-lorraine.fr/public/SCD_T_1997_0012_COLLIGNON.pdf.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire ont pour objectif l'amélioration de la qualité dans les processus d'embouteillage à haute cadence. Apres avoir montré la nécessaire complémentarité entre une inspection/tri des produits fabriqués et une gestion du procédé de fabrication, nous analysons les causes de variabilité, ainsi que les contraintes engendrées par les cadences de production élevées et les structures multi-postes des machines. Nous proposons alors d'améliorer la qualité de fabrication par la méthode de maitrise statistique des procédés (M. S. P. ) Dont nous rappelons la démarche. L'étude du processus met en évidence la nécessité de détecter à la fois les dérivés de qualité lente et rapide, ce qui nous amène à réaliser une étude comparative des performances des différentes cartes de contrôle existantes que nous expérimentons sur des données provenant d'une ligne de conditionnement industrielle. Nous définissons ensuite une stratégie de gestion et d'amélioration de la qualité du procédé exploitant ces cartes, et permettant le diagnostic des dérivés ainsi qu'une réactivité sur la conduite et la maintenance du processus de fabrication. Face aux contraintes industrielles, nous proposons la mise en œuvre d'un système automatisé pour la réalisation de la maitrise du procédé. L'analyse fonctionnelle de celui-ci, réalisée à l'aide de la méthode S. A. D. T. , met en évidence deux boucles de réaction sur le processus, ainsi que l'importance majeure de l'interaction du système avec les services de l'usine intervenant sur la ligne de production. Ce système permet une augmentation de la productivité, une réduction des couts, et s'intègre parmi les moyens d'un programme d'assurance qualité. Un prototype a été réalisé et mis en œuvre avec succès sur plusieurs lignes industrielles. Il est composé d'un calculateur temps réel et d'un capteur de vision artificielle pour l'inspection/tri, un second calculateur effectue les traitements statistiques et gère l'interface operateur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lardon, Laurent. „Représentation et gestion des incertitudes pour le diagnostic par la théorie de Dempster-Shafer : application aux procédés biologiques“. Montpellier, ENSA, 2004. http://www.theses.fr/2004ENSA0026.

Der volle Inhalt der Quelle
Annotation:
La supervision des procédés biologiques utilisés pour la dépollution des eaux usées est une tâche complexe du fait des difficultés d’observation et de modélisation de ces procédés. En conséquence le diagnostic de ces procédés nécessite la prise en compte des incertitudes liées aux mesures et à la compréhension du système. Les travaux présentés dans cette thèse se proposent d’utiliser le cadre théorique du Modèle des Croyances Transférables afin de caractériser les différentes sources d’information portant sur l’état d’un système, de les agréger et ainsi de proposer un état ou un groupe d’états le plus crédible. Une méthode est proposée pour combiner des sources d’information définies sur des ensembles de définition différents, en l’occurrence pour la fusion de relations de diagnostic ; cette méthode permet de détecter le ou les capteurs potentiellement en panne ainsi qu’un conflit entre les sources d’information empêchant le système de conclure. La prise en compte des incertitudes des sources d’information permet d’utiliser des relations de diagnostic basées sur des modèles peu précis tels que les modèles par intervalle. De plus une méthode est proposée pour réaliser le diagnostic de l’état physiologique d’un procédé à partir de l’observation d’un nombre limité de variables. Cette méthode s’appuie sur un corps de règles floues et leur représentation sous forme de fonctions de croyances. La combinaison de ces règles au sein du formalisme des masses de croyance permet d’aboutir à une classification satisfaisante capable d’exhiber la qualité du diagnostic, tout en préservant la modularité du système. Ces méthodes permettent le diagnostic de l’instrumentation et de l’état physiologique d’un procédé biologique. Elles ont été appliquées pour le diagnostic de réacteurs ananérobies au sein du projet IST TELEMAC qui visait à développer des méthodes et des outils pour la télésupervision des procédés de dépollution
Biological process are widely used for wastewater treatment, but their supervision is a complex task because of observation and modelling difficulties. As a consequence their diagnosis needs to take into account uncertainties coming from measurement or from ill known models. The work presented in this thesis is proposing to use the Transferable Belief Model (TBM) formalism in order to characterize all available information sources and their uncertainties and then to aggregate them to be able to propose a state or a group of states highly possible for the process. Firstly a method is proposed to combine information sources defined on different definition sets, here to combine diagnosis relations defined on the sensors of a process ; this method allows one to detect one or several sensors having probably broken down. Uncertainty representation is here precious to use diagnosis relations based on low-precision models like interval models. Moreover another method is proposed to decide the biological state of a process with the observation of a limlited number of variables. This method is based on the representation of a corpus of fuzzy rules by belief functions and their combination. The combination produces good classification and preserves the modularity of the system ; furthermore the classification quality is exhibited. These methods based on the TBM formalism as a diagnosis framework have been applied to diagnose the instrumentation and the physiological state of an anaerobic process. They have been applied within the IST europen project TELEMAC whose goals were to develop methods and tools dedicated to the remote supervision of wastewater treatment plants
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Grigori, Daniela. „Éléments de flexibilité des systèmes de workflow pour la définition et l'exécution de procédés coopératifs“. Nancy 1, 2001. http://docnum.univ-lorraine.fr/public/SCD_T_2001_0241_GRIGORI.pdf.

Der volle Inhalt der Quelle
Annotation:
Pour améliorer l'efficacité des systèmes de workflow pour le travail coopératif nous proposons un modèle de workflow coopératif qui permet une exécution souple et flexible des procédés. Pour permettre la flexibilité du flot de contrôle, nous proposons le concept d'anticipation qui permet à une activité de commencer à s'exécuter même si ses conditions de démarrage ne sont pas complètement satisfaites. L'échange de données flexible entre activités est permis en encapsulant les activités dans des transactions coopératives. Ceci permet de dépasser le modèle d'enchaînement de boites noires, considéré par les modèles de workflow traditionnels, tout en maintenant le niveau de contrôle requis. Une deuxième contribution de cette thèse consiste en une méthode et des outils pour l'analyse, la prédiction et la prévention des exceptions. Ces outils utilisent des techniques de fouille de données appliquées aux données d'exécutions de procédés stockées dans un entrepôt de données
In order to improve the effectiveness of workflow systems for cooperative work we propose a model of cooperative workflow which allows a flexible process execution. The control flow flexibility is based on the concept of anticipation that allows an activity to start its execution even if its activation conditions are not yet satisfied. Anticipation increases parallelism between activities and improves their execution quality by supporting rapid feedback. The flexible data exchange between activities is allowed by encapsulating activities in cooperative transactions. This activity model surpasses the "black box" activity model, considered by traditional workflows, while maintaining the necessary level of control. The second contribution of this thesis consists in a technique and suited tools for exceptions analysis, prediction and prevention. These tools use data mining techniques that are applied to process execution data stocked in a data warehouse
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Queinnec, Jacques. „La gestion du trésor royal à la fin du treizième siècle : Procédés et méthodes comptables : Les ressources du trésor“. Brest, 2005. http://www.theses.fr/2005BRES1001.

Der volle Inhalt der Quelle
Annotation:
A la fin de 1295, Philippe le Bel reprend au Temple la gestion de son trésor, mais le nouveau trésor royal du Louvre use de procédés dérivés de ceux des Templiers. Les opérations de son journal de 1298-1300 sont pour moitié des opérations en espèces, et pour l'autre moitié des virements et autres opérations en écritures. Le montant net des recettes portées au compte du roi pendant ces deux années est de 2 194 002 livres parisis, dont 1 491 609 livres provenant du monnayage et de divers gains monétaires, 357 147 livres des décimes et autres contributions de l'Eglise, 68 506 livres du centième et des cinquantièmes levés sur les laïcs, et 204 012 livres du revenu des sénéchaussées méridionales. Le trésor encaisse en outre au compte des baillis, sans les virer au compte du roi, 302 793 livres. Les expédients auxquels l'insuffisance de ses revenus ordinaires contraint le roi ne lui procurent qu'une aisance de trésorerie temporaire, bientôt suivie d'une nouvelle dégradation de sa situation financière
At the end of 1295, Philip the Fair takes back from Temple the treasury management, but the new Louvre's royal treasury uses proceedings drifted from Temple. Operations in the diary from 1298 to 1300 are for half part cash operations, and for the other part transferring and other writing operations. The net receipts added to the king's account are, those two years, 2 194 002 parisis pounds, dividing in 1 491 609 pounds coming from coining profits, 357 147 pounds from décime tax and other Church contributions, 68 506 pounds from centième and cinquantième taxes paid by laics, and 204 012 pounds from southern seneschalcies revenues. The treasury receives also 302 793 pounds added on northern bailiffs accounts, without transferring them on king's account. The expedients that the king must use because of insufficiency of his ordinary revenue just procure him a temporary treasury comfort, before a new degradation of his financial situation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Chazara, Philippe. „Outils d'élaboration de stratégie de recyclage basée sur la gestion des connaissances : application au domaine du génie des procédés“. Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0141/document.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, une étude est réalisée sur le développement d'une méthodologie permettant la génération et l'évaluation de nouvelles trajectoires de valorisation pour des déchets. Ainsi, pour répondre à cette problématique, trois sous problèmes ont été identifiés. Le premier concerne un cadre de modélisation permettant la représentation structurée et homogène de chaque trajectoire, ainsi que les indicateurs choisis pour l'évaluation de ces dernières, permettant une sélection ultérieure. Le deuxième se concentre sur le développement d'une méthodologie puis la réalisation d'un outil permettant la génération de nouvelles trajectoires en s'appuyant sur d'autres connues. Enfin, le dernier sous problème concerne le développement d'un second outil développé pour modéliser et estimer les trajectoires générées. La partie de création d'un cadre de modélisation cherche à concevoir des structures globales qui permettent la catégorisation des opérations unitaires sous plusieurs niveaux. Trois niveaux de décomposition ont été identifiés. La Configuration générique de plus haut niveau, qui décrit la trajectoire sous de grandes étapes de modélisation. Le second niveau, Traitement générique propose des ensembles de structures génériques de traitement qui apparaissent régulièrement dans les trajectoires de valorisation. Enfin, le plus bas niveau se focalise sur la modélisation des opérations unitaires. Un second cadre a été créé, plus conceptuel et comportant deux éléments : les blocs et les systèmes. Ces cadres sont ensuite accompagnés par un ensemble d'indicateurs choisis à cet effet. Dans une volonté d'approche de développement durable, un indicateur est sélectionné pour chacune de des composantes : économique, environnemental et social. Dans notre étude, l'impact social se limite à l'estimation du nombre d'emplois créés. Afin de calculer cet indicateur, une nouvelle approche se basant sur les résultats économiques d'une entreprise a été proposée et validée.L'outil de génération de nouvelles trajectoires s'appuie sur l'utilisation de la connaissance en utilisant un système de raisonnement à partir de cas (RàPC). Pour être adapté à notre problématique, la mise en œuvre de ce dernier a impliqué la levée de plusieurs points délicats. Tout d'abord, la structuration des données et plus largement la génération de cas sources sont réalisées par un système basé sur des réseaux sémantiques et l'utilisation de mécanismes d'inférences. Le développement d'une nouvelle méthode de mesure de similarité est réalisé en introduisant la notion de définition commune qui permet de lier les états, qui sont des descriptions de situations, à des états représentant des définitions générales d'un ensemble d'états. Ces définitions communes permettent la création d'ensembles d'états sous différents niveaux d'abstraction et de conceptualisation. Enfin, un processus de décompositions des trajectoires est réalisé afin de résoudre un problème grâce à la résolution de ses sous-problèmes associés. Cette décomposition facilite l'adaptation des trajectoires et l'estimation des résultats des transformations. Basé sur cette méthode, un outil a été développé en programmation logique, sous Prolog. La modélisation et l'évaluation des voies de valorisation se fait grâce à la création d'outil spécifique. Cet outil utilise la méta-programmation permettant la réalisation dynamique de modèle de structure. Le comportement de ces structures est régi par la définition de contraintes sur les différents flux circulants dans l'ensemble de la trajectoire. Lors de la modélisation de la trajectoire, ces contraintes sont converties par un parser permettant la réalisation d'un modèle de programmation par contraintes cohérent. Ce dernier peut ensuite être résolu grâce à des solveurs via une interface développée et intégrée au système. De même, plusieurs greffons ont été réalisés pour analyser et évaluer les trajectoires à l'aide des critères retenus
In this work, a study is realised about the creation of a new methodology allowing the generation and the assessment of new waste recovery processes. Three elements are proposed for that. The first one is the creation of a modelling framework permitting a structured and homogeneous representation of each recovery process and the criteria used to asses them. The second one is a system and a tool generating new recovery processes from others known. Finally, the last element is another tool to model, to estimate and to asses the generated processes. The creation of a modelling framework tries to create some categories of elements allowing the structuring of unit operations under different levels of description. Three levels have been identified. In the higher level, the Generic operation which describes global structure of operations. The second one is Generic treatment which is an intermediate level between the two others. It proposes here too categories of operations but more detailed than the higher level. The last one is the Unit operation. A second framework has been created. It is more conceptual and it has two components : blocs and systems. These frameworks are used with a set of selected indicators. In a desire of integrating our work in a sustainable development approach, an indicator has been chosen for each of its components: economical, environmental and social. In our study, the social impact is limited to the number of created jobs. To estimate this indicator, we proposed a new method based on economical values of a company. The tool for the generation of new waste recovery processes used the methodology of case-based reasoning CBR which is based on the knowledge management. Some difficult points are treated here to adapt the CBR to our problem. The structuring of knowledge and generally the source case generation is realised by a system based on connections between data and the use of inference mechanisms. The development of a new method for the similarity measure is designed with the introduction of common definition concept which allows linking states, simply put description of objects, to other states under different levels of conceptualizations and abstractions. This point permits creating many levels of description. Finally, recovery process is decomposed from a main problem to some sub-problems. This decomposition is a part of the adaptation mechanism of the selected source case. The realisation of this system is under logic programming with Prolog. This last one permits the use of rules allowing inferences and the backtracking system allowing the exploration to the different possible solution. The modelling and assessment of recovery processes are done by a tool programmed in Python. It uses the meta-programming to dynamically create model of operations or systems. Constraint rules define the behaviour of these models allowing controlling the flux circulating in each one. In the evaluation step, a parser is used to convert theses rules into a homogeneous system of constraint programming. This system can be solved by the use of solvers with an interface developed for that and added to the tool. Therefore, it is possible for the user to add solvers but also to add plug-ins. This plug-ins can make the assessment of the activity allowing to have different kinds of evaluation for the same criteria. Three plug-ins are developed, one for each selected criterion. These two methods are tested to permit the evaluation of the proposed model and to check the behaviour of them and their limits . For these tests, a case-base on waste has been created Finally, for the modelling and assessment tool, a study case about the recovery process of used tyres in new raw material is done
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Symchowicz, Nil. „La mutation des procédés contractuels des personnes publiques : le recours aux "montages contractuels complexes"“. Paris 1, 2002. http://www.theses.fr/2002PA010304.

Der volle Inhalt der Quelle
Annotation:
Depuis une vingtaine d'années, les personnes publiques, et en particulier les collectivités locales, ont de plus en plus recours aux "montages contractuels complexes", qui correspondent davantage à une réalité économique qu'à une véritable catégorie juridique. A la faveur d'une liberté contractuelle des personnes publiques depuis longtemps admise, mais désormais proclamée, nombreux sont désormais les montages qui, se substituant aux procédés classiques, permettent la réalisation d'équipements publics, et même, parfois, leur exploitation technique et/ou commerciale. La faculté de recourir aux montages contractuels complexes n'est cependant pas sans limites car la liberté contractuelle des personnes publiques est conçue de manière plus limitée que celle des personnes privées. La réception de ces montages par le droit public n'est en outre pas chose aisée. En particulier, leur qualification au regard du droit international et communautaire des marchés publics et délégations de service public est plus que problématique. L'emploi désormais usuel de ces montages révèle un vaste mouvement de recul du droit public à travers une véritable mutation des procédés contractuels des personnes publiques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Hermosillo, Worley Jorge. „Vers une meilleure prise en compte des ressources humaines dans les processus d'entreprise : connaissances, rôles et compétences“. Toulouse, INPT, 2003. http://www.theses.fr/2003INPT040H.

Der volle Inhalt der Quelle
Annotation:
Pendant des années, des multiples études dans le domaine du génie de production se sont principalement concentrées sur l'optimisation de l'utilisation des ressources matérielles des entreprises dans les processus industriels, en termes de " capabilité ", " performance " ou " productivité ", entre autres. A l'heure où les systèmes productifs demandent de plus en plus de réactivité dans un contexte général de tension des flux, les approches modernes d'organisation de la production tendent à replacer l'homme au cœur de l'entreprise. Ce travail s'intéresse particulièrement à l'amélioration de l'organisation opérationnelle des entreprises, sur la base d'une meilleure adéquation entre les processus d'entreprise et les connaissances et rôles des acteurs, à partir des compétences requises et disponibles. Nous nous sommes donc particulièrement focalisés sur la modélisation de processus, ainsi que sur divers moyens d'actions (évaluation des compétences, gestion des connaissances, identification de rôles) qui vont permettre d'améliorer les performances des entreprises. Plusieurs applications de terrain nous ont permis de valider ces travaux de recherche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Blanc, Pascal. „Pilotage par approche holonique d'un système de production de vitres de sécurité feuilletées“. Nantes, 2006. http://www.theses.fr/2006NANT2126.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte international de plus en plus compétitif, les entreprises ont constamment besoin d’adapter et d’optimiser leurs outils industriels en vue d’augmenter leur productivité. En particulier, le pilotage d’une ligne de production est évalué en fonction de paramètres de coût et de délais, qui contribuent à définir le rendement et donc la compétitivité d’une entreprise. Le besoin accru de flexibilité, d’agilité et d’efficacité des systèmes de production se traduit par une complexité grandissante de ces systèmes et une nécessité d’intégration. Ces nécessités sont illustrées par l’utilisation d’un cas industriel de production de vitres de sécurité feuilletées qui a valeur d’exemple de pilotage de systèmes de production. Au sein de ce pilotage, beaucoup de questions se ramènent à résoudre des problèmes d’ordonnancement et/ou d’optimisation où les données dynamiques sont nombreuses et variées et se renouvellent en permanence. Dans cette thèse, nous illustrons l’utilisation d’une structure holonique pour réaliser le pilotage d’un tel système industriel de production. Cette structuration du système de production permet d’appréhender une réalité sur laquelle beaucoup d’approches font l’impasse : la nature hiérarchique et hétérarchique de la prise de décision au sein des systèmes de production, ainsi que la réalité physique de ces systèmes. L’utilisation de la structure holonique permet ainsi la construction d’un pilotage évolutif et réactif, tout en autorisant de considérer des aspects globaux dans le système de production. L’utilisation de l’architecture de référence PROSA, basée sur une typologie des éléments du système de production : produits, ressources, ordres, et centres de décision spécialisés (hiérarchisés ou fonctionnels), nous permet d’identifier et de définir les rôles et comportements macro des éléments du pilotage. Pour cette architecture, nous proposons l’utilisation de mécanismes qui permettent de synchroniser les réalisations du point de vue des ordres de production. Ces mécanismes garantissent la disponibilité des composants pour la production des composés et permettent de fixer des contraintes de temps pour l’ordonnancement des opérations. D’autre part nous proposons une typologie des holons Ressource, basée sur les caractéristiques des opérations qu’ils réalisent : approvisionnement, transformation, assemblage et désassemblage. Des heuristiques spécifiques à chaque holon Ressource permettent de réaliser l’ordonnancement de ceux-ci, en prenant en compte les modèles propres à chacun d’eux ; il s’agit par exemple d’apporter des solutions au problème d’ordonnancement/optimisation dans le cas de la découpe de matière première. Ces mécanismes et algorithmes sont implémentés au sein d’un système multi-agents, lequel est l’objet de l’implémentation de ce pilotage. Enfin, pour l’évaluation de ce système de pilotage, l’utilisation de la simulation à évènements discrets est proposée en tant qu’émulateur du système physique. Cette solution permet de résoudre les problèmes de redondance dans l’implémentation du système de pilotage, autorise la réutilisation des objets du modèle de simulation, et permet la capitalisation de l’effort de développement, puisque le système évalué est le même que celui utilisé dans l’environnement réel. Finalement, le système de pilotage, ou MES (Manufacturing Execution System), ainsi réalisé est intégré au système de gestion de l’entreprise, et est interfacé d’une part avec le module de gestion de haut niveau (ERP – Enterprise Ressource Planning), et d’autre part avec le système physique duquel il s’alimente
In an everyday more competitive environment, firms constantly need to adapt and optimise their industrial tools, to increase their competitiveness. In particular, the control of manufacturing systems is evaluated in terms of cost and time parameters, which contribute to assess the return, and so the competitiveness of a firm. The increasing needs for flexibility, agility and efficiency result in a growing complexity of manufacturing systems and a necessity of integration of their control. These requirements are illustrated by an industrial case which is proposed as an example for manufacturing system control design. Within this manufacturing control system, problems are identified as scheduling and/or optimisation problems, for which dynamic data are numerous and miscellaneous and are constantly updated. In this dissertation, we illustrate the use of a holonic structure to perform the control of such an industrial manufacturing system. Such a structure makes possible to consider a reality left out by many other approaches: the hierarchical and heterarchical nature of decision-making within manufacturing systems, as well as the physical reality of these systems. Thus, the use of a holonic structure allows for building a reactive and configurable control, while considering global aspects of the manufacturing system. The use of the PROSA architecture is based on a typology of the manufacturing system elements: products, resources, orders and specialised decision-making centres (hierarchical and/or functional). It allows us to identify and define the roles and behaviours of the manufacturing control elements. For this architecture, we propose the use of mechanisms to synchronize the execution of manufacturing orders. These mechanisms guarantee the availability of components and enable to impose limit time constraints on task scheduling. On the other hand, we propose a typology of Resource holons, based on characteristics of the tasks that they perform: supply, conversion, assembly or disassembly. For each type of Resource holon, specific heuristics are used to solve the tasks scheduling problem, taking into account the own model of each one. For instance, a specific heuristic generates a solution to the scheduling/packing problem in the case of a raw material cutting machine. These mechanisms and algorithms are implemented within a multi-agents system, which supports the development of the manufacturing control system. To evaluate this manufacturing control, the use of discrete-event simulation is proposed as an emulator of the physical system. This proposition makes possible to solve problems of redundancy during the development of manufacturing control, permits to reuse objects of the simulation model, and allows some savings in the development effort, since the manufacturing execution system evaluated is the same as the one used in the real context. Finally, this manufacturing execution system (MES) is integrated to the management system of the firm, as it interfaces the enterprise resource planning (ERP), and the physical system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

BROISSIN, NICOLAS. „Contribution a l'amelioration de la reactivite des systemes de production automatises et flexibles grace a un pilotage base sur une generation de taches decentralisee“. Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30063.

Der volle Inhalt der Quelle
Annotation:
Actuellement, le pilotage d'un systeme de production automatise et flexible (spaf) est principalement envisage sous la problematique de l'allocation de taches pre generees (fonction d'ordonnancement), c'est-a-dire programmees hors ligne et attribuees a un type predefini de mdp. Aujourd'hui, une partie des travaux scientifiques continuent sur ces bases. Cependant, les approches les plus performantes en terme de reactivite (ordonnancement temps-reel, reactif ou agile) presentent le defaut majeur de ne considerer que les aspects temporels et non reellement les aspects technologiques de la tache machine. Ceci implique que les choix sur l'affectation des taches se font sans considerer toutes les occurrences d'attributions, et notamment les ressources qui conviendraient pour executer la tache mais dont les caracteristiques technologiques sont incompatibles avec les choix technologiques fait lors de la programmation de la tache. L'originalite de notre approche est d'envisager le pilotage d'un spaf en decentralisant la generation des taches sur les mdp et en retardant au maximum les choix d'allocation et d'attribution de taches. Deux notions locales aux mdp supportent cette logique de pilotage. La premiere, la generation reflexe, basee sur une modelisation metier du comportement, produit en-ligne, une tache decrite a un niveau interpretable par les sous-couches de la commande. La deuxieme, la generation reflechie, permet d'assurer en-ligne l'affectation des taches par la mise en concurrence des mdp lorsqu'une nouvelle tache doit etre executee. Nous presentons a la fin de ce memoire une validation des concepts de generation de taches multi-machines a travers l'analyse detaillee des resultats de simulation obtenus sur une maquette de simulation du pilotage d'une cellule flexible de tournage. Nous presentons egalement brievement l'application de ces concepts a d'autres types de spaf comme les systemes de transport ou de stockage robotises.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Bois, Stéphane. „Intégration de la gestion des modes de marche dans le pilotage d'un système automatisé de production“. Lille 1, 1991. http://www.theses.fr/1991LIL10113.

Der volle Inhalt der Quelle
Annotation:
La difficulté d'exploitation des systèmes automatisés de production résulte des possibilités de plus en plus riches d'évolution de leurs différentes entités: machines, produit. . . Nous nous sommes ainsi intéressés à la conduite effective des machines en gérant rigoureusement leurs différents modes de marche. L'intérêt est de prendre en compte toutes les contraintes apparaissant lors de l'exploitation d'une unité de fabrication. La démarche générale nous a permis, dans un premier temps, de construire un modèle du procédé, par une analyse ascendante des contraintes de fonctionnement entre machines. La liste exhaustive des contraintes, sur état ou sur changement d'état, a été spécifiée et introduite par la construction de tables. Cette technique de modélisation permet systématiquement, d'aboutir à un modèle arborescent du système de production avec la mise en évidence de ses différents niveaux de commande. Par ailleurs, le comportement individuel de chaque machine, effective ou virtuelle, est décrit à l'aide de graphes d'état
Dans un second temps, nous avons montré que l'intégration des tables de contraintes aboutit à une décomposition structurelle et fonctionnelle: elle est obtenue sous la forme d'un schéma arborescent de recherche déductive des modes de marche des différentes machines du procédé. Ce modèle est facilement exploitable peut être utilisé par la suite, en vue du pilotage temps réel de l'unité de production par un raisonnement sur la logique de dépendance ou d'enchaînement de ses modes de marche. L'exploitation de la modélisation nous a amené à étudier le pilotage d'une unité de production flexible. Nous en avons décrit les différentes fonctionnalités et les solutions adoptées pour résoudre tous les problèmes de fonctionnement, qui se répercutent à tous les niveaux de commande. La mise en œuvre d'un logiciel de pilotage, chargé de la gestion automatique des modes de marche, a permis de valider complètement la démarche, avec l'utilisation de techniques d'intelligence artificielle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Crevits, Igor. „Répartition dynamique de taches dans les procédés complexes. Modélisation de la répartition anticipée : application au contrôle de trafic aérien“. Valenciennes, 1996. https://ged.uphf.fr/nuxeo/site/esupversions/8e4a1e03-64eb-4e69-9a03-f26c175ea950.

Der volle Inhalt der Quelle
Annotation:
La répartition dynamique de taches consiste à fournir à l'operateur humain une assistance à l'action afin de réguler sa charge de travail. La problématique de la répartition dynamique de taches réside donc dans la définition et la mise en œuvre de la répartition des taches entre l'operateur humain et le système automatisé. La définition anticipée de la répartition permet d'améliorer la qualité des solutions obtenues vis-à-vis de l'objectif de régulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Letourneau, Jean-Jacques. „Approche globale pour la simulation et la conception de procédés : application à des unités de séparation interconnectées“. Toulouse, INPT, 1992. http://www.theses.fr/1992INPT045G.

Der volle Inhalt der Quelle
Annotation:
Une approche globale pour la simulation en regime permanent de procedes constitues d'unites de separation interconnectees est presentee. Le procede est decompose en une sequence de reseaux cycliques maximaux formes de modules elementaires. Le systeme d'equations non-lineaires representant le fonctionnement de chaque reseau est resolu par une methode globale via linearisation, la methode de newton-raphson. La structure modulaire adoptee permet de conserver la souplesse de l'approche modulaire sequentielle classique. En particulier l'initialisation des variables iteratives est facilitee grace a l'application d'une telle approche durant la premiere iteration de la methode de resolution. Dans ce memoire, l'accent est mis sur la recherche de solutions concernant deux difficultes majeures rencontrees lors de la mise en uvre d'une approche globale: la generation des valeurs des coefficients du systeme d'equations linearise et l'exploitation de la structure creuse de ce systeme. L'objectif des solutions proposees est de minimiser le temps calcul total de la simulation. La procedure de generation du systeme lineaire propose s'appuie sur une decomposition prealable et une memorisation de la procedure de calcul des coefficients du systeme, afin de permettre un calcul rapide ainsi qu'une utilisation efficace des systemes paralleles et vectoriels. Un algorithme d'arrangement quasi-optimal des equations et des variables est presente. Cet algorithme, base sur des regles heuristiques, permet de minimiser le nombre d'operations effectuees lors de la resolution du systeme lineaire par une methode de gauss
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Dosière-Durand, Carine. „Approche globale pour la gestion et l'élimination des polluants organiques : application aux rejets aqueux issus des procédés de synthèses du 5007-TDS et du 12911“. Paris 11, 2008. http://www.theses.fr/2008PA112263.

Der volle Inhalt der Quelle
Annotation:
L’approche globale est un concept multidisciplinaire développé au laboratoire de microbiologie appliquée depuis une dizaine d’années, dans le but de répondre à un problème industriel. Il a été appliqué, dans le cadre de cette thèse, sur des effluents aqueux rejetés lors de la synthèse de deux médicaments phares des laboratoires Servier : L’Arcalion, médicament antiasthénie et le Protelos, utilisé pour la lutte contre l’ostéoporose. La première étape du sujet concerne l’analyse et la caractérisation des polluants organiques présents dans les deux effluents étudiés. Les deux familles de polluants contiennent soit un squelette thiophénique, soit un noyau aminopyrimidine, exclusivité de la vitamine B1 et un pont disulfure. Des méthodes de dégradation par voies chimique microbiologique et enzymatique ont été mises en place pour étudier d’une part l’épuration des effluents en question, et d’autre part les mécanismes mis en œuvre sur les molécules cibles et modèles appartenant aux familles de polluants étudiés. Les PAO, et plus particulièrement le Fenton et le procédé de ZEA se sont montrés efficaces pour la dépollution des deux effluents. Le métabolisme de chaque molécule cible a également été étudié chez les microorganismes et les mammifères. Enfin, l’approche globale contient une partie valorisation, dans laquelle sont testés les différents métabolites en tant que piégeurs de méthylglyoxal, entité responsable des complications du diabète
Global approach was a multidisciplinary concept developed in the laboratory of applied microbiology, since a decade. The aim was to answer to an industrial problem. It was applied, under this Ph-D, to aqueous effluents released during the syntheses of two headlight drugs of Servier laboratories: Arcalion, drug antiastheny and Protelos, used against osteoporosis. The first step or the subject concerned analysis and characterization of organic pollutants present in studied effluents. The two family of pollutants contained either thiophenic skeleton, or aminopyrimidin moiety, exclusive of vitamin B1 and a disulfide bond. Some methods of degradation by chemical, microbiological and enzymatic ways were established for the study the purification of the effluent, and mechanisms implemented on target or pattern molecules belonging to the families of pollutants. AOPs, in particular Fenton and ZEA process have shown their efficiencies for the cleanup of the two effluents. The metabolism of each molecule was also studied in microorganisms and mammals. Finally, global approach contain an evaluation part, in which were tested different metabolites as methylglyoxal scavengers, entity responsible for diabetes complications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Bouzid, Sara. „Approche sémantique de gestion de ressources d’Information pour le contrôle de processus industriels : application au processus de fabrication chez STMicroelectronics“. Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4346/document.

Der volle Inhalt der Quelle
Annotation:
Afin d’assurer la fabrication de produits conformes et à faible coût dans les industries, la maîtrise des procédés de fabrication est devenue un enjeu majeur. Les systèmes d'information dans les industries sont assez complexes et les besoins métier évoluent en permanence, rendant ainsi difficile la recherche des ressources qui fournissent les informations manufacturières pour le contrôle de procédés industriels. De plus, l’utilisation de plateformes logicielles commerciales dans les industries pour le traitement des données ne facilite pas l’accès à l’information produite car ces plateformes ne permettent pas la gestion sémantique de l’information. Cette thèse défend l’idée qu’il faut réduire la distance entre les ressources disponibles et les besoins métier des experts qui assurent le contrôle de processus industriels. L’approche S3 est proposée pour permettre à la fois la description et la recherche de ces ressources. S3 repose sur deux stratégies de recherche complémentaires: une stratégie ascendante permettant la création de descripteurs sémantiques de ressources, et une stratégie descendante permettant la capture des besoins métier dans des patterns de recherche. Deux structures sémantiques sont proposées pour supporter les mécanismes de description et de recherche: une ontologie « manufacturing process » et un dictionnaire « process control ». Chaque stratégie de recherche, appuyée par les structures sémantiques apporte un niveau de description différent et permet l’alignement de différents types de connaissances métier. Cette approche a été expérimentée au sein de l’entreprise STMicroelectronics et a révélé des résultats prometteurs
In order to ensure the manufacturing of conforming products with the least waste, the manufacturing process control has ever more become a major issue in industries nowadays. The complexity of the information systems in industries and the permanent evolution of the business needs make difficult the retrieval of the resources that provide manufacturing information related to the process control. In addition, the use of commercial software platforms in industries for the processing of data, does not facilitate the access to the information produced, because these platforms do not support the semantic management of information.This thesis argues the need to reduce the distance between the used resources in industries and the business needs of the experts that ensure the control of the manufacturing processes.The S3 approach is proposed to support the control of the manufacturing processes through an original resource management system. This system is intended for both resource description and retrieval. The S3 approach relies on two complementary retrieval strategies: a bottom-up strategy enabling the creation of semantic descriptors of resources, and a top-down strategy enabling the capture of business needs in search patterns. Two semantic structures are proposed to support the resource description and retrieval mechanisms: a manufacturing process ontology and a process control dictionary. Basing on these semantic structures, each retrieval strategy provides different levels of description to the resources, and enables the alignment of different types of business knowledge. The experimentation of the approach within STMicroelectronics showed promising results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Latrous, Mohamed Othman. „Modèle d’intégration maintenance conditionnelle, prévisionnelle et maitrise statistique des procédés“. Electronic Thesis or Diss., Compiègne, 2021. http://www.theses.fr/2021COMP2639.

Der volle Inhalt der Quelle
Annotation:
Les solutions industrielles intégrées évoluent pour faire face à la digitalisation des processus de production. Parmi les solutions d’amélioration, nous pouvons penser au développement de nouvelles stratégies de maintenance intégrée à la qualité du produit fini. Une hypothèse couramment utilisée dans la littérature consiste à supposer que le suivi de la qualité se résume à la surveillance d’une seule caractéristique du produit ou du process. Cependant, pour les systèmes complexes, cette hypothèse est rarement satisfaite à mesure que le nombre de caractéristiques augmente et qu’elles peuvent avoir de potentielles corrélations. En effet, une carte de contrôle multivariée est plus appropriée pour garantir une meilleure performance de détection des dérives. Dans cette perspective, l’objectif principal de cette thèse consiste à développer de nouvelles règles de décision pour la maintenance basée sur les données de la qualité des produits. Des cartes de contrôle multivariées sont utilisées pour détecter et identifier les potentielles dérives du process et des actions de maintenance adaptative sont déclenchées ciblant les composants du système responsables de la détérioration de la qualité des articles produits. Dans un premier temps, une étude préliminaire est menée pour mettre en évidence l’impact des cartes de contrôle multivariées sur le processus de prise de décision pour la maintenance. Dans un deuxième temps, des règles de décision intégrées pour la maintenance conditionnelle et la maintenance prévisionnelle sont proposées en exploitant des cartes de contrôles multivariées multimodales. Les règles de décision proposées sont appliquées dans le contexte d’un processus de production simulé présentant des défauts apparaissant sous différentes dynamiques (dérives rapides et dérives lentes). Les nouvelles stratégies proposées dans cette thèse ont été validées par le biais du développement de modèles analytiques exprimant un profit. Ce profit a été maximisé selon les variables de décisions (la période d’échantillonnage et le seuil critique d’intervention) et l’existence de solutions optimales a été démontrée par simulation. La robustesse des modèles développés a été prouvée par des études de sensibilité, suivies d’études comparatives afin de mettre en évidence l’impact des stratégies proposées
Integrated solutions are evolving to cope with the digitalization of manufacturing processes. One area of improvement is developing new strategies joining maintenance and quality control. A popular hypothesis used in these integrated models is considering that quality control comes down to monitoring a single process or product characteristic. However, for complex systems, this assumption is seldom satisfied as the number of characteristics grows and they can have potential correlations. In fact, a multivariate control chart is more suitable to guarantee better performances of drift detection. Following this perspective, the main objective of this thesis consists in developing new maintenance decision rules based on produced items’ quality data. Multivariate control charts are used to provide detection and identification of potential process shifts and adaptive maintenance actions are triggered, targeting system components responsible for the deterioration of the produced items’ quality. First, a preliminary study is led to highlight the impact of multivariate control charts on the decision making process. Next, integrated maintenance decision rules for condition based and predictive maintenance are proposed using multimodal control charts. The developed decision rules are applied in the context of a simulated manufacturing process exhibiting a quality defect appearing in different dynamics (fast and slow drifts). The new strategies proposed in this thesis have been validated through the development of analytical models expressing the profit of the manufacturing system. This profit was maximized based on decision variables (sampling period and critical intervention threshold) and the existence of optimal solutions has been demonstrated through simulation. The robustness of the developed models has been proven by sensitivity studies, followed by comparative studies in order to highlight the impact of the proposed strategies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Duvivier, David. „Etude de l'hybridation des méta-heuristiques, application à un problème d'ordonnancement de type jobshop“. Littoral, 2000. http://www.theses.fr/2000DUNK0046.

Der volle Inhalt der Quelle
Annotation:
Dans ce mémoire, nous étudions les méthodes itératives de recherche dans le cadre de la résolution du problème d'ordonnancement de type jobshop. Plus que les performances en elles-mêmes, nous nous intéressons tout particulièrement à la compréhension du fonctionnement des méthodes de résolution ainsi qu'à l'analyse de l'influence de la coopération de plusieurs méthodes de recherche sur la qualité des solutions engendrées. Dans un premier temps, nous évaluons l'apport de critères secondaires intégrés dans la fonction coût. Nous utilisons des algorithmes itératifs de recherche pour étudier l'impact de l'intégration de ces critères sur le paysage adaptatif ainsi que sur la qualité des ordonnancements engendrés. Nous proposons ensuite quelques améliorations du schéma d'application des opérateurs dans les algorithmes génétiques. Finalement,nous étudions quelques modèles d'hybridation des méta-heuristiques basés sur la recherche tabou et les algorithmes évolutifs
In this thesis, iterative search methods are studied and applied to the jobshop scheduling problem. Instead of trying to reach high performance, we focus our work towards a better understanding of search algorithms and their hybridization. In particular, we study the impact of hybridization on the quality of final solutions. First part of our work consists in evaluating the impact of combining several criteria in the objective function. We have used several local search algorithms in order to gather statistical informations about the resulting structures of fitness landscape. We have also studied the impact on performance. Then, the study of the interactions between operators in our GA leads us to define some improvements of the scheme of application of genetic-operators. Finally, we study several schemes of hybridization based on tabu-search and evolutionary algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Labruyère, Alexis. „Analyse et optimisation des procédés de conception des systèmes de transmission Nx160 Gb/s par fibre à haute densité de gestion de la dispersion“. Dijon, 2004. http://www.theses.fr/2004DIJOS044.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Pech-Gourg, Nicolas. „Méthodes d'optimisation appliquées à l'industrie du liège“. Angers, 2002. http://www.theses.fr/2002ANGE0044.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse, réalisés dans le cadre d'une convention CIFRE, portent sur l'utilisation de méthodes d'optimisation dans l'industrie du liège. Dans un premier temps, nous réalisons, à partir des besoins exprimés par l'industriel, un inventaire des applications pour identifier clairement les problématiques importantes susceptibles de d'être traitées par l'approche d'optimisation. Nous cherchons ensuite à résoudre deux de ces problématiques : 1) la gestion d'approvisionnement et de transformation de la matière première, et 2) la classification de bouchons en liège. Selon la nature de ces problématiques, nous faisons appel, lorsque c'est possible, à des outils issus de la programmation mathématique (comme la programmation linéaire). Dans les autres cas, nous proposons un modèle plus générique comme le CSOP (Constraint Satisfaction Optimisation Problem) et nous utilisons des métaheuristiques (recuit simulé, méthode tabou, et algorithmes génétiques) pour le résoudre. Plusieurs algorithmes sont donc mis en œuvre, expérimentés et évalués sur des jeux de données réelles issues de l'industrie. Des améliorations sont ainsi obtenues par rapport à l'état de l'art de ces problématiques, impliquant des gains économiques et commerciaux potentiels importants. Enfin, nous proposons des pistes de recherche en vue d'apporter d'autres améliorations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Belmahdi, Noureddine. „Contribution à l'organisation du système de production pour la modélisation et son évaluation par la simulation“. Metz, 1995. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1995/Belmahdi.Nour_Eddine.SMZ9531.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Bambou, Mike. „Création d'un modèle de market-timing à partir de deux modèles industriels : simulation d'une gestion de portefeuille de contrats de matières premières“. Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE0508.

Der volle Inhalt der Quelle
Annotation:
Dans l’industrie, des méthodes de Maîtrise Statistique des Procédés (MSP) sont utilisées pour savoir si des pièces usinées lors d’un processus de fabrication sont non conformes aux spécifications. Les deux méthodes utilisées sont la méthode de Shewhart et la méthode EWMA (moyenne mobile à pondération exponentielle). Une adaptation de ces deux méthodes à la bourse est faite pour créer un modèle qui anticipe les cours sur les marchés à termes de matières premières. Ces deux méthodes sont utilisées simultanément, ce qui est une première. Le modèle présenté différencie plusieurs types de mouvements et plusieurs types d’investisseurs sur les marchés. C’est un modèle prudent. L’obtention de fortes performances est importante mais la diminution du risque et la limitation des pertes le sont également. Une simulation de la gestion d’un portefeuille pouvant être investi dans douze marchés à terme est faite. Ces marchés sont les suivants : le gaz naturel, le pétrole, le blé, le maïs, le soja, le bois, le jus d’orange concentré surgelé, le café, le cacao, le sucre, le coton et le cuivre. Cette simulation dans laquelle le portefeuille n’est pas « en levier » donne des résultats impressionnants. La simulation est faite du 3 janvier 2000 au 31 décembre 2013. Le capital initial est de $ 10 000 000 et à la fin de la simulation il est de $ 189 868 766. Le taux de rendement actuariel est de 23%. La seule rentabilité annuelle négative est celle de 2013 (-0.5%) et la meilleure est celle de 2010 (67%) La volatilité annualisée est de 17%. Le ratio d’information est exceptionnel : 0.85 ! La capacité au market-timing est de 47%. Ce pourcentage est ordinaire mais il recouvre le fait que la performance moyenne d’une position gagnante est de 17% tandis que celle d’une position perdante est de -6%. La performance d’une position gagnante compense, en moyenne, celle de trois positions perdantes
Methods of Statistical Process Control (SPC) are used in the industrial sector to know if work pieces are conforms to specifications. Two methods are used: the Shewhart method and the Exponentially-weighted moving average method (EWMA). An adaptation of these methods to the financial markets is done to create a model which anticipates prices on commodities markets. Both methods are used simultaneously which is the first time. The developed model distinguishes several types of market movements and various types of investors. It is a safe model. Obtaining strong performances is important but reducing risk and limiting losses are too. A simulation of the management of a portfolio which may be invested of twelve commodities is done. The markets are: natural gas, oil, wheat, corn, soybeans, lumber, frozen concentrated orange juice, coffee, cocoa, sugar, cotton and copper. We decide to simulate a portfolio without “leverage” and results are impressive. The simulation is done from January 3rd 2000 to December 31th 2013. The initial capital of the portfolio is $ 10,000,000 and at the end of the simulation is $ 189,868,766. The rate of annual return is 23%. The only negative annual return is that of 2013 (-0.5%) and the best is that of 2010 (67%). The annualized volatility is 17%. The information ratio is exceptional: 0.85! The ability to market timing is 47%. This percentage is ordinary, but the average performance of winning positions is 17% while that of a losing position is -6%. The performance of a winning position, on average, corrects that of three losing positions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Wang, Bai Qing. „Contribution à la capitalisation des connaissances en génie mécanique : application au grenaillage de précontrainte“. Troyes, 2007. http://www.theses.fr/2007TROY0009.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans ce mémoire est à la fois une contribution au domaine du génie mécanique par l’intermédiaire du grenaillage de précontrainte et au domaine de la gestion des connaissances. Le travail a consisté d’une part à analyser certaines méthodes issues de l’ingénierie des connaissances (MASK, CommonKADS, KOD, REX, MEREX…) ainsi qu’un certain nombre de « langages » de modélisation (UML, IDEFO, GRAFCET…) et d’autre part à mettre en œuvre ceux qui nous ont paru les plus pertinents pour formaliser et capitaliser un ensemble de connaissances issues du domaine du grenaillage de précontrainte. Cette mise en application montre qu’il est possible de capitaliser des connaissances du génie mécanique grâce à des méthodes génériques via quelques adaptations des modèles utilisés pour les différents points de vue de la connaissance. Le livre de connaissance présenté au travers des annexes permet d’illustrer les connaissances capitalisées dans les différents points de vue retenus
The work presented in this thesis is at the same time a contribution to the field of the mechanical engineering especially to the shot peening process and to the field of the knowledge management. This work consists in analyzing methods developed in knowledge engineering (MKSM, CommonKADS, KOD, REX, MEREX…) and some modeling “languages” (UML, IDEFO, GRACET…). An implementation of the above-mentioned methods of modeling languages for the capitalization of knowledge in the field of shot peening process is proposed. This application shows that it is possible to capitalize knowledge of the mechanical engineering with generic methods based on some improvements of the models used for the various points of view of knowledge. The knowledge book presented through the appendices illustrates the knowledge capitalized in the various selected points of view
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Montoya, Torres Jairo Rafael. „Transport automatisé dans les systèmes de fabrication de semi-conducteurs : nouvelles approches de gestion tactique et opérationnelle“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2005. http://tel.archives-ouvertes.fr/tel-00793340.

Der volle Inhalt der Quelle
Annotation:
La fabrication de plaquettes de silicium (wafers) est l'un des processus de fabrication le plus complexes qui existe aujourd'hui. Étant donné à la fois le niveau très élevé d'investissements en équipement et la forte concurrence sur le marché, les fabricants de semi-conducteurs cherchent à rentabiliser au maximum les unités de fabrication (fabs) afin d'obtenir à la fois le meilleur niveau d'utilisation des équipements, un bas niveau d'encours et des temps de cycle de plus en plus courts. Avec l'arrivée de la nouvelle génération de wafers de 300mm de diamètre, des contraintes ergonomiques et de productivité imposent l'automatisation de toute la manutention et le transport des lots de production. Le système automatique de transport joue donc désormais un rôle essentiel pour l'amélioration de la productivité de la fab et la réduction des coûts de production. Cependant, les stratégies de pilotage du système de transport ont été relativement peu étudiées dans la littérature et les travaux existant le considèrent comme étant une entité isolée, ignorant ainsi les effets sur la gestion de la production et des équipements. Du fait de la complexité du processus de fabrication, les études proposées dans la littérature ont traditionnellement été réalisées avec de la simulation à événements discrets.L'objectif de cette thèse est de proposer une méthodologie d'analyse et d'optimisation de la gestion du système automatisé de transport des lots, afin d'améliorer les indicateurs clés de la production. Nous proposons d'abord une modélisation hybride de la fab et du processus de fabrication. Pour cela, nous utilisons une méthodologie basée sur l'identification des ''process'' et de leurs interactions, ainsi qu'une représentation en réseaux de Petri colorés temporisés. Cette conceptualisation nous permet de mieux intégrer les différents composants dans un modèle de simulation. Ensuite, plusieurs stratégies pour la gestion du système de transport des lots (i.e. stratégies de dispatching et de positionnement des chariots) sont analysées. Cette étude est réalisée en couplant des techniques classiques de la Recherche Opérationnelle (i.e. programmation mathématique, méthodes heuristiques) avec le modèle de simulation de la fab. Ainsi, la problématique de gestion du système de transport est abordée à partir du niveau tactique à l'aide d'une démarche d'optimisation qui permet de trouver les valeurs optimales des paramètres du modèle de simulation. Ce dernier permet d'étudier le comportement dynamique du système et facilite l'implémentation des règles pour la gestion opérationnelle. La mise en oeuvre de la démarche hybride optimisation-simulation proposée est analysée dans la structure complexe d'une unité de fabrication de wafers de la nouvelle génération de 300~mm de diamètre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Laforest, Valérie. „Technologies propres : méthodes de minimisation des rejets et de choix des procédés de valorisation des effluents : application aux ateliers de traitements de surface“. Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0118/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Le traitement des eaux constitue actuellement la part essentielle des investissements industriels pour la protection de l'environnement. En France, les moyens consacrés à la dépollution des eaux sont de l'ordre de 20 milliards de Francs dont la plus grosse part est consacré à l'activité industrielle. Les actions engagées se font par une gestion globale des effluents en privilégiant les actions de réduction à la source notamment par la mise en place de technologies propres (optimisation, changement et modification du procédé de production). Nous avons concentré notre étude sur la mise en place des technologies propres dans les ateliers de traitement de surface (consommateur et générateur d'eau et de produits chimiques). Pour cela, nous avons mis au point deux méthodes de gestion de l'information qui ont abouti au développement de deux systèmes informatiques d'aide à la décision. La première a pour objectif de minimiser la consommation et les rejets en eau tout en optimisant le procédé de production en assurant une efficacité et un rendement optima des rinçages. La deuxième concerne le choix des procédés de valorisation suivant les objectifs de valorisation, les caractéristiques de l'effluent et les paramètres limitant l'utilisation des procédés. Notre approche entre dans une démarche globale de gestion des effluents du traitement de surface. Elle a pour but de limiter la quantité des effluents générés, de valoriser les flux et d'une manière générale de mettre en place les technologies propres dans un contexte de développement durable
Currently, the essential part of the money invested by the industrialist is for the water treatment. In France, most of the 20 billions francs per year devoted to the water treatment is used for the industrial activity. The global management of effluents favour the integration of clean technologies (optimisation, change and modification of the production process) in order to reduce the pollution problem at its source. Our study aims at the introduction of clean technologies in the metal workshops (consumer and generator of water and chemicals) by the development of two data management methods, which lead to two decision support systems. The aim of the first one is to minimise both the water consumption and the wastewater disposal by optimising the production process (optimum yield and efficiency of the rinsing baths. The second one concerns the choice of valorisation techniques considering the valorisation objectives, the effluents characteristics and the parameters limiting the use of the techniques. Our approach fits into a global management method for the metal finishing industry wastewater. Its aim is to limit the quantity of wastewater generated, to valorise effluents and by this way to develop the clean technologies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Le, Mercier Franck. „Organisation et gestion pharmaceutique des médicaments en expérimentation clinique dans un centre hospitalier universitaire parisien, Groupe hospitalier Lariboisière-Fernand Widal-Saint Lazare“. Paris 5, 1992. http://www.theses.fr/1992PA05P073.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Laforest, Valérie. „Technologies propres : Méthodes de minimisation des rejets et de choix des procédés de valorisation des effluents. Application aux ateliers de traitement de surface“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00526578.

Der volle Inhalt der Quelle
Annotation:
Le traitement des eaux constitue actuellement la part essentielle des investissements industriels pour la protection de l'environnement. En France, les moyens consacrés à la dépollution des eaux sont de l'ordre de 20 milliards de Francs dont la plus grosse part est consacrée à l'activité industrielle. Les actions engagées se font par une gestion globale des effluents en privilégiant les actions de réduction à la source notamment par la mise en place de technologies propres (optimisation, changement et modification du procédé de production). Nous avons concentré notre étude sur la mise en place des technologies propres dans les ateliers de traitement de surface (consommateur et générateur d'eau et de produits chimiques). Pour cela, nous avons mis au point deux méthodes de gestion de l'information qui ont abouti au développement de deux systèmes informatiques d'aide à la décision. • La première a pour objectif de minimiser la consommation et les rejets en eau tout en optimisant le procédé de production en assurant une efficacité et un rendement optima des rinçages. • La deuxième concerne le choix des procédés de valorisation suivant les objectifs de valorisation, les caractéristiques de l'effluent et les paramètres limitant l'utilisation des procédés. Notre approche entre dans une démarche globale de gestion des effluents du traitement de surface. Elle a pour but de limiter la quantité des effluents générés, de valoriser les flux et d'une manière générale de mettre en place les technologies propres dans un contexte de développement durable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Ndiaye, Moulaye Aidara. „Aide à la décision pour la conception et la gestion de systèmes de transport automatisés complexes“. Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-02877296.

Der volle Inhalt der Quelle
Annotation:
La fabrication de semi-conducteurs est un processus long et très complexe avec de nombreuses contraintes. Le processus de fabrication d'un lot peut durer plusieurs mois avec plusieurs centaines d'opérations. Plusieurs milliers de lots doivent ainsi être transportés et stockés en permanence. Un système de transport efficace est par conséquent critique pour garantir que les centaines de machines dans l'usine sont livrées dans les temps.Cette thèse s'intéresse à la modélisation et à l'optimisation d'un système de transport et destockage automatisé (AMHS) dans une unité moderne de fabrication de semi-conducteurs. Différentes problématiques ont été étudiées. La première a visé à analyser l'impact de paramètres clés de l'AMHS et à proposer de nouvelles approches pour déterminer ces paramètres clés. Un modèle de simulation a permis de valider les résultats obtenus. La deuxième problématique a porté sur la gestion de situations de crises liées à une ou plusieurs pannes sur le réseau, avec pour objectif de minimiser les perturbations sur le fonctionnement de l'AMHS. La dernière problématique concerne la conception d'un nouvel AMHS pour le transport de ressources auxiliaires dans un atelier spécifique.Ces travaux de thèse ont été réalisés dans le cadre d'une convention CIFRE entre l'Ecole des Mines de Saint-Étienne et le site de Crolles de STMicroelectronics. Les approches scientifiques proposées ont conduit à plusieurs applications industrielles en cours d'utilisation
The manufacturing of semiconductors is a long and very complex process with many constraints. The process of manufacturing a lot can last several months with several hundred operations. Several thousand lots must be transported and stored permanently. An efficient transportation system is therefore critical to ensure that the hundreds of machines in the factory are delivered on time.This thesis focuses on the modeling and optimization of a transport and automated storage (AMHS) system in a modern semiconductor manufacturing unit.Different issues have been studied. The first aimed to analyze the impact of key parameters of the AMHS system and to propose new approaches to determine these key parameters. A simulation model has allowed to validate the results obtained. The second issue focused on the management of crisis situations related to one or more failures on the network, with the aim of minimizing disruption to the operation of the AMHS system. The last issue concerns the design of a new AMHS system for the transportation of auxiliary resources in a specific workshop.These thesis work was carried out within the framework of a CIFRE agreement between the Ecole des Mines de Saint-Etienne and the Crolles site of STMicroelectronics. The proposed scientific approaches have led to several industrial applications in use
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Karoui, Fathia. „Optimisation de stratégies de gestion des batteries au plomb utilisées dans les systèmes photovoltaïques“. Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00723068.

Der volle Inhalt der Quelle
Annotation:
Les batteries à usage photovoltaïque subissent des conditions opératoires pénalisantes liées à la non maîtrise de l'énergie disponible. Les effets peuvent en être minimisées par une stratégie de gestion optimisée. Cette étude concerne la recharge à courant pulsé des batteries au plomb, les plus utilisées dans ces systèmes. Les effets de cette recharge sont mis en évidence sur des cellules de laboratoire et sur des batteries commerciales. L'influence des paramètres fréquence, rapport cyclique et taux de charge sur les profils de tension est étudiée de manière précise. Dans une seconde approche, un modèle simplifié de la batterie au plomb a été développé et validé après analyse de sa sensibilité aux paramètres ajustables. Il décrit les phénomènes de transport dans l'électrolyte de manière globale par un temps caractéristique fonction de l'état de charge, et rend bien compte des réponses en tension de la batterie après introduction des termes de non idéalité dans les tensions interfaciales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Karoui, Fathia. „Optimisation des stratégies de gestion des batteries au plomb utilisées dans les systèmes photovoltaïques“. Phd thesis, Grenoble INPG, 2007. http://www.theses.fr/2007INPG0122.

Der volle Inhalt der Quelle
Annotation:
Les batteries à usage photovoltaïque subissent des conditions opératoires pénalisantes liées à la non maîtrise de l'énergie disponible. Les effets peuvent en être minimisées par une stratégie de gestion optimisée. Cette étude concerne la recharge à courant pulsé des batteries au plomb, les plus utilisées dans ces systèmes. Les effets de cette recharge sont mis en évidence sur des cellules de laboratoire et sur des batteries commerciales. L'influence des paramètres fréquence, rapport cyclique et taux de charge sur les profils de tension est étudiée de manière précise. Dans une seconde approche, un modèle simplifié de la batterie au plomb a été développé et validé après analyse de sa sensibilité aux paramètres ajustables. Il décrit les phénomènes de transport dans l'électrolyte de manière globale par un temps caractéristique fonction de l'état de charge, et rend bien compte des réponses en tension de la batterie après introduction des termes de non idéalité dans les tensions interfaciales
Batteries used in photovoltaic systems are subjected to penalizing operating conditions due to the intermittency of the solar resource. Their effects may be reduced by the optimisation of energy management strategies. This study deals with the pulse charge of lead acid batteries, the most used ones for this application. The effects of this charge mode are shown both on experimental cells and commercial batteries. The influence of the parameters, frequency, dut Y cycle and charge factor, on the voltage profiles is precisely studied. Ln a second approach, a simplified model of the lead-acid battery is developed and experimentally validated after the analysis of its sensitivity to the adjustable parameters. It shows that transport phenomena in the electrolyte may be well described by a global characteristic time depending only on the state of charge. It accounts for the voltage response of the battery after adding the terms describing the non ideal behavior of the interfacial voltages
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Heni, Amira. „Étude des procédés discursifs de légitimation mobilisés par l'état et une entreprise privée dans un contexte de gestion de crise - à partir du cas Deepwater Horizon au large de la Louisiane - approche sociopolitique“. Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30755/30755.pdf.

Der volle Inhalt der Quelle
Annotation:
Notre étude relève d’une analyse exploratoire fondée sur une étude de cas. En partant d’un exemple de débat articulé autour d’un enjeu public, en l’occurrence la responsabilité sociale d’entreprise (RSE), nous appréhendons le discours comme un instrument de pouvoir déployé par des acteurs en position conflictuelle. Nous prenons comme un cas d’étude la crise écologique provoquée par British Petroleum (BP) au large du Golfe de Mexique le 20 avril 2010. Pour sélectionner notre corpus, nous avons désigné deux populations cibles de discours, en l’occurrence le discours tenu par le gouvernement américain (discours d’Obama) et le discours représentant l’avis officiel de BP (communiqués de presse de BP). Nous avons analysé les discours publics d’Obama et de BP datant du 20 avril 2010 jusqu’au 19 septembre 2010. Nous avons considéré tout discours produit dans un contexte conflictuel travaillé par une crise comme un instrument porteur symboliquement des signes de pouvoir et mobilisant des rapports de force entre les acteurs impliqués. Nous partons de l’hypothèse suivante : les discours organisationnel et gouvernemental étudiés et produits dans un contexte de crise, sont forcément des discours conflictuels au sens de Windisch (1987). Et nous avons utilisé la grille d’analyse élaborée par Windisch (1987) pour mettre en exergue le fonctionnement interne d’un discours conflictuel envisagé comme un vecteur du pouvoir et de légitimation. Nous avons précédé l’analyse de discours, méthode principale dans notre étude, par une analyse de contenu qualitative. Le recours à l’analyse de contenu se justifie par notre souci de déterminer les divers thèmes développés dans le discours, d’examiner comment les acteurs imprègnent de sens le thème de la RSE et de poser le corpus dans sa réalité propre, en ayant recours au logiciel d’analyse de contenu qualitative HYPERRESEARCH. En outre, en mobilisant les présupposés théoriques et les outils méthodologiques issus de l’analyse de discours, nous avons ausculté le potentiel performatif légitimateur des discours construits et élaborés dans un contexte de communication conflictuelle. Pour ce faire, nous avons utilisé le logiciel d’analyse textuelle TROPES reconnu comme un outil d’analyse textuelle capable de générer des modèles représentatifs de la structure du corpus et de son organisation thématique. NOTIONS-CLÉS Discours conflictuel, stratégies discursives, RSE, légitimité, pouvoir, tandem État/firme.
Our study is intended to be an exploratory analysis based on a case study. Starting from a sample debate articulated around a public issue, namely the corporate social responsibility (CSR), we apprehend the discourse as an instrument of power deployed by actors in a conflict position. We take the ecological crisis caused by British Petroleum (BP) in the Gulf of Mexico since April 20, 2010 as a case study, and the reaction of the U.S. administration to intervene and reassure the public opinion alarmed by this crisis. In order to select our corpus, we have identified two target populations of discourse, in this case the speech given by the U.S. government (Obama's speech) and discourses representing the official opinion of BP (BP's press releases) dated April 20, 2010 until September 19, 2010. We considered any discourse occurring in a context of conflict symbolically as a power signs carrier and a mobilizing instrument of power relations between the involved actors. We start from the hypothesis stating that organizational and governmental discourses, studied and produced in a crisis context, are necessarily conflictual discourses within the meaning of Windisch (1987). And we used the analytical framework developed by Windisch (1987) to highlight the internal functioning of a confrontational speech seen as a vector of power and legitimacy. In our research, we preceded the discourse analysis, the main method in our study, by a qualitative content analysis. The use of content analysis aims to determine the various themes developed in the discourse, examine how actors define the CSR topic and put the corpus in its own reality, by using the HYPERRESEARCH qualitative content analysis software. In addition, by implementing the theoretical assumptions and methodological tools from discourse analysis, we auscultated the performative legitimating potential of discourses constructed and developed in a conflict communication context. We used the TROPES text analysis software recognized as a textual analysis tool able to generate representative models of the corpus structure and its thematic organization. KEY CONCEPTS Confrontational discourse, discursive strategies, CSR, legitimacy, power, tandem of government and enterprise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Jimenez, lorenzo Rafael. „Comprendre la production des composés volatils soufrés par Saccharomyces cerevisiae pendant la fermentation oenologique“. Electronic Thesis or Diss., Montpellier, SupAgro, 2021. http://www.theses.fr/2021NSAM0057.

Der volle Inhalt der Quelle
Annotation:
La consommation de vin est une pratique culturelle, qui, depuis ses origines historiques caucasiennes et moyen-orientales, s'est largement répandue dans presque tous les pays du monde, notamment autour du bassin méditerranéen où la vigne est cultivée depuis environ 1000 ans avant Jésus-Christ. Ainsi, depuis l'Antiquité, le vin est essentiel dans les traditions européennes. Ces habitudes de consommation, développées sur une longue période, se sont donc profondément enracinées dans la culture de notre société et sont l'expression d'une convergence culturelle (Knibee et al., 1996). Aujourd'hui, 3 pays européens, l'Italie, la France et l'Espagne, se partagent 60% de la production mondiale de vin et 68% de ses exportations, soulignant le rôle clé du secteur viticole dans l'économie globale européenne (Balogh et Jambor, 2017, Legouy et Dallot, 2019). En France, cette filière représente plus d'un demi-million d'emplois directs ou indirects et dans un contexte de mondialisation croissante, les exportations ont doublé en 15 ans [...]
Temperature and nutrient availability (nitrogen, lipids, oxygen…) have been reported as key environmental parameters modulating the metabolic activity of yeasts during wine fermentation. In particular, the impact of these factors on the production of ‘positive' fermentative aromas is increasingly taken into account by winemakers to manage and control the fermentation process. By contrast, in S. cerevisiae, the metabolism of sulphur compounds and its regulation by environmental parameters remain poorly explored, although these molecules negatively contribute to the sensory properties of wines.This project will first aim to identify the network involved the sulphur metabolism in yeast and to assess the relative contribution of these different pathways to the formation of volatile sulphur compounds. The second key point will be to investigate the incidence of environmental factors relevant for the winemaking process, as temperature, availability of nitrogen and sulphur sources, nutrients additions… on the distribution of fluxes through the sulphur metabolic network and on the production of S-molecules. This generated knowledge will allow, at the end of the project, to design and validate strategies of fermentation management to reduce the synthesis of these off-flavours during wine fermentation.This project will rely on dedicated tools to investigate the activity of yeasts during alcoholic fermentation - on-line monitoring of the production of CO2 and volatile molecules, robot-assisted system for high throughput fermentations, …- combined with cutting-edge methodologies for the analytical determination of sulphur and volatile molecules and the quantitative analysis of fluxes distribution through metabolic networks. These approaches will be first implemented to provide a detailed understanding of regulation of the formation of sulphur compounds by environmental parameters during fermentation in a chemically defined “wine”-medium. Then, from this knowledge, we will define strategies aiming at controlling the production of sulphur compounds by yeasts. Finally, these control strategies will be assessed and validated at a pilot-scale, using natural grape juice
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Wahl, François. „Un environnement d'aide aux ingénieurs basé sur une architecture en tâches et sur un module de visualisation de courbes. Application à la conception de procédés de raffinage“. Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00529958.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine du génie chimique, les ingénieurs tracent des courbes pour analyser les données recueillies. Une fois validée, cette connaissance est exploitée, en combinaison avec d'autres savoirs, sous forme de tâches. Cette thèse présente une architecture capable d'enchaîner n'importe quel type de tâches et de visualiser des courbes, appliquée à un problème d'aide à la conception de procédé de raffinage. L'architecture proposée repose sur une analyse objets des raisonnements, où figurent les notions de relations (inversibles ou non) et de flux du point de vue statique, de problèmes et de tâches du point de vue dynamique. Le module de visualisation exploite toutes les sortes de relations entre les variables et s'appuie sur des méthodes élaborées de tracé, dont deux sont nouvelles : la première s'inspire d'exemples a priori comme dans le raisonnement à base de cas, la seconde utilise les notions de monotonie et de concavité pour déduire des lignes dans un ensemble de points. L'application est exposée dans le détail et conduit à une analyse des problèmes de conception, et nous avons développé notamment une nouvelle classification de ces systèmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Aimé, Noël. „Aide à la conduite sûre des réacteurs chimiques discontinus en marche normale ou incidentielle vis-à-vis du danger d'emballement thermique“. Compiègne, 1991. http://www.theses.fr/1991COMPD422.

Der volle Inhalt der Quelle
Annotation:
La sécurité des réacteurs chimiques semi-continus et discontinus dans le cas des réactions exothermiques vis-à-vis du risque de l'emballement thermique est difficile à mettre en oeuvre du fait du régime transitoire mis en jeu. Il est proposé une nouvelle méthodologie pour la définition des conditions optimales de fonctionnement (débit d'introduction, débit de refroidissement) à partir des méthodes d'analyse des risques classiques et de la modélisation de la conduite du réacteur tant en mode normal qu'en mode incidentel. L'étude de sécurité classique met en évidence les différentes classes de séquences incidentelles sensibles sur la fabrication. Ces différentes séquences sont modélisées en tenant compte des éventuelles capacités d'intervention de l'opérateur (réparation, arrêt d'urgence), ainsi que du délai nécessaire à sa mise en oeuvre. L'étude complète conduit à l'obtention d'un schéma général de conduite du réacteur mettant en évidence cinq zones distinctes d'utilisation de l'installation vis-à-vis du danger de l'emballement. Ce schéma permet de choisir les conditions opératoires pour la réalisation d'une fabrication performante avec des risques minimes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Vazquez, Hector Javier. „Contribution des systèmes experts à la conduite et à l'optimisation d'un procédé de fermentation alcoolique“. Compiègne, 1993. http://www.theses.fr/1993COMPD642.

Der volle Inhalt der Quelle
Annotation:
Ce travail a eu un triple objectif : concevoir un modèle de conduite pour un procédé de fermentation alcoolique, présenter la démarche de modélisation et développer un outil informatique d'aide à la conduite et à l'optimisation du procédé. Dans un premier temps, l'étude du procédé a permis d'appréhender les problèmes de conduite et les limites des approches classiques d'automatisation. La recherche de solutions nouvelles s'imposait. Ces solutions doivent tenir compte de la grande diversité des connaissances biotechniques (qualitatives et quantitatives). Une deuxième partie a été consacrée à l'étude de nouvelles approches de modélisation et de traitement de l'information issues des recherches dans les sciences cognitives : la logique floue, les réseaux neuronaux et les systèmes experts. La troisième partie de ce travail expose notre démarche de modélisation et le modèle de conduite et d'optimisation. La dernière partie présente les logiciels développés à partir du modèle de conduite et d'optimisation : ALAMBIC, PILOTE et TOPASE. L'approche proposée par TOPASE pour l'optimisation en continu supervisée par un système expert, a permis de fixer des bases pour l'application de ce travail sur site industriel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Gravel, Marc. „Évaluation de la méthode Kanban dans un contexte de production par lots : expérimentation dans une PME québécoise“. Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX32025.

Der volle Inhalt der Quelle
Annotation:
L'industrie manufacturiere japonaise a pris les devants au cours des dernieres annees en utilisant de nouvelles methodes et techniques dans l'elaboration de leur production. Celles-ci sont destinees et s'appliquent, en principe, que dans un environnement de production en forme de ligne d'assemblage avec operations repetitives et hauts volumes de fabrication. Comme plus de 90% des entreprises manufacturieres canadiennes sont des pme et que leurs environnement de production est generalement en forme d'atelier avec production par lots, nous avons developpe un modele d'evaluation par simulation permettant de demontrer, a toute entreprise possedant un tel environnement, l'avantage de l'introduction de la methode kanban dans son environnement de production. Ce modele a ete experimente dans le cas d'une pme quebecoise de l'industrie du vetement et les resultats demontrent qu'une telle methode s'applique et donne de tres bons resultats pour ce type d'environnement de production. Par exemple, le stock est reduit en moyenne de 60% et le temps de production d'une commande est abaisse en moyenne de 12. 55%. L'implantation de la methode kanban a ete realise par la suite dans cette entreprise et les resultats obtenus par simulation sont alors confirmes. Une adaptation de la methode kanban pour ce type d'environnement de production est egalement proposee
In the last few years, japan manufacturing industry, using new methods and technics of production elaboration, is in advance. In principle, these are intended and applied in environment of line assembly production with repetitives operations and large-scale manufacturing. As more than 90% of canadian manufacturing companies are pme, and their production environment is generally job-shop type with lots production, we have elaborated an evaluating model by simulation, allowing to prove to an entreprise with these caracterestics, the advantage of kanban method in its production environment. This model has been experimented in a quebec pme of clothing industry, and the results prove that such method is applicable and give satisfactory results for this type of production environment. For exemple, kanban reduces in-process inventory about 60% and the makespan time about 12. 5%. Kanban method implant has been subsequently realised in this entreprise and the results obtaines by simulation were confirmed. In adaptation of kanban method for this type of production environment is also proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Lestideau, Vincent. „Modèles et environnement pour configurer et déployer des systèmes logiciels“. Phd thesis, Chambéry, 2003. http://tel.archives-ouvertes.fr/tel-00005525.

Der volle Inhalt der Quelle
Annotation:
Le cycle de vie du logiciel regroupe plusieurs activités comme l'analyse, la conception, la production, le test et le déploiement. Cette dernière activité est un procédé complexe composé de sous activités comme la configuration, l'installation ou la mise à jour. La complexité et l'importance du déploiement a augmenté récemment avec l'évolution des réseaux et la construction d'applications à base de composants. Il est maintenant envisageable d'imaginer des solutions permettant le déploiement automatisé de logiciels en assurant que chaque utilisateur recevra la version du logiciel la plus cohérente et la mieux adaptée à ses besoins et à son environnement tout en respectant les stratégies de déploiement de l'entreprise. Il existe de nombreuses approches et outils de déploiement, mais très peu permettent de couvrir entièrement le cycle de vie du déploiement ou alors en imposant des contraintes fortes.

Cette thèse propose un environnement de déploiement nommé ORYA, c'est à dire une plate-forme offrant un support automatisé aux activités du cycle de vie du déploiement. ORYA est basé sur la réutilisation et l'intégration des outils de déploiement existants. Pour cela, nous proposons une abstraction des différents acteurs et entités du déploiement, ainsi qu'une infrastructure permettant de faire interopérer des outils hétérogènes et ne se connaissant pas. Ce travail traite plus particulièrement de l'activité de sélection avec l'utilisation d'un modèle de composant générique et la mise en place d'un framework basé sur un système d'annotations et de règles. La deuxième activité étudiée en détail est celle de l'installation qui est basée sur un langage de procédés permettant la description et la réalisation des procédés dans le monde réel.

Une implémentation d'ORYA a été réalisée afin de valider notre approche dans le cadre d'une expérimentation industrielle en vraie grandeur..
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Bouaziz, Mohammed Farouk. „Contribution à la modélisation Bayésienne de l'état de santé d'un système complexe : application à l'industrie du semi-conducteur“. Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00993732.

Der volle Inhalt der Quelle
Annotation:
Pour maintenir leur compétitivité, les industries du semi-conducteur doivent être en mesure de produire des circuits intégrés en technologies avancées, avec des temps de cycle de plus en plus courts et à des coûts raisonnables. Un des axes d'amélioration réside dans le traitement des défaillances des équipements de production tenus responsables de plus de 50%des rejets produits. Cette thèse se fixe comme objectif de contribuer au développement d'une boucle réactive partant d'une dérive produit à la mise en place d'une solution appropriée tout en assurant un meilleur compromis entre disponibilité des équipements, coûts d'exploitation, qualité et compétitivité du produit. Joignant l'expertise humaine et les événements réels, nous nous sommes proposé ici de développer une méthodologie générique permettant de construire un modèle d'estimation du comportement des équipements de production (Equipment Health Factor EHF) à partir d'un raisonnement mathématique centré sur un formalisme probabiliste. L'approche a été amenée à sa validation expérimentale sur des outils, à base de réseaux Bayésiens, que nous avons développés. Les résultats obtenus amènent des éléments de décision permettant à l'industriel d'intervenir au plus tôt pour envisager par exemple de maintenir l'équipement avant qu'il n'ait dérivé. Cette thèse a été préparée dans le cadre du projet européen IMPROVE en collaboration avec STMicroelectronics, Lfoundry et Probayes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Tramoni, Félicien. „Analyse du traitement et de la gestion durable des boues d’épuration en Corse. Proposition de solutions énergétiques alternatives, axées sur la méthanisation des boues avec production d’énergies, aux méthodes appliquées en Corse. Utilisation de l’outil d’aide multicritère à la décision dans le cadre du surclassement de ces nouveaux procédés“. Thesis, Corte, 2015. http://www.theses.fr/2015CORT0019.

Der volle Inhalt der Quelle
Annotation:
La qualité des boues est directement liée à la qualité des étapes de traitement présentes au sein d’une station d’épuration. En termes de traitement et d’élimination des boues, nous observons de la part des acteurs locaux, une volonté d’abandon définitif et durable de la filière « dépôt en centre de stockage », étant donnée une règlementation et des plans régionaux (notamment le PREDIS de Corse), toujours plus exigeant en termes de valorisations des déchets industriels et spéciaux. Nous observons également un abandon progressif et programmé des pratiques relatives à l’épandage. En effet, l’épandage des boues d’épuration fait l’objet d’une vaste controverse qui met en avant les risques sanitaires et environnementaux qu’elle engendrerait sur les sols agricoles. Au sein de notre région, cette pratique est réalisée de manière non règlementaire. En Corse, les acteurs locaux semblent avoir optés pour la solution du compostage en vue de valoriser la production de boues d’épuration. En effet, près des 2/3 du tonnage annuel en MS de boues sont actuellement valorisés via cette filière. Le processus de compostage équivaut à une fermentation aérobie, faisant intervenir une multitude de micro-organismes. Cette filière de compostage, au même titre que l’épandage, a connu une forte expansion de son activité mais semble avoir des failles et des limites : problèmes de mauvaises odeurs ; règlementation de plus en plus exigeante ; et enfin surproduction de compost invendable aux vues de la demande. Une autre solution pourrait présenter des atouts supérieurs : la méthanisation avec production d’électricité et de chaleur par cogénération. Cette production d’énergies passe obligatoirement par la valorisation du biogaz produit par ce système. En effet, le biogaz est un mélange contenant principalement du méthane (50 à 70%) et du dioxyde de carbone Du fait d’une forte concentration en méthane, le biogaz est un bon fournisseur d’énergie (1m3 de biogaz a un pouvoir calorifique de 6 kWh soit l’équivalent de 0,6 l de fuel). Pour produire de l’électricité, le processus de méthanisation doit être couplé à un moteur à cogénération ou à plusieurs microturbines. EDF a alors l’obligation de racheter l’électricité produite à un prix se situant entre 11 et 14 centimes d’euros/kwh., Après 15 ans, le rachat du kwh produit se fait aux taux proposés par EDF. En Corse, seulement une station d’épuration est équipée d’un digesteur couplé en série à cinq microturbines, produisant de la chaleur et de l’électricité par cogénération : La station de traitement des eaux usées de Campo Dell’Oro à Ajaccio. Ce procédé de valorisation énergétique pourrait être amélioré via le remplacement à terme, des microtubines par un moteur à cogénération. Une AMCDP a notamment permis de surclasser cette technologie vis-à-vis des microturbines, beaucoup moins efficaces en termes de rendement mais aussi de fonctionnement. L’équipement des stations d’épuration de plus fortes capacités en Corse, de digesteurs associés à un moteur à cogénération pourrait être une solution durable à la problématique de la valorisation énergétique des boues
Sludge quality is directly related to the quality of of these processing steps present in a water treatment plant. In terms of treatment and disposal of sludge, we observe on the part of local actors, a willingness to permanent and lasting abandonment of the sector 'deposit in storage centre'', given a regional plans and regulations (including the PREDIS Corsica), increasingly demanding in terms of valuations of industrial and special waste. We also observe a gradual and planned abandonment of practices for spreading. Indeed, the spreading of sewage sludge is the subject of widespread controversy which highlights the health and environmental risks it would lead to agricultural soils. In our region, this practice is not carried out regulatory manner. In Corsica, the local actors seem to have opted for the solution of compost to enhance the production of sewage sludge. Nearly 2/3 of the annual tonnage MS sludge is currently valued via this pathway. The composting process is equivalent to an aerobic fermentation involving a multitude of microorganisms. This composting stream, as well as spreading, experienced strong expansion of its business but seems to have flaws and limitations: problems with odors; regulatory increasingly demanding; and finally overproduction unsaleable compost to the views of the application.Another solution could present higher advantages: anaerobic digestion with production of electricity and heat from cogeneration. . This energy production go through the biogas produced by this system. Indeed, the biogas is a mixture containing mostly methane (50 – 70 %) and carbon dioxide. Due to a high concentration of methane, biogas is a good energy supplier (1m3 biogas has a calorific value 6 kWh equivalent to 0.6 liters of fuel). To generate electricity, the anaerobic digestion process must be coupled to an engine cogeneration or several microturbines. EDF has the obligation to purchase electricity at a price ranging between 11 and 14 euro cents/kwh. After 15 years, the redemption of the kwh produced is done at the rate offered by EDF.In Corsica, only a treatment plant is equipped with a digester coupled in series to five microturbines, producing heat and electricity cogeneration: The wastewater treatment plant at Campo Dell'Oro /Ajaccio. This energy recovery process could be improved with an eventual replacement of the microtubines by a cogeneration engine. An AMCDP allowed to outperform this technology towards microturbines, much less efficient in terms of performance.The equipment of the highest capacity treatment plants in Corsica, digesters associated with a cogeneration engine could be a lasting solution to the problem of energy recovery of sewage sludge
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Le, Hesran Corentin. „Integrating waste minimization concerns in operations scheduling“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI111.

Der volle Inhalt der Quelle
Annotation:
Confronté à des enjeux économiques et environnementaux croissants, le monde industriel doit s’adapter afin de répondre aux problématiques actuelles. La production industrielle est responsable de 83% de la production mondiale de déchets solides et de 40% de la consommation d’énergie, et l’ordonnancement s’avère être un levier prometteur pour agir sur ces enjeux. L’état de l’art réalisé montre que les travaux de recherche traitent en majorité des enjeux énergétiques. Cette thèse propose de s’intéresser à la problématique suivante : Comment intégrer la réduction des déchets dans l’ordonnancement des opérations ? L’état de l’art sur le sujet faisant émerger une terminologie disparate, une classification est proposée pour unifier ce champ de recherche hétérogène. Pour répondre à la problématique, nous proposons une méthodologie combinant le suivi des flux de matière avec les paramètres d’ordonnancement pour permettre l’identification des opportunités de réduction de la génération de déchets par l’ordonnancement, et la caractérisation du problème d’ordonnancement correspondant. Une étude de cas valide la méthodologie et l’intérêt des résultats obtenus. En se basant sur ces résultats, un problème d’ordonnancement bi-objectif machine-unique avec réentrance dans un contexte de fabrication à la commande est modélisé en programmation linéaire. Deux méthodes de résolution ‒ exacte et métaheuristique ‒ sont comparées et démontrent le potentiel de l’ordonnancement pour la réduction de la génération de déchets industriels. Cette résolution fournit aux preneurs de décision des solutions alternatives adaptées, et permet une réduction des déchets significative en contrepartie d’une augmentation de stock limitée. Ces travaux se concentrant sur les déchets ouvrent la voie à d’autres enjeux environnementaux comme l’intégration des enjeux énergétiques et d’émissions atmosphériques, et à la considération du critère social afin d’englober les trois piliers du développement durable
Faced with growing environmental and economic concerns, the industrial world needs to adapt in order to tackle these issues. Industrial production is responsible for 83% of the global solid waste production and 40% of worldwide energy consumption. Operations scheduling appears to be a promising tool to address both the environmental and economic aspects of this problem. A literature review shows that numerous studies have been focusing on reducing energy consumption. This dissertation focuses on a relatively nascent field, namely the topic of waste generation minimization through operations scheduling. The motivating research question can be formulated as: How to integrate waste minimization into operations scheduling? A state-of-the-art on the subject shows a heterogeneous field with a disparate terminology, and a classification scheme is proposed to help unify research on this topic. To answer the research question, a methodology combining flow assessment tools and scheduling parameters is proposed, which enables the identification of waste-minimizing scheduling opportunities in a production system and the characterization of the corresponding scheduling problem. A case study is carried out and validates the applicability of this methodology and the interest of the results it provides. Based on those results, a single-machine waste-minimizing scheduling problem with reentrance in a make-to-order context is modeled using linear programming. Two solving approaches – one exact and one metaheuristic – are compared, and highlight the potential of operations scheduling to reduce industrial waste. Alternative solutions provide relevant trade-offs to decision-makers, offering significant waste reduction in return for a limited increase in inventory. As this methodology focuses on waste, it paves the way for the integration of new environmental aspects such as energy consumption and atmospheric emissions, as well as the social criteria in order to fully encompass the triple bottom line of sustainable development
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Rigaud, François. „L'interface projet-procédé dans l'industrie chimique“. Aix-Marseille 3, 1988. http://www.theses.fr/1988AIX30039.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Walosik, Sophie. „Gestion de l'eau dans le procédé de désencrage, problématique et étude de cas“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0016/MQ53608.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Gomez, François. „Gestion d'un procédé de vitrification de métaux à partir de coacervats de polyphosphates“. Compiègne, 1998. http://www.theses.fr/1998COMP1091.

Der volle Inhalt der Quelle
Annotation:
Nous avons étudié un procédé qui permet la réalisation de revêtements vitreux ou céramiques à base de polyphosphates sur métaux, à partir de coacervats de polyphosphates. Nous avons décomposé le procédé en opérations élémentaires, que nous avons caractérisées après avoir défini les relations qui les unissent. Nous avons étudié les conditions de préparation du précurseur de verres puis nous avons caractérisé sa formulation et ses propriétés en fonction des conditions expérimentales de préparation utilisées. Nous avons ensuite défini la méthodologie de dépôt du coacervat sur le substrat à revêtir ainsi que les paramètres de séchage du système. Nous avons alors étudié les propriétés des verres de phosphates issus de coacervats ainsi que leur réactivité vis à vis de métaux durant l'étape de cuisson. Nous avons mis en application l'ensemble des résultats précédemment obtenus pour chaque opération élémentaire du procédé pour la réalisation de deux types de revêtements à finalité industrielle. Nous avons ainsi élaboré des revêtements de verres de phosphates sur acier Inoxydable X6CrTi17 et sur Inconel 600 en vue de la protection des substrats vis à vis de la corrosion par le zinc liquide. Nous avons également réalisé des revêtements céramiques multicouches de 3,5 mm d'épaisseur sur des tôles d'acier Inoxydable X6CrTi17 de 15/10 mm d'épaisseur dans un but d'isolation thermique. Ces revêtements ont été réalisés sur des substrats plans et également à l'intérieur de tubes. La maîtrise de la gestion du procédé de vitrification de métaux à partir de coacervats de polyphosphates devrait nous permettre son application aisée à d'autres substrats métalliques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Dubouloz, Sandra. „L'innovation organisationnelle : antécédents et complémentarité : une approche intégrative appliquée au Lean Management“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00944182.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite d'un type d'innovation largement négligé jusqu'à aujourd'hui : l'innovation organisationnelle (IO), également connue sous le nom " d'innovation management " ou " innovation managériale ". L'objectif est d'expliquer le phénomène d'adoption de ce type d'innovation en identifiant non seulement ses antécédents internes et externes, mais aussi ses relations avec l'innovation technologique de procédés, avec laquelle elle partage un certain nombre de caractéristiques. Le modèle proposé est fondé sur la vision intégrative de l'innovation (the integrative view of innovation) qui présente un triple intérêt : (1) contrairement à la vision distinctive et linéaire de l'innovation, elle ne relègue pas l'IO au statut d'innovation de second rang ; (2) elle élargit le champ des antécédents au-delà des seuls efforts en R&D et envisage leurs effets d'interaction ; (3) elle enrichit l'explication du phénomène d'adoption d'une IO en faisant l'hypothèse que des innovations de différents types sont adoptées de manière complémentaire. Notre démarche repose sur quatre articles empiriques et une multi-méthodologie, qualitative basée sur six études de cas d'entreprises industrielles, et quantitative faisant appel à différentes méthodes économétriques. Le Lean Management représente la forme concrète d'IO à partir de laquelle les confrontations empiriques sont réalisées. Au final, cette thèse est à l'origine de trois contributions majeures. Tout d'abord, au-delà des antécédents traditionnels privilégiés dans les recherches, d'autres antécédents internes (les pratiques de mobilisation des ressources humaines et la capacité d'absorption des entreprises) et externes (les sources de connaissances) jouent un rôle crucial sur l'adoption d'une IO. Ensuite, la prise en compte des interactions entre ces antécédents s'avère essentielle pour une meilleure compréhension du processus d'adoption, certains étant complémentaires (ex : les pratiques de mobilisation entre elles ou la résistance au changement et le manque de soutien managérial) alors que d'autres sont substituables (ex : les sources externes de connaissance et la capacité d'absorption des firmes). Enfin, conformément à la vision intégrative, l'adoption de l'IO n'est pas indépendante de l'adoption d'une innovation technologique de procédés et est régie par des antécédents similaires. Toutefois, leur relation n'est pas d'ordre complémentaire au sens strict dans la mesure où il y aurait un effet d'ordre. Ces résultats débouchent sur des recommandations managériales utiles pour un meilleur pilotage de l'adoption d'une IO.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Eynard, Julien. „Gestion optimale de l'énergie dans un procédé multi-source pour le chauffage de bâtiments“. Phd thesis, Université de Perpignan, 2010. http://tel.archives-ouvertes.fr/tel-00536864.

Der volle Inhalt der Quelle
Annotation:
L'exploitation excessive des ressources énergétiques fossiles pose aujourd'hui des problèmes liés au changement climatique, à leur épuisement et en conséquence à l'augmentation de leur prix. Ces problèmes nécessitent des solutions innovantes, telles que le recours aux énergies renouvelables, afin d'en restreindre l'impact. Les travaux présentés dans ce manuscrit s'attachent à répondre à cette problématique par l'intermédiaire d'une méthodologie d'optimisation énergétique, appliquée au secteur du bâtiment et notamment au poste de chauffage, l'un des plus gros consommateurs d'énergie en France. Cette méthodologie est basée sur la modélisation du procédé de chauffage considéré et d'un moyen de stockage énergétique, ainsi que sur le développement d'outils de contrôle prédictif exploitant la connaissance de perturbations futures. Cette approche a été utilisée pour l'optimisation énergétique d'une chaufferie collective, gérée par la société Cofely GDF-SUEZ et qui alimente en eau chaude, via un réseau de chaleur, un quartier de La Rochelle. Un modèle modulaire de l'installation actuelle, dont le fonctionnement s'appuie sur un mix énergétique renouvelable et non renouvelable, a été développé à partir de mesures réalisées sur le site et de techniques de modélisation de types boite noire, boite grise ou boite blanche, en fonction de la connaissance disponible. La chaufferie ne disposant pas d'un système de stockage, nous avons proposé une modification hydraulique afin d'en intégrer un. Le modèle de ce système a complété le modèle de la chaufferie. Pour la gestion du stockage, deux contrôleurs différents, dont l'un basé sur la commande prédictive optimale et exploitant des prédictions pour anticiper le comportement de la chaufferie, ont été proposés. Ces prédictions sont fournies par un module intégrant une analyse multi-résolution par décomposition en ondelettes et utilisant les réseaux de neurones artificiels. Les résultats obtenus avec le contrôleur prédictif montrent que l'utilisation optimale d'un système de stockage permet d'améliorer de façon très significative le fonctionnement de la chaufferie. La consommation énergétique fossile, le coût de fonctionnement de l'installation, les émissions de CO2 et le taux de couverture de l'énergie fossile sont fortement réduits, tout en améliorant le respect des contraintes techniques de fonctionnement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Rodriguez, Verjan Gloria Luz. „SMART SAMPLING FOR RISK REDUCTION IN SEMICONDUCTOR MANUFACTURING“. Thesis, Saint-Etienne, EMSE, 2014. http://www.theses.fr/2014EMSE0747/document.

Der volle Inhalt der Quelle
Annotation:
Dans les processus de fabrication de semi-conducteurs, différents types des contrôles existent pour maîtriser les procédés et garantir la qualité du produit final. Ces travaux de thèse s’intéressent aux contrôles de défectivité qui visent à maîtriser le risque sur les équipements de production. L'indicateur utilisé est le nombre de produits traités par un équipement depuis la date du dernier produit contrôlé. On s’intéresse à la maîtrise et la réduction du risque sur les équipements de production. Pour cela, différentes stratégies de sélection des lots existent et peuvent être classifiées selon leur capacité à intégrer la dynamique d'une unité de fabrication. Dans les stratégies de sélection dynamique, les lots sont contrôlés en temps réel et en optimisant un critère. Ces stratégies sont récentes et sont beaucoup plus efficaces que les stratégies précédentes, mais aussi plus complexe à mettre en œuvre. Dans ce cadre, nous avons proposé et validé industriellement différents algorithmes pour identifier les lots à relâcher (à ne pas contrôler) dans les files d'attente des lots en défectivité. Nous avons aussi développé et implémenté un modèle d'optimisation de la capacité pour l’atelier de défectivité, qui permet d’évaluer l’impact de paramètres critiques (e.g. plan de production, positions des opérations de contrôles dans la gamme de fabrication, valeurs des limites de risques) dans la gestion du risque global de l'unité de fabrication
In semiconductor manufacturing, several types of controls are required to ensure the quality of final products. In this thesis, we focus on defectivity inspections, which aim at monitoring the process for defect reduction and yield improvement. We are interested in managing and reducing the risk on process tools (i.e. number of wafers at risk) during fabrication. To reduce this risk, inspection operations are performed on products. However, because inspection operations directly impact the cycle times of products, sampling strategies are used to reduce the number of inspected lots while satisfying quality objectives. Several sampling techniques exist and can be classified according to their capability to deal with factory dynamics. Dynamic sampling strategies have recently been proposed, in which lots to inspect are selected in real time while considering the current production risk. These strategies are much more efficient than previous strategies but more complex to design and implement. In this thesis, a novel approach to select the lots to inspect is proposed. Multiple algorithms have been proposed and validated to efficiently manage the defect inspection queues by skipping (i.e. releasing) lots that do no longer bring enough information. In order to support strategic and tactical decisions, an optimization model for defect inspection capacity planning is also proposed. This model calculates the required defect inspection capacity to ensure the risk limits on process tools when the production conditions change. Industrial results show significant improvements in terms of risk reduction without increasing defect inspection capacity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie