Tesi sul tema "Carte de contrôle statistique des processus"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Carte de contrôle statistique des processus.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-46 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Carte de contrôle statistique des processus".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Tiplica, Teodor. "CONTRIBUTIONS A LA MAITRISE STATISTIQUE DES PROCESSUS INDUSTRIELS MULTIVARIES". Phd thesis, Université d'Angers, 2002. http://tel.archives-ouvertes.fr/tel-00739919.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire se situent dans le cadre de la maîtrise statistique des processus (MSP). Les principales cartes de contrôle univariées et multivariées sont présentées dans le chapitre I. Un résumé non-exhaustif des méthodes de détection de la cause d'une situation hors contrôle dans un processus multivarié est donné dans le chapitre II. Une nouvelle méthodologie de contrôle et de diagnostic de processus - FNAD (Filtrage Numérique et Analyse Discriminante) - a été proposée dans le chapitre III. Un exemple pratique d'utilisation de la méthode FNAD a été donné pour le diagnostic d'un processus de fabrication du polyéthylène de faible densité. Deux nouvelles cartes de contrôle - la carte de contrôle par filtrage numérique (CCFN) et la carte de contrôle spectrale (CCS) ont été proposées dans le chapitre IV. Le principe de construction de la carte CCFN repose sur l'utilisation des équations récurrentes définissant les filtres numériques RII (Réponse Impulsionnelle Infinie) ou ARMA (AutoRegressive Moving Average). Les limites de contrôle et l'efficacité de la carte CCFN ont été calculées à l'aide de simulations. Le principe de contrôle de la carte de contrôle spectrale (CCS) est basé sur l'analogie temps-fréquence: une fenêtre glissante est déplacée dans le domaine temporel et le contenu spectral de la fenêtre est analysé afin de détecter les changements de la moyenne. La formule analytique de la limite de contrôle a été donnée. Les performances de la carte dans la détection des différents déréglages ont été calculées à partir des simulations et comparées avec celles de la carte EWMA.
2

Zhang, Ying. "Maîtrise statistique des procédés avec paramètres estimés". Ecole centrale de Nantes, 2011. http://www.theses.fr/2011ECDN0018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Maîtrise Statistique des Procédés (MSP) est une approche efficace pour améliorer la qualité et la productivité d’un procédé de production. Parmi les outils de la MSP, les cartes de contrôle jouent un rôle particulièrement important. Une hypothèse indispensable pour le développement des cartes de contrôle est que les paramètres procédé (moyenne et écart-type sous-contrôle) soient supposés connus. En pratique, les paramètres procédé sontrarement connus et sont donc généralement estimés à partir d’un ensemble de données historique sous-contrôle (Phase I). Quand ces paramètres sont estimés, les performances des cartes diffèrent du cas où on suppose ces paramètres connus. Récemment, certains auteurs ont étudié l’impact de l’estimation des paramètres procédé, mais un état de l’art a montré que ces études étaient incomplètes. Dans cette thèse, nous étudierons les propriétés (en terme du Run Length) de certaines cartes pour la moyenne dans le cas des paramètres estimés, non étudiées pour l’instant, telles que la carte avec Règles Supplémentaires, la carte Synthétique, la carte VSI et la carte VSS. Le premier objectif de cette thèse est d’évaluer les performances de ces cartes quand les paramètres du procédé sont estimés, de les comparer au cas où ces paramètres sont supposés connus, et de démontrer que les performances sont alors très différentes en particulier lorsque le nombre d’échantillons utilisés lors de la Phase I estpetit. Le deuxième objectif de cette thèse est, pour chaque carte, de proposer des tailles d’échantillons et de fournir de nouvelles constantes, utiles en pratique, pour le calcul des limites de ces cartes lorsque les paramètres sont estimés
Statistical Process Control (SPC) is an effective approach for improving quality and productivity of aproduction process. Among the SPC tools, control chart, as themost important and primary tool, has been widely used to monitor and determine whether a production process is in-control or not. An indispensable assumption for the development of control charts is that the process parameters (the in-control mean and standard-deviation) are assumed known. In practice, the distribution of the data and the process parameters are rarely known, and the process parameters are usually estimated from an in-control historical data set (Phase I). When these parameters are estimated, the performance of the control charts differs from the known parameters case. Recently, some authors have studied the impact of the parameters estimation, but more work is needed. In this thesis, we will investigate the properties (in terms of theRun Length) of some control charts for the mean inthe case of estimated parameters,which have not been researched till now, such as Run Rules Chart, Synthetic Chart, VSI Chart and VSS Chart. The first goal of this thesis is to evaluate the performance of these control charts when the process parameters are estimated, to compare them with the case when the process parameters are assumed known and to demonstrate that the performance is quite different especially when the number of samples used during the Phase I is small. The second goal of this thesis is to suggest the sample sizes and to provide new optimal chart constants for calculating the limits of these control charts in the case of estimated parameters, which are very useful in practice
3

Zaidi, Fatima Sehar. "Development of statistical monitoring procedures for compositional data". Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Maîtrise Statistique des Procédés (MSP) est une méthodologie largement utilisée, basée sur la mise en oeuvre des cartes de contrôle, permettant de s'assurer de la stabilité du processus et d'améliorer sa capabilité grâce à la réduction de la variabilité du processus. La sélection d'une carte de contrôle appropriée dépend du type et de la distribution des données. Lorsqu'il existe plusieurs caractéristiques de qualité, des cartes de contrôle multivariées doivent être adoptées. Mais il existe une catégorie spécifique de données multivariées qui sont contraintes par définition et connues sous le nom de données compositionnelles (CoDa). Le but de cette thèse est de proposer et d'étudiersystématiquement de nouvelles cartes de contrôle pour les données compositionnelles qui n'ont pas encore été proposées jusqu'à présent dans la littérature. La carte de contrôle de Hotelling T2-CoDa en présence d'erreur de mesure et la carte de contrôle MEWMA-CoDa en présence d'erreur de mesure ont été proposées surveiller des données compositionnelles. En outre, certaines méthodes non paramétriques pour la surveillace de données compositionnelles ont également été proposés. Les performances de chaque carte de contrôle ont été étudiées et les paramètres optimaux ont été systématiquement évalués. Des exemples de données compositionnelles réelles ont été utilisés afin d'étudier les performances des cartes proposées
Statistical Process Monitoring (SPM) is a widely used methodology, based on the implementation of control charts, for achieving process stability and improving capability through the reduction of the process variability. The selection of a suitable control chart depends on the type and distribution of he data. When there are several quality characteristics, multivariate control charts have to be adopted. But there is a specific category of multivariate data which are constrained by definition and known as Compositional Data (CoDa). This thesis makes an attempt to systematically propose new control charts for the for compositional data that have not yet been proposed so far in the literature. Hotelling T2-CoDa control chart in the presence of measurement error and MEWMACoDa control chart in the presence of measurement error has been proposed for compositional data. Furthermore, some nonparametric charts to monitor compositional data has also been proposed. The performance of each control chart has been studied and the optimal parameters have systematically been evaluated. Real life compositional data examples have been used in order to study the performances of the proposed charts
4

Achouri, Ali. "Cartes de contrôle pour le coefficient de variation". Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=7658d471-1a91-4022-9493-9f85b2a06a86.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Maîtrise Statistique des Procédés (MSP) est une méthode de suivi de la production basée sur les statistiques. Elle se base essentiellement sur les cartes de contrôle. Une hypothèse indispensable pour le développement des cartes de contrôle est que les paramètres μ0 et 0 du procédé sous-contrôle soient supposés constants. Mais, dans la pratique, il existe de nombreux procédés pour lesquels ces paramètres peuvent être variables. Dans cette optique, le recours au coefficient de variation est une alternative intéressante. Dans cette thèse, nous avons essayé de systématiquement proposer de nouvelles cartes de contrôle pour le coefficient de variation qui n’ont pas encore été traitées jusqu’à présent dans la littérature. Des cartes de contrôle avec règles supplémentaires, des cartes VSI, VSS sont proposées pour le coefficient de variation lorsque les paramètres sont connus. De plus, une carte de type Shewhart pour le coefficient de variation avec paramètres estimés est aussi proposée. Les performances de chacune des cartes ont été évaluées et les paramètres optimaux ont été systématiquement calculés. Une validation empirique des résultats a été élaborée dans des processus industriels existants
The Statistical Process Control (SPC) is an effective method based on statistics and used to monitor production. Control charts are the most important and primary tools of SPC. An indispensable assumption for the development of control charts is that the process parameters μ0 and 0 are assumed constant. In practice, the process parameters are often variables and the use of the coefficient of variation seems to be an interesting alternative. In this thesis, we will investigate the properties (in terms of the Run Length) of some control charts for the coefficient of variation in the case of known parameters, which have not been researched till now, such as Run Rules Chart, VSI Chart and VSS Chart. In addition, a Shewhart control chart for the coefficient of variation with estimated parameters is proposed. The performance of each control chart has been evaluated and the optimal parameters were systematically computed. An empirical validation of the results has been developed for real industrial processes
5

Amdouni, Asma. "Surveillance statistique du coefficient de variation dans un contexte de petites séries". Nantes, 2015. http://archive.bu.univ-nantes.fr/pollux/show.action?id=dcf36868-32b2-41d6-916b-f9533ee12902.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La maîtrise statistique des procédés (MSP) est une méthode de contrôle de la qualité basée sur les statistiques. La surveillance du coefficient de variation est une approche efficace à la MSP lorsque la moyenne du processus µ et son écart type σ ne sont pas constants mais leur rapport est constant. Jusqu’à présent, les études portant sur la surveillance du coefficient de variation se sont limitées au cas d’une production avec un horizon infini. Cette thèse présente de nouvelles cartes de contrôle pour surveiller le coefficient de variation dans le contexte fini lorsque les paramètres sont connus : des cartes de contrôle séparées de type Shewhart, des cartes avec des règles supplémentaires et des cartes VSI et VSS. Les paramètres optimaux ont été systématiquement calculés et les performances de chacune de ces cartes ont été également évaluées en développant de nouvelles mesures statistique de performance appropriées dans un contexte de production à horizon fini. Une validation empirique des résultats a été élaborée pour des procédés industriels existants
Statistical Process Control (SPC) is a method of quality control based on statistics and used to monitor production. Monitoring the coefficient of variation is an effective approach to SPC when the process mean µ and standard deviation σ are not constant but their ratio is constant. Until now, research has not investigated the monitoring of the coefficient of variation for short production runs. Viewed under this perspective, in this thesis, we will propose new methods to monitor the coefficient of variation for a finite horizon production, we will investigate the properties (in terms of the Truncated Run Length) of some control charts for the coefficient of variation in a Short Run context in the case of known parameters, such as the one-sided Shewhart Chart, the Run Rules Chart, the VSI and VSS Charts. The performance of each control chart has been evaluated by developing statistical measures of performance appropriate in a Short Run context and the optimal parameters were systematically computed. An empirical validation of the results has been developed for real industrial processes
6

Cohen, Achraf. "Détection et diagnostic des fautes dans des systèmes complexes par approches multi-échelle". Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0085.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La surveillance des processus est un challenge quotidien pour de nombreuses entreprises, dont l’objectif est de piloter et maîtriser leurs systèmes. Les travaux de cette thèse portent sur la surveillance des processus par les approches multi-échelle, notamment la combinaison de l’analyse par ondelettes et les approches statistiques. Nous avons établi un cadre général de l’utilisation des coefficients d’ondelettes comme un outil de détection et non pas seulement de traitement de données. La distribution statistique des coefficients d’ondelettes (approximations et détails) dans le cadre de l’analyse multi-résolution a été établie théoriquement. Ensuite, nous avons développé de nouveaux outils de détection, notamment des cartes de contrôle pour la détection de changement de moyenne (AJ, OWave, BiWave-T2 et BiWave-MEWMA), la détection de changement de variance (DeWave) et la détection de changement de moyenne et variance (le schéma AJ-DeWave). En outre de certaines équivalences entre les techniques de contrôle statistique et les transformées en ondelettes, nous avons proposé une méthode -CoWave- à base de la transformée en ondelettes continues, afin d’estimer l’instant de changement de moyenne (Isolation de la faute). La technique CoWave est équivalente à l’estimateur de maximum de vraisemblance. Finalement, nous avons mis en exergue les caractéristiques statistiques des coefficients d’ondelettes dans les cas des observations auto-corrélées et non-Gaussiennes
Because of the process complexity (multi-scale data, large number of characteristics variables and etc.), process monitoring has become a big challenge in control engineering, in order to assure quality and safety of processes. In this thesis work, we are interested in multi-scale monitoring approaches, which are based on combination between wavelet analysis and data-driven techniques. Firstly, we have established a general framework of statistical distribution of the wavelet coefficients (approximations and details) as part of the multi-resolution analysis. Indeed, we derived the distribution parameters of wavelets coefficients. Then, we developed new control charts for mean change (AJ , OWave, BiWave-T2 et BiWave-MEWMA), variance change (DeWave) and mean/variance change (AJ-DeWave scheme). In addition, we shown equivalencies between statistical control techniques and wavelet transforms. Moreover, a new technique -CoWave- is proposed, in order to estimate the mean change time (fault isolation). The CoWave is equivalent to the maximum likelihood estimator. Finally, statistical characteristics of wavelets coefficients in the case of autocorrelated and non-normal data are presented
7

Latrous, Mohamed Othman. "Modèle d’intégration maintenance conditionnelle, prévisionnelle et maitrise statistique des procédés". Electronic Thesis or Diss., Compiègne, 2021. http://www.theses.fr/2021COMP2639.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les solutions industrielles intégrées évoluent pour faire face à la digitalisation des processus de production. Parmi les solutions d’amélioration, nous pouvons penser au développement de nouvelles stratégies de maintenance intégrée à la qualité du produit fini. Une hypothèse couramment utilisée dans la littérature consiste à supposer que le suivi de la qualité se résume à la surveillance d’une seule caractéristique du produit ou du process. Cependant, pour les systèmes complexes, cette hypothèse est rarement satisfaite à mesure que le nombre de caractéristiques augmente et qu’elles peuvent avoir de potentielles corrélations. En effet, une carte de contrôle multivariée est plus appropriée pour garantir une meilleure performance de détection des dérives. Dans cette perspective, l’objectif principal de cette thèse consiste à développer de nouvelles règles de décision pour la maintenance basée sur les données de la qualité des produits. Des cartes de contrôle multivariées sont utilisées pour détecter et identifier les potentielles dérives du process et des actions de maintenance adaptative sont déclenchées ciblant les composants du système responsables de la détérioration de la qualité des articles produits. Dans un premier temps, une étude préliminaire est menée pour mettre en évidence l’impact des cartes de contrôle multivariées sur le processus de prise de décision pour la maintenance. Dans un deuxième temps, des règles de décision intégrées pour la maintenance conditionnelle et la maintenance prévisionnelle sont proposées en exploitant des cartes de contrôles multivariées multimodales. Les règles de décision proposées sont appliquées dans le contexte d’un processus de production simulé présentant des défauts apparaissant sous différentes dynamiques (dérives rapides et dérives lentes). Les nouvelles stratégies proposées dans cette thèse ont été validées par le biais du développement de modèles analytiques exprimant un profit. Ce profit a été maximisé selon les variables de décisions (la période d’échantillonnage et le seuil critique d’intervention) et l’existence de solutions optimales a été démontrée par simulation. La robustesse des modèles développés a été prouvée par des études de sensibilité, suivies d’études comparatives afin de mettre en évidence l’impact des stratégies proposées
Integrated solutions are evolving to cope with the digitalization of manufacturing processes. One area of improvement is developing new strategies joining maintenance and quality control. A popular hypothesis used in these integrated models is considering that quality control comes down to monitoring a single process or product characteristic. However, for complex systems, this assumption is seldom satisfied as the number of characteristics grows and they can have potential correlations. In fact, a multivariate control chart is more suitable to guarantee better performances of drift detection. Following this perspective, the main objective of this thesis consists in developing new maintenance decision rules based on produced items’ quality data. Multivariate control charts are used to provide detection and identification of potential process shifts and adaptive maintenance actions are triggered, targeting system components responsible for the deterioration of the produced items’ quality. First, a preliminary study is led to highlight the impact of multivariate control charts on the decision making process. Next, integrated maintenance decision rules for condition based and predictive maintenance are proposed using multimodal control charts. The developed decision rules are applied in the context of a simulated manufacturing process exhibiting a quality defect appearing in different dynamics (fast and slow drifts). The new strategies proposed in this thesis have been validated through the development of analytical models expressing the profit of the manufacturing system. This profit was maximized based on decision variables (sampling period and critical intervention threshold) and the existence of optimal solutions has been demonstrated through simulation. The robustness of the developed models has been proven by sensitivity studies, followed by comparative studies in order to highlight the impact of the proposed strategies
8

Guidez, Ludovic. "Conception de cartes de contrôle assistée par ordinateur et calculs de capabilités appliqués aux processus non gaussiens : application à la production d'embrayages". Compiègne, 1997. http://www.theses.fr/1997COMP1068.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La MSP (Maîtrise Statistique des Processus), fournit à l'opérateur une information immédiate et objective sur la performance du procédé qu'il pilote. L'opérateur peut alors agir rapidement sur son procédé pour éviter qu'une non conformité apparaisse. C'est l'un des objectifs majeurs recherché par les politiques qualité des organisations industrielles actuelles. Nos recherches ont contribué chez Valeo Embrayages à Amiens à modifier la philosophie MSP de Shewhart [She, 1932] et de Ford [For, 1991] aux exigences des processus de fabrication d'embrayages. Trois domaines ont été améliorés : I/ Une assistance informatique et visuelle a été mise en place pour proposer à l'opérateur des solutions correctives adaptées aux anomalies détectées par les cartes de contrôle. II/ Les nouvelles cartes de contrôle de type Shewhart ont été mises en place sur des processus série. Ces cartes tiennent compte des tolérances pour calculer les limites de contrôle. Les risques statistiques α et β sont choisis. La taille d'échantillon n est calculée. Elles sont appropriées pour mettre sous contrôle les procédés avec usure progressive des outils. Un outil informatique d'aide a la décision pour concevoir des cartes de contrôle de type shewhart a été développé. L'apport de cet outil présente deux avantages majeurs. D'une part le développement de ce système permet l'élaboration d'un mode de traduction des objectifs de l'industriel en caractéristiques statistiques d'une carte de contrôle. D'autre part, l'outil peut être utilisé par des non spécialistes de la MSP. III/ Dans l'industrie automobile, les indicateurs de capabilité classiques ont une importance contractuelle (client/fournisseur) et décisionnelle majeure. Suite à l'article de Günter [Gun, 89] dénonçant l'impact de la non normalité sur les résultats de capabilité, nous avons défini des formules de calcul adaptées aux processus non gaussiens. Nous proposons des solutions pour calculer des capabilités avec des lois unimodales dissymétriques ou des lois multimodales.
9

Abubakar, Aminu Sahabi. "Contribution to the development of new maintenance strategies integrated to control charts for a production process under service levels, operational, and quality constraints". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'industrie de la production actuelle est caractérisée par des progrès significatifs : une augmentation massive de la haute technologie, l'émergence de clients exigeants, des marchés compétitifs, une qualité de produit variée et des demandes aléatoires ont exigé la collaboration des aspects interdépendants de la production. La production, la maintenance et la qualité sont les aspects les plus critiques du système industriel. Nous nous intéressons à l'optimisation de la maintenance qui joue un rôle essentiel dans la satisfaction du client, la durabilité et le développement des entreprises. Notre étude est centrée sur le développement de la production et de la maintenance intégrées dans une carte de contrôle de la politique de qualité. Nous proposons de nouvelles stratégies de maintenance intégrée avec une analyse approfondie des améliorations continues de la fiabilité du processus de production et traitées sous les contraintes des exigences du client (Service, qualité et coût). L'intégration et la coordination optimale de ces facteurs de production n'est pas facile et représente un défi pour les entreprises industrielles, et sont plus difficiles avec les causes multi-assignables de la variation du processus de production. Pour répondre à ce problème, ce travail de recherche a utilisé l'outil carte de contrôle en combinaison avec les principes de l'AFNOR connus sous le nom de Règle des sept comme impliqués dans la gestion de la qualité. Pour surveiller, analyser et diriger les actions de maintenance appropriées pour l'amélioration continue de la fiabilité du système le long des différents scénarios de processus multiples comme niveaux de décision. Nous utilisons les interactions entre le processus de production et la qualité du produit pour des stratégies de maintenance qui réduisent la défaillance du système de production en améliorant la fiabilité du processus et en réduisant les produits non conformes. L'étude a porté de manière significative sur la qualité, les outils de qualité et leurs applications dans le contrôle de la production et de la maintenance. La technique que nous avons utilisée pour optimiser la maintenance et le contrôle de la qualité d'un système de production intégré est un outil de carte de contrôle basé sur la mesure et l'analyse statistique des paramètres de qualité. Nous modélisons différents problèmes de production et développons une politique de contrôle pour des systèmes de production à défaillance aléatoire qui doivent satisfaire les exigences des clients de manière dynamique tout au long de l'horizon de production fini. Nous avons introduit un modèle mathématique pour minimiser les coûts totaux de production, d'inventaire, de maintenance et de contrôle de la qualité. L'optimisation de la stratégie de maintenance a été intégrée dans un outil d'information sur les cartes de contrôle. Sur la base de la variation du taux de production et de son impact sur la dégradation de la machine, le nombre de maintenance, les temps et les intervalles nécessaires à une prise de décision prudente sont déterminés par l'algorithme développé. Dans ce contexte, cette recherche présente la dérivation pour différents cas de toutes les probabilités pour le processus d'être dans ou hors de contrôle, les durées moyennes d'exécution, et les durées de cycle de restauration. Sur la base du facteur de dégradation, de nouvelles équations de taux de défaillance sont formulées, puis le taux de défaillance moyen pour chaque cas, nous avons formulé différents modèles d'optimisation des coûts de maintenance. L'approche proposée est utile pour le calcul précis et la minimisation du coût total de maintenance. Elle optimise le coût total de production en considérant tous les états possibles du processus de production dus à des causes multiples. Notre travail contribue à l'émergence de techniques de gestion de la qualité et d'amélioration des performances qui contribueront au développement des entreprises de production
The current production industry is characterise by significant progress: a massive increase in high technology, the emergence of exigent customers, competitive markets, varied product quality, and random demands required the collaborations of the inter-related aspects of production. The production, maintenance, and quality are the most critical aspects of the industrial system. We are interested in optimising maintenance that plays a critical role in customer satisfaction, sustainability, and the development of companies. Our study is centred on developing production and maintenance integrated into a control chart of quality policy. We propose new integrated maintenance strategies with an in-depth analysis of the continuous production process reliability improvements and treated under customer requirements (Service, quality, and cost) constraints. The integration and optimal coordination of these factors of production is not easy and represent a challenge for industrial companies, and are more challenging with multi-assignable causes of production process variation. To address this problem, this research work employed the use of a control chart tool in combination with the AFNOR principles known as Rule of seven as involved in quality management. To monitor, analyses and direct appropriate maintenance actions for continuous system reliability improvements along the different multiple process scenarios as decision levels. We use the interactions between the production process and product quality for strategies of maintenance which reduce the failure of the production system by improving process reliability and reducing the no conformal products. The study Significantly focused on quality, quality tools, and their applications in production and maintenance control. The technique we used to optimise the maintenance and quality control of an integrated production system is a control chart tool based on statistical measurement and analysis of quality parameters. We model different production problems and develop a control policy for randomly failing production systems that must satisfy customer requirements dynamically throughout the finite production horizon. We introduced a mathematical model to minimise the total costs of production, inventory, maintenance, and quality control. The optimisation of the maintenance strategy was integrated into a control chart tool information. Based on the production rate variation and its impact on machine degradation the number of maintenance, times, and intervals needed for prudent decision-making is determined by the developed algorithm. In this context, this research presents the derivation for different cases of all the probabilities for the process to be in or out of control, the average run lengths, and the restoration cycle durations. Based on the degradation factor, new failure rate equations are formulated, and then the average failure rate for each case, we formulated different maintenance cost optimisation models. The proposed approach is useful for precise calculation and minimisation of the total maintenance cost. Which optimises total production cost considering all possible production process statuses due to multiple causes. Our work contributes to the emergence of quality management and performance improvement techniques that will contribute to the development of production companies
10

Le, Gall Caroline. "Algorithmes de détection de ruptures et statistiques spatiales : applications au diagnostic de défaillances dans un procédé de fabrication". Toulouse 3, 2002. http://www.theses.fr/2002TOU30176.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'amélioration continue du rendement d'une chaîne de fabrication, c'est-à-dire du rapport du nombre d'unités fonctionnelles sur le nombre total d'unités produites, constitue un enjeu important pour la compétitivité de l'outil de production. Dans le contexte de la fabrication de circuits intégrés, l'introduction de nouvelles technologies de plus en plus complexes rend les outils statistiques traditionnellement utilisés insuffisants pour la prévention de toutes les défaillances du procédé. Dès lors, de nouvelles techniques statistiques sont développées pour améliorer ou remplacer certains outils existants mais aussi pour en créer de nouveaux. Ainsi, un nouveau processus d'amélioration du rendement est proposé. Lorsqu'une baisse du rendement est observée, il s'agit dans un premier temps de la caractériser. Cette caractérisation découle d'une analyse spatiale des plaquettes de silicium sur lesquelles sont produits les circuits intégrés. .
The continuous improvement of the yield of a production line is a significant goal for the competitiveness of the facility. In the context of integrated circuit manufacturing, the introduction of new increasingly complex technologies makes the statistical tools traditionally used insufficient to prevent process failures. Consequently, new statistical techniques have been developed to improve or replace some existing tools and also to form some new ones. Thus, an improvement process is proposed. When a decrease of yield is observed, it first needs to be characterized. The characterization is achieved by a spatial analysis of the silicon wafers on which the integrated circuits are manufactured. . .
11

Julien, Fabrice. "Contribution à la mise en place de la maîtrise de la qualité dans une production de petites séries : application aux spécificités de la production aéronautique". Compiègne, 2009. http://www.theses.fr/2009COMP1804.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte économique de plus en plus exigeant, l'importance de la qualité n'est plus à démontrer, que ce soit dans le secteur industriel ou dans celui des services. Quel que soit le niveau de qualité atteint par une entreprise, celle-ci se trouve dans une dynamique qui l'amène à être en perpétuel mouvement avec un objectif d'amélioration continue. Notre arrivée chez Airbus Méaulte s'est donc inscrite dans ce contexte et dans le cadre d'une convention CIFRE. Il s'agissait initialement de déployer la Maîtrise Statistique des Processus (MSP), en particulier dans le cas multivarié. Dans un premier temps, nous avons donc mené en parallèle deux actions. D'une part, nous avons réalisé un état de l'art concernant les méthodes d'amélioration de la qualité en général, et de la MSP en particulier. D'autre part, nous avons analysé le contexte industriel dans lequel nous nous trouvions. Le positionnement que nous avons adopté, nous a amenés à conduire nos travaux dans trois directions complémentaires, à savoir : la démarche d'amélioration, la prise en compte permanente des changements induits par l'implantation de nouveaux outils, la construction d'un outil d'aide à la décision, basé sur le développement de cartes de suivi et d'indicateurs globaux
In an economical global situation more and more demanding, the importance of quality is evident, either in the industrial sector or in the business services. Whatever the quality level reach by each company, it's in a dynamic trend who put it in a perpetual motion with a goal of continuous improvements. Our arrival at Airbus Méaulte was in a specific CIFRE agreement context. The initial aim was to deploy the Statistical Process Control (SPC) methodology and especially in the multivariate case. As a first step, we've done two parallel actions. On one side, we've done a state of the art for the quality improvement methodology in general, and of the SPC in a more accurate manner. On the other side, we've analyzed the industrial situation that we've found. The choice we've done for our work led us to work in three other complementary ways : the improvement methodology, the permanent cultural change management caused by new tooling introduction, the creation of a decision making tool based on the development of follow-up chants and global indicators
12

Campillo, Fabien. "Quelques applications des processus de diffusion: filtrage/statistique - contrôle - homogénéisation". Habilitation à diriger des recherches, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00485401.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce document se décompose en trois axes: – Le premier s'attache à différents problèmes de filtrage et de statistique pour des processus de diffusion partiellement observés. – Le deuxième traite d'un problème de contrôle stochastique de type ergodique. il s'agit de calculer des lois de commande pour des amortisseurs semi–actifs (contrat avec Renault). – Le dernier traite de quelques problèmes d'homogénéisation pour des processus aléatoires en milieux hétérogène. Il s'agissait à l'origine d'un contrat avec l'IFP pour le développement de méthodes de Monte Carlo pour le calcul de coefficients effectifs.
13

Rahali, Dorra. "Surveillance Statistique du Temps et de l'amplitude entre événements". Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques de surveillance combinée du temps et de l'amplitude pour statistique des procédés SPM sont principalement basées sur les cartes de statistiques. Une nécessité de développement de techniques de surveillance de plus en plus avancées s'est fait sentir dans des domaines autres que l'industrie manufacturière classique. Cependant, peu de chercheurs se sont intéressés à proposer des méthodes dédiées pour la surveillance combinée du temps et de l'amplitude entre événements appelée TBEA. Jusqu'à présent les travaux effectués dans ce domaine se sont limitées à un nombre réduit de distributions et de statistiques à surveiller. Dans cette thèse, nous étudions la performance d'une carte de contrôle de type Shewhart pour la surveillance combinée du temps et de l'amplitude pour différents scénarios de distributions et de statistique. Nous nous intéressons d’abord au cas où les variables temps T et amplitude X sont indépendantes. Ensuite nous étudions celui ou les variables sont dépendantes en utilisant des Copulas comme étant un outil pour modéliser la dépendance. Finalement nous nous intéresserons au cas où l'amplitude est un vecteur et non plus une variable.Les performances de chacune des cartes de contrôle proposées ont été évaluées par l'EATS. Une validation empirique des résultats a été élaborée pour des cas existants.
Statistical process monitoring First we will study the case where we assume (SPM) are mainly based on control charts that the time T and the amplitude X are two which constitute an important step in the quality mutually independent continuous random process. There is a need to develop monitoring variables. Then we study the case where the techniques in manufacturing or non- variables are dependent using Copulas as a manufacturing sectors. This leads to give an mechanism to model the dependence. Finally increasing importance to Time Between Events we discuss the case where the time between and Amplitude (TBEA) control charts. events Tis an univariate random variable and However, few researchers have been the amplitude X is no longer an univariate interested to propose methods to random variable but a multivariate random simultaneously monitor the time between an vector. The performance of each control chart event E and its amplitude. Until now, the vast has been evaluated by EATS. An empirical majority of contributions are limited to a validation of the results has been developed for reduced number of statistics and potential real cases. distributions. ln this thesis we will investigate simple Shewhart type control charts for several statistics and many distributional scenarios
14

Tiplica, Teodor. "Contributions à la maîtrise statistique des processus industriels multivariés". Angers, 2002. http://www.theses.fr/2002ANGE0046.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire se situent dans le cadre de la maîtrise statistique des processus (MSP). Les principales cartes de contrôle univariées et multivariées sont présentées dans le chapitre I. Un résumé non-exhaustif des méthodes de détection de la cause d'une situation hors contrôle dans un processus multivarié est donné dans le chapitre II. Une nouvelle méthodologie de contrôle et de diagnostic de processus - FNAD (Filtrage Numérique et Analyse Discriminante) - a été proposée dans le chapitre III. Un exemple pratique d'utilisation de la méthode FNAD a été donné pour le diagnostic d'un processus de fabrication du polyéthylène de faible densité. Deux nouvelles cartes de contrôle - la carte de contrôle par filtrage numérique (CCFN) et la carte de contrôle spectrale (CCS) ont été proposées dans le chapitre IV. Le principe de construction de la carte CCFN repose sur l'utilisation des équations récurrentes définissant les filtres numériques RII (Réponse Impulsionnelle Infinie) ou ARMA (AutoRegressive Moving Average). Les limites de contrôle et l'efficacité de la carte CCFN ont été calculées à l'aide de simulations. Le principe de contrôle de la carte de contrôle spectrale (CCS) est basé sur l'analogie temps-fréquence : une fenêtre glissante est déplacée dans le domaine temporel et le contenu spectral de la fenêtre est analysé afin de détecter les changements de la moyenne. La formule analytique de la limite de contrôle a été donnée. Les performances de la carte dans la détection des différents déréglages ont été calculées à partir des simulations et comparées avec celles de la carte EWMA.
15

Tran, Kim Phuc. "Surveillance de procédés de type mélange". Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4047/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans tous les secteurs industriels, la Maîtrise Statistique des Procédés (MSP) est une méthode de suivi de la production basée sur les statistiques. Parmi les outils de la MSP, les cartes de contrôle sont des outils très utiles pour la détection et l’élimination des causes assignables modifiant le processus. Il existe des processus de production où plusieurs composants doivent être mélangés ensemble pour obtenir une composition de produit. Dans ce cas, il est nécessaire de surveiller des ratios de variables qualité lorsque les professionnels de qualité sont principalement intéressés à la comparaison relative de la même propriété pour les deux composants. Dans cette thèse, nous avons essayé de proposer systématiquement de nouvelles cartes de contrôle pour le ratio et pour des données de type composition qui n’ont pas encore été traitées jusqu’à présent dans la littérature. Des cartes de contrôle avec règles supplémentaires, des cartes EWMA, des cartes CUSUM et une carte de contrôle de type Shewhart en prenant en compte les erreurs de mesure sont proposées pour le ratio. De plus, une carte de type MEWMA pour surveiller des données de type composition est aussi proposée. Les performances de chacune des cartes de contrôle ont été évaluées et les paramètres optimaux ont été systématiquement calculés. Une validation empirique des résultats a été élaborée dans des processus industriels existants
In industry, Statistical Process Control (SPC) is a set of statistical techniques to monitor, control and improve a process. Among SPC tools, control charts are very useful tools for the detection and the elimination of assignable causes shifting the process. There exist manufacturing environments where several components have to be mixed together to obtain a product composition. In this case, it is necessary to monitor ratios of quality variables when quality practitioners are interested in the relative comparison of the same property for two components. In this thesis, we have tried to systematically propose new control charts for the ratio and for compositional data that have not yet been proposed so far in the literature. Run rules control charts, EWMA control charts, CUSUM control charts and a Shewhart control chart in the presence of measurement error have been proposed for monitoring the ratio. Furthermore, a MEWMA control chart to monitor compositional data has also been proposed. The performance of each control chart has been evaluated and the optimal parameters have systematically been computed. An empirical validation of the results has been developed for real industrial processes
16

Nourelfath, Mustapha. "Extension de la théorie de la supervision a la surveillance et a la commande des systèmes a évènements discrets : application à la sécurité opérationnelle des systèmes de production". Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0066.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons une approche de surveillance et de commande basée sur la théorie de la supervision initiée par les travaux de Ramadge et Wonham (RW). Notre contribution repose sur deux propositions complémentaires. La première concerne la commande et la supervision en fonctionnement nominal. La seconde est relative à la surveillance en vue d'assurer la continuité du service en présence de défaillances critiques. Dans l'approche RW, un procédé est supposé évoluer de façon spontanée et le superviseur se cantonne à interdire l'occurrence d'événements. Néanmoins pour un esprit de commande, il demeure nécessaire de disposer d'un système externe qui force certains événements à se produire dans le procédé. Afin de combler l'écart sémantique existant entre le modèle RW et le comportement de la commande, nous proposons une extension de la théorie de la supervision, basée sur une relaxation du concept de contrôlabilité. Nous introduisons ensuite la structure du module de surveillance orienté Sécurité Opérationnelle dont la synthèse repose sur la théorie RW. La surveillance proposée se compose des fonctions de détection/observation et de compensation/recouvrement. A la détection d'une défaillance, l'observateur active un compensateur qui figera certains superviseurs nominaux conflictuels, libérés qu'après recouvrement. Notre approche s'attache à formaliser les alternances de modes (fonctionnement nominal, dégradé,. . . ). La modélisation de ces alternances repose sur le concept des macro-actions, dont la représentation par variables Booléennes permet une validation du système global. Les concepts développés sont illustrés et argumentés par une application au site expérimental de l'Atelier Inter-établissements de Productique Dauphiné-Savoie
We propose a monitoring and control approach based on the Supervisory Control Theory (SCT) initiated by Ramadge and Wonham (RW) works. The work is split in two complementary parts. The first concerns the control and the supervision in nominal mode. The second part is related to monitoring to ensure the continuity of system operation in the presence of critical failures. In the RW approach, a process is assumed to generate events spontaneously and the supervisor has the ability to forbid some controllable events. Nevertheless real systems usually require the addition of an external control system that forces some events to occur. To bridge the semantic gap between control and the RW model, we propose an extension of SCT based on a relaxation of the controllability concept. Furthermore we introduce a monitoring module (MM) based on the Operational Safety concept and on the RW theory synthesis issues. MM contains the functions of detection/observation and compensation/recovery. The reactivity is based on the following procedure: at the detection of a failure, the observer activates a compensator which freezes the conflictual nominal supervisors, liberated only after recovery. The modelling of such mode alternations is based on the macro action concept. In the SCT context, macro actions are represented by Boolean variables to deal with the controllability of the global system. This proposition allows the formal validation of admissible degraded functioning specifications and the synthesis of the compensation of critical failures. The concepts developed have been applied to the fairly complex manufacturing system of the "Atelier Inter-établissements de Productique" (AIP) Dauphiné-Savoie (France)
17

Muller, Alexandre. "Contribution à la maintenance prévisionnelle des systèmes de production par la formalisation d'un processus de pronostic". Nancy 1, 2005. http://docnum.univ-lorraine.fr/public/SCD_T_2005_0015_MULLER.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'émergence du concept de " durabilité " en entreprise oblige dorénavant les industriels à intégrer dans leur stratégie de développement, au-delà de la finalité économique habituelle, de nouvelles préoccupations sociales et environnementales. Cet enjeu majeur se décline, au niveau du système d'exécution de la production, par le concept de maintien en conditions opérationnelles (MCO). Afin d'améliorer l'efficacité du MCO, nous proposons dans cette thèse la formalisation du processus clé d'un système de maintenance prévisionnelle : le pronostic. La démarche de modélisation introduite s'appuie sur le couplage d'une représentation probabiliste de l'état d'un système basée sur le formalisme des Réseaux Bayésiens Dynamiques (RBD), et d'une approche événementielle de la surveillance de la dégradation de ses composants. La mise en œuvre du processus de pronostic sur le système de Déroulage / Pressage de la plate-forme TELMA démontre la faisabilité de la méthodologie proposée
Today, due to the emergence of “sustainability” constraint within Enterprise, the industrial people have to integrate in the development strategy, not only the conventional economical finality but also the social and environmental requirements. At the Manufacturing Execution System (MES) level, this objective is materialised through the concept of “System Maintaining in Operational Conditions” (SMOC). In order to improve the SMOC efficiency, this thesis outlines the formalisation of the key Predictive Maintenance process which is the prognosis one. The deployment of the prognosis process follows a methodology based both of probabilistic and event approaches. The probabilistic model which supports the prognosis execution, has been developed by means of Dynamic Bayesian Networks (DBN). The feasibility and added value of this new prognosis is experimented on the manufacturing TELMA platform supporting the unwinding of metal bobbin
18

Assoul, Samia. "Contribution à la réalisation d'un système interactif d'aide à l'amélioration de la qualité des processus de fabrication". Lyon 1, 1996. http://www.theses.fr/1996LYO19005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces dernieres annees, le concept de la qualite totale qui a deja fait ses preuves au japon, a ete introduit pour ameliorer la qualite des produits tout en reduisant les couts de retouche sur ceux-ci et en supprimant les taux de rebuts. Il s'appuie sur differents outils et techniques, allant des solutions technologiques (msp: maitrise statistique des processus) jusqu'aux comportements techniques (cercles de qualite). Il est donc apparu indispensable d'accompagner la demarche msp par des actions de recherche visant a approfondir les fondements des methodes dont l'application est complexe. Ces actions necessitent une quantite importante de connaissances relatives aux outils de la qualite et aux methodologies d'analyse des processus ; connaissances qui sont de diverses natures et qui ne sont malheureusement pas toujours mises a disposition du personnel exploitant. Cette these propose un systeme interactif a base de connaissances developpe pour aider les fabricants a mieux maitriser leurs processus a partir de methodes et outils de la qualite et plus particulierement, de la msp (maitrise statistique des processus). Ce systeme est compose de deux modules. Le premier pourra aider a l'analyse des problemes et aux choix des outils de la qualite adequats. Il fournira par la suite une aide a la mise en uvre de certains outils proposes. Le deuxieme module est dedie a la surveillance des caracteristiques du produit ou de parametres du processus en atelier. Une approche originale basee sur le test de hinkley est utilisee dans ce deuxieme module pour detecter des ruptures
19

Babus, Florina. "Contrôle de processus industriels complexes et instables par le biais des techniques statistiques et automatiques". Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00535668.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contexte général dans lequel s'inscrivent les travaux développés dans ce mémoire est le contrôle des processus industriels complexes. Ces travaux proposent des nouvelles techniques d'amélioration du contrôle statistique des processus non gaussiens : la carte de contrôle avec des paramètres variables et la carte de contrôle théorique pour la loi de distribution de Rayleigh. Un modèle d'intégration des outils des domaines de l'APC ( Automatic Process Control ) et de la MSP est proposée et ensuite analysée par le biais des deux modèles de processus réel.
20

Gruet, Pierre. "Quelques problèmes d'estimation et de contrôle optimal pour les processus stochastiques dans un cadre de modélisation des prix des marchés de l'électricité". Sorbonne Paris Cité, 2015. https://theses.hal.science/tel-01238618.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur l'étude de modèles mathématiques de l'évolution des prix sur les marchés de l'électricité, du point de vue de la statistique des processus et de celui du contrôle optimal stochastique. Dans une première partie, nous estimons les composantes de la volatilité d'un processus de diffusion multidimensionnel représentant l'évolution des prix sur le marché à terme de l'électricité. Sa dynamique est conduite par deux mouvements browniens. Nous cherchons à réaliser l'estimation efficacement en termes de vitesse de convergence, et de variance limite en ce qui concerne la partie paramétrique de ces composantes. Cela nécessite une extension de la définition usuelle de l'efficacité au sens de Cramér-Rao. Nos méthodes d'estimation sont fondées sur la variation quadratique réalisée du processus observé. Dans la deuxième partie, nous ajoutons des termes d'erreur de modèle aux observations du modèle précédent, pour pallie le problème de surdétermination qui survient lorsque la dimension du processus observé est supérieure à deux. Les techniques d'estimation sont toujours fondées sur la variation quadratique réalisée, et nous proposons d'autres outils afin de continuer à estimer les composantes de la volatilité avec la vitesse optimale en présence des termes d'erreur. Des tests numériques permettent de mettre en évidence la présence de telles erreurs dans nos données. Enfin, dans la dernière partie nous résolvons le problème d'un producteur qui intervient sur le marché infrajournalier de l'électricité afin de compenser les coûts liés aux rendements aléatoires de ses unités de production. Par ses actions, il exerce un impact sur le marché. Les prix et son anticipation de la demande de ses consommateurs sont modélisés par une diffusion à sauts. Les outils du contrôle optimal stochastique permettent de déterminer sa stratégie dans un problème approché. Nous donnons des conditions pour que cette stratégie soit très proche de l'optimalité dans le problème de départ, et l'illustrons numériquement
In this thesis, we study mathematical models for the representation of prices on the electricity markets, from the viewpoints of statistics of random processes and optimal stochastic control. In a first part, we perform estimation of the components of the volatility coefficient of a multidimensional diffusion process, which represents the evolution of prices in the electricity forward market. It is driven by two Brownian motions. We aim at achieving estimation efficiently in terms of convergence rate and, concerning the parametric part of those components, in terms of limit law. To do so, we must extend the usual notion of efficiency in the Cramér-Rao sense. Our estimation methods are based on realized quadratic variation of the observed process. In a second part, we add model error terms to the previous model, in order to tare for some kind of degeneration occurring in it as soon as the dimension of the observed process is greater than two. Our estimation methods are still based on realized quadratic variation, and we give other tools in order to keep on estimating the volatility components with the optimal rate when error terms are present. Then, numerical tests provide us with some evidence that such errors are present in the data. Finally, we solve the problem of a producer, which trades on the electricity intraday market in order to tope with the uncertainties on the outputs of his production units. We assume that there is market impact, so that the producer influences prices as he trades. The price and the forecast of the consumers' demand are modelled by jump diffusions. We use the tools of optimal stochastic control to determine the strategy of the producer in an approximate problem. We give conditions so that this strategy is close to optimality in the original problem, as well as numerical illustrations of that strategy
21

Gibert-Doutre, Marie-Françoise. "Développement d'une approche pour le contrôle qualité à partir de l'analyse de données et de la morphologie mathématique". Compiègne, 1991. http://www.theses.fr/1991COMPD354.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Après une étude systématique de l'état de l'art en matière de contrôle qualité dans le monde industriel, une méthodologie d'approche du contrôle qualité est proposée. Elle est composée de cinq phases : 1) établissement d'un système d'information du problème ; 2) recherche des ensembles homogènes et élimination des points aberrants par analyse de données ; 3) recherche des paramètres significatifs ; 4) classification des fonctionnements par reconnaissance de formes et/ou morphologie mathématique ; 5) mise en place du contrôle à l'aide de systèmes experts. La morphologie mathématique joue un rôle fondamental dans cette méthode puisqu'elle permet de traiter le cas de procédés indsutriels non modélisés, et pour lesquels on ne dispose pas d'ensemble d'apprentissage.
22

Collignon, Roland. "Gestion temps réel de la qualité d'une ligne d'embouteillage, apport de la méthode de maîtrise statistique des procédés". Nancy 1, 1997. http://docnum.univ-lorraine.fr/public/SCD_T_1997_0012_COLLIGNON.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire ont pour objectif l'amélioration de la qualité dans les processus d'embouteillage à haute cadence. Apres avoir montré la nécessaire complémentarité entre une inspection/tri des produits fabriqués et une gestion du procédé de fabrication, nous analysons les causes de variabilité, ainsi que les contraintes engendrées par les cadences de production élevées et les structures multi-postes des machines. Nous proposons alors d'améliorer la qualité de fabrication par la méthode de maitrise statistique des procédés (M. S. P. ) Dont nous rappelons la démarche. L'étude du processus met en évidence la nécessité de détecter à la fois les dérivés de qualité lente et rapide, ce qui nous amène à réaliser une étude comparative des performances des différentes cartes de contrôle existantes que nous expérimentons sur des données provenant d'une ligne de conditionnement industrielle. Nous définissons ensuite une stratégie de gestion et d'amélioration de la qualité du procédé exploitant ces cartes, et permettant le diagnostic des dérivés ainsi qu'une réactivité sur la conduite et la maintenance du processus de fabrication. Face aux contraintes industrielles, nous proposons la mise en œuvre d'un système automatisé pour la réalisation de la maitrise du procédé. L'analyse fonctionnelle de celui-ci, réalisée à l'aide de la méthode S. A. D. T. , met en évidence deux boucles de réaction sur le processus, ainsi que l'importance majeure de l'interaction du système avec les services de l'usine intervenant sur la ligne de production. Ce système permet une augmentation de la productivité, une réduction des couts, et s'intègre parmi les moyens d'un programme d'assurance qualité. Un prototype a été réalisé et mis en œuvre avec succès sur plusieurs lignes industrielles. Il est composé d'un calculateur temps réel et d'un capteur de vision artificielle pour l'inspection/tri, un second calculateur effectue les traitements statistiques et gère l'interface operateur.
23

Huynh, Khac Tuan. "Qualification de l'apport de l'information de surveillance dans la prise de décision en maintenance". Troyes, 2011. http://www.theses.fr/2011TROY0013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La surveillance de l'état d'un système peut fournir des informations utiles pour la prise de décision en maintenance, mais peu d'outils de modélisation permettent de les intégrer correctement dans le processus de décision. L'originalité des travaux présentés ici réside dans la construction de nouveaux modèles probabilistes quantitatifs dont l'objectif est d'évaluer l'apport de l'information de surveillance en fonction de sa qualité et des grandeurs observées, dans un contexte d'optimisation de la maintenance. Les modèles stochastiques de défaillance et de mesure proposés intègrent à la fois les données capteurs relatives à la dégradation/défaillance du système à maintenir, les informations de surveillance sur l'impact de l'environnement opérationnel, et les caractéristiques de techniques de contrôle. En s'appuyant sur ces modèles, on propose des politiques de maintenance et on développe des modèles de coût associés pour étudier les meilleures méthodes d'exploitation de l'information de surveillance. L'ensemble des études menées montrent l'intérêt de développer des structures de décision de maintenance qui permettent d'intégrer l'information de surveillance et d'en évaluer l'impact sur les performances de la maintenance
Condition and health monitoring can bring out useful information for the maintenance decision-making but few models allow their integration in the decision process. This thesis aims to construct new probabilistic quantitative models to evaluate the value of this kins of information depending on ith quality and on the nature of the observed variables. The proposed stochastic failure and measurement models take account the degradation/failure sensor data, the impact of operational environment on the degradation, as well as the nature of control techniques. Based on these models, we propose different maintenance policies and we develop the associated cost model to study the best methods for the exploitation of monitoring information. The studies in this thesis show the advantage of developing quantitative maintenance decision framework which allows integrating and evaluating the impact of condition monitoring information on the performance of maintenance operations
24

Gerard, Karine. "Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des Contrôles qualité par la Maitrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI)". Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00343370.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) est aujourd'hui reconnue comme une technique de référence permettant d'augmenter le contrôle local de la tumeur tout en réduisant la dose reçue par les organes à risques avoisinants. Cependant, son développement est freiné par l'étape de préparation du traitement du patient qui nécessite une charge de travail considérable. Dans le but d'augmenter l'efficience de la mise en œuvre d'un traitement, deux axes de travail ont été déterminés.
Le premier axe concernait l'optimisation automatique des incidences des faisceaux. Nous avons pour cela mis en œuvre un algorithme (le simplexe) qui a été intégré dans le système de planification de traitement. Il permet, à partir des objectifs dosimétriques fixés par l'utilisateur, de déterminer automatiquement les incidences de faisceaux optimales : irradiant suffisamment le volume cible tout en épargnant les organes à risques avoisinants. En plus d'un gain en temps, les résultats du simplexe ont montré – sur trois patients atteints d'un cancer de l'oropharynx – un gain en qualité par rapport à une sélection manuelle des faisceaux. En effet, pour une couverture du volume cible équivalente voire meilleure, il permet de réduire la dose reçue par les organes à risques.
Le second axe concernait l'optimisation des contrôles pré-traitement. Nous avons pour cela utilisé une méthode industrielle : la Maîtrise Statistique des Processus (MSP) afin d'analyser rétrospectivement les résultats des contrôles de la dose absolue effectués avec la chambre d'ionisation au Centre Alexis Vautrin (CAV). Cette étude a montré l'intérêt de la MSP pour renforcer la sécurité des traitements grâce à la mise en place de cartes de contrôle. Elle a également montré que notre processus de délivrance de la dose était stable et statistiquement capable pour les traitements de la prostate, ce qui implique qu'une réduction du nombre de contrôles peut être envisagée pour ce type de traitement au CAV.
25

Denimal, Dimitri. "Déploiement du tolérancement inertiel dans la relation client fournisseur". Phd thesis, Chambéry, 2009. http://tel.archives-ouvertes.fr/tel-00445871.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors de la phase d'industrialisation, l'allocation des tolérances fait partie des étapes clés qui permettront de produire des assemblages dont les performances sont conformes et homogènes à l'ensemble des exigences fonctionnelles spécifiées par le cahier des charges. Depuis toujours, l'approche traditionnelle des tolérances et de leur allocation sous la forme d'une bilimite présente certaines incohérences. En 2002, Pr M.Pillet a suggéré une solution à ces incohérences, l'inertie. Ce travail de thèse est une continuation à ceux de Pr M Pillet et de PA Adragna. Ce travail s'articule en cinq chapitres. Le premier chapitre revient sur l'apport de l'inertie et introduit les travaux développés dans la thèse. Le second propose une analyse de la performance de la carte de contrôle inertielle avec dérive et formalise les conditions d'utilisation des différentes variantes dans un contexte industriel. Le troisième chapitre aborde l'inertie dans un contexte 3D en comparant les trois définitions de l'inertie 3D proposées dans les travaux antérieurs. Le quatrième développe une nouvelle approche de tolérancement de surface, appelée inertie totale et propose en cohérence avec cette définition un outil permettant de donner les réglages optimums pour minimiser l'inertie totale d'une pièce. Le dernier chapitre conclut par une proposition de tolérancement d'un assemblage de surface par une approche inertielle statistique. Ce dernier suppose une variation rigide des défauts des surfaces, et n'intègre pas la notion de jeu de l'assemblage. Il porte explicitement sur la notion de variance et de covariance liée à la structure du mécanisme et introduit un indicateur de capabilité de dimensions n
26

Valiani, Virginie. "De l'émergence d'un projet qualité à l'usage d'un logiciel de MSP : les apports de la psychologie du travail et de l'ergonomie". Amiens, 2009. http://www.theses.fr/2009AMIE0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Infantes, Guillaume. "Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique". Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129505.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
28

Espinosa, Gilles-Edouard. "Méthodes de Contrôle Stochastique pour la Gestion Optimale de Portefeuille". Phd thesis, Ecole Polytechnique X, 2010. http://pastel.archives-ouvertes.fr/pastel-00512703.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente trois sujets de recherche indépendants, le dernier étant décliné sous forme de deux problèmes distincts. Ces différents sujets ont en commun d'appliquer des méthodes de contrôle stochastique à des problèmes de gestion optimale de portefeuille. Dans une première partie, nous nous intéressons à un modèle de gestion d'actifs prenant en compte des taxes sur les plus-values. Dans une seconde partie, nous étudions un problème de détection du maximum d'un processus de retour à la moyenne. Dans les troisième et quatrième parties, nous regardons un problème d'investissement optimal lorsque les agents se regardent les uns les autres. Enfin dans une cinquième partie, nous étudions une variante de cette problématique incluant un terme de pénalisation au lieu de contraintes sur les portefeuilles admissibles.
29

Gérard, Karine. "Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des contrôles qualité par la Maîtrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI)". Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL064N/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Radiothérapie Conformationnelle par Modulation d’Intensité (RCMI) est aujourd’hui reconnue comme une technique de référence permettant d’augmenter le contrôle local de la tumeur tout en réduisant la dose reçue par les organes à risques avoisinants. Cependant, son développement est freiné par l’étape de préparation du traitement du patient qui nécessite une charge de travail considérable. Dans le but d’augmenter l’efficience de la mise en œuvre d’un traitement, deux axes de travail ont été déterminés. Le premier axe concernait l’optimisation automatique des incidences des faisceaux. Nous avons pour cela mis en œuvre un algorithme (le simplexe) qui a été intégré dans le système de planification de traitement. Il permet, à partir des objectifs dosimétriques fixés par l’utilisateur, de déterminer automatiquement les incidences de faisceaux optimales : irradiant suffisamment le volume cible tout en épargnant les organes à risques avoisinants. En plus d’un gain en temps, les résultats du simplexe ont montré – sur trois patients atteints d’un cancer de l’oropharynx – un gain en qualité par rapport à une sélection manuelle des faisceaux. En effet, pour une couverture du volume cible équivalente voire meilleure, il permet de réduire la dose reçue par les organes à risques. Le second axe concernait l’optimisation des contrôles pré-traitement. Nous avons pour cela utilisé une méthode industrielle : la Maîtrise Statistique des Processus (MSP) afin d’analyser rétrospectivement les résultats des contrôles de la dose absolue effectués avec la chambre d’ionisation au Centre Alexis Vautrin (CAV). Cette étude a montré l’intérêt de la MSP pour renforcer la sécurité des traitements grâce à la mise en place de cartes de contrôle. Elle a également montré que notre processus de délivrance de la dose était stable et statistiquement capable pour les traitements de la prostate, ce qui implique qu’une réduction du nombre de contrôles peut être envisagée pour ce type de traitement au CAV
Intensity Modulated Radiation Therapy (IMRT) is currently considered as a technique of choice to increase the local control of the tumour while reducing the dose to surrounding organs at risk. However, its routine clinical implementation is partially held back by the excessive amount of work required to prepare the patient treatment. In order to increase the efficiency of the treatment preparation, two axes of work have been defined. The first axis concerned the automatic optimisation of beam orientations. We integrated the simplex algorithm in the treatment planning system. Starting from the dosimetric objectives set by the user, it can automatically determine the optimal beam orientations that best cover the target volume while sparing organs at risk. In addition to time sparing, the simplex results of three patients with a cancer of the oropharynx, showed that the quality of the plan is also increased compared to a manual beam selection. Indeed, for an equivalent or even a better target coverage, it reduces the dose received by the organs at risk. The second axis of work concerned the optimisation of pre-treatment quality control. We used an industrial method: Statistical Process Control (SPC) to retrospectively analyse the absolute dose quality control results performed using an ionisation chamber at Centre Alexis Vautrin (CAV). This study showed that SPC is an efficient method to reinforce treatment security using control charts. It also showed that our dose delivery process was stable and statistically capable for prostate treatments, which implies that a reduction of the number of controls can be considered for this type of treatment at the CAV
30

Nabli, Lotfi. "Surveillance préventive conditionnelle prévisionnelle indirecte d'une unité de filature textile : approche par la qualité". Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-158.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les unites de production sont actuellement soumises a de fortes contraintes de disponibilite, de productivite, de qualite et de flexibilite. Les problemes a resoudre sont relatifs a la surveillance, au controle qualite et a la maintenabilite. Il s'agit de surveiller et garder operationnels les entites du procede de fabrication, de les synchroniser, de les coordonner et d'integrer les ressources humaines et materielles, dans une approche de gestion de la qualite. Dans ce travail de these, nous nous interessons a la description fonctionnelle des principales activites d'une unite de filature textile dans le but de mettre en place une forme de surveillance preventive conditionnelle previsionnelle indirecte (spcpi), permettant d'ameliorer son niveau de surete de fonctionnement (fiabilite, disponibilite, maintenabilite, etc. ). Cette etude necessite des outils de modelisation et d'evaluation. Nous avons opte pour une modelisation modulaire, a base de la methode sadt qui decompose le systeme en activites elementaires permettant de definir les liens existant entre les parametres de qualite du produit et l'etat des entites du procede. Nous avons ainsi montre que la cause d'une derive de la qualite du produit est liee a l'etat defaillant d'une entite ayant entraine une baisse de ses performances. Les quatre processus de spcpi developpes dans ce memoire sont le suivi d'evolution, la detection, le pronostic et le diagnostic. L'originalite de l'approche du suivi d'evolution de la qualite du produit reside dans la mise en place d'une technique d'inference floue appelee la moyenne dynamique des metriques mdm de logique floue
La mdm est comparee a une methode standard comme la methode somme-produit. La fonction detection, basee sur le principe de seuillage permet l'estimation de l'amplitude d'une derive pour le declenchement du processus de pronostic. Une illustration de ce processus est mise en uvre sur la base d'une fonction de prevision basee sur la methode du gradient. Le diagnostic est realise en exploitant les gammes de longueurs d'ondes definis par l'analyse des defauts periodiques. L'ensemble de ce travail a ete concretise par le developpement d'un outil permettant la mise en uvre de cette approche de spcpt. Cet outil est baptise misufit (maquette informatisee de surveillance d'une unite de filature des industries textiles)
31

Arazo, Alberto. "Sûreté de fonctionnement de systèmes logiciels critiques : validation expérimentale d'un système de contrôle-commande du commerce". Toulouse, INPT, 2002. http://www.theses.fr/2002INPT018H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'acquisition de systèmes logiciels sur étagère (COTS) pose une problématique sérieuse pour la sûreté de fonctionnement des systèmes critiques auxquels ils s'intègrent et des nouvelles stratégies de validation s'avèrent nécessaires. La principale difficulté provient du peu d'information à priori disponible sur leur conception, ce qui rend impossible leur validation, dans des conditions opérationnelles, avec un niveau de confiance compatible avec des exigences critiques. La démarche que nous préconisons a été définie dans le cadre d'un processus d'acceptation dans lequel un industriel cherche à acquérir et à qualifier un système complet de contrôle-commande du commerce (SCC-COTS), répondant à ses exigences de sûreté de fonctionnement et à celles des autorités de tutelle. Notre démarche propose tout abord un méta-modèle d'architecture de système, permettant d'instancier une offre de SCC-COTS compatible avec les besoins fonctionnels de l'acquéreur. Le méta-modèle proposé vise à fournir les moyens pour, d'une part, construire le référentiel d'informations suffisantes pour la validation expérimentale de la sûreté de fonctionnement par injection de fautes et, d'autre part, mieux identifier et analyser l'impact des fautes injectées sur les exigences aussi bien fonctionnelles que de sûreté de fonctionnement. Autour de ce référentiel nous avons conçu un outillage de support où l'analyse formelle du comportement des composants logiciels du SCC-COTS prend une place importante. Les exécutions symboliques déduites de cette analyse constituent un oracle d'une implémentation. Elles permettent aussi bien d'analyser l'impact de fautes sur les propriétés du système, exprimées à l'aide de la logique temporelle, que de guider le test opérationnel des mécanismes internes de tolérance aux fautes. Ce dernier aspect est illustré sur un mécanisme de communication d'un SCC-COTS, destiné à la supervision de centrales de production d'énergie.
32

Boudaoud, Nassim. "Conception d'un système de diagnostic adaptatif en ligne pour la surveillance des systèmes évolutifs". Compiègne, 1997. http://www.theses.fr/1997COMP1060.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La surveillance des procédés (industriels, environnementaux, etc. ) est devenue un enjeu économique majeur dont le diagnostic est une composante importante. Le diagnostic d'un procédé consiste à déterminer à chaque instant l'état sous lequel il évolue. La conception d'un système de diagnostic suppose une connaissance des modes de fonctionnement du procédé. Cette connaissance est rarement exhaustive. Des procédures d'adaptation permettent d'enrichir cette connaissance au fur et à mesure que de nouveaux modes de fonctionnement apparaissent. L'étude a porté sur la recherche de solutions au problème d'adaptation en ligne d'un système de diagnostic par reconnaissance des formes dans le cadre de systèmes évolutifs. La solution proposée consiste à associer au système de diagnostic une boucle de supervision. Le système de diagnostic ainsi développé est capable de détecter des dérivés à partir d'un mode de fonctionnement connu, de détecter la stabilisation dans un mode connu ou inconnu et d'anticiper l'évolution de l'état de fonctionnement du système. Le diagnostic est généré sous forme symbolique. L'originalité de ce travail réside dans le fait que nous avons fait collaborer une approche par reconnaissance des formes et une approche par modèles pour élaborer un système diagnostic auto-adaptatif en ligne. Les performances de ce système ont été évaluées sur deux applications : - la surveillance du réseau téléphonique francais. - la surveillance de la qualité de l'eau. Les résultats ont montré la capacité du système à détecter des dérivés à partir d'un état de fonctionnement normal et à anticiper le degré de pollution de la rivière.
33

Zhu, Wenjin. "Maintenance of monitored systems with multiple deterioration mechanisms in dynamic environments : application to wind turbines". Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés contribuent à la modélisation stochastique de la maintenance de systèmes mono- ou multi-composants à détériorations et à modes de défaillances multiples en environnement dynamique. Dans ce cadre, les contributions portent d'une part sur la modélisation des processus de défaillance, et d'autre part sur la proposition de structures de décision de maintenance intégrant les différents types d'information de surveillance en ligne disponible sur le système (état de détérioration mesuré ou reconstruit, état de l'environnement, ...) et le développement des modèles mathématiques d'évaluation associés. Les modèles de détérioration et de défaillances proposés pour les systèmes mono-composants permettent de rendre compte de sources de détérioration multiples (chocs et détérioration graduelle) et d'intégrer les effets de l'environnement sur la dégradation. Pour les systèmes multi-composants, on insiste sur les risques concurrents, indépendants ou dépendants et sur l'intégration de l'environnement. Les modèles de maintenance développés sont adaptés aux modèles de détérioration proposés et permettent de prendre en compte la contribution de chaque source de détérioration dans la décision de maintenance, ou d'intégrer de l'information de surveillance indirecte dans la décision, ou encore de combiner plusieurs types d'actions de maintenance. Dans chaque cas, on montre comment les modèles développés répondent aux problématiques de la maintenance de turbines et de parcs éoliens
The thesis contributes to stochastic maintenance modeling of single or multi-components deteriorating systems with several failure modes evolving in a dynamic environment. In one hand, the failure process modeling is addressed and in the other hand, the thesis proposes maintenance decision rules taking into account available on-line monitoring information (system state, deterioration level, environmental conditions …) and develops mathematical models to measure the performances of the latter decision rules.In the framework of single component systems, the proposed deterioration and failure models take into account several deterioration causes (chocks and wear) and also the impact of environmental conditions on the deterioration. For multi-components systems, the competing risk models are considered and the dependencies and the impact of the environmental conditions are also studied. The proposed maintenance models are suitable for deterioration models and permit to consider different deterioration causes and to analyze the impact of the monitoring on the performances of the maintenance policies. For each case, the interest and applicability of models are analyzed through the example of wind turbine and wind turbine farm maintenance
34

Gérard, Karine. "Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des contrôles qualité par la Maîtrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI)". Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL064N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La Radiothérapie Conformationnelle par Modulation d’Intensité (RCMI) est aujourd’hui reconnue comme une technique de référence permettant d’augmenter le contrôle local de la tumeur tout en réduisant la dose reçue par les organes à risques avoisinants. Cependant, son développement est freiné par l’étape de préparation du traitement du patient qui nécessite une charge de travail considérable. Dans le but d’augmenter l’efficience de la mise en œuvre d’un traitement, deux axes de travail ont été déterminés. Le premier axe concernait l’optimisation automatique des incidences des faisceaux. Nous avons pour cela mis en œuvre un algorithme (le simplexe) qui a été intégré dans le système de planification de traitement. Il permet, à partir des objectifs dosimétriques fixés par l’utilisateur, de déterminer automatiquement les incidences de faisceaux optimales : irradiant suffisamment le volume cible tout en épargnant les organes à risques avoisinants. En plus d’un gain en temps, les résultats du simplexe ont montré – sur trois patients atteints d’un cancer de l’oropharynx – un gain en qualité par rapport à une sélection manuelle des faisceaux. En effet, pour une couverture du volume cible équivalente voire meilleure, il permet de réduire la dose reçue par les organes à risques. Le second axe concernait l’optimisation des contrôles pré-traitement. Nous avons pour cela utilisé une méthode industrielle : la Maîtrise Statistique des Processus (MSP) afin d’analyser rétrospectivement les résultats des contrôles de la dose absolue effectués avec la chambre d’ionisation au Centre Alexis Vautrin (CAV). Cette étude a montré l’intérêt de la MSP pour renforcer la sécurité des traitements grâce à la mise en place de cartes de contrôle. Elle a également montré que notre processus de délivrance de la dose était stable et statistiquement capable pour les traitements de la prostate, ce qui implique qu’une réduction du nombre de contrôles peut être envisagée pour ce type de traitement au CAV
Intensity Modulated Radiation Therapy (IMRT) is currently considered as a technique of choice to increase the local control of the tumour while reducing the dose to surrounding organs at risk. However, its routine clinical implementation is partially held back by the excessive amount of work required to prepare the patient treatment. In order to increase the efficiency of the treatment preparation, two axes of work have been defined. The first axis concerned the automatic optimisation of beam orientations. We integrated the simplex algorithm in the treatment planning system. Starting from the dosimetric objectives set by the user, it can automatically determine the optimal beam orientations that best cover the target volume while sparing organs at risk. In addition to time sparing, the simplex results of three patients with a cancer of the oropharynx, showed that the quality of the plan is also increased compared to a manual beam selection. Indeed, for an equivalent or even a better target coverage, it reduces the dose received by the organs at risk. The second axis of work concerned the optimisation of pre-treatment quality control. We used an industrial method: Statistical Process Control (SPC) to retrospectively analyse the absolute dose quality control results performed using an ionisation chamber at Centre Alexis Vautrin (CAV). This study showed that SPC is an efficient method to reinforce treatment security using control charts. It also showed that our dose delivery process was stable and statistically capable for prostate treatments, which implies that a reduction of the number of controls can be considered for this type of treatment at the CAV
35

Tamani, Karim. "Développement d'une méthodologie de pilotage intelligent par régulation de flux adaptée aux systèmes de production". Chambéry, 2008. http://www.theses.fr/2008CHAMS012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans cette thèse portent sur la conception d'une méthodologie de pilotage intelligent pour les systèmes de production à forte densité de flux. Les caractéristiques de ces systèmes nous permettent d'appréhender la représentation des flux y circulant par un modèle continu. Ainsi, a partir du modèle obtenu, la méthodologie de pilotage proposée vise à améliorer les performances du système de production en présence de diverses perturbations. Dans ce contexte, en considérant une décomposition du système en modules de production élémentaires, nous avons proposé une structure de pilotage distribuée et supervisée a deux niveaux : un niveau de « commande locale » ayant pour objectif de réguler les flux traversant chaque module de production sur la base des informations locales (surplus, niveaux des stocks), un niveau de « supervision » dédié à la coordination des contrôleurs locaux afin de suivre les objectifs globaux. Au niveau de la commande locale, nous avons opté pour une structure distribuée et adopté une approche de pilotage fondée sur Ie principe du surplus. Ce principe consiste à allouer de la capacité en ajustant le taux de production de chaque module afin de satisfaire les demandes tout en évitant les ruptures et les blocages. Compte tenu des difficultés liées aux formalismes analytiques et aux incertitudes du système et son environnement, nous avons utilisé des techniques à base d'expertise en exploitant les systèmes flous de Takagi-Sugeno. Au niveau de la commande globale, la supervision est introduite afin d'améliorer la réactivité de la commande locale ainsi que les performances du système en intégrant les objectifs globaux via un mécanisme capable de réaliser des compromis entre des objectifs antagonistes. Lorsqu'une dérive est constatée, l'action de supervision est déployée sous forme d'une composante additive. La fonction de supervision est formalisée en exploitant des mécanismes d'agrégation à base de règles floues et d'opérateurs d'agrégation. Les superviseurs développés se distinguent par : la représentation des objectifs par des intervalles conventionnels et flous, Ie formalisme d'agrégation utilisé et les informations agrégées. Enfin, la méthodologie proposée a été validée, par simulation continue, sur des systèmes de production complexes et à gros volume
This thesis deals with development of an intelligent flow control approach applied to the field of high-volume production systems. In this context, the flow of parts is approximated by a continuous-flow (fluid) model. Thus, based on the obtained model, the proposed methodology aims at improving the performance of the overall system in presence of disturbances. In this context, based on the decomposition of a production system into basic modules, a two-level control architecture is proposed : a local control level for regulating the material flows at each basic production module on the basis of local information (surplus and buffer levels). A supervisory control level for coordinating the lower level distributed controllers and tracking the global objectives. Firstly, at the local control level, the surplus-based approach is adopted to regulate the flow into each production module. The control policy allocates the needed capacity by adjusting the processing rates in order to satisfy the demand and eliminate machine starvation or blocking. In this case, the local control structure is distributed. Due to the limitation of the existing analytical surplus-based approaches and the presence of uncertainties, the local controller is designed on the basis of expert knowledge according to the Takagi-Sugeno fuzzy formalisms. Next, the supervision level is introduced in order to enhance the reactivity of the local control and improve the overall production-system performances by integrating the global objectives through a decisional mechanism able to deal with conflicting situations. The supervisory control action is deployed as an additive component when a degraded operating mode is detected. In this context, the function of the supervisor is formalized by using aggregation mechanisms based on the fuzzy rules and the aggregation operators. The developed supervisors differ by : the interval representation of the objectives (conventional and fuzzy), the aggregation mechanisms and the aggregated information. Lastly, simulation results through a continuous-flow simulator on some complex production systems of high-volume are presented to illustrate the feasibility of the proposed methodology
36

Valentin, Nicolas. "Construction d'un capteur logiciel pour le contrôle automatique du procédé de coagulation en traitement d'eau potable". Compiègne, 2000. http://www.theses.fr/2000COMP1314.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'établissement de modèles du comportement des systèmes est un problème incontournable en automatique. D'importants efforts dans le développement de méthodes de contrôle et de surveillance automatique ont été effectués durant ces dernières années. Le présent travail s'inscrit dans ce courant de recherche, en proposant une nouvelle approche pour l'automatisation du dosage de coagulant en traitement d'eau potable. L'objectif des traiteurs d'eau est la production d'une eau potable de qualité irréprochable à un faible coût. La coagulation est l'une des étapes les plus importantes dans le traitement des eaux de surface. Le contrôle de cette opération est essentiel pour la maîtrise de la qualité de l'eau traitée en sortie (turbidité), pour le contrôle du coagulant résiduel en sortie et la diminution des coûts de fonctionnement (coût des produits chimiques et opération de maintenance). Cette thèse aborde le problème de la prédiction en ligne de la dose optimale de coagulant dans une usine de traitement d'eau potable en fonction des caractéristiques de l'eau brute (conductivité, turbidité, pH, etc. ) à l'aide d'un modèle basé sur les réseaux de neurones artificiels (RNA). Le procédé de coagulation met en jeu de nombreux phénomènes physiques et chimiques complexes qu'il est difficile modéliser en utilisant des méthodes de modélisation traditionnelles. Il a été démontré, expérimentalement, que la quantité de coagulant assurant une efficacité optimale du procédé de coagulation n'est pas linéairement corrélée avec les paramètres de qualité de l'eau brute telles que la turbidité, la conductivité, le pH, la température, etc. Le capteur logiciel développé est un système hybride comprenant une carte auto-organisatrice de Kohonen (SOM) pour la validation et la reconstruction des données, et un perceptron multicouches (MLP) pour la modélisation du procédé de coagulation. L'intérêt principal du système réside dans sa capacité à prendre en compte diverses sources d'incertitude, telles que des données d'entrées atypiques, des erreurs de mesure et la taille limitée de l'ensemble d'apprentissage. Des résultats expérimentaux sont présentés et montrent l'efficacité de cette approche.
37

Rachelson, Emmanuel. "Problèmes décisionnels de Markov temporels : formalisation et résolution". Toulouse, ISAE, 2009. http://www.theses.fr/2009ESAE0014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite de planification dans l'incertain en environnement instationnaire. Nous cherchons à construire un agent logiciel autonome, capable de se coordonner avec l'évolution de son environnement. Cet environnement est constitué d'autres agents communiquant leurs intentions ou de processus concurrents non-contrôlables pour lesquels un modèle est disponible. Nous explorons plusieurs approches de modélisation d'une dépendance continue au temps dans le cadre des Processus Décisionnels de Markov (MDP), aboutissant à la définition des Problèmes Décisionnels de Markov Temporels. Puis, nous nous intéressons à deux paradigmes distincts. En premier lieu, nous considérons des modèles à événements implicites et les écrivons comme des MDP dépendants du temps (TMDP). Nous étendons l'équation d'optimalité classique et présentons un algorithme d'Itération de la Valeur utilisant des représentations polynômiales par morceaux que nous testons sur deux problèmes de planification pour drones. Ces conclusions permettent alors une discussion plus générale au sujet des actions paramétriques pour les MDP à temps observable. Dans un second temps, nous modélisons séparément les contributions concurrentes d'événements exogènes au système. Cette approche de modélisation à événements explicites mène aux Processus Décisionnels Semi-Markoviens Généralisés (GSMDP). Nous établissons un lien entre la théorie de Spécification des Systèmes à Evénements Discrets (DEVS) et le formalisme GSMDP, permettant ainsi la définition de simulateurs cohérents. Puis nous adoptons une approche d'Itération de la Politique fondée sur la simulation que nous testons sur un problème de contrôle d'un réseau de métro.
38

Tchoffa, David. "A partir d’une étude ethnométhodologique du "bug de l'an 2000", intégration d’un processus d’amélioration continue de gestion de bugs, incidents, problèmes, changements et configurations pour les systèmes d’information critiques". Paris 8, 2006. http://www.theses.fr/2006PA082736.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de la présente thèse est de contribuer au débat suivant : comment gérer bugs, incidents, problèmes et changements qui apparaissent dans les grands systèmes d’informations critiques ? On revient d’abord sur les évolutions théoriques et technologiques du domaine. On traite ensuite des méthodologies récentes autour des référentiels (CMMI, COBIT, ITIL) qui visent à améliorer les méthodes de gestion d’incidents, problèmes, configurations dans les aspects techniques, organisationnels et stratégiques. Une analyse comparative est effectuée avant d’adopter une posture pragmatique faisant intervenir les spécificités en matière d’intégration de technologies, de management de processus et d’intégration des démarches d’amélioration continue. Le travail débouche alors sur des nouvelles propositions, basées sur un modèle de pilotage par la connaissance, en matière de modélisation et de conduite de la gestion des problèmes. On décrit alors la conception et le développement d’un logiciel qui démontre la faisabilité du modèle de pilotage proposé. Sa mise en place et son utilisation sur le terrain sont évalués afin de mesurer l’opportunité et les limites d’un tel système.
39

Prawatya, Yopa Eka. "Multivariate optimisation and statistical process control of polymer triboelectric charging". Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2262/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif principal de la thèse a été d'étudier le comportement triboélectrique des contacts glissants à sec entre matériaux polymères (ABS, PE, PP, PS et deux types de PVC), incluant la possibilité de contrôler et d'optimiser les résultats générés, en termes de charge électrique et d’usure. Un tribomètre linéaire a été conçu et construit, afin de permettre le réglage des principales variables de contrôle du processus de charge triboélectrique : force normale, vitesse de glissement, durée et course. Ce dispositif facilite la mesure de certaines grandeurs physiques caractérisant les conditions de frottement: les variations des forces normale et tangentielle, ainsi que le déplacement relatif entre les éprouvettes. De plus, la charge électrique générée et l’augmentation de la température à la surface du polymère ont été aussi été mesurées et mise en relation avec les propriétés tribologiques. Les expériences ont montré que le niveau et la distribution de la charge générée par le frottement sec dépendent de la force normale appliquée, du temps de frottement (le nombre de cycles), de la vitesse de glissement, des propriétés mécaniques des matériaux et de la rugosité ou de la texture des surfaces en contact. La décharge couronne peut être utilisée pour déposer une charge initiale sur les surfaces avant le glissement. La modélisation du processus de charge triboélectrique a été faite avec la méthodologie des plans d’expériences. Les résultats peuvent alors être utilisés pour prédire et optimiser la charge triboélectrique. Des cartes de contrôle peuvent assurer le monitoring du processus et la détection de variations non-maîtrisés de la charge générée par effet triboélectrique
The main objective of the thesis was to study the triboelectric behavior of dry sliding contacts between polymeric materials (ABS, PE, PP, PS and two types of PVC), including the possibility to control and optimize the results in terms of either surface charge generated or wear. A linear tribometer with tribocharging capabilities was designed and built, to enable the study of the sliding contact between solids and to allow the adjustment of main tribocharging control variables: normal force, sliding speed, time and stroke. This device also provided measurement data to characterize the friction condition: the variations of the normal and tangential forces, as well as the relative displacement between the specimens. Furthermore, the electric charge generated and temperature raise due to rubbing on the surface of the polymer were measured, so that to investigate the relationship between the tribological properties. The experiments showed that the level and distribution of the charge generated by dry friction depends on the normal force applied, friction time (cycle), sliding speed, material mechanical properties and surface roughness or texture. Corona discharge may be used to provide initial charge on the surfaces before sliding. Modelling of tribocharging processes was done using the design of experiments methodology. The models can be used to predict and optimize the tribocharging. Control charts were used to monitor the process and detect the special causes of variation in the charge generated by triboelectric effect
40

Huynh, Khac Tuan. "Quantification de l'apport de l'information de surveillance dans la prise de décision en maintenance". Phd thesis, Université de Technologie de Troyes, 2011. http://tel.archives-ouvertes.fr/tel-00788661.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La surveillance de l'état d'un système peut fournir des informations utiles pour la prise de décision en maintenance, mais peu d'outils de modélisation permettent de les intégrer correctement dans le processus de décision. L'originalité des travaux présentés ici réside dans la construction de nouveaux modèles probabilistes quantitatifs dont l'objectif est d'évaluer l'apport de l'information de surveillance en fonction de sa qualité et des grandeurs observées, dans un contexte d'optimisation de la maintenance. Les modèles stochastiques de défaillance et de mesure proposés intègrent à la fois les données capteurs relatives à la dégradation/défaillance du système à maintenir, les informations de surveillance sur l'impact de l'environnement opérationnel, et les caractéristiques des techniques de contrôle. En s'appuyant sur ces modèles, on propose des politiques de maintenance et on développe des modèles de coût associés pour étudier les meilleures méthodes d'exploitation de l'information de surveillance. L'ensemble des études menées montrent l'intérêt de développer des structures de décision de maintenance qui permettent d'intégrer l'information de surveillance et d'en évaluer l'impact sur les performances de la maintenance.
41

Arbelaez, Garces Giovanny Alberto. "Intégration des préférences des parties prenantes et amélioration de l'acceptabilité lors du processus de co-conception : application au système de santé". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0069/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Développer des produits mieux acceptés en intégrant les préférences des parties prenantes constitue un principal défi pour les concepteurs et les chefs de projet. Comment évaluer et améliorer l'acceptabilité des utilisateurs est devenu une importante question de recherche. Les approches actuelles laissent cette question pour les dernières étapes du processus de développement de nouveaux produits (NPD), quand un prototype est presque fini et quand c’est trop tard pour apporter des modifications. Pour cela nos travaux se déclinent dans les contributions suivantes : • Principes et démarches de co-conception testés au travers deux études de cas. • Démarche de co-adaptation de l'habitat pour le maintien à domicile. • Démarche d'évaluation du niveau d'acceptabilité d'une solution basée sur les réseaux bayésiens. • Démarche d'amélioration du niveau d'acceptabilité évalué, permettant la recherche et simulation de scénarios d'amélioration, combinant les réseaux bayésiens et un algorithme de recuit simulé. Les modèles et démarches proposés ont été appliqués à des projets de conception dans le domaine de la santé pour lequel nous avons pu identifier des spécificités
Developing products that are better accepted by integrating users’ and stakeholders’ preferences is a major challenge for designers and project managers. How to evaluate and improve users’ acceptability has become an important research question. Current approaches leave the acceptability evaluation question for the last stages of New Product Development process (NPD), when a prototype is almost finished and when it is too late to make changes. For this our work is divided in the following contributions: • The test of the co-design approaches through two case studies. • A co-adaptation approach of the habitat for home-healthcare. • An assessment approach of the acceptability level of a solution based on Bayesian networks. • An improvement approach of the assessed acceptability level, enabling the research and simulation of improvement scenarios, combining Bayesian networks and a simulated annealing algorithm
42

Ibrahim, Dalia. "Étude théorique d'indicateurs d'analyse technique". Thesis, Nice, 2013. http://www.theses.fr/2013NICE4008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ma thèse est d'étudier mathématiquement un indicateur de rupture de volatilité très utilisé par les praticiens en salle de marché. L'indicateur bandes de Bollinger appartient à la famille des méthodes dites d'analyse technique et donc repose exclusivement sur l'historique récente du cours considéré et un principe déduit des observations passées des marchés, indépendamment de tout modèle mathématique. Mon travail consiste à étudier les performances de cet indicateur dans un univers qui serait gouverné par des équations différentielles stochastiques (Black -Scholes) dont le coefficient de diffusion change sa valeur à un temps aléatoire inconnu et inobservable, pour un praticien désirant maximiser une fonction objectif (par exemple, une certaine utilité espérée de la valeur du portefeuille à une certaine maturité). Dans le cadre du modèle, l'indicateur de Bollinger peut s'interpréter comme un estimateur de l'instant de la prochaine rupture. On montre dans le cas des petites volatilités, que le comportement de la densité de l'indicateur dépend de la volatilité, ce qui permet pour un ratio de volatilité assez grand, de détecter via l'estimation de la distribution de l'indicateur dans quel régime de volatilité on se situe. Aussi, dans le cas des grandes volatilités, on montre par une approche via la transformée de Laplace, que le comportement asymptotique des queues de distribution de l'indicateur dépend de la volatilité. Ce qui permet de détecter le changement des grandes volatilités. Ensuite, on s'intéresse à une étude comparative entre l'indicateur de Bollinger et l'estimateur classique de la variation quadratique pour la détection de changement de la volatilité. Enfin, on étudie la gestion optimale de portefeuille qui est décrite par un problème stochastique non standard en ce sens que les contrôles admissibles sont contraints à être des fonctionnelles des prix observés. On résout ce problème de contrôle en s'inspirant de travaux de Pham and Jiao pour décomposer le problème initial d'allocation de portefeuille en un problème de gestion après la rupture et un problème avant la rupture, et chacun de ces problèmes est résolu par la méthode de la programmation dynamique . Ainsi, un théorème de verification est prouvé pour ce problème de contrôle stochastique
The aim of my thesis is to study mathematically an indicator widely used by the practitioners in the trading market, and designed to detect changes in the volatility term . The Bollinger Bands indicator belongs to the family of methods known as technical analysis which consist in looking t the past price movement in order to predict its future price movements independently of any mathematical model. We study the performance of this indicator in a universe that is governed by a stochastic differential equations (Black-Scholes) such that the volatility changes at an unknown and unobservable random time, for a practitioner seeking to maximize an objective function (for instance, the expected utility of the wealth at a certain maturity). Within the framework of the model, Bollinger indicator can be interpreted as an estimator of the time at which the volatility changes its value. We show that in the case of small volatilities, the density behavior of the indicator depends on the value of the volatility, which allows that for large ratio of volatility, to detect via the distribution estimation in which regime of volatility we are. Also , for the case of large volatilities, we show by an approach via the Laplace transform that the asymptotic tails behavior of the indictor depends on the volatility value. This allows to detect a change for large volatilities. Next, we compare two indicators designed to detect a volatility change: the Bollinger bands and the quadratic variation indicators. Finally, we study the optimal portfolio allocation which is described by a non-standard stochastic problem in view of that the admissible controls need to be adapted to the filtration generated by the prices. We resolve this control problem by an approach used by Pham and Jiao to separate the initial allocation problem into an allocation problem after the rupture and an problem before the rupture, and each one of these problems is resolved by the dynamic programming method. Also, a verification theorem is proved for this stochastic control problem
43

Kaiser, Eurika. "Low-dimensional modeling and control of shear flows using cluster analysis". Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2295.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une modélisation d'ordre réduit basée sur le partitionnement des données (cluster-based reduced-order modelling ou CROM) est développée pour identifier de manière non supervisée des mécanismes d'interaction non linéaires. La connaissance de ces mécanismes permet de pronostiquer la formation d’événements souhaitables ou non. L’approche proposée adopteun point de vue probabiliste en mettant à profit la linéarité de l’équation d’évolution de probabilité qui tient cependant compte d'éventuelles actions non linéaires des actionneurs. Le cadre est appliqué à l’attracteur de Lorenz, aux données numériques de la couche de mélange, à la turbulence tridimensionnelle du sillage d’un corps non profilé, d’un train, et aux données expérimentales d’un moteur à combustion.Pour ces exemples, le CROM permettait l'identification des quasi-attracteurs par exemple les deux régimes d’écoulement de la couche de mélange ou les états bimodaux du corps Ahmed . Les transitions principales entre ces quasi-attracteurs sont caractérisées par des regroupements de données appelé « flipper cluster ». L'identification de ces « flipper cluster » peut servir pour le contrôle des écoulements en utilisant le partitionnement des données obtenues par exemple de l'évolution temporelle de la traînée ou de la portance.Un contrôle en boucle fermé basé sur la CROM est appliqué à un écoulement le long d'une rampe courbée en vue de diminuer les extensions de la zone de recirculation par rapport à la meilleure excitation périodique en boucle ouverte. L'actionneur est mis en marche en fonction des regroupements préalablement observés. Le résultat est comparé à l’ensemble des lois de contrôle définies par toutes les combinaisons possibles des « on » et « of » par les regroupements de données. Bien quele contrôle basé sur la CROM ne permet pas de réduire la zone de recirculation par rapport à la réduction maximale en boucle ouverte, 28 % de l'apport d 'énergie nécessaire et 81 % pour une loi de contrôle particulière peuvent être économisé
A cluster-based reduced-order modeling strategy is developed for the unsupervised identification of nonlinear flow mechanisms and precursors to desirable or undesirable events. The proposed approach assumes a probabilistic viewpoint taking advantage of the linearity of the evolution equation for the probability while including nonlinear actuation dynamics.The framework is applied to the Lorenz attractor, numerical data of the spatially evolving mixing layer, the three-dimensional turbulent wake of a bluf body, of a train, and experimental data of a combustion engine.For these examples, CROM has been shown to identify quasi-attractors such as the two shedding regimes of the mixing layer or the bimodal states of the Ahmed body; main transition processes between those quasiattractors are characterized by branching regions or flipper cluster; desirable phase space regions and possible actuation mechanisms areindicated by analysis of cluster features like drag and lift forces which can be further exploited for control purposes.In particular, a CROM-based feedback control is applied to a separating flow over a smooth ramp to examine whether the recirculation area can be diminished compared to the best open-loop periodic excitation by turning the actuation on or of depending on the applicable cluster. The CROMbased control is compared to the complete set of control laws defined byall possible combinations of 'on' and 'of' for the given set of clusters.While the recirculation area cannot be further decreased compared to the best open-loop forcing, a similar size can be achieved for 28% (CROMbased control) or 81% (one particular control law) savings in the control input energy
44

Bringer, Yves. "Performances de nouvelles architectures machines pour la mise en oeuvre d'algorithmes de traitement et d'analyse d'image". Saint-Etienne, 1993. http://www.theses.fr/1993STET4024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une carte électronique a été réalisée à l'Institut de chimie et physique industrielles de Lyon utilisant quatre processeurs à architecture à flot de données et programmable liant ainsi puissance et souplesse d'utilisation. Pour valider cette architecture pour le traitement et l'analyse d'image, l'approche a été double : - mise en oeuvre d'algorithme à la fois coûteux et originaux scientifiquement : algorithme de Danielson, suppression de flou, reconstruction 3D. - implantation sur site industriel avec prise en compte des contraintes de temps et intégration dans une chaine complète de contrôle
45

Bignon, Alain. "Génération conjointe de commandes et d'interfaces de supervision pour systèmes sociotechniques reconfigurables". Phd thesis, Université de Bretagne Sud, 2012. http://tel.archives-ouvertes.fr/tel-00735869.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conception de grands systèmes se heurte souvent à des problèmes de communication au sein des équipes de concepteurs et à l'incohérence de certains documents de conception. Nous avons identifié deux approches de conception concurrentes mais complémentaires. L'une est ascendante et voit la conception réalisée par agrégation de composants standardisés, l'autre est descendante et voit la conception réalisée par raffinages successifs d'un modèle de base. Dans ces travaux, nous proposons un flot de conception intégré, tirant partie des deux approches et permettant la génération conjointe de commandes et d'interfaces de supervision pour un système sociotechnique reconfigurable. Conformément à notre retour d'expérience industriel, notre approche est basée sur un modèle métier appelé synoptique, et sur une bibliothèque d'éléments standards. Nous proposons également un modèle d'analyse des configurations du système. Il peut être utilisé pour une analyse hors ligne, afin de valider les spécifications de l'expert en charge de la conception. Il peut également être utilisé lors d'une analyse en ligne pour rechercher des configurations alternatives, en cas d'aléas ou de commandes conflictuelles. Nous présentons enfin l'outil Anaxagore, qui implémente le flot proposé et qui permet de générer, en quelques minutes, un programme de commande et une interface de supervision pour un système de gestion des fluides.
46

Bonelli, Maxime. "Modélisation stochastique des marchés financiers et optimisation de portefeuille". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4050/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente trois contributions indépendantes. La première partie se concentre sur la modélisation de la moyenne conditionnelle des rendements du marché actions : le rendement espéré du marché. Ce dernier est souvent modélisé à l'aide d'un processus AR(1). Cependant, des études montrent que lors de mauvaises périodes économiques la prédictibilité des rendements est plus élevée. Etant donné que le modèle AR(1) exclut par construction cette propriété, nous proposons d'utiliser un modèle CIR. Les implications sont étudiées dans le cadre d'un modèle espace-état bayésien. La deuxième partie est dédiée à la modélisation de la volatilité des actions et des volumes de transaction. La relation entre ces deux quantités a été justifiée par l'hypothèse de mélange de distribution (MDH). Cependant, cette dernière ne capture pas la persistance de la variance, à la différence des spécifications GARCH. Nous proposons un modèle à deux facteurs combinant les deux approches, afin de dissocier les variations de volatilité court terme et long terme. Le modèle révèle plusieurs régularités importantes sur la relation volume-volatilité. La troisième partie s'intéresse à l'analyse des stratégies d'investissement optimales sous contrainte «drawdown ». Le problème étudié est celui de la maximisation d'utilité à horizon fini pour différentes fonctions d'utilité. Nous calculons les stratégies optimales en résolvant numériquement l'équation de Hamilton-Jacobi-Bellman, qui caractérise le principe de programmation dynamique correspondant. En se basant sur un large panel d'expérimentations numériques, nous analysons les divergences des allocations optimales
This PhD thesis presents three independent contributions. The first part is concentrated on the modeling of the conditional mean of stock market returns: the expected market return. The latter is often modeled as an AR(1) process. However, empirical studies have found that during bad times return predictability is higher. Given that the AR(1) model excludes by construction this property, we propose to use instead a CIR model. The implications of this specification are studied within a flexible Bayesian state-space model. The second part is dedicated to the modeling of stocks volatility and trading volume. The empirical relationship between these two quantities has been justified by the Mixture of Distribution Hypothesis (MDH). However, this framework notably fails to capture the obvious persistence in stock variance, unlike GARCH specifications. We propose a two-factor model of volatility combining both approaches, in order to disentangle short-run from long-run volatility variations. The model reveals several important regularities on the volume-volatility relationship. The third part of the thesis is concerned with the analysis of optimal investment strategies under the drawdown constraint. The finite horizon expectation maximization problem is studied for different types of utility functions. We compute the optimal investments strategies, by solving numerically the Hamilton–Jacobi–Bellman equation, that characterizes the dynamic programming principle related to the stochastic control problem. Based on a large panel of numerical experiments, we analyze the divergences of optimal allocation programs

Vai alla bibliografia