To see the other types of publications on this topic, follow the link: Diagnostic – Simulation par ordinateur.

Dissertations / Theses on the topic 'Diagnostic – Simulation par ordinateur'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Diagnostic – Simulation par ordinateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Girard, Patrick. "Diagnostic de pannes temporelles dans les circuits digitaux." Montpellier 2, 1992. http://www.theses.fr/1992MON20053.

Full text
Abstract:
L'objet de cette these est le developpement d'une methodologie de diagnostic des pannes temporelles dans les circuits digitaux. Nous avons propose une alternative a l'utilisation de la simulation de fautes, basee sur l'analyse de chemins critiques. Les resultats obtenus ont permis de mettre en evidence la surete et la precision du processus de diagnostic
APA, Harvard, Vancouver, ISO, and other styles
2

Maalej, Mohamed-Amine, and Véronique Delcroix. "Diagnostic multiple des systèmes complexes à base de réseaux bayésiens." Valenciennes, 2006. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/46028b3e-dbca-41c6-a69f-b740ee4d0519.

Full text
Abstract:
Le diagnostic à base de modèles a révolutionné le domaine du diagnostic en ayant pallié le manque de connaissances par l'utilisation de modèle. Notre recherche se concentre sur la tâche de diagnostic multiple pour un système complexe, fiable et de grande taille à partir d’observations de panne. Nous exploitons les modèles en réseaux bayésiens pour perfectionner le diagnostic de ces systèmes. Ces modèles intègrent les probabilités a priori de défaillance des composants, et permettent, par un calcul approché, de calculer les probabilités a posteriori des diagnostics. Nous présentons une méthodologie de diagnostic à base de réseau bayésien, intégrant d'une part, la méthode de conception du modèle et d'autre part, deux algorithmes de diagnostic : le premier permet le calcul des diagnostics les plus probables pour un système défaillant, le deuxième fournit rapidement des représentants des classes de diagnostic et révèle les cas où des observations supplémentaires sont nécessaires. Nous présentons les résultats de ces algorithmes en terme de temps de calculs et qualité des résultats pour des systèmes numériques de différentes tailles
Model Based Diagnosis approach revolutionizes the field of the diagnosis as overcoming the lack of knowledge by using Model. Our research focuses on the task of multiple diagnosis, from failure observations, for complex and highly-reliable large systems. We take the advantages of the Bayesian networks models to improve the diagnosis of this type of systems. These models integrate the components failures prior probabilities, and allow estimating posterior probabilities of diagnoses, by an approached calculation. We present a methodology of diagnosis using Bayesian network. Our approach integrates a model design method, in addition to two diagnosis algorithms : the first algorithm allows calculating the most probable diagnoses for a failing system; the second provides quickly representatives of the diagnosis classes, it reveals also the cases while additional observations are necessary. Finally we test these algorithms in terms of computing time and results quality for digital circuits of various sizes
APA, Harvard, Vancouver, ISO, and other styles
3

Diallo, Ibrahima. "Etude physique de la détection pour la tomographie de transmission avec simulateur-scanneur : mise en oeuvre d'une barrette d'oxysulfure de gadolinium." Toulouse 3, 1995. http://www.theses.fr/1995TOU30202.

Full text
Abstract:
La realisation de la radiotherapie implique des calculs de distributions de doses complexes reposant sur des donnees anatomiques decrivant aussi bien que possible, en trois dimensions, les structures internes et externes de l'organisme. Ces donnees anatomiques peuvent etre obtenues par coupes tomographiques issues des scanneurs. Malheureusement ceux-ci sont peu disponibles pour les malades de radiotherapie et tres couteux. Aussi l'objectif de notre etude est la recherche des causes des limitations des appareillages utilises pour l'acquisition des donnees anatomiques en radiotherapie, la proposition de solutions technologiques nouvelles mieux adaptees, et enfin la mise en uvre de ces solutions. Nous avons dans un premier temps analyse les possibilites offertes par les principales techniques existantes, puis nous avons mis en uvre et etudie un simulateur-scanneur base sur une chaine de television radiologique. Nous montrons que cette solution conduit a un ecrasement du contraste tres genant dans certaines localisations tumorales. De meme, nous montrons que l'utilisation d'un dispositif a transfert de charges offrant une dynamique superieure a celle du tube analyseur permet d'ameliorer la qualite des coupes tomographiques sans toutefois eliminer les imperfections liees a l'intensificateur d'image radiologique associe. Nous avons donc defini les caracteristiques d'une barrette d'oxysulfure de gadolinium et propose sa realisation a nos partenaires industriels, les societes thomson et mecaserto. Puis, nous avons mis en uvre un simulateur-scanneur prototype base sur cette barrette et l'avons etudie. Nous montrons que cette nouvelle solution elimine en grande partie les imperfections que nous avons mises en evidence sur le simulateur-scanneur base sur la chaine de television radiologique, et donne de meilleurs resultats en termes de dynamique et de contraste. Ces resultats ont conduit nos partenaires industriels au developpement d'un simulateur-scanneur base sur une barrette d'oxysulfure de gadolinium dont nous avons defini les caracteristiques
APA, Harvard, Vancouver, ISO, and other styles
4

Valla, Anthony. "Une méthodologie de diagnostic de la performance d'une chaîne logistique." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0070/these.pdf.

Full text
Abstract:
Le pilotage des chaînes logistiques, qu'elles soient inter ou intra entreprise, a pris ces dernières années une importance grandissante dans la recherche de la performance des entreprises. L'analyse de tels systèmes étendus, des différents types de flux qui le compose et de leur coordination ont fait l'objet de nombreux travaux. Les approches de modélisation du Génie Industriel, proposent des méthodologies et des outils de représentation des systèmes. Cependant aucune des principales approches ne paraît adaptée pour une modélisation de la chaîne logistique en intégrant conjointement différentes vues (physique, fonctionnelle, informationnelle, décisionnelle, etc. ), des éléments dynamiques et stochastiques, une intégration entre des modèles globaux et des modèles détaillés. Notre contribution consiste dans la proposition d'une méthodologie de diagnostic de la performance d'une chaîne logistique avec un objectif de généricité des outils proposés et d'appropriation des résultats par les acteurs opérationnels. Elle a pour objectif d'accompagner les industriels dans le cadre de projets de diagnostic de la performance de leur chaîne logistique : identification des dysfonctionnements, priorisation de leur résolution puis définition et mise en oeuvre des plans d'actions d'amélioration. Les deux niveaux d'analyse proposés (tactique et opérationnel) combinant une approche analyse de processus et de simulation (comportement statique et dynamique du système) en s'appuyant sur des référentiels, conduisent à identifier les dysfonctionnements impactant la performance. Les outils utilisés permettent de valoriser et prioriser ces dysfonctionnements en vue de la définition d'un plan d'action correctif. Notre proposition définit une méthodologie et des outils supports associés d'aide à la décision. Elle se décomose en quatre phases : cadrage, modélisation, analyse du fonctionnement puis optimisation de la performance de la chaîne logistique. La phase initiale de cadrage a pour vocation une définition précise du déroulement et du positionnement de la méthodologie au sein de l'entreprise. Avant le lancement de toute analyse de la performance, les objectifs et l'organisation du projet doivent être définis et le périmètre d'application précisé. L'objectif de la phase de modélisation est la description de la chaîne logistique via les processus. Les enjeux principaux résidentn dans l'obtention d'une représentation objective, précise et claire du fonctionnement de la chaîne. L'analyse du fonctionnement consiste en la réalisation d'une analyse complète de chacun des processus afin d'identifier les dysfonctionnements qui pénalisent la performance de la chaîne logistique. L'objectif est d'obtenir une identification objective et exhaustive des problèmes ainsi que leur validation. La phase d'optimisation de la performance de la chaîne logistique voit la mise en oeuvre d'actions pour l'amélioration de la performance de la chaîne logistique. L'enchaînement des étapes concourant à ce but est le suivant : valorisation et priorisation des dysfonctionnements (les dysfonctionnements sont valorisés au niveau de leur impact, puis classifiés et des liens de corrélation sont mise en évidence afin de pouvoir définir les priorités de résolution), identification des plans d'actions (les solutions potentielles de résolution des problèmes sont identifiées, leurs apports quantifiés puis les plans d'actions sont définis et organisés), mise en oeuvre des actions correctives dans le cadre du suivi des plans d'actions. L'instrumentation de cette méthodologie supportée par les outils ARIS et ARENA, a été réalisée dans le cadre de son application sur le cas de l'entreprise Valrhona
The importance of supply chain management has gre ally lncreased lately in the se arch for company performance. The analysis of su chextended systems, of the ir various types of flows and of the in coordination has been studied by several modelling approaches in the field of lndustrial Engineering. None of them seems suitable to supply chain context, taking account of: several views, dynamic and stochastic characteristics, combined global and detailed models. Our contribution consists in proposing a methodology for supply chain performance diagnostic supported by generic decision support tools and easily usable by actors. Lt is a four-step methodology. The first step aims at precisely defining the sequence and the positioning of the methodology within the company. The goal of the second step is modelling supply chain processes. Thirdly, the functioning analysis step deals with a complete analysis of every process in order to identify malfunctionings which penalise supply chain performance. Lastly, the optimisation step leads to the implementation of improvement actions. The methodology supported by ARIS and ARENA, was experimented on an industrial case with Company Valrhona
APA, Harvard, Vancouver, ISO, and other styles
5

Grondin, Olivier. "Modélisation du moteur à allumage par compression dans la perspective du contrôle et du diagnostic." Rouen, 2004. http://www.theses.fr/2004ROUES054.

Full text
Abstract:
Le travail de cette thèse a pour objet la modélisation du moteur à allumage par compression pour le contrôle et le diagnostic. Le moteur Diesel est le moteur à combustion interne le plus performant et l'un des plus propres grâce aux actionneurs modernes. Cependant, les normes anti-pollutions sont de plus en plus strictes et, aujourd’hui, la réduction des émissions nocives dépend en partie des stratégies de commande des actionneurs. C’est pourquoi, les modèles sont devenus indispensables à chaque étape du développement du contrôle moteur : synthèse des algorithmes de commande, simulation et validation. Le système considéré est un moteur Diesel six cylindres à injection directe équipé d’un turbocompresseur. Le modèle développé repose sur des lois physiques pour les cylindres, les collecteurs, le turbocompresseur et le vilebrequin. Des lois empiriques ont été choisies pour la modélisation de la combustion et des transferts thermiques afin de réduire le temps de simulation. Le modèle, programmé en langage C dans l’environnement Matlab-Simulink, est capable de prédire l’évolution des variables utiles au contrôle moteur au degré vilebrequin. Les résultats sont conformes à ceux obtenus à l’aide d’un code de calcul industriel et ils sont représentatifs des mesures réalisées sur le banc moteur expérimental. Le modèle a ensuite été implanté sur un calculateur puissant nous permettant de disposer d’un simulateur adapté aux applications temps réel. Une partie de cette étude a aussi été consacrée à la modélisation du processus de combustion à l’aide d’un modèle de représentation non linéaire : le modèle NARMAX. L’objectif est de construite un modèle capable de prédire l’évolution de la pression cylindre en exploitant d’autres mesures disponibles sur un moteur. Les coefficients du modèle NARMAX ont été identifiés directement à partir des mesures des entrées et des sorties du système. Ce type de modèle présente l’avantage d’être moins coûteux en terme de temps de calcul par rapport aux modèles physiques. Les résultats sont encourageants et montrent que l’utilisation du régime instantané comme variable d’entrée principale du modèle permet de reproduire l’allure de la pression cylindre dans le cas d’une combustion précoce
This thesis has described an investigation into the modelling of compression ignition engine for control and diagnosis purpose. The Diesel engine is the most efficient and clean internal combustion engine due to modern electromechanical actuators. However, pollutant emission regulations are much more stricter, thus, these complex systems need sophisticated and efficient control algorithms to reach very low emission levels. For this task, engine models are required at each step of the control system development : control laws synthesis, simulation and validation. The system under study is a six cylinder direct injection Diesel engine fitted with a turbocharger. The model of this system is based on physical laws for some parts of the engine such as cylinders, manifolds, turbocharger and crank-slider system. In order to reduce computing time we choose to model heat transfer and heat release during combustion using simple empirical correlations. Resulting model has been implemented in the Matlab-Simulink environment and it can predict variables of interest for control purpose with one degree crank angle resolution. The model has been tested numerically and compared with an industrial engine simulation code with good results. Moreover, model output variables are in good agreement with experimental data recorded on a heavy-duty research engine. The engine model has been embedded on a board providing enough computing performances to perform real-time simulations, this will be helpful for “hardware-in-the-loop” simulations. Another part of this study is dedicated to the combustion process modelling using a non linear phenomenological model : the NARMAX model. The goal is to predict the in-cylinder pressure evolution using other measurements available on the engine. The NARMAX model parameters have been identified using input-output data carried out from the experimental engine. Such model is well suited for real-time applications compare to numerically cost effective physical models. First results are promising and demonstrate that non linear “black-box” models can be employed to model the combustion process with the crankshaft speed as main model input
APA, Harvard, Vancouver, ISO, and other styles
6

Mama, Daouda. "Méthodologie et résultats du diagnostic de l'eutrophisation du lac Nokoué (Bénin)." Limoges, 2010. https://aurore.unilim.fr/theses/nxfile/default/c873af12-66c0-4338-85b4-2f73c2c6e45e/blobholder:0/2010LIMO4015.pdf.

Full text
Abstract:
Cette thèse porte sur la méthodologie et les résultats du diagnostic de l’eutrophisation du lac Nokoué au Bénin, en Afrique de l’Ouest. Elle a traité principalement de la question de la prolifération des jacinthes d’eau. La problématique de la jacinthe d’eau, conséquence de l’eutrophisation et la nécessité d’une approche systémique faisant recours à la modélisation informatisée ont été relevées. Les paramètres physico–chimiques de la qualité de l’eau et des sédiments ont été suivis pendant deux ans (2006 et 2007). Les résultats ont confirmé l’état eutrophe du lac Nokoué et ont mis en évidence la variabilité saisonnière de la qualité des eaux. La production des jacinthes d’eau est régulée par la salinité avec un seuil limite de croissance moins élevé qu’en zone tempérée (10‰ pour le Nokoué contre 15‰ en zone tempérée). Les résultats du modèle montrent que les apports nutritifs proviennent essentiellement de la rivière Sô (97% N et 89% P). La salinité a un effet dominant sur l’indice intégré de croissance des jacinthes d’eau (SII) dans toutes les stations suivies
This thesis focuses on the methodology and results of the diagnosis of eutrophication of Nokoue lake in Benin (West Africa). It dealt mainly with the question of water hyacinth infest. The problem of water hyacinth, a consequence of eutrophication and the need for a systemic approach by computer modeling have been reported. The chemical quality of water and sediment were monitored for two years (2006 and 2007). The results confirmed eutrophic status of Nokoue lake and showed the water quality changes with seasons. The production of water hyacinth is regulated by salinity with a threshold of growth lower than in temperate zone (10 ‰ for Nokoue against 15 ‰ in temperate zone). The model results show that nutrient inputs are mainly from the Sô River (97% N 89% P). Salinity has a dominant effect on the integrated index of water hyacinth growth (SII) in all followed stations
APA, Harvard, Vancouver, ISO, and other styles
7

Gil, Marion. "Rétrodiffusion lumineuse pour le diagnostic précoce et le suivi de pathologies du stroma cornéen : étude expérimentale ex vivo et modélisation." Thesis, Aix-Marseille, 2019. http://theses.univ-amu.fr.lama.univ-amu.fr/190521_GIL_362fb71obz103p970n_TH.pdf.

Full text
Abstract:
Une des fonctions principales de la cornée est de laisser passer la lumière à l’intérieur de l’œil. Cette propriété est notamment liée à une organisation très particulière de son volume, à l’échelle nanométrique. Cette dernière permet de minimiser la diffusion lumineuse qui va au contraire augmenter lorsque certaines pathologies se développent. La diffusion, étant directement liée à la modification structurelle et à différentes échelles du tissu, l’objectif de ce travail de thèse est de montrer en quoi l’étude de la diffusion angulaire apporte une caractérisation riche sur l’état de la cornée, en s’appuyant à la fois sur des résultats expérimentaux et sur des simulations numériques. Les applications portent sur le suivi de la croissance de l’œdème, le tri des greffons cornéens et le test d’efficacité de médicaments. Un outil de diagnostic précoce des pathologies cornéennes permettant de quantifier le taux de désorganisation du tissu à l’échelle nanométrique est également proposé
One of the main functions of the cornea is to allow light to enter the eye. This characteristic is especially related to a very particular organization of its volume at the nanometric scale. This makes it possible to minimize light scattering. The apparition of certain pathologies will induce an increase of this scattering. As scattering can be directly linked to structural modification of the tissue at different scales, the objective of this thesis work is to show how the study of angular scattering provides a way to characterize the condition of the cornea. This is based on both experimental results and numerical simulations. This information leads to diverse applications including monitoring of the growth of edema, sorting corneal grafts and testing the efficiency of drugs. An early diagnosis tool for corneal pathologies is also proposed giving a quantification of the rate of tissue disorganization at the nanoscale
APA, Harvard, Vancouver, ISO, and other styles
8

Devanneaux, Vincent. "Modélisation des machines asynchrones triphasées à cage d'écureuil en vue de la surveillance et du diagnostic." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT038H.

Full text
Abstract:
Le monde industriel est fortement intéressé par un ensemble de techniques permettant de déterminer l'état de santé des machines asynchrones triphasées à cage d'écureuil. Leur modélisation en vue de la surveillance et du diagnostic s'insère dans ce contexte. On inscrit en premier lieu l'ensemble de ces travaux dans le cadre strict de la sûreté de fonctionnement. Cette discipline offre en effet un cadre adapté pour une présentation formalisée des défaillances courantes pouvant affecter les machines asynchrones triphasées à cage d'écureuil. On propose en second lieu une modélisation riche et flexible permettant d'appréhender le comportement de ces machines en présence ou en absence de défaillances. Cette modélisation, synthétisée à partir d'hypothèses peu restrictives, s'appuie sur une description de la topologie constitutive et géométrique réelle des machines asynchrones triphasées à cage d'écureuil sous la forme de circuits électriques magnétiquement couplés. Une défaillance conduisant toujours à une altération topologique de la structure électromagnétique, cette approche permet en effet d'en rendre compte aisément. De nature semi-analytique et ne faisant pas appel aux techniques de calcul numérique des champs, elle offre de plus un compromis intéressant entre la finesse des phénomènes physiques pris en compte et le temps de calcul associé, que ce soit en régime permanent ou en régime dynamique. Les objectifs de cette modélisation sont multiples : compréhension des phénomènes physiques mis en jeu et prédiction de la dégradation des performances lors de l'occurrence de défaillances, extraction et analyse des signatures de défaillances, expérimentation virtuelle pour la mise au point de méthodes de surveillance et de diagnostic. Des résultats expérimentaux issus de prototypes défaillants de machines asynchrones triphasées à cage d'écureuil viennent enfin confirmer le bon comportement de la modélisation adoptée.
APA, Harvard, Vancouver, ISO, and other styles
9

Afnouch, Marwa. "Machine Learning Applications in Medical Diagnosis, case study : bone metastasis." Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2023. http://www.theses.fr/2023UPHF0039.

Full text
Abstract:
Les métastases sont un groupe de cellules anormales qui se développe en dehors des limites de l’organe d’origine et se propagent à d’autres organes. En particulier, les métastases osseuses proviennent d’un organe du corps, tel que le sein, le poumon ou la prostate, et se propagent à l’os. Bien que cette maladie ait été découverte il y a plus d’un siècle, elle n’est toujours pas bien définie et les traitements existants sont peu efficaces, probablement parce qu’elle est difficile et longue à détecter. Pour aider les médecins, les nouvelles techniques d’apprentissage automatique sont une solution pour améliorer la précision globale. Cette thèse vise à aider les radiologues à détecter systématiquement les métastases osseuses à l’aide d’algorithmes d’apprentissage automatique. Cependant, La découverte de biais méthodologiques dans les études sur le diagnostic des métastases osseuses et l’absence de consensus sur l’interprétabilité de l’apprentissage automatique ont déplacé l’objectif de cette thèse. Elle se concentre désormais principalement sur la collecte de données et sur la résolution des problèmes de validation et d’interprétabilité de l’apprentissage automatique. Afin d’évaluer correctement la capacité de l’apprentissage automatique à détecter les métastases osseuses, trois études expérimentales ont été menées. La première propose une nouvelle approche de segmentation soutenue par un mécanisme d’attention pour localiser les lésions osseuses. La deuxième est une étude des méthodes d’apprentissage automatique pour l’identification des cas de métastases osseuses. Enfin, la dernière étude met en évidence le manque de robustesse de la classification à l’aide de méthodes d’apprentissage automatique et propose une méthode pour améliorer la précision basée à la fois sur l’approche CNN et Transformer. Les résultats expérimentaux de cette thèse sont évalués sur l’ensemble de données BM-Seg que nous avons introduit, qui est le premier ensemble de données de référence pour la segmentation et la classification des métastases osseuses à l’aide de tomodensitogrammes. Cette base de données open source a été utilisé pour améliorer la reproductibilité des expériences d’apprentissage automatique. Les résultats trouvés lors des différentes études préliminaires sont encourageants et prometteurs
Metastases are a group of abnormal cells that develop outside the original organ bound aries and spread to other organs. In particular, bone metastases originate in one organ of the body, such as the breast, lung, or prostate, and spread to the bone. Although this disease was discovered more than a century ago, it is still not well defined, and exist ing treatments are weakly effective, possibly because it is difficult and time-consuming to detect. To help physicians, new machine learning technologies promise to improve overall accuracy. This dissertation aims to help radiologists routinely detect bone metas tases using machine learning algorithms. The discovery of methodological biases in studies of bone metastasis diagnosis and the lack of consensus on the interpretability of machine learning have shifted the focus of this dissertation. It now focuses primarily on data collection and overcoming the challenges of validation and interpretability of machine learning. In order to properly assess the ability of machine learning to detect bone metastases, three experimental studies were conducted. The first proposing a novel segmentation approach supported by an attention mechanism to localize bone lesions. The second is a study of machine learning methods for identifying bone metastases cases. Finally, the last study highlights the lack of robustness of classification using machine learning methods and proposes a method to improve accuracy based on both CNN and Transformer approaches. The experimental results of this dissertation are evaluated on our introduced BM-Seg dataset, which is the first benchmark dataset for bone metasta sis segmentation and classification using CT-scans. This novel open-source dataset was used to improve the reproducibility of machine learning experiments. The results of the various preliminary studies are encouraging and promising
APA, Harvard, Vancouver, ISO, and other styles
10

Vela, Valdes Luis Gerardo. "Etude et élaboration d'une approche fonctionnelle pour la localisation de défauts en diagnostic : application à la simulation d'un moteur à courant continu." Nancy 1, 1998. http://www.theses.fr/1998NAN10221.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne le développement d'une approche fonctionnelle dans le domaine du diagnostic de défauts. Cette approche repose sur une classification des connaissances issues du système afin de détecter et localiser les défauts vis-à-vis des caractéristiques les plus représentatives de son comportement. L'objectif de ce travail de recherche est d'aboutir à une meilleure structuration de la connaissance, des moyens et des outils dont on dispose face à un problème de diagnostic afin d'augmenter le nombre de défauts à localiser. L'approche fonctionnelle du diagnostic repose sur la notion de fonction. Celle-ci est utilisée afin de localiser les défauts qui possèdent des signatures identiques. Les caractéristiques les plus représentatives de l'espace de parité, des observateurs et de l'estimation paramétrique sont classifiées à l'aide d'un modèle ontologique. La fonction, au sein du modèle ontologique, permet d'interpréter autrement la connaissance contenue dans les résidus et les signatures. Cette interprétation repose sur la définition et la spécification d'un cadre générique basé sur une analyse structurelle, comportementale et fonctionnelle des étapes de génération de résidus, d'évaluation de résidus et de décision. L'application de l'approche proposée porte sur la simulation d'un moteur à courant continu en boucle ouverte et en boucle fermée en vue de détecter et de localiser des défauts capteurs, actionneurs et composants en présence de signatures identiques. L'apport de l'étude développée dans ce travail de recherche, se situe à l'intersection de deux domaines : l'intelligence artificielle et l'automatique
The work presented in this thesis deals with the development of a functional approach in the fault diagnostic field. This approach is based on the classIfication of knowledge about the system in order to detect and isolate faults with respect to the principal characteristics in the behavior of the system. The objective of this work is to end at a best knowledge specification and utilization of abilities and tools in order to increase the quantity of isolated faults. The functional approach in diagnostic is based on the function. This approach is used in order to isolate the faults that have same signatures. The principal characteristics of parity space, observers and parameter estimation are classified using an ontological model. The function, in the ontological model frame, let to interpret otherwise the knowledge contents in residuals and signatures. This interpretation is based on the definition and. Specification of a generic frame using a structural, behavioral and functional analysis of residual generation, residual evaluation and decision tasks. The proposed approach is used on a simulated application concerning a D. C. Motor in open and closed loop, in order to detect and isolate sensor, actuator and component faults which have the same signatures. The contribution of this work is placed on the intersection of two fields: artificial intelligence and automatic control
APA, Harvard, Vancouver, ISO, and other styles
11

Fiard, Gaëlle. "Apprentissage des biopsies prostatiques par la simulation : vers la validation du simulateur Biopsym." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS037/document.

Full text
Abstract:
Le cancer de la prostate est le premier cancer en fréquence et la 3ème cause de mortalité chez l’homme en France, enjeu majeur de santé publique avec environ 50 000 nouveaux cas diagnostiqués par an. Son diagnostic est suspecté devant un toucher rectal anormal ou une élévation du taux de l’antigène spécifique prostatique (PSA). Les biopsies prostatiques randomisées, écho-guidées, sont actuellement recommandées en première intention pour confirmer le diagnostic et définir la localisation, le volume, et l’agressivité tumorale par le score de Gleason. Les difficultés de l’enseignement du geste de biopsie prostatique par compagnonnage, sans retour réellement quantifié sur la répartition des biopsies, sont une des explications du manque de précision des biopsies.C’est dans ce contexte qu’a été développé le simulateur Biopsym, environnement pédagogique permettant l’enseignement des biopsies prostatiques à l’aide de 7 exercices et d’un module simulant une série de 12 biopsies randomisées. Plusieurs niveaux d’assistance et un retour sur les performances réalisées par l’apprenant sont proposés. Une première étude avait permis de valider l’apparence et le contenu du simulateur, mais sa capacité à discriminer experts et novices (construit) n’avait pu être mise en évidence notamment en raison d’un manque de réalisme. Au cours de cette thèse, 2 nouvelles études de validation ont donc été réalisées sur une nouvelle version du simulateur. La première a permis d’en valider le construit. La seconde a permis de valider le transfert des compétences, c’est à dire la capacité des étudiants à reproduire les compétences acquises sur le simulateur en situation réelle
Prostate cancer is the most common malignancy and the 3rd cause of death among men in France. It is a major public health problem with around 50 000 new cases diagnosed each year. The diagnosis is suspected based on an abnormal digital rectal examination or an increase in the prostatic specific antigen level (PSA). Systematic, randomized, ultrasound-guided prostate biopsies are currently recommended first-line to confirm the diagnosis and define the tumor location, volume, and aggressiveness using the Gleason grading system. The conventional training method, based on mentoring, without quantitative feedback on the distribution of the biopsies, has limitations which can partly explain the lack of precision offered by systematic prostate biopsies.The Biopsym simulator was designed in this context to enhance prostate biopsy teaching through 7 exercises and a module replicating the performance of a 12-core systematic biopsy scheme. Several levels of assistance can be offered and a performance feedback is provided. A first validation study allowed to validate face, content and reliability of the simulator, but failed to prove its ability to discriminate between experts and novices (construct validity), in part due to a lack of realism. Two new validation studies on the new version of the simulator were set up during this thesis. The first one allowed for validation of the construct. The second one was able to demonstrate the transfer of skills acquired on the simulator under real-life conditions
APA, Harvard, Vancouver, ISO, and other styles
12

Meftah, Tayeb. "Contributions au formalisme de l'élargissement de raies dans les plasmas : application au diagnostic de la raie Paschen alpha de He II." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11035.

Full text
Abstract:
Dans cette these nous avons resolu pour la premiere fois le probleme de la raie paschen de l'helium imparfaitement resolu jusqu'aujourd'hui. Nous avons adopte le formalisme de theorie d'impact pour l'operateur de collision electronique developpe dans le chapitre ii, et le modele de fluctuation de frequence (m. F. F) pour decrire l'effet des ions sur l'elargissement des raies developpe au chapitre i. Le code utilise tient compte de l'operateur de collisions electroniques incluant les termes dits d'interference, les effets d'inelasticite et des trajectoires hyperboliques. Le m. F. F. Utilise un taux de melange de canaux radiatifs obtenu a partir de la fonction de decorrelation du microchamp electrique. Les profils obtenus pour la raie paschen sont en parfait accord avec les resultats experimentaux. Nous avons pour cela tenu compte de la structure fine, de la dynamique des ions, du nouveau operateur de collision. Enfin, nous avons applique le formalisme de l'integrale de chemin au cas de l'elargissement ionique de la raie lyman d'un hydrogenoide
APA, Harvard, Vancouver, ISO, and other styles
13

Braham, Najoua. "Organisation d'un système de simulation de cas autour d'un système expert en hématologie." Compiègne, 1986. http://www.theses.fr/1986COMPS144.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Godbert, Laurence. "Contribution au développement de méthodes de diagnostics et de simulation pour les plasmas de haute énergie." Aix-Marseille 1, 1994. http://www.theses.fr/1994AIX11055.

Full text
Abstract:
L'etude des plasmas chauds et denses necessite la mesure in situ de la densite electronique. Cette these presente une methode de diagnostic basee sur l'analyse des profils de raies issues d'ions multicharges a un ou plusieurs electrons. Les calculs algebriques complexes qui accompagnent la modelisation des raies spectrales resultant de transitions entre niveaux de nombre quantique eleve ont ete facilites par l'utilisation d'une methode de calcul rapide le modele de fluctuation de frequence (mff). Celui-ci prend en compte l'effet des fluctuations du champ ionique (effet de dynamique des ions) et a permis d'etendre l'analyse des spectres a une large gamme de densite et de temperature. Apres avoir presente les bases theoriques associees au calcul de profils spectraux, les avantages ainsi que la validite du mff sont demontres par comparaison avec des resultats obtenus en utilisant une methode de simulation basee sur la dynamique moleculaire. Dans la troisieme partie, l'analyse de spectres experimentaux mesures dans des decharges de type z-pinch d'une part, et de plasmas realises par ablation laser de cibles solides d'autre part, confirment l'interet potentiel de cette methode de diagnostic
APA, Harvard, Vancouver, ISO, and other styles
15

Davari, Far Mehrdad. "Contribution to the fault diagnosis in photovoltaic systems." Amiens, 2014. http://www.theses.fr/2014AMIE0117.

Full text
Abstract:
L'objectif de cette thèse était de développer des méthodes de détection de défauts dans les installations photovoltaïques. Une approche basée modèle et fondée sur la simulation pour détecter les défauts dans le système photovoltaïque résidentiel (RPS) est proposée. Un modèle hybride simplifié de panneau photovoltaïque utilisé avec un environnement MATLAB est développé et validé dans cette thèse. Son originalité c'est qu'il tourne en temps réel et il est suffisamment flexible pour simuler des systèmes photovoltaïques solaires avec des échelles différentes, avec ou sans diodes de dérivation et de diverses technologies. Ensuite, une nouvelle technique de détection de défaut a été introduite. Elle se compose de deux parties principales. Une partie passive, qui permettra de détecter une défaillance en comparant les signaux mesurés et ceux obtenus par le modèle. La partie active consiste à analyser les différents attributs pour localiser et définir le type de défaut. Enfin, les résultats obtenus par simulation ou en pratique de la méthode et les techniques proposées sont satisfaisantes et ouvrent plus de perspectives dans ce domaine
The aim of this thesis was to develop methods for detecting faults in photovoltaic installations. An approach based on model and simulation to detect defects in the residential photovoltaic System (RPS) is proposed. A simplified hybridphotovoltaic panel used with MATLAB environment is developed and validated in this thesis. Its originality is that it runs in real time and it is flexible enough to simulate solar photovoltaic Systems with different scales, with or without bypass diodes and various technologies. Then a new technique for fault détection has been introduced. It consists of two main parts. A passive part, which will detect a fault by comparing the measured signals, and those obtained by the model. The active part is to analyze the different attributes to locale and identify the type of fault. Finally, the results obtained by simulation or practice of the method and the proposed techniques are satisfactory and open more perspectives in this area
APA, Harvard, Vancouver, ISO, and other styles
16

Philip-Alliez, Camille. "Etude numérique et expérimentale de l'écoulement nasal chez les enfants présentant une obstruction nasale." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10140/document.

Full text
Abstract:
Une des données essentielles que recherche le clinicien ORL lors de son diagnostic concerne la fonctionnalité des fosses nasales. Dans certains cas, cette fonction n’est approchée que de manière partielle par les diverses méthodes de mesures mises à sa disposition. La prévalence des obstructions nasales chroniques dans la population générale1 (30% de la population) souligne l’intérêt que les orthodontistes doivent porter aux pathologies respiratoires. L’acquisition d’un outil de diagnostic fiable de l’obstruction nasale permettra d’effectuer un traitement plus précoce afin de guider au mieux la croissance crânio-faciale. La RAA ne peut pas être actuellement utilisée comme unique examen diagnostique, car sa corrélation avec les évaluations subjectives peut rester faible. L’objectif de ce travail est de fournir un modèle d’aide au diagnostic de l’obstruction nasale pour tous les patients. Dans les cas où la RAA ne permet pas un diagnostic certain de l’obstruction nasale, la simulation numérique permettrait, après avoir identifié les situations anatomiques particulières, d’obtenir une approche fonctionnelle objective en confirmant ou non le diagnostic de la RAA. La méthode utilisée pour ce travail de thèse consiste en une résolution complète des équations de Navier-Stokes dans des géométries reconstruites en 3D, c’est-à-dire ayant bénéficié d’un traitement numérique pour extraire les contours puis créer les maillages surfaciques et volumiques. Le développement d'outils de mesure objectifs est un enjeu capital pour déterminer les stratégies thérapeutiques optimales et pour évaluer les résultats des traitements. La modélisation par ordinateur de la dynamique des flux aériens au sein des fosses nasales à partir de reconstructions tomodensitométriques tridimensionnelles peut présenter des applications cliniques. Une de ses applications permettrait à l’ORL de visualiser l’écoulement post-opératoire virtuellement
One of the essential data sought by the clinician in his diagnosis on the functionality of the nasal cavity. In some cases, this function is only partially approached by various measurement methods at its disposal. The prevalence of chronic nasal obstruction in the population (30% of the population) underlines the interest to orthodontists must wear respiratory disorders. The acquisition of a reliable diagnostic tool of nasal obstruction will allow for earlier treatment to guide the best craniofacial growth. The RAA can not be currently used as single diagnostic test, because its correlation with subjective assessments can remain low. The objective of this work is to provide a model for the diagnosis of nasal obstruction for all patients. In cases where the RAA does not allow a definite diagnosis of nasal obstruction, numerical simulations allow, after identifying the particular anatomical situations, to obtain a functional objective or not confirming the diagnosis of rheumatic fever. The methodology for this thesis consists of a complete resolution of the Navier-Stokes equations in geometries reconstructed in 3D, that is to say who received a digital processing to extract the contours and surface meshes and create volume. The development of objective measurement tools is a key issue in determining optimal treatment strategies and to evaluate treatment outcomes. Computer modeling of the dynamics of air flow within the nasal cavity from three-dimensional CT reconstructions may have clinical applications. One of its applications allow to visualize the flow postoperative virtually
APA, Harvard, Vancouver, ISO, and other styles
17

Valotti, Andrea. "Analyse cosmologique d'amas de galaxies à partir de diagrammes de diagnostic en rayons X." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC301.

Full text
Abstract:
Mon travail de thèse porte sur l’analyse cosmologique de surveys d’amas de galaxies en rayons X. Les amas sont détectés par le satellite XMM grâce à leur émission X produite par effet Bremsstrahlung du gaz intra-amas. L’étude de la distribution des amas en fonction de leur masse et de leur distance permet de mesurer m, _8 et de contraindre l’équation d’état de l’énergie noire. Une nouvelle approche cosmologique, développée par Clerc et al (2012), se base uniquement sur la distribution de quantités observables en rayons X (flux et couleur). Mon travail a consisté à étendre cette approche en y adjoignant la mesure de la taille apparente de l’émission X des amas. C’est un paramètre qui dépend de la masse de l’amas et de sa distance et qui intervient directement dans la fonction de sélection du survey. J’ai tout d’abord évalué les performances de cette méthode avec une analyse de Fisher. J’ai également étudié l’effet de la dispersion de la relation masse-rayon sur le taux de détection des amas et donc sur les contraintes cosmologiques. Pour valider ces calculs j’ai, dans une seconde partie, utilisé des surveys d’amas X simulés : 100-10000 deg2 à partir d’un modèle purement analytique et 1000 deg2 avec un modèle semi-analytique sur des simulations numériques de matière noire (Aardvark). J’ai déterminé les erreurs sur les paramètres cosmologiques à partir des diagrammes de diagnostic X simuls en utilisant des logiciels de minimisation (MCMC, Amoeba). Ces calculs ont confirmé les prédictions de l’analyse de Fisher. En conclusion, les diagrammes X sont au moins aussi performants que la m´méthode traditionnelle basée sur N(M,z) et d’utilisation beaucoup plus rapide et simple. Je propose quelques applications pour le survey XXL
Cosmology is one of the fundamental pillars of astrophysics, as such it contains many unsolvedpuzzles. To investigate some of those puzzles, we analyze X-ray surveys of galaxy clusters. These surveys are possible thanks to the bremsstrahlung emission of the intra-cluster medium. The simultaneous fit of cluster counts as a function of mass and distance provides an independent measure of cosmological parameters such as m, _8, and the dark energy equation of state w0. A novel approach to cosmological analysis using galaxy cluster data, called top-down, was developed in N. Clerc et al. (2012). This top-down approach is based purely on instrumental observables that are considered in a two-dimensional X-ray color-magnitude diagram. The method self-consistently includes selection effects and scaling relationships. It also provides a means of bypassing the computation of individual cluster masses. My work presents an extension of the top-down method by introducing the apparent size of the cluster, creating a three-dimensional X-ray cluster diagram. The size of a cluster is sensitive to both the cluster mass and its angular diameter, so it must also be included in the assessment of selection effects. The performance of this new method is investigated using a Fisher analysis. In parallel, I have studied the effects of the intrinsic scatter in the cluster size scaling relation on the sample selection as well as on the obtained cosmological parameters. To validate the method, I estimate uncertainties of cosmological parameters with MCMC method Amoeba minimization routine and using two simulated XMM surveys that have an increasing level of complexity. The first simulated survey is a set of toy catalogues of 100 and 10000 deg2, whereas the second is a 1000 deg2 catalogue that was generated using an Aardvark semi-analytical N-body simulation. This comparison corroborates the conclusions of the Fisher analysis. In conclusion, I find that a cluster diagram that accounts for the fluxes, colors, sizes, and redshifts of the clusters performs well. Additionally, I find that it is at least as efficient as the traditional M,z method for the same cluster samples. I also discuss a proposition to apply this method to the XXL survey data
APA, Harvard, Vancouver, ISO, and other styles
18

Hugon, Robert. "Diagnostics d'un plasma pulse d'azote pour l'étude de sa réactivité : comparaison des résultats expérimentaux avec un modèle numérique." Nancy 1, 1994. http://www.theses.fr/1994NAN10427.

Full text
Abstract:
Ce travail est consacré à l'étude de la réactivité d'un plasma pulse d'azote utilisé pour la nitruration des aciers. L'interprétation des mécanismes se produisant dans le plasma lui-même, et plus spécialement pendant la phase de post-décharge, nécessite un diagnostic finement résolu dans le temps. Pour les sondes électrostatiques, un dispositif automatique performant a été réalisé et permet la détermination expérimentale de la fonction de distribution en énergie des électrons et le suivi de son évolution sur un pulse plasma. La spectroscopie optique d'émission consiste en l'observation des bandes les plus intenses de l'azote et des raies d'atomes du fer pulvérisés par la cathode et excités dans le plasma. Une étude spatiale et temporelle de la structure axiale est comparée aux résultats issus d'une modélisation de l'établissement de la décharge. Enfin, après la mise en évidence de l'influence du chauffage du gaz neutre sur les paramètres de la décharge, des conditions favorables pour un traitement de surface par un plasma d'azote sont dégagées
APA, Harvard, Vancouver, ISO, and other styles
19

Fanack, Catherine. "Etude analytique et numérique de la réflectométrie dans un plasma fluctuant : modèles à une et deux dimensions." Nancy 1, 1997. http://www.theses.fr/1997NAN10260.

Full text
Abstract:
La réflectométrie est une méthode de mesure du profil de densité électronique fréquemment utilisée dans les plasmas de fusion : l'onde hyperfréquence réfléchie par une couche de coupure subit un déphasage dépendant du profil de densité. Les fluctuations de densité présentes dans le plasma peuvent perturber la détermination du profil. Il est donc important de comprendre le rôle de ces fluctuations (déplacement de la couche de coupure et rétrodiffusion résonante de Bragg) et de calculer le déphasage qu'elles provoquent. Dans ce travail, le cas de fluctuations cohérentes est abordé à l'aide de modèles analytiques et numériques à une et deux dimensions, basés sur la résolution de l'équation d'Helmholtz. Après un rappel des bases de la réflectométrie et de la propagation des ondes dans un plasma, une première partie présente le modèle numérique à une dimension utilisable pour des fluctuations radiales. L'influence des caractéristiques spectrales des perturbations est mise en évidence, et les expressions analytiques des déphasages sont obtenues dans le cadre de l'approximation de Born. Elles sont en excellent accord avec les résultats numériques. Pour les perturbations de grande amplitude, le modèle analytique développé permet de calculer le déphasage dans le régime non linéaire de la rétrodiffusion de Bragg. Ce modèle prédit l'apparition de sauts de phase, en bon accord avec les résultats numériques. Dans une deuxième partie, on développe la méthode numérique 2D nécessaire pour l'étude de fluctuations azimutales. Elle permet la modélisation du cornet émettant l'onde incidente. La comparaison des résultats numériques avec des théories approchées montre un accord qualitatif. L'application de cette étude aux plasmas de tokamak confirme que le déphasage dû aux fluctuations voisines de la couche de coupure est prédominant
Reflectometry is widely used in fusion plasmas for electron density profile measurements: the phase shift of a microwave reflected at a outoff layer depends upon the density profile. Density fluctuations may strongly disturb the profile reconstruction. It is therefore of primary importance to understand the role of the fluctuations (cutoff layer oscillation and Bragg backscattering) and to determine the correspondent phase shift. In this thesis, numerical and analytical models( one- and two-dimensional) are developed to study the effect of coherent fluctuations. After an overview of the principles of refleofometry and of the wave propagation in plasmas, the first part is devoted to the 1D numerical model ("radial" fluctuations). The spectral characteristics of the fluctuation are shown to play an important role. Analytical expressions of the phase shift are obtained under the Born approximation and are found in agreement with the numerical results. The nonlinear regime of Bragg scattering (Iarge amplitude fluctuations) exhibits phase jumps. This behavior is well reproduced by an analytical model. A second part describes the 2D code that allows for "azimuthal"fluctuations. The source is modeled as an emitting horn. The numerical results are compared with several existing theories. Only qualitative agreement is found. For fusion plasmas, the study confirms that fluctuations close to the cutoff layer play a dominant role
APA, Harvard, Vancouver, ISO, and other styles
20

Mahyob, Amin. "Modélisation des machines électriques tournantes défectueuses par la méthode des réseaux de perméances : application à la machine asynchrone." Le Havre, 2009. http://www.theses.fr/2009LEHA0017.

Full text
Abstract:
Ce travail présente un modèle modulaire pour la machine asynchrone défectueuse basé sur la méthode des réseaux de perméances (MRP). Ce choix a été motivé par la nécessité de prendre en compte la saturation locale générée par les courants élevés en présence d’un défaut, notamment le défaut de court circuit inter-spires, d’un côté, et le souhait de limiter le temps de calcul de l’autre côté. Dans ce modèle, le circuit magnétique de la machine a été représenté par un ensemble de perméances (reluctances), leurs valeurs variantes en fonction de l’état magnétique de la machine. Les différents types d’équations gouvernantes le fonctionnement de la machine (magnétique, électrique et mécanique) ont été développées en expliquant les matrices de couplage entre elles de façon à parvenir à un système final matriciel d’équations algèbro-différentielles du premier ordre à coefficients non constants dont la résolution numérique est assurée par la méthode itérative de Newton-Raphson. L’étude comparative entre les résultats de mesure obtenu sur un banc dédié et les résultats de simulation obtenus par le modèle proposé en présence du défaut de court circuit inter-spires, montrent la pertinente de la méthode choisie quant à l’identification de la signature du ce défaut dans les grandeurs mesurables
Fault diagnosis in electrical machines needs a modelling approach reliable and as close to the reality as possible. It is shown that by proper modelling of the electrical machines it is possible to detect the effect of the different faults on the different machine quantities. This work proposes a robust modular model based on Permeance Network Method (PNM) for the diagnosis of induction machine stator and rotor faults. The proposed model allows taking into account the local magnetic saturation of the magnetic circuit due to heavy fault currents, especially in the case of inter-turn short circuit fault, and remains moderately time consuming. In this model, the magnetic circuit of the machine was represented by a set of permeances (reluctances); their values vary as functions of the magnetic state of the machine. Firstly, the system of algebraic equations describing the developed permeance network is written. Then, this magnetic model is coupled to the electrical and mechanical differential equations describing the induction machine operation in presence of different faults to achieve a final system of algebro-differential equations of first order with variable coefficients whose numerical solution is provided by the iterative Newton-Raphson method. The comparison between the experimental results and simulation results obtained by the proposed model in the presence of inter-turn short circuit fault shows the relevance of the chosen method to identify the signature of this fault in the measurable quantities
APA, Harvard, Vancouver, ISO, and other styles
21

Coulanges, Matthieu. "Gestion des incertitudes et des connaissances expertes en radiothérapie assistée par l'image : contribution à l'optimisation des plans de traitement." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/b9de7357-3664-43ec-99bb-38c8be326cb3.

Full text
Abstract:
Le cancer va devenir dans les pays développé la principale cause de décès pour les 45-65 ans, sauf avancée préventive ou thérapeutique majeure. Aujourd'hui, de nombreuses modalités complémentaires de traitement existent, notamment la chimiothérapie, la radiothérapie, la curiethérapie, l'hormonothérapie et la chirurgie. Parmi ces traitements, la radiothérapie est devenue au fil des années un outil incontournable pour le traitement d'un grand nombre de cancers. Elle consiste en l'irradiation des lésions et organes pathologiques par des radiations ionisantes. Ce travail se situe à l'interface de plusieurs disciplines de la Santé et des Sciences et Technologie de l'Information: oncologie, radiothérapie, analyse et traitement de données et d'images, notamment. Il porte plus particulièrement sur la détermination de nouvelles méthodes et la conception d'outils pour d'une part mieux estimer le volume cible anatomo-clinique (CTV) et, d'autre part, de mieux évaluer les plans de traitement par la prise en compte de diverses incertitudes. Ce mémoire comporte 3 chapitres : Le premier chapitre présente le contexte de travail en introduisant de nombreux éléments et concepts relatifs au cancer, la tumeur, son diagnostic et son traitement, plus particulièrement par radiothérapie. Il montre les difficultés propres à ce domaine quant à l'obtention et la prise en compte des données multi-sources de l'échelle microscopique à macroscopique. Il montre également les limites des connaissances et des stratégies actuelles même si celles-ci auraient pu être plus clairement résumées en fin de chapitre
Le chapitre 2 traite de l'évaluation de l'extension tumorale qui est un pré-requis à la définition d'un plan de traitement. Ceci correspond à la définition précise du CTV qui doit conduire à l'élimination totale des cellules cancéreuses. La difficulté de cette tâche repose sur l'histoire de la tumeur, sa nature, sa position et les organes à risque environnant. Un premier axe de travail concerne l'étude de bases de données de patients (cas du caner du sein) au travers de modèles de type statistiques ou notamment des KPPV. Un deuxième axe de travail concerne l'élaboration de modèles prédictifs de croissance tumorale. Le chapitre 3 est consacré à la prise en compte des incertitudes de mouvement ou de position dans le plan de traitement. Après avoir analyser l'influence de ces incertitudes sur les doses reçues, puis proposer un modèle rapide d'évaluation du calcul de dose en fonction du positionnement, nous proposerons une nouvelle méthode globale d'évaluation de plan de traitement par calcul des DVH statistiques prenant en compte les incertitudes de positionnement et de bougé. Ce travail se voulant très prospectif, nous conclurons en analysant les perspectives potentielles à donner à ce travail, d'une part concernant l'évaluation de l'envahissement tumoral, et d'autre part concernant la nécessité de réduire les incertitudes de positionnement
APA, Harvard, Vancouver, ISO, and other styles
22

Bacchus, Alexandre. "Représentativité de la modélisation aux éléments finis pour le diagnostic de machines synchrones de grande puissance." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10014/document.

Full text
Abstract:
Nous avons développé une méthode d'identification de courts-circuits et d'excentricités statiques d'un turboalternateur en fonctionnement. Cette méthode doit être non seulement capable d'identifier le type de défaut, mais également sa gravité et sa localisation. Pour cela, la force électromotrice issue d'une sonde de flux radiale est considérée pour identifier les défauts de la machine. Les méthodes d'apprentissage ayant fait leur preuve sur ce type de problématique, un ensemble d'échantillons des défauts, i.e. matrice des prototypes, est construit grâce à des simulations par la méthode des éléments finis de la machine dans un grand nombre d'états de fonctionnement. Le but est alors d'identifier la classe (le défaut) de mesures expérimentales en considérant les sorties de simulations. Pour faire cela, une maquette de turboalternateur est modélisée et les sorties de simulation sont comparées aux mesures expérimentales. L'application de méthodes de classification supervisée choisies selon la forme des données montre qu'on peut atteindre des taux de bonne classification de 79 % pour les courts-circuits et 93 % pour les excentricités après un traitement spécifique des attributs et un recalage des sorties de simulation. Une règle d'identification du type de défaut est également mise en place au travers d'une classification hiérarchique. Celle-ci donne d'excellents résultats pour lesquels toutes les mesures expérimentales sont assignées au bon type de défaut. Enfin, un automate à états finis permet d'améliorer les résultats précédents en tenant compte de l'évolution temporelle de l'état de fonctionnement de la machine. Ainsi, un taux de bonne classification de 91.5 % pour l'identification de courts-circuits est obtenu
An identification method of rotor inter-turn short-circuits and static eccentricities of an operating turboalternator is developed. This approach provides the type of the machine functional state such as its seriousness and location. The electromotive force obtained from a radial flux sensor is considered in order to identify the machine faults. Some previous works have shown that learning methods are efficient to characterize precisely the fault of a machine. Thus, a fault signatures data set, i.e. prototypes matrix, is built thanks to simulations using finite element method applied to the machine considering a great number of functional states. Therefore, the goal of this work is to identify the class (fault) of experimental measurements using the simulated output. To do that, a small scale alternator is modelled and simulation outputs are compared to the experimental measurements. The application of supervised classification method chosen beyond the shape of data shows that a good classification rate of 79 % for short-circuits and 93 % for eccentricities can be achieved thanks to specific features and simulation output treatments. An identification rule of the fault type is designed by considering a hierarchical classification approach. It achieves excellent results since all experimental measurements are assigned to the right type of fault. Finally, the use of a finite state automaton achieves better results for short-circuits identification by taking into account the temporal evolution of the machine functional state
APA, Harvard, Vancouver, ISO, and other styles
23

Homssi, Louay. "Outils de modélisation, identification et traitement du signal pour le diagnostic des défauts dans les systèmes continus." Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0017.

Full text
Abstract:
Le travail presente dans ce memoire porte sur les outils de traitement analytique pour le diagnostic des defauts lentement variables dans les systemes continus. Une methodologie de diagnostic est presentee basee sur la modelisation et l'identification parametrique du systeme a superviser. Plusieurs avantages la caracterisent: etape d'analyse de la richesse du signal d'entree afin de selectionner des intervalles avec une entree riche en frequences, pour une bonne qualite d'identification, detection et localisation des defauts internes en observant les parametres estimes du systeme, possibilite de localisation de defauts de capteurs. Une grande partie du travail est consacree a l'identification des modeles parametriques continus: classification des methodes d'identification, presentation et comparaison numerique et qualitative de huit methodes d'identification. Divers problemes lies a l'identification ont ete discutes (modeles continus stochastiques, retard, conditions initiales et biais de mesure, richesse d'entree). Nous avons etabli des algorithmes recursifs pour le calcul des coefficients de fourier, dft et coefficients de legendre sur fenetre glissante. Un logiciel de simulation et d'identification des modeles continus (id4) a ete implemente en parallele a notre travail
APA, Harvard, Vancouver, ISO, and other styles
24

Anselmi, Amedeo. "Ajustement anatomique des dispositifs d’assistance cardiaque mécanique de longue durée par exploitation de l’imagerie et de la simulation." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1B001.

Full text
Abstract:
Les assistances circulatoires mécaniques de longue durée (ACM) sont une stratégie de plus en plus répandue pour le traitement des patients porteurs d’insuffisance cardiaque avancée. Cependant, cette option thérapeutique reste associée à des complications immédiates at au suivi parfois particulièrement graves (telles que la thrombose de pompe, les évènements thromboemboliques et le dysfonctionnement du dispositif). Nous formulons l’hypothèse que l’analyse du positionnement postopératoire du dispositif (et notamment, de sa canule d’admission intraventriculaire) peut fournir des informations utiles à la prédiction des évènements cliniques cités ci-dessus. Nous formulons aussi l’hypothèse qu’il est possible d’optimiser la prise en charge de ces patients (choix du dispositif, choix du site ventriculaire et des modalités d’implantation) par le moyen d’une planification préopératoire assistée par ordinateur. Nous avons donc mis en place deux axes de recherche. Dans le premier, nous proposons un système original d’analyse d’orientation intraventriculaire de la canule d’admission (par rapport à la valve mitrale native) ; celui-ci démontre une association significative entre orientation de la canule en direction du septum interventriculaire et apparition clinique des complications. Ce moyen supplémentaire de prédiction spécifique-patient sera validé sur des cohortes plus large et testé dans le cadre d’une étude prospective. Dans le deuxième axe, nous proposons une solution d’implantation virtuelle spécifique patient. Elle est basée sur une segmentation semi-automatique des structures cardiaques, une visualisation augmentée du scanner préopératoire, un positionnement virtuel d’une représentation numérique des différents dispositifs, et une analyse de collision de celui-ci avec la paroi thoracique (ACM mono-ventriculaire et coeur artificiel total) ou le ventricule droit (ACM mono-ventriculaires). Nous ouvrons enfin les perspectives vers une approche d’analyse et prédiction physiologique basée sur la simulation par ordinateur de l’hémodynamique du ventricule gauche assisté
Long-term circulatory mechanical assist devices are increasingly employed in the management of patients with advanced heart failure. Nonetheless, this therapeutic strategy is still associated with immediate and long-term complications; among these, pump thrombosis, thromboembolic events and pump dysfunction are particularly dreadful. Mechanical factors are involved in their pathogenesis. We hypothesize that the analysis of the post-implantation positioning of the devices (and particularly of the admission cannula for left ventricular assist devices) might provide additional useful information for the prediction of the above events. We also hypothesize that it is possible to optimize the management of these patients (under the perspective of device selection, choice of the left ventricular implantation site and implantation modalities) through computer-assisted preoperative planning. We have therefore established two axes of research. With the first axis, we propose an original system for orientation analysis of the intraventricular admission cannula with respect to the mitral valve (postoperative CT scan). This analysis indicates a significant association between the cannula orientation towards the interventricular septum and the occurrence of early/delayed complications. This novel method will be validated in larger cohorts and tested in a prospective clinical investigation. With the second axis, we propose a virtual implantation solution (environment Cami-TK), based on semi-automatic segmentation of cardiac structures (preoperative CT scan), augmented visualization of the CT scan images, virtual positioning of a 3D mesh representing the devices, and collision analysis with the thoracic structures (left ventricular assist devices and total artificial heart) or the right ventricle (ventricular assist devices only). We finally indicate future investigations concerning the application of computational fluid dynamics to facilitate computer simulation of the hemodynamics within the assisted left ventricle, and refined prediction of adverse events
APA, Harvard, Vancouver, ISO, and other styles
25

Gautier, Pierre. "Dosage des polluants NO et CO par imagerie de fluorescence induite par laser dans les écoulements réactifs." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMIR26/document.

Full text
Abstract:
La thèse consiste à développer une technique d'imagerie quantitative de concentration de polluants dans les écoulements réactifs. Il s'agit d'une part de développer l'imagerie de fluorescence sur NO. Un modèle de fluorescence à n niveaux a été développé pour calculer l'évolution de la fluorescence avec la température, concentration des espèces et pression. Ce modèle a été validé avec des mesures de fluorescence et d'absorption obtenues dans une cellule optique fonctionnant jusqu'à 800 K et 20 bar puis dans un brûleur laminaire haute-pression. De ce modèle a été définie une stratégie permettant la mesure de la distribution instantanée de NO dans une flamme stratifiée. Une étude similaire pour détecter CO a été ensuite initiée. Des mesures de fluorescence à deux photons ont été obtenues dans la cellule et dans une flamme plate atmosphérique. Les résultats montrent que cet outil est opérationnel, répondant à un besoin pour l'amélioration des performances des systèmes de propulsion
This PhD work is to develop a quantitative imaging technique for measurements of the concentration of pollutants in reactive flows. On one hand, the concern was to develop the NO fluorescence imaging technique. For this purpose, an n-level fluorescence model was first developed to calculate the behavior of fluorescence signals with temperature, species concentration, and pressure. Then this model was validated with fluorescence and absorption measurements acquired in an optical cell up to 800 K and to 20 bar and in a high-pressure laminar burner. From this model, a strategy used to measure the instantaneous NO distribution in a stratified flame was defined. Then, a similar study to detect CO with fluorescence was then investigated. Two-photon fluorescence measurements were performed in the optical cell and in a flame. The results make clear that the spectroscopic diagnostic becomes operational with the need to improve the performances of propulsion systems
APA, Harvard, Vancouver, ISO, and other styles
26

Tagliante-Saracino, Fabien. "Combined study by Direct Numerical Simulation and optical diagnostics of the flame stabilization in a diesel spray." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC017/document.

Full text
Abstract:
La compréhension du processus de stabilisation des flammes Diesel constitue un défi majeur en raison de son effet sur les émissions de polluants. En effet, la relation étroite entre la distance de lift-off (distance entre la flamme et l’injecteur) et la production de suie est maintenant bien établie. Cependant, différents mécanismes de stabilisation ont été proposés mais sont toujours sujets à discussion. L'objectif de cette thèse est de fournir une contribution expérimentale et numérique pour identifier les mécanismes de stabilisation majeurs.La combustion d'un spray n-dodécane issu d'un injecteur mono-trou a été étudiée dans une cellule à volume constant en utilisant une combinaison de diagnostics optiques : mesures hautes cadences et simultanées de schlieren, LIF à 355 nm, chimiluminescence haute température ou de chimiluminescence OH *. Des expériences complémentaires sont effectuées au cours desquelles le mélange est allumé entre l’injecteur et le lift-off par plasma induit par laser. L’évolution du lift-off jusqu’à son retour à une position d’équilibre plus en aval est ensuite étudiée pour différentes conditions opératoires. L'analyse de l'évolution du lift-off sans allumage laser révèle deux types principaux de comportement : des sauts brusques en amont et un déplacement plus progressif en aval. Alors que le premier comportement est attribué à des événements d'auto-inflammation, le second est analysé grâce aux résultats obtenus par allumage laser. Il a été constaté que l'emplacement du formaldéhyde avait un impact important sur la vitesse de retour du lift-off.Une simulation numérique directe (DNS en anglais) bidimensionnelle d'une flamme liftée turbulente se développant spatialement dans les mêmes conditions opératoires que les expériences et reproduisant l'évolution temporelle de la distance de lift-off est proposée. Du fait que les expériences montrent que la flamme se stabilise en aval du spray liquide, la DNS ne couvre qu'une région en aval où l’écoulement est réduit à un jet gazeux. La chimie de l’n-dodécane est modélisée à l'aide d'un schéma cinétique (28 espèces transportées) prenant en compte les chemins réactionnels basse et haute température. Comme observé expérimentalement, la stabilisation de la flamme est intermittente : des auto-inflammations se produisent tout d'abord puis se font convecter en aval jusqu'à ce qu'une nouvelle auto-inflammation se produise. Le mécanisme principal de stabilisation est l'auto-inflammation. Toutefois, on observe également à la périphérie du jet diverses topologies de flammes, telles que des flammes triples, qui aident la flamme à se stabiliser en remplissant des réservoirs de gaz brûlés à haute température localisés à la périphérie, ce qui déclenche des auto-inflammations. Toutes ces observations sont résumées dans un modèle conceptuel décrivant la stabilisation de la flamme.Enfin, un modèle prédisant les fluctuations de la distance du lift-off autour de sa valeur moyenne temporelle est proposé. Ce modèle a été développé sur la base d’observations faites dans l’étude expérimentale et numérique : premièrement, le suivi temporel du lift-off a été décomposé en une succession d’auto-inflammations et d’évolutions en aval. Deuxièmement, la période entre deux auto-inflammations et la vitesse d'évolution en aval ont été modélisées à l'aide de corrélations expérimentales disponibles dans la littérature. Troisièmement, le modèle a été adapté afin de prendre en compte l’effet des réservoirs à haute température sur les fluctuations de la flamme. Et enfin, le modèle a été comparé aux données expérimentales, au cours desquelles des variations de la température ambiante, de la concentration en oxygène et de la pression d'injection ont été effectuées. Dès lors que le modèle a montré une bonne correspondance avec les données expérimentales, il peut être utilisé en complément du modèle prédisant la distance du lift-off moyen afin de mieux décrire la stabilisation d’une flamme Diesel
The understanding of the stabilization process of Diesel spray flames is a key challenge because of its effect on pollutant emissions. In particular, the close relationship between lift-off length and soot production is now well established. However, different stabilization mechanisms have been proposed and are still under debate. The objective of this PhD is to provide an experimental and numerical contribution to the investigation of these governing mechanisms.Combustion of an n-dodecane spray issued from a single-hole nozzle was studied in a constant-volume precombustion vessel using a combination of optical diagnostic techniques. Simultaneous high frame rate schlieren, 355LIF (laser-induced fluorescence) and high-temperature chemiluminescence or OH* chemiluminescence are respectively used to follow the evolution of the gaseous jet envelope, formaldehyde location and lift-off position. Additional experiments are performed where the ignition of the mixture is forced at a location upstream of the natural lift-off position by laser-induced plasma ignition. The analysis of the evolution of the lift off position without laser ignition reveals two main types of behaviors: sudden jumps in the upstream direction and more progressive displacement towards the downstream direction. While the former is attributed to auto-ignition events, the latter is studied through the forced laser ignition results. It is found that the location of formaldehyde greatly impacts the return velocity of the lift-off position.A two-dimensional Direct Numerical Simulation (DNS) of a spatially developing turbulent lifted flame at the same operating conditions than the experiments and reproducing the temporal evolution of the lift-off length is proposed to provide a better understanding of the flame stabilization mechanisms. The DNS only covers a downstream region where the flow can be reduced to a gaseous jet, since experimental observations have shown that the flame stabilized downstream of the liquid spray. N-dodecane chemistry is modeled using a reduced chemical kinetics scheme (28 species transported) accounting for the low- and high temperature reaction pathways. Similar to what has been observed in the experiments, the flame stabilization is intermittent: flame elements first auto-ignite before being convected downstream until another sudden auto-ignition event occurs closer to the fuel injector. The flame topologies, associated to such events, are discussed in detail, using the DNS results, and a conceptual model summarizing the observations made is proposed. Results show that the main flame stabilization mechanism is auto-ignition. However, multiple reaction zone topologies, such as triple flames, are also observed at the jet periphery of the fuel jet helping the flame to stabilize by filling high-temperature burnt gases reservoirs localized at the periphery, which trigger in its turn auto-ignitions.Finally, a model predicting the fluctuations of the lift-off length around its time-averaged value is proposed. This model has been developed based on observations made in the experimental and numerical study: first, the lift-off length time-evolution was decomposed into a succession of auto-ignition events and downstream evolutions. Second, the period between two auto-ignition and the velocity of the downstream evolution was modeled using experimental correlations available in the literature. Third, the model has been adapted to take into account the effect of the high-temperature reservoirs on the flame fluctuations. Last, the model was compared to experimental data, where the ambient temperature, oxygen concentration and injection pressure were varied. Since the model showed good agreement with the experimental data, it can be used in addition to the model predicting the time-averaged lift-off length to better describe the Diesel flame stabilization
APA, Harvard, Vancouver, ISO, and other styles
27

Bouaou, Kevin. "Apport de la mécanique des fluides dans l'étude des flux sanguins aortiques." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS076.

Full text
Abstract:
Le vieillissement est associé à des modifications morphologiques, fonctionnelles et hémodynamiques du système artériel, le plus souvent aggravées par la survenue de maladies cardiovasculaires. La compréhension de ces interactions aggravantes est importante pour réduire le risque encouru par le patient. L’imagerie médicale joue un rôle majeur dans cette perspective au travers de modalités telles que l’IRM de contraste de phase combinée à l’analyse quantitative des images obtenues ainsi qu’à la résolution numérique des équations de Navier Stokes qui régissent l’hémodynamique de l’écoulement sanguin. Cette thèse a donc pour but de mettre au point et combiner des méthodes de traitement d’images de vélocimétrie 4D acquises en IRM et de mécanique des fluides pour extraire des biomarqueurs quantitatifs tels que les cartographies de pressions intra-aortiques et leurs propagations spatio-temporelles, la contrainte de cisaillement aux parois aortiques et la vorticité intra-aortique. Nous avons ainsi montré la capacité de ces biomarqueurs à détecter les atteintes infra-cliniques liées à l’âge et à caractériser la dilatation aortique pathologique. De plus, les liens entre distributions spatio-temporelles des pressions et apparition et persistance des vortex ou encore contrainte de cisaillement ont été montrés. Dans un second travail, nous avons mis au point un modèle de simulation numérique permettant de résoudre le système d’équations de Navier-Stokes par élément finis. Une méthode de projection itérative a été appliquée à des modèles de sténose 2D et 3D ainsi qu’à des géométries aortiques 3D issues de segmentations pour valider notre implémentation. Finalement, un travail préliminaire d’application de notre modèle numérique à des géométries patients-spécifiques a été réalisé indiquant des liens encourageants entre données simulées et mesures IRM
Aging is associated with morphological, functional and hemodynamic changes in the arterial system, most often aggravated by cardiovascular disease. Understanding these aggravating interactions is important to reduce patients risk. Medical imaging plays a major role in this context through modalities such as velocity encoding MRI combined with quantitative image processing and computational resolution of Navier-Stokes equations that govern blood flow hemodynamics. The aim of this thesis is to develop and combine image processing methods dedicated to 4D flow MRI data analysis with computational fluid dynamics to extract quantitative biomarkers such as intra-aortic pressure fields and their spatio-temporal propagations, aortic wall shear stress and intra-aortic vorticity. We have demonstrated the ability of these biomarkers to detect age-related sub-clinical aortic impairment and to characterize pathological aortic dilatation. In addition, association of spatio-temporal aortic pressure distributions with vortex occurrence and duration as well as with wall shear stress were studied. In a second work, we developed a numerical simulation software to solve the Navier-Stokes system using finite element models. An iterative projection method was applied to 2D and 3D vessel stenosis models as well as to 3D geometrical aortic models resulting from segmentation to validate our implementation. Finally, a preliminary work applying our numerical model to patient-specific geometries was performed revealing encouraging associations between simulated data and MRI measures
APA, Harvard, Vancouver, ISO, and other styles
28

Coron, Laurent. "Les modèles hydrologiques conceptuelssont-ils robustes face à un climat en évolution ? Diagnostic sur un échantillon de bassins versants français et australiens." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00879090.

Full text
Abstract:
Les hydrologues sont questionnés au sujet de l'évolution à moyen et long terme de la ressource en eau. Pour répondre à ces questions, ils ont recours à des modèles hydrologiques. Une quantification des incertitudes associées à leurs projections leur est souvent demandée et pose la question de la robustesse de ces modèles conceptuels, notamment dans le contexte d'un climat en évolution. En effet, l'utilisation d'un modèle dans des conditions différentes de celles où il a été calé repose sur une hypothèse de transférabilité des paramètres, c'est-à-dire la possibilité d'utiliser les paramètres d'un modèle dans des conditions différentes de celles de saconstruction. Nous traitons cette problématique en tentant d'apporter des éléments de réponse aux questions suivantes :* Quel est le niveau de robustesse des modèles hydrologiques conceptuels face à des conditions climatiques variables ?* Quelles sont les causes des situations de manque de robustesse et y a-t-il des façons de s'en prémunir ?Nous y répondons à travers l'étude des performances de modèles conceptuels lors de nombreux tests de transfert temporel de leurs paramètres. Les résultats montrent des corrélations entre les problèmes de robustesse et les écarts de conditions climatiques entre les périodes de calage et de validation des modèles. Des situations de biais systématiques corrélés à des changements de température de l'air ressortent en particulier de ces analyses. Une hétérogénéité existe cependant sur notre échantillon, les variables climatiques ou le type d'erreurs associées aux problèmes détectés pouvant varier d'un bassin à un autre.L'étude des biais de simulation sur les bassins où les modèles ne sont pas robustes montre des alternances de phases de sous-estimation et surestimation des débits, le biais sur le module décennal pouvant atteindre 20%. Nos travaux révèlent que des comportements très similaires sont obtenus pour diverses périodes et méthodes de calage. Pour les modèles conceptuels utilisés dans ces travaux, les problèmes de robustesse détectés ne résultent pas simplement de quelques "mauvais" calages conduisant à la sélection de paramètres inadaptés pour reproduire le comportement du bassin considéré. Ils semblent plutôt découler de difficultés générales de ces outils de modélisation à reproduire convenablement les bilans moyens de façon simultanée sur différentes périodes.Ces travaux ouvrent des pistes de réflexion sur la capacité insuffisante de certains modèles hydrologiques conceptuels à reproduire des dynamiques basse fréquence et sur le rôle des erreurs d'estimation des forçages, notamment les variations temporelles de l'évapotranspiration, dans les situations de modélisation incorrecte.
APA, Harvard, Vancouver, ISO, and other styles
29

El, Kabir Taoufik. "Analyse d'objets par vision par ordinateur : géométrie et colorimétrie." Thesis, Poitiers, 2020. http://www.theses.fr/2020POIT2262.

Full text
Abstract:
Le traitement d'images numérique offre la possibilité de faire du contrôle non destructif et d'en tirer des conclusions sur l'état des surfaces analysées. Dans le cadre médical, il permet d'améliorer la prise en charge des patients et d'assister les médecins dans le diagnostic et le suivi post-traitement. Les travaux réalisés dans cette thèse s'intéressent à l'une des méthodes d'extraction de l'information par le traitement d'images numérique qui est la Stéré-Photométrie. Elle repose sur l'acquisition de la surface analysée d'un point de vue fixe mais sous différents angles d'éclairages. Elle permet l'extraction simultanée de la géométrie et la colorimétrie des surfaces analysées. Cependant, son application exige la formulation de plusieurs hypothèses qui ne sont pas toujours valables dans des conditions réelles. Ainsi, nous proposons une solution à l'une des hypothèses les plus réductrices en lien avec la nature photométrique des surfaces analysées. D'un autre côté, une nouvelle formulation mathématique de la Stéréo-Photométrie est proposée afin d'éviter l'étape de l'intégration numérique pour l'estimation de la reconstruction 3D. Cette approche originale basée sur la géométrie discrète offre un cadre numérique inclusif avec un caractère spatial. Le volet applicatif de ce travail consiste à proposer un système d'aide au diagnostic pour le psoriasis, à partir de l'étude de la Stéréo-Photométrie réalisée auparavant. Les résultats obtenus à travers ces différentes contributions permettent d'étendre l'utilisation de la Stéréo-Photométrie et de montrer son potentiel dans un cadre d'application rigoureux
Digital image processing allows to perform non-destructive control in order to determine accurately the state of the analysed surfaces. In the medical field, it can improve patient care and assist clinicians in diagnosis and post-treatment follow-up. The work realised in this thesis focuses on Photometric-Stereo, one of the most important methods for information extraction by digital image processing. The Photometric-Stereo relies on the acquisition of the analysed surface from a fixed point of view but under different lighting positions. It enables the simultaneous extraction of the geometry and colorimetry of the analysed surfaces. It enables a simultaneous extraction of the geometry and colorimetry of the analysed surfaces. However, its application requires the formulation of several hypotheses that are not always valid under real conditions. Thus, we propose a solution to one of the most reductive hypotheses related to the photometric nature of the analysed surfaces. On the other hand, a new mathematical formulation of Photometric-Stereo is proposed to avoid the numerical integration step for the 3D reconstruction estimation. This original approach based on discrete geometry offers an inclusive numerical framework with a spatial character. As an application for this work, we propose a diagnostic aid system for psoriasis severity evaluation from the study of Photometric-Stereo previously carried out. The results obtained through these different contributions extend the use of Photometry-Stereo and demonstrate its potential in a rigorous application framework
APA, Harvard, Vancouver, ISO, and other styles
30

Pelouze, Gabriel. "Interprétation unifiée des écoulements associés à des cycles de condensation et d’évaporation dans les boucles coronales." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS247/document.

Full text
Abstract:
La couche la plus externe de l’atmosphère solaire, la couronne, est composée de plasma dont la température dépasse de plusieurs ordres de grandeur celle de la surface.Expliquer comment la couronne est chauffée à des températures de l’ordre d’un million de degrés constitue un défi majeur de la physique solaire.Dans ce contexte, je m’intéresse au chauffage des boucles coronales (qui sont des structures composées de plasma confiné dans des tubes de champ magnétique) et plus particulièrement aux cycles de non-équilibre thermique (TNE).L’étude de ces cycles permet de caractériser le chauffage des boucles.Ces cycles se développent dans des boucles soumises à un chauffage fortement stratifié, localisé près de leurs pieds.Ils se traduisent notamment par une variation périodique de la température et de la densité du plasma dans la boucle.Ces variations engendrent des pulsations d’intensité de longue période, qui sont détectées depuis peu dans l’émission en extrême-ultraviolet (EUV) de certaines boucles coronales.Par ailleurs, des écoulements périodiques de plasma à températures coronales se produisent durant ces cycles.Dans certains cas, le plasma qui s’écoule peut refroidir de plusieurs ordres de grandeur et former de la pluie coronale périodique.Durant ma thèse, j’ai travaillé à la première détection de ces écoulements à haute et à basse température.En utilisant des séries temporelles de spectres EUV de l’instrument Hinode/EIS, j’ai mesuré la vitesse Doppler du plasma dans des boucles dans lesquelles on détecte des pulsations d’intensité.Cela m’a permis de détecter des écoulements de plasma à température coronale associé à certaines pulsations d’intensité.Par ailleurs, j’ai participé à la détection d’un événement de pluie coronale périodique (à température plus froide) dans des séries d’images de l’instrument SDO/AIA.Ces détections permettent de confirmer que les pulsations d’intensité de longue période sont bien le résultat de cycles de TNE, ainsi que d’apporter de nouvelles contraintes sur le chauffage des boucles coronales.Cela permet notamment de conclure que le chauffage des boucles coronales est localisé près de leurs pieds et que son temps de répétition est inférieur au temps de refroidissement du plasma.Afin de détecter les écoulements à haute température, j’ai dû corriger de nombreux effets instrumentaux de EIS.J’ai notamment développé une nouvelle méthode pour aligner les spectres avec des images de l’instrument AIA, qui permet de corriger l’angle de roulis et la variation aléatoire du pointage de EIS.En appliquant cette méthode à un grand nombre de spectres, j’ai réalisé la première mesure systématique de l’angle de roulis de l’instrument.Par la suite, j’ai réalisé des simulations numériques du cas de pluie coronale périodique.Dans ces simulations, j’ai calculé l’évolution du plasma dans la boucle pour différents paramètres de chauffage et différentes géométries du champ magnétique.Cela m’a permis d’identifier les paramètres de chauffage permettant de reproduire le comportement observé.Avec ces simulations, j’ai par ailleurs pu comprendre comment l’asymétrie de la boucle et du chauffage conditionnent la température minimale atteinte par les écoulements qui se forment lors des cycles de non-équilibre thermique
The outermost layer of the solar atmosphere, the corona, is composed of plasma which is hotter than the surface by several orders of magnitude.One of the main challenges in solar physics is to explain how the corona is formed and heated to temperatures of a few million degrees.In this context, I focus on the heating of coronal loops (which are structures composed of plasma confined in magnetic field tubes), and more precisely on thermal non-equilibrium (TNE) cycles.Studying these cycles allows us to characterize the heating of coronal loops.These cycles occur in loops with a highly stratified heating, localized near their footpoints.Among other effects, they cause periodic variations of the temperature and density of the plasma in the loop.These variations result in long-period intensity pulsations, which have recently been detected in the extreme-ultraviolet (EUV) emission of some coronal loops.In addition, periodic flows of plasma at coronal temperatures occur during these cycles.In some cases, the flowing plasma can cool down by several orders of magnitude, and thus form periodic coronal rain.During my thesis, I worked on the first detection of these periodic plasma flows at coronal and lower temperatures.Using time series of spatially-resolved EUV spectra from the instrument Hinode/EIS, I measured the Doppler velocity of plasma in loops undergoing long-period intensity pulsations.This allowed me to detect flows of plasma at coronal temperatures associated with some maxima of the intensity pulsations.In addition, I took part in the detection of an event of periodic coronal rain (at cooler temperatures), using series of images from the instrument SDO/AIA.These detections confirm that the long-period intensity pulsations detected in coronal loops are indeed the result of TNE cycles, and allow better constrain the heating of the loops.From this, conclude that the heating of coronal loops is highly stratified, localized near their footpoints, with a repetition time shorter than the cooling time of the plasma.Detecting the flows of plasma at coronal temperatures required that I correct many EIS instrumental effects.To that aim, I developed a new method for coalinging EIS spectra with images from AIA.This method can correct the roll angle and the jitter (a random variation of the pointing) of EIS.By applying it to a large number of spectra, I carried out a comprehensive determination of the EIS roll angle.I also performed numerical simulations of the periodic coronal rain event.In these simulations, I computed the evolution of the plasma in the loop for different values of the heating parameters, as well as several magnetic field geometries.This allowed me to determine the heating parameters which are required to reproduce the observed behavior of this loop.By analyzing these simulations, I was also able to understand how the asymmetry of the loop and of the heating determine the minimum temperature of the plasma flows which form during thermal non-equilibrium cycles
APA, Harvard, Vancouver, ISO, and other styles
31

Biasiori-Poulanges, Luc. "Fragmentation aérodynamique d’une goutte liquide induite par une onde de choc plane High-magnification shadowgraphy for the study of dropbreakup in a high-speed gas flow On the formation and recurrent shedding of ligaments in droplet aerobreakup Data on eosin y solutions for laser-induced fluorescence in water flows Multimodal imaging for intra-droplet gas-cavity observation during droplet fragmentation." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2021. http://www.theses.fr/2021ESMA0002.

Full text
Abstract:
Ce travail de thèse propose une description originale de la fragmentation aérodynamique d’une goutte d’eau, induite par une onde de choc plane, pour des régimes à la frontière entre les modes gouvernés par l’instabilité de Rayleigh-Taylor et ceux dominés par l’instabilité de Kelvin-Helmholtz. Un banc expérimental composé d’un tube à choc couplé à des diagnostics d’imagerie rapide est exploité pour caractériser les processus de fragmentation. Les résultats expérimentaux sont complétés par des simulations numériques réalisées à partir du code multiphasique compressible open-source ECOGEN. L’effet de l’onde de choc sur la goutte est évalué grâce à une modélisation théorique basée sur l’acoustique géométrique permettant de décrire la dynamique spatio-temporelle des réflexions d’onde à l’intérieur de la goutte et de prédire le lieu des points de plus haute densité d’énergie. Le champ de pression est résolu à partir de simulations numériques qui indiquent que la tension de rupture de l’eau est atteinte pour une onde de choc évoluant à un nombre de Mach de 1.7. Dès lors, un processus de cavitation dont les conséquences sur la dynamique de la fragmentation pourraient être significatives, est possible. Concernant la dynamique interfaciale, les expériences comme les simulations révèlent le développement d’une perturbation azimutale transverse à l’origine d’une structure ligamentaire périodique. Une analyse de Fourier des résultats numériques 3-D suggère que l’initiation de cette déstabilisation est indépendante des effets capillaires, à l’inverse de sa croissance. La dynamique ligamentaire apparaît être un processus cyclique dont la fréquence est celle du lâché de vortex dans le sillage del a goutte. Ce schéma récurrent cesse après quatre cycles. Il s’en suit alors la perte de l’intégrité structurelle du corps résiduel de la goutte des suites du développement d’une cavité gazeuse, dans le liquide, qui agit comme une région de fragilité et donc, facilite la fragmentation
This thesis proposed a groundbreaking description of the shock-induced aerodynamic fragmentation of a water droplet at the transition of the Rayleigh-Taylor Piercing and the Shear-Induced Entrainment regimes. An experimental facility consisting of a shock tube and high-speed imaging diagnostics is used to investigate the fragmentation processes. Experimental results are supported with numerical simulations performed with the open-source code ECOGEN dedicated to multiphase compressible flows. The shock wave effect on the droplet is assessed by a theoretical modelling based on geometrical acoustics which allows for the description of the wave spatio-temporal dynamics and enables to predict the time-dependent location of the highest energy density. Pressure fields are determined using numerical simulations. It appears that the water tensile rupture is reached for a shock wave Mach number of 1.7 from which bubble cloud cavitation may occur by causing signification changes in the fragmentation dynamics. As regards to the interfacial dynamics, both experiments and numerical simulations show the development of a transverse azimutal modulation resulting in the periodic ligament structure at the droplet surface. Contrary to the modulation growth, its initiation seems to be independent of the capillary effects as revealed by a Fourier analysis of the 3-D numerical results. The ligament dynamics is a cyclic process driven by the vortex shedding process in the wake of the droplet. Four cycles have been observed before the residual droplet core breaks up owing to the growth of an air cavity inside the droplet that acts as weak spot, and thus facilitating the droplet split-off
APA, Harvard, Vancouver, ISO, and other styles
32

Béraud, Nicolas. "Fabrication assistée par ordinateur pour le procédé EBM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI052/document.

Full text
Abstract:
Le procédé de fabrication par fusion de poudre à l'aide d'un faisceau d'électrons est appelé procédé Electron Beam Melting (EBM). Il permet la fabrication de pièces métalliques à partir de poudres. Grâce au niveau de qualité (géométrique et mécanique) des pièces produites, le procédé peut être utilisé afin de produire des pièces fonctionnelles et non plus uniquement des prototypes. Ce procédé, ainsi que les autres procédés additifs métalliques, permettent d'envisager le passage de l'impression 3D à la fabrication additive métallique.L'utilisation de la fabrication additive dans un contexte industriel impose le respect de critères en termes de qualité, coût et délai des pièces produites. L'ensemble des étapes numériques de mise en production d'une pièce constitue la chaîne numérique. Cette dernière a un impact fort sur l'ensemble de ces trois critères. Ainsi, cette thèse apporte une réponse à la question suivante :Comment la fabrication assistée par ordinateur peut-elle améliorer le triptyque qualité, coût, délai du procédé de fabrication EBM?Le problème est abordé par la question sous-jacente suivante :Quelles caractéristiques doit posséder un environnement de fabrication assistée par ordinateur adapté au procédé EBM ?Pour répondre à cette question, la chaîne numérique actuelle est analysée . Les principales limites identifiées sont :- l'utilisation de fichiers au format STL- l’impossibilité d’optimiser le procédé à différentes échelles- l’impossibilité de simuler le procédé EBMAfin de résoudre l'ensemble des problèmes énoncés, un environnement de FAO est proposé. Celui-ci permet de centraliser l'ensemble des opérations de mise en production au sein d'un environnement unique. Il autorise le travail avec l'ensemble des formats de fichiers reconnus comme les formats natifs des logiciels de CAO ou le format STEP. Des développements informatiques permettent de concrétiser l’environnement proposé.L'implémentation de l'environnement de FAO a mis en évidence le rôle fondamental de la simulation au sein de celui-ci. Il a donc fallu répondre à la question :Comment obtenir une simulation du procédé EBM permettant sa mise au point hors ligne en temps raisonnable ?Bien que la simulation du procédé EBM est largement traitée dans la littérature scientifique, les études proposées reposent sur la méthode des éléments finis et le temps de calcul nécessaire n'est pas compatible avec une utilisation au sein d'un environnement de FAO. Un type de simulation alternatif a donc été créé : une simulation par abaques. Elle est constituée d’une simulation par la méthode des éléments finis qui permet d'obtenir des cartes de températures pour des cas de chauffes et de refroidissements standards. Ces cartes de températures sont ensuite transformées en abaques. La simulation par abaques est vue comme la succession d'une multitude de cas standards. Ainsi l'algorithme de simulation par abaques cherche l'abaque le plus proche de la situation simulée, afin d’estimer les températures au pas de temps suivant.Cette méthode de simulation a permis une réduction des temps de calcul tout en gardant une précision suffisante pour pouvoir être utilisée pour optimiser les paramètres de fabrication.Grâce à une telle simulation, un outil d'optimisation des stratégies de fusion a pu être créé. Il permet d’améliorer la qualité des pièces produites en calculant des stratégies de fusion respectant certains critères thermiques.Les apports majeurs de ces travaux de thèses sont :- l'établissement d'un cahier des charges pour une chaîne numérique performante en EBM- le développement d'un environnement de FAO adapté au procédé EBM- la mise au point d'une simulation rapide du procédé EBM basée sur des abaques- la création d'un outil d'optimisation des stratégies de fusion
The Electron Beam Melting (EBM) process allows to build metallic parts from powder. Thanks to the geometric and mechanical quality of the parts produced, the EBM process can be used to manufacture functional parts and not only prototypes. This process, with other additive metallic processes, make it possible to consider a transition from 3D printing to metallic additive manufacturing.The use of additive manufacturing in an industrial environment requires compliance with quality, cost and time criteria for the parts produced. The production of manufactured parts involves a series of numerical stages which is called the numerical chain. The numerical chain has a significant impact on the three criteria mentioned above. Thus, this thesis provides an answer to the following question:How Computer Aided Manufacturing can improve the quality, cost and time of the EBM manufacturing process?This problem is addressed through the following underlying question:What are the required characteristics for a Computer Aided Manufacturing system adapted to the EBM process?In order to answer this question, the current numerical chain is analyzed. Three main limitations are found:- the use of STL files format- the process cannot be optimized at different scales- the process cannot be simulatedTo solve these issues, a CAM environment is proposed. It allows the centralization of all numerical operations in a single environment. All supported formats can be used within this environment, such as native CAD file formats or STEP format. Software developments are done to prove the feasibility of such an environment.The CAM environment implementation reveals the crucial role of simulation in this system. It is therefore necessary to answer this second question:How to obtain an EBM process simulation allowing the development of parameters, virtually?Although EBM simulation is a recurrent subject in scientific literature, existing studies are based on the finite elements method but the calculation time needed is too important to be used in an CAM environment. Thus, an alternative type of simulation is created in this thesis: a simulation based on abacus. It is composed of a finite elements model, that allows heat maps generation for standards cases of heating and cooling. These heat maps are then transformed in abacus. The simulation algorithm based on abacus search the nearest abacus from the simulated situation in order to estimate the temperatures at the next time step.This simulation method was used to reduce the calculation time while keeping a sufficient precision to optimize process parameters.With the simulation based on abacus, a tool for the optimization of melting strategies is developed. This tool allows quality improvement for the produced parts through the calculation of melting strategies according to thermic criteria.To summarize, the main contributions of this work are:- the definition of requirements specifications of a powerful numerical chain for the EBM process- the development of a CAM environment adapted to the EBM process- the proposal of a fast simulation for the EBM process, based on abacus- the development of a tool for the optimization of melting strategies
APA, Harvard, Vancouver, ISO, and other styles
33

Djian, Francis. "Modélisation thermique des thermostats pour oscillateurs à quartz et applications." Besançon, 1991. http://www.theses.fr/1991BESA2021.

Full text
Abstract:
Pour remédier à la sensibilité aux perturbations thermiques des oscillateurs à quartz très stables on utilise des enceintes thermostatées. L'étude réalisée dans cette thèse à pour objet la modélisation thermique de ces dispositifs. L'approche développée est celle des constantes localisées : la structure thermique est modélisée par un réseau de résistances thermiques et de capacités calorifiques. Les méthodes analytiques et expérimentales d'évaluation des coefficients thermiques ont été étudiées en tenant compte des échanges par conduction, rayonnement et convection. Le modèle permet de simuler les variations de température et de déterminer les fonctions de transfert entre les différents éléments de la structure thermique: oscillateur à quartz, sont d'asservissement, milieu ambiant. . . Ces méthodes ont été appliquées à une enceinte thermostatée commerciale et à une structure de test. Un programme de simulation et un dispositif expérimental ont été développés et ont montré la validité de la modélisation et ses limites. Grace aux techniques de modélisation développées, la possibilité d'une amélioration de la régulation à peu être étudiée. Elle consiste à compenser les effets des perturbations thermiques sur l'oscillateur à quartz par action sur la température de consigne, la méthode de synthèse de cette compensation à été décrire et appliquée avec succès à une enceinte thermostatée commerciale
APA, Harvard, Vancouver, ISO, and other styles
34

Fadlallah, Majida. "Application de la spectroscopie Stark de l'hydrogène atomique à la mesure du champ électrique dans les décharges luminescentes." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10058.

Full text
Abstract:
La spectroscopie stark de l'hydrogene atomique est utilisee dans ce travail pour cartographier l'amplitude du champ electrique dans les decharges luminescentes. Trois methodes ont ete employees pour caracteriser la structure stark des etats excites de l'hydrogene observee a partir des profils des raies elargis ou decouples. Tout d'abord la spectrometrie d'emission induite par le plasma, de la transition n=6 vers n=2 a 410 nm, qui nous a permis de mesurer le champ electrique dans la gaine cathodique et de montrer l'evolution dans le temps de la gaine a 30 khz. Ensuite une methode originale, la spectrometrie d'excitation laser a deux couleurs de la fluorescence du niveau n=6 peuple a partir du fondamental par 2 photons a 243 nm plus un photon a 410 nm, a ete testee dans une decharge continue puis appliquee aux decharges radiofrequences. Differents regimes de decharges ont ainsi pu etre observes pour differentes frequences d'excitation (30 khz, 1 mhz et 2. 8 mhz). Ces observations experimentales ont ete confrontees avec des simulations numeriques autocoherentes, et un bon accord qualitatif est obtenu. Differents effets parasites affectant les profils de raie a forte puissance laser ont ete mis en evidence et interpretes: elargissement de puissance (avec le laser a 41c nm), creation d'un champ de separation de charges (photoionisation du gaz par le laser a 243 nm). Enfin, la spectroscopie laser stark a deux photons sans effet doppler de la transition n=1 a n=3 a ete testee dans une decharge continue et a donne des resultats encourageants
APA, Harvard, Vancouver, ISO, and other styles
35

Louin, Jean-Charles. "Effets d'hétérogénéités de teneur en carbone sur les cinétiques de transformations de phase et sur la genèse des contraintes internes lors du refroidissement d'aciers." Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL077N.

Full text
Abstract:
Lors de la fabrication d'une pièce industrielle, le traitement thermique est une opération qui nécessite de maîtriser à la fois les microstructures obtenues et les contraintes et déformations résiduelles. La simulation numérique est un outil précieux pour une meilleure optimisation de ces traitements. Dans ce contexte, l'objectif de notre étude a été de contribuer au développement d'un outil de calcul permettant de prévoir les microstructures, les déformations et les contraintes au cours du traitement thermique de pièces en acier pouvant contenir des hétérogénéités de composition chimique en particulier de teneur en carbone. Nous avons d'abord développé le modèle de calcul des cinétiques de transformation de phases des aciers existant au laboratoire pour prendre en compte l'effet de l'enrichissement en carbone de l'austnite lors de sa décomposition partielle en ferrite sur les transformations ultérieures. Des calculs thermiques, métallurgiques et mécaniques couplés ont ensuite permis une analyse détaillée de l'effet de gradients de teneur en carbone à l'échelle macroscopique sur la genèse des microstructures et des contraintes internes au cours du refroidissement. Nous avons en particulier quantifié les effets possibles de macro et mésoségrégations de solidification dans des cylindres très massifs de taille proche de celle d'un lingot. Une validation expérimentale des résultats de simulation numérique a été mise en place pour des éprouvettes cylindriques supposées homogènes en composition chimique (acier 40CrMnMo8) puis pour une éprouvette chimiquement hétérogène spécialement conçue et fabriquée pour notre étude. Au préalable, les caractérisations expérimentales de l'acier ont permis de construire le jeu de données complet nécessaire aux simulations. Les résultats expérimentaux et calculés ont permis de bien mettre en évidence le rôle de l'hétérogénéité chimique. Enfin, une bonne corrélation calcul- expérience a été obtenue pour la déformation au cours du refroidissement d'une éprouvette 3D en forme de croissant
Heat treatment is a process that needs the control of both final microstructures and residual stresses and deformations. Numerical simulation is a useful tool for a better optimization of this process. The aim of our work was to contribute to the development of a numerical tool for the prediction of microstructures, stresses and strains during cooling of pieces that may contain chemical heterogeneities, particularly carbon content heterogeneities. Firstly, an existing model for the prediction of transformation kinetics in steels has been further developped in order to take into account the effects of the carbon content enrichment of austenite due to a partial ferritic transformation on the subsequent transformations. Coupled thermal, metallurgical, mechanical calculations have then been performed to study the effects of carbon content gradients on the microstructural evolutions and on the residual stresses development during cooling. Particularly, the possible effects of solidification macro and mesosegregations have been quantified in massive cylinders with sizes close to the size of an ingot. Secondly, experimental validations have been performed for homogeneous cylindrical specimen (40CrMnMo8 steel) and for a chemically heterogeneous specimen specifically designed for our study. The complete set of input data necessary for the simulations has been established from experimental characterizations of the steel. The role of chemical heterogeneity has been analysed through the experimental and calculated results. Finally, a good correlation has been obtained between measurements and calculation of the deformation during cooling of a 3D "croissant" shaped specimen
APA, Harvard, Vancouver, ISO, and other styles
36

Sech, Nicolas Le. "Photocathodes à base de nanotubes de carbone sur substrats semi-conducteurs de type III-V. Application aux amplificateurs hyperfréquence." Palaiseau, Ecole polytechnique, 2010. http://pastel.archives-ouvertes.fr/docs/00/50/14/43/PDF/These_N_Le_Sech.pdf.

Full text
Abstract:
On trouve sur la plateforme de théses en lignes Tel le résuma suivant : Ce travail de thèse porte sur l'étude et le développement de sources électroniques à base de nanotubes de carbone modulées par voie optique appelées photocatodes. L'objectif de ces dernières est de les utiliser dans les tubes à ondes progressives, en remplacement des sources thermoïoniques actuelles, qui émettent un faisceau d'électrons continu. Ce nouveau type de dispositif permettrait de développer une nouvelle génération d'amplificateurs hyperfréquence large bande, plus compacts, plus légers et ayant un fort rendement pour les satellites de communication. Ces sources modulées reposent sur l'association de nanotubes de carbone avec des photodiodes P-i-Ns. Les photodiodes agissent comme des sources de courant tandis que les nanotubes jouent le rôle d'émetteurs d'électrons. Une modulation optique des photodiodes induit ainsi une émission modulée du faisceau d'électrons. Des études théoriques, couplées à des simulations, ont abouti à la compréhension détaillée du fonctionnement des photocathodes et à la connaissance de leurs performances. Par ailleurs, des résultats traitent de la fréquence de coupure qui limite le dispositif mais apportent néanmoins des perspectives d'améliorations. La fabrication des photocathodes a été menée à terme grâce à la mise au point de trois nouveaux procédés technologiques : une passivation des photodiodes InP-InGaAs-InP par une bi-couche de Slice/Nitrure de Silicium empêchant toute gravure ionique du substrat pendant la croissance des nanotubes. Une technique de croissance de nanotubes de carbone à basse température (550 °C-600 °C) limitant la diffusion des dopants dans les matériaux semiconducteurs de type III-V. Un recuit LASER des nanotubes de carbone améliorant leur qualité cristalline et diminuant leur résistivité. Enfin, les caractérisations du courant en fonction de la tension et les mesures fréquentielles des échantillons ont confirmé les résultats annoncés par la théorie. Une modulation du faisceau électronique contrôlée par voie optique a pu être mesurée jusqu'à 1. 1 GHz, même si la fréquence de coupure actuelle se limite à 400 MHz. La réalisation des photocatodes a ainsi pu être démontrée. De surcroît, les résultats prometteurs aux vues des perspectives d'évolutions, permettent d'envisager une intégration proche des photocathodes dans un tube à ondes progressives.
APA, Harvard, Vancouver, ISO, and other styles
37

Fauchet, Gauthier. "Modélisation en deux points de la turbulence isotrope compressible et validation à l'aide de simulations numériques." Lyon 1, 1998. http://www.theses.fr/1998LYO10027.

Full text
Abstract:
Cette etude s'inscrit dans la continuite de travaux menes au laboratoire de mecanique des fluides et d'acoustique sur la modelisation spectrale de la turbulence isotrope compressible (marion (1988), bataille (1994)). Le modele precedemment developpe (modele e. D. Q. N. M. ) predit des dependances avec le mach turbulent (m#t) des quantites compressibles (telles que l'energie compressible et la dissipation dilatationnelle) en m#2#t. Or une etude du systeme des equations servant a deriver le modele montre une dependance en m#4#t de ces quantites (en accord avec la theorie pseudo-son de ristorcelli (1995)). Ceci nous a amene a remettre en cause la forme retenue par l'e. D. Q. N. M. Pour la decorrelation temporelle des champs (en exp(-t)) et a retenir une forme en exp(-t#2). Cette modelisation conduit a des dependances avec le mach turbulent coherentes avec le systeme initial. De plus, des comparaisons avec des simulations numeriques directes permettent de valider le modele. Un developpement analytique du modele, pour une faible compressibilite, est propose. Celui-ci permet de donner la forme et le niveau du spectre compressible en fonction des quantites caracteristiques de la turbulence incompressible. Il conduit a une relation liant la dissipation dilatationnelle a la dissipation solenoidale, relation susceptible d'etre utilisee au niveau des modeles en un point. Cette etude permet egalement de donner une forme analytique de la production acoustique. Cette forme est en accord avec les theories existant en acoustique. En particulier, la puissance totale rayonnee est trouvee proportionnelle a #s m#5#t. Enfin, des extensions du modele sont etudiees : un modele prenant en compte la convection de la masse volumique et un modele exprime en termes de spectres d'energie sont proposes.
APA, Harvard, Vancouver, ISO, and other styles
38

Menezla, Rabea. "Réalisation d'un logiciel de résolution de l'équation de poisson à trois dimensions : Simulation numérique tridimensionnelle du claquage des composants à jonctions P-N." Ecully, Ecole centrale de Lyon, 1990. http://www.theses.fr/1990ECDL0027.

Full text
Abstract:
Les simulations numeriques sont couramment utilisees au moment de la conception des dispositifs electroniques pour etudier leur comportement sous certaines conditions d'environnement. La modelisation du fonctionnement du systeme a etudier au moyen d'equations mathematiques representant son comportement physique est a la base de tout programme de simulation. Cette these a porte sur la realisation d'un simulateur numerique tridimensionnel de la tenue en tension des composants electroniques discrets ou integres, realises dans une technologie de type planar. Le logiciel concu traite particulierement les effets de courbure apparaissant aux bordures des masques de diffusions et entrainant un claquage de type spherique ou cylindrique. Son objectif est d'etudier le claquage par avalanche survenant dans les dispositifs a jonctions p-n polarisees en inverse (en particulier le claquage spherique), et de donner la distribution de potentiel dans le volume du dispostif d'etude. Les tests de validation du logiciel numerique tridimensionnel clac3 ont porte essentiellement sur l'etude du claquage des diodes a jonctions p-n et des jonctions drain-substrat des transistors pmos
APA, Harvard, Vancouver, ISO, and other styles
39

DAEMERS, YVES. "Enseignement assiste par ordinateur, application aux candidoses : mycologie, clinique, diagnostic de laboratoire." Nice, 1988. http://www.theses.fr/1988NICE6547.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Chen, Dai. "Diagnostic des incohérences des systèmes de gestion de production assisté par ordinateur." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10570.

Full text
Abstract:
Definition de la structure coherente d'un systeme de gestion de production et elaboration d'un modele de reference. Developpement de la theorie des situations et proposition d'un modele situationnel des centres de decision. Ces deux modeles theoriques ont ainsi permis de realiser un systeme d'aide au diagnostic des incoherences des systemes de gestion de la production
APA, Harvard, Vancouver, ISO, and other styles
41

Chevalier, Frédéric. "Le diagnostic assisté par ordinateur de l'image tomodensitométrique : étude de paramètres adaptés." Paris 12, 1991. http://www.theses.fr/1991PA120036.

Full text
Abstract:
Le nombre important d'anomalies non detectees sur les images radiologiques medicales et leur complexite croissante montrent la necessite d'une aide au diagnostic qui pourrait etre apportee par l'ordinateur. L'assistance peut intervenir aux deux niveaux du diagnostic: la perception de l'anomalie au cours de la lecture de l'image et l'interpretation de ce qui a ete observe. La faisabilite de systemes d'analyse des images tomodensitometriques est montree. Les methodes de parametrisation utilisees sont soit statistiques: analyse de l'histogramme (detection des tumeurs vertebrales par modele de comparaison), analyse de texture (par matrice de concurrence); soit morphologique: detection de l'osteoporose par squelettisation du corps vertebral. Une possibilite d'information temporelle et fonctionnelle est egalement etudiee par application de la cinedensigraphie par scanner x, a la detection des fibroses pulmonaires. Le diagnostic assiste par ordinateur est une etape fondamentale vers l'automatisation, dont la mise en uvre fait apparaitre de nombreuses exigences techniques et cliniques
APA, Harvard, Vancouver, ISO, and other styles
42

Chen, Dai. "Diagnostic des incohérences des systèmes de gestion de production assisté par ordinateur." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37612644b.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Joly, Cécile. "Simulations numériques d'un jet rond turbulent et de son interaction avec un tourbillon de sillage." Université de Marne-la-Vallée, 2002. http://www.theses.fr/2002MARN0147.

Full text
Abstract:
Le contexte général de cette étude concerne l’impact des traînées de condensation, ces fameux panaches blancs fréquemment observés dans le sillage des avions, sur l’atmosphère. D’un point de vue aérodynamique, la formation des traînées de condensation se caractérise par l’interaction entre un jet turbulent et un tourbillon de sillage. L’objectif de cette thèse est de contribuer à une meilleure compréhension des phénomènes thermiques et dynamiques mis en jeu dans cet écoulement. Ce travail repose sur la résolution numérique des équations de Navier-Stokes, et de conservation de l’énergie, formulées pour le cas d’un écoulement tridimensionnel, instationnaire et compressible. Deux approches sont considérées: la simulation numérique directe et la simulation des grandes échelles. Une simulation temporelle de la transition à la turbulence d’un jet rond non-isotherme est effectuée sans tenir compte du champ tourbillonnaire. A l’issue de cette simulation, un modèle de tourbillon de sillage est superposé à l’écoulement de jet. La première partie de cette thèse présente les deux approches, les différents modèles de sous-maille choisis pour les simulations des grandes échelles, ainsi que les méthodes numériques employées. La deuxième partie est consacrée à la simulation de l’écoulement de jet, et ici, l’objectif est de déterminer le modèle de sous-maille approprié à cette configuration d’écoulement. La troisième partie est dédiée à la simulation de l’interaction entre le jet et le tourbillon de sillage. Les résultats sont comparés à ceux issue d’une campagne d’essais. Les simulations ont démontré le développement de grosses structures de la turbulence autour du cœur tourbillonnaire, dans lesquelles se concentre le champ de température
The general context of this study concerns the impact of contrails, these famous white plumes frequently observed in the aircraft wake, on the atmosphere. From an aerodynamic point of view, the formation of the contrails is characterised by the interaction between a turbulent jet and a wing-tip vortex. The aim of this thesis is to contribute to a better understanding of the thermal and dynamic phenomena involved in this flow. This work is based on the numerical resolution of the three-dimensional, unsteady and compressible Navier-Stokes and energy conservation equations. Two approaches are considered: the direct numerical simulation and the large eddy simulation. A temporal simulation of the transition to turbulence of a non-isothermal jet is performed without accounting for the vortex flow field. A the end of this simulation, a vortex model is superimposed on the jet flow field. The first part of this thesis describes the two approaches, the different subgrid models chosen for the large eddy simulations, and the numerical techniques employed. The second part is devoted to the jet flow simulation, and here the objective is to determine the subgrid model appropriated to this flow configuration. The third part is dedicated to the simulation of interaction between the jet and the vortex. Results are compared to experimental data. The simulations have demonstrated the development of large scale structures all around the vortex core. The temperature field concentrates in the large scale structures
APA, Harvard, Vancouver, ISO, and other styles
44

Quatravaux, Thibault. "Évolution de la modélisation du procédé VAR : contribution à la description de la dispersion inclusionnaire dans le puits liquide et à la prévention de défauts de solidification." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL037N.

Full text
Abstract:
Cette thèse s'articule autour de la modélisation du procédé de refusion à l'arc sous vide (V AR) à l'aide du code de calcul SOLAR. Le premier objectif de l'étude concerne l'amélioration de la description de certains phénomènes physiques au cours de l'élaboration, afin d'étendre les applications du logiciel aux simulations de refusions d'aciers. L'évolution de la modélisation des phénomènes de transfert dans le lingot secondaire comprend trois améliorations principales: - la modélisation du transfert thermique latéral, afin de tenir compte du phénomène de retrait entre la paroi du lingot et la lingotière, de la possibilité d'y injecter un gaz neutre et du réchauffement de l'eau dans le circuit de refroidissement en fonction de son débit, - une amélioration de la modélisation de la turbulence, le modèle k-E simplifié initialement implémenté dans le code ne permettant pas de décrire correctement l'écoulement du métal liquide dans le puits, - une nouvelle méthode de simulation de la croissance du lingot, reposant sur une opération cyclique de scission puis de croissance/migration des volumes de contrôle, qui respecte l'aspect continu de la croissance du lingot secondaire et autorise un affinement du maillage près de la surface libre. Le modèle amélioré a pu être finalement validé par comparaison avec des résultats expérimentaux issus de quatre refusions réalisées sur site industriel. Le second objectif vise à caractériser la qualité des produits élaborés en termes de propreté inclusionnaire et de risque de présence de veines ségrégées. Pour décrire le comportement inclusionnaire dans le puits liquide, un modèle trajectographique adapté aux écoulements turbulents a été validé puis implémenté dans le code. Différents comportements de particules ont été mis en évidence. Une éttlde sur le risque d'apparition de freckles a permis de retenir un critère particulièrement bien adapté au procédé. Une généralisation de ce critère, proposée dans ce travail, permettrait d'indiquer l'orientation privilégiée de ces canaux de ségrégation
This thesis deals with the modelling of Vacuum Arc Remelting process (VAR) using the numerical software SOLAR. The first aim of the study is a better description of several physical phenomena which occur during melting, in order to extend the application of the software to simulate the remelting of steel. The evolution in the modelling of transport phenomena in the secondary ingot is based on three major improvements: - lateral thermal transfer modelling, in order to take into account the formation of a gap between the ingot and the mould walls, a possible injection of a neutral gas, and the heating of water in the coolant circuit, according to its flow, - a better turbulence model, since the k-E model implemented previously in the numerical code was not accurate enough to correctly descri~ the flow of the liquid metal in the pool, - a new method to simulate the ingot growth, based on a cyclic operation of splitting and growth/migration of control volumes, which reproduces the continuous growth of the secondary ingot and allows for the refinement of the mesh close to the free surface. Finally, the improved model has been validated by comparison with experimental results provided from four remeltings carried out on full-scale furnaces. The second objective is the characterization of the quality of the manufactured products in terms of inclusion cleanliness and risk of freckles segregated channel generation. Ln order to describe the behaviour of inclusions in the liquid pool, a trajectory model, adapted to account for turbulent flows, was validated and then implemented in the code. Various particle behaviours were distinguished. A study on the risk of freckles generation led to the establishment of a criterion particularly weIl adapted to the process. A generalization of this criterion, suggested in this work, would allow the prediction of the probable orientation of such segregated channels
APA, Harvard, Vancouver, ISO, and other styles
45

Ribot, Bénédicte. "Modélisation numérique d'un système de ventilation d'un tunnel routier par une trappe de désenfumage dans le cas d'un incendie." Lyon 1, 1999. http://www.theses.fr/1999LYO10195.

Full text
Abstract:
L'etude presentee dans ce memoire porte sur la modelisation numerique par la methode des volumes finis d'ecoulements tridimensionnels, turbulents, stationnaires, compressibles en milieux confines comme le sont ceux generes par les systemes de ventilation dans les tunnels routiers en cas d'incendie. L'objectif est de developper et valider des methodes de calcul pour representer les phenomenes physiques intervenant lors d'une aspiration par une trappe de desenfumage d'une nappe stratifiee. L'ensemble des travaux donne des informations et indications sur les conditions de modelisation d'aspiration de fumees par des trappes de desenfumage de tunnels routiers et sur les performances du code cfxf3d pour predire ces ecoulements. L'independance du maillage, l'effet de la nature de la condition limite pour traduire une extraction et l'influence de certains parametres (debit d'aspiration et le nombre de trappes) sont examines. Une etude phenomenologique des ecoulements au sein du tunnel est aussi traitee caracterisant la structure des fumees soumises a un courant d'air longitudinal. Un modele simplifie permettant de reproduire les effets induits par une trappe d'aspiration sur l'ecoulement au sein du tunnel et base sur la notion de puits (de masse, de quantite de mouvement et d'enthalpie) est propose. L'elaboration de ce modele et l'evaluation de ses performances sont effectuees en prenant en compte une trappe d'aspiration, puis trois trappes. Les temps de calcul sont alors fortement reduits. Ces etudes sont completees par une confrontation entre resultats numeriques et experimentaux. Les essais selectionnes ont ete realises sur une maquette de tunnel a l'echelle 1/20 e m e. Des informations interessantes sur la validation des modeles employes et des hypotheses faites sont obtenues. Notamment, il est montre que le modele de turbulence k- standard reproduit correctement les phenomenes d'aspiration de fumees sans ajustement particulier des valeurs des constantes.
APA, Harvard, Vancouver, ISO, and other styles
46

Diener, Julien. "Acquisition et génération du mouvement de plantes." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0080.

Full text
Abstract:
Le but principal de ma thèse a été de développer des techniques innovantes pour l'animation de plantes. Deux approches ont été explorés : la reproduction du mouvement réel et la simulation temps réel. Premièrement, j'ai combiné des méthodes de suivi par ordinateur avec une interface utilisateur dans le but d’extraire des données fiables à partir de vidéos. Ensuite, une méthode statistique a été conçue pour estimer une structure hiérarchique de branches qui est utilisée pour reproduire le mouvement sur un large éventail de modèles virtuels. Deuxièmement, j'ai développé une nouvelle technique d'animation pour calculer la réponse des plantes à un vent contrôlable interactivement. La contribution principale a été de montrer que de simples approximations du modèle de charge aérodynamique mène à une réduction considérable du coût de la simulation. L'algorithme obtenu profite pleinement des capacités offertes par les cartes graphiques permettant l'animation de milliers d'arbres en temps réel
The primary goal of my Ph. D. Has been to develop innovative animation techniques for virtual plants. Two main approaches have been explored: the reproduction real motion and real-time simulation. First, I have mixed vision algorithms and user interface in order to extract reliable motion data from videos. An innovative method has then been designed to estimate a valid hierarchical structure of branches using statistical study which is used to retarget the video movement on a wide range of virtual plants. Second, I have developed new animation method that computes the response of plants to interactively controllable wind. The main contribution has been to show that simple approximations of the wind load model leads to a drastic reduction of the run-time computations. The simulation algorithm takes full advantage of the parallel processing capabilities of computer graphics cards allowing the animation of thousand trees in real-time
APA, Harvard, Vancouver, ISO, and other styles
47

Yu, Qizhi. "Modèles de rivières animées pour l'exploration intéractive de paysages." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0126.

Full text
Abstract:
Dans cette thèse, nous avons proposé un modèle multi-échelle pour l'animation de rivière. Nous avons présenté un nouveau modèle pour chaque échelle. A l'échelle macro, nous avons proposé une méthode procédurale permettant de générer une rivière réaliste à la volée. A l'échelle méso nous avons amélioré un modèle phénoménologique basé sur une représentation vectorielle des ondes de choc près des obstacles, et proposé une methode pour la reconstruction adaptative de la surface de l'eau. A l'échelle micro, nous avons présenté une méthode adaptative pour texturer des surfaces de grande étendue avec des performances indépendantes de la scène. Nous avons également propos é une méthode d'advection de texture. Ces deux modèles reposent sur notre schéma d'échantillonnage adaptatif. En combinant ces modèles, nous avons pu animer des rivières de taille mondiale en temps réel, tout en étant contr?olable. Les performances de notre système sont indépendantes de la scène. La vitesse procédurale et l'échantillonage en espace écran permettent à notre système de fonctionner sur des domaines illimités. Les utilisateurs peuvent observer la rivière de très près ou de très loin à tout moment. Des vagues très détaillées peuvent être affichées. Les différents parties des rivières sont continues dans l'espace et dans le temps, même lors de l'exploration ou de l'édition de la rivière par un utilisateur. Cela signifie que l'utilisateur peut éditer les lits des rivières ou ajouter des îles à la volée sans interrompre l'animation. La vitesse de la rivière change dès que l'utilisateur en édite les caractéristiques, et l'utilisateur peut auss modifier son apparence avec des textures
Rivers are ubiquitous in nature, and thus are an important component of the visual simulation of nature scenes. In nature, rivers are dynamic, therefore animation of rivers is necessary in these visual simulation applications. However, animation of rivers is a challenging problem. It incorporates multi-scale surface details and flow motion, and many phenomena involved have complex underlying physical causes. River animation is particular difficult in emerging interactive applications like Google Earth or games, which allow users to explore a very large scene and observe rivers at a very small scale or a very large scale at any moment. Controlling the design of water simulations is another hard problem. The goal of this dissertation is to achieve real-time, scalable, and controllable river animation with a detailed and space-time continuous appearance. To achieve this goal, we break down the river animation problem into macro-, meso-, and micro-scale subproblems from coarse to fine. We propose appropriate models for each scale that capture relevant surface details and fluid motion. In the macro-scale, we propose a procedural method that can compute velocities of rivers with curved banks, branchings and islands on the fly. In themeso-scale, we propose an improved featured-based simulationmethod to generate the crests of the quasi-stationary waves that obstaclesmake. We also propose a method for constructing an adaptive and feature-aligned water surface according to the given wave crests. In the micro-scale, we propose the use of wave sprites, a sprite-based texture model, to represent advected details with stationary spectrum properties on flow surfaces. Armed with wave sprites and a dynamic adaptive sampling scheme, we can texture the surface of a very large or even unbounded river with scene-independent performance. In addition, we propose a Lagrangian texture advection method that has other applications beyond river animation. We demonstrate that combining our models in three scales helps us incorporate visually convincing animated rivers into a very large terrain in real-time interactive applications
APA, Harvard, Vancouver, ISO, and other styles
48

Morel, Hervé. "Diagnostic du rotor principal de l'hélicoptère : analyse de signatures vibratoires par réseaux de neurones." Paris, ENSAM, 2007. http://www.theses.fr/2007ENAM0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Chen, Haifeng. "Système de simulation de spectres de masse assisté par ordinateur." Paris 7, 2003. http://www.theses.fr/2003PA077143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Benchamma, Mérièm. "Réalisation d'un simulateur d'étude et de faisabilité pour la radiothérapie externe dynamique." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30013.

Full text
Abstract:
Afin de concentrer une dose homogene sur la tumeur tout en minimisant l'irradiation des structures anatomiques saines par l'utilisation de faisceaux non-coplanaires, un simulateur-entraineur prefacant un futur systeme de conduite de protocoles d'irradiations dynamiques a ete realise pour etudier la faisabilite therapeutique de cette technique et en preparer l'utilisation clinique. Limitee au probleme balistique d'irradiation d'un volume cible approche par une sphere, la definition des positions de la source d'irradiation est obtenue par visualisation interactive des intersections des faisceaux et du volume cible. Les contraintes cliniques, conduisant a la recherche d'une concentration uniforme des radiations dans le volume cible tout en epargnant au mieux les organes critiques et les tissus sains, et les contraintes d'anti-collision des elements du dispositif d'irradiation lors des mouvements constituent les regles a satisfaire par les faisceaux candidats. Les differents faisceaux retenus peuvent egalement etre ajustes en deplacant independamment les machoires du collimateur et en effectuant des rotations de ce dernier. Egalement, pour limiter les zones des structures anatomiques saines exposees aux radiations, le contour de la region a proteger peut-etre dessine sur la coupe scanographique passant par l'isocentre afin de permettre le calcul et la transmission a une table tracante via la liaison serie rs 232 de la forme du cache pour y etre dessinee a l'echelle reelle
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography