Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Outils d’aide au diagnostic.

Dissertationen zum Thema „Outils d’aide au diagnostic“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Outils d’aide au diagnostic" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Trolès, Nolwenn. „Elaboration d’un outil d’aide au diagnostic de la dyslexie développementale“. Rennes 2, 2010. http://tel.archives-ouvertes.fr/tel-00795123.

Der volle Inhalt der Quelle
Annotation:
Cette recherche consiste à élaborer un outil informatisé d‟aide au diagnostic de la dyslexie en intégrant les hypothèses théoriques les plus représentatives. Les nombreuses recherches menées sur la dyslexie ont conduit à la formulation d‟hypothèses explicatives (Expertise INSERM, 2007) susceptibles d‟en être à l‟origine : phonologique (Ramus et al. , 2003), visuo-attentionnelle (Valdois et al. , 2004), cérébelleuse (Nicolson et Fawcett, 1999), déficit dans le traitement du signal auditif temporel (Tallal, 1980), magnocellulaire (Stein, 2001). En ce sens, nous avons rassemblé dans un protocole expérimental des épreuves mesurant différentes capacités cognitives (mémoire, attention, habilités phonologiques, habilités motrices, capacités visuoattentionnelles, habilités auditives). Ce protocole a été soumis à 91 enfants tout-venant et 35 enfants dyslexiques diagnostiqués lors d‟un bilan pluridisciplinaire. De ces expérimentations, nous avons extrait un modèle statistique prédictif, regroupant les exercices les plus discriminants qui permet, en un temps limité (environ 30 min), de connaître de manière précise si l‟enfant rencontre ou non des troubles de la lecture. Nous avons, par ailleurs, constitué des profils cognitifs à partir des performances obtenues par chaque enfant. Ainsi, ces profils pourront servir de guide pour des bilans approfondis qui permettront par la suite de proposer une prise en charge rééducative adaptée aux difficultés particulières de l‟enfant. Le logiciel Alex, ainsi élaboré, poursuit aujourd‟hui l‟ultime phase de validation, il sera alors, destiné aux professionnels de la santé exerçant avec les enfants qui rencontrent des troubles dans les apprentissages
This research aims to elaborate a tool for diagnosis of dyslexia taking into account the most representative theoretical hypotheses concerning etiology of dyslexia. Research on causes of dyslexia has led to multiple theories (Expertise INSERM, 2007) : phonological theory (Ramus et al. , 2003), visuo-attentional hypothesis (Valdois et al. , 2004), cerebellar theory (Nicolson et Fawcett, 1999), theory of auditory deficit (Tallal, 1980), theory of magnocellular deficit (Stein, 2001). This way, we have included in the same experimental protocol a set of tasks measuring various cognitive capacities (memory, attention, phonological, morphological, motor, visuo-attentional, auditory). This protocol was used with 91 typical children and 35 dyslexic children attending a specialized consultation for dyslexia. From this experimentation, we have extracted a predictive model, based on a limited number of tasks in order to discriminate in 30 minutes as well as possible between dyslexic and non-dyslexic. Moreover, we made cognitive profiles for each child, that corresponds to the performance in every task. This cognitive profile will be helpful to give indications for a deeper assessment aimed to provide an individualized and adapted remedial program and rehabilitation treatments. Following of our research, a software called Alex is actually in a validation period. It will constitute a tool for the health professionals in charge of children who experienced learning disabilities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Martinroche, Guillaume. „Quantification et caractérisation des maladies auto-immunes et allergiques à l'aide de méthodes d'apprentissage profond“. Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0154.

Der volle Inhalt der Quelle
Annotation:
Les outils d’aide au diagnostic utilisant l’intelligence artificielle (IA) aideront très prochainement les praticiens à proposer une médecine plus personnalisée et de précision pour les patients. Les maladies auto-immunes et allergiques (MAIA) sont le parfait exemple de maladies au diagnostic complexe pouvant bénéficier de ces outils. Les anticorps antinucléaires (ANA) sur les cellules épithéliales humaines (HEp-2) sont la référence pour le dépistage et le diagnostic des maladies auto-immunes (MAI). Pour une harmonisation des pratiques de laboratoires et cliniques, une lecture et une classification automatiques des aspects d’ANA observés sur cellules HEp-2 par immunofluorescence indirecte (IIF) respectant la classification recommandée par l’International Consensus on Antinuclear Antibody Patterns (ICAP) sont des exigences croissantes. A partir d’une collection complète d’images de cellules HEp-2 du CHU de Bordeaux et en utilisant une méthodologie d’apprentissage supervisé, un système de classification automatique des aspects d’IFI pour les images de cellules HEp-2 a été développé à partir des recommandations de l’ICAP et adaptées aux pratiques locales. Il repose sur un classificateur pour les aspects du noyau seulement (16 aspects et jusqu’à 2 aspects par image) et un second classificateur pour les aspects du cytoplasme seulement. Fort de résultats prometteurs, le système proposé devrait contribuer à la reconnaissance automatique des aspects d’ANA permettant des tests quantitatifs réflexes ciblés sur quelques auto-anticorps afin de faciliter in fine un diagnostic efficace et précis des MAI. Les puces à allergènes, permettent de rechercher simultanément jusqu’à 300 IgE spécifiques et s’intègrent dans une démarche diagnostique ascendante des allergies où, à partir d’une analyse la plus large possible, nous cherchons ensuite à déterminer quel(s) allergène(s) est (sont) susceptible(s) d’expliquer les symptômes du patient. Néanmoins, la masse de données produites dépasse la capacité d’analyse de l’utilisateur moyen et le grand nombre de résultats obtenus peut masquer ceux qui sont réellement pertinents cliniquement. Une base de données a été constituée à partir de 4271 résultats de puces (Société Française d’Allergologie), et de vingt-cinq données démographiques et cliniques. Un data challenge international a permis l’obtention de premiers modèles capables de prédire les profils allergiques des patients. Un outil plus complet et adapté à la pratique quotidienne est en cours de développement. L’outil pourra procurer au clinicien une probabilité d’allergie moléculaire par famille de protéines à partir de la puce à allergènes et un nombre très restreint de données cliniques ou démographiques, limitant ainsi les délais diagnostiques et le recours aux tests de provocation orale. Les outils d’aide aux diagnostics utilisant les technologies dites d’IA participent notamment à l’amélioration de l’efficience des techniques actuelles pour libérer du temps vis-à-vis de tâches répétitives et à faible valeur ajoutée. Ils sont généralement mal perçus par les praticiens considérant perdre leur expertise, voire être remplacés par les algorithmes. Particulièrement forte en Biologie Médicale, cette amélioration touche directement à la fonction de Biologiste Médical. Pour tenter de mieux comprendre, nous nous sommes intéressés au lien de confiance, s’il peut en être un, entre le praticien et l’outil d’aide au diagnostic. Les notions de fiabilité et de véracité ont pu être discutées. Une enquête nationale auprès des biologistes médicaux pratiquant l’IFI sur cellules HEp-2 a permis de révéler une réticence avec des raisons liées aux performances et à une méconnaissance des systèmes. Le déploiement et l’adhésion faisant l’unanimité de stratégies similaires dans le domaine de la cytologie une fois les performances constatées, montre un réel intérêt. [...]
Diagnostic tools based on artificial intelligence (AI) and capable of integrating several types of data, will be crucial in the next coming years in helping practitioners provide more personalized, precision medicine for patients. Autoimmune and allergic diseases are perfect examples of complex, multi-parametric diagnostics that could benefit from such tools. Antinuclear antibodies (ANA) on human epithelial cells (HEp-2) are important biomarkers for the screening and diagnosis of autoimmune diseases. For harmonization of biological practices and clinical management, automatic reading and classification of ANA immunofluorescence patterns for HEp-2 images according to the nomenclature recommended by the International Consensus on Antinuclear Antibody Patterns (ICAP) seems to be a growing requirement. In our study, an automatic classification system for Indirect Immunofluorescence (IIF) patterns of HEp-2 cells images was developed using a supervised learning methodology, based on a complete collection of HEp-2 cell images from Bordeaux University Hospital labelled accordingly to ICAP recommendations and local practices. The system consists of a classifier for nucleus patterns only (16 patterns and allowing recognition of up to two aspects per image) and a second classifier for cytoplasm aspects only. With this contribution to the automation of ANA in medical biology laboratories, it will enable reflex quantitative tests targeted on a few autoantibodies, ultimately facilitating efficient and accurate diagnosis of autoimmune diseases. Allergen microarrays, enable the simultaneous detection of up to 300 specific IgE antibodies and are part of a bottom-up diagnostic approach in which, on the basis of the broadest possible analysis, we then seek to determine which allergen(s) is (are) likely to explain the patient's symptoms. However, the mass of data produced by this single analysis is beyond the analytical capacity of the average user and the large number of results obtained simultaneously can mask those that are truly clinically relevant. A database of 4271 patients (Société Française d'Allergologie) was created, including allergen microarrays data and twenty-five demographic and clinical data. This database allowed the development of the first models capable of predicting patients' allergic profiles thanks to an international data challenge. The best F1-scores were around 80%. A more comprehensive tool adapted to daily practice is currently under development. Based essentially on microarrays data and a very few clinical and demographic data, it will be able to provide clinicians with a probability of molecular allergy by protein family, thus limiting diagnostic delays and the need for oral provocation tests. Diagnostic tools using so-called AI technologies are helping to improve the efficiency of current techniques, leveraging locks for repetitive, low-value-added tasks. These tools are generally poorly perceived by practitioners, who feel that they are losing their expertise, and even that they are being replaced by algorithms. This impression is particularly strong in Medical Biology, where this improvement directly affects the function of the Medical Biologist. In an attempt to better understand this, we took a closer look at the relationship of trust, if there can be one, between the practitioner and the diagnostic tool. The concepts of reliability and veracity were discussed. Thanks to a survey of medical biologists working on the analysis of aspects of HEp-2 cells, a certain reticence can be highlighted, with reasons linked to performance scores and unfamiliarity with the systems. The deployment and commitment to similar strategies in the field of biological hematology shows real interest once performance has been established. The development of two diagnostic tools for autoimmune and allergic diseases is laying the foundations for improved results and lasting integration into a more personalized, precision medicine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Dallet, Corentin. „Caractérisation locale de la propagation de l’onde d’activation cardiaque pour l’aide au diagnostic des tachycardies atriales et ventriculaires : application à l’imagerie électrocardiographique non-invasive“. Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0757/document.

Der volle Inhalt der Quelle
Annotation:
Les tachycardies ventriculaires (TV) et atriales (TA) sont les arythmies les plus fréquemment diagnostiquées en clinique. En vue d’ablater les tissus pathologiques, deux techniques de diagnostic sont utilisées : la cartographie électro-anatomique pour un diagnostic précis à l’aide d’électrogrammes (EGM) mesurés par cathéters intracardiaques et repérés sur la géométrie tridimensionnelle (3-D) de la cavité étudiée ; et l’imagerie électrocardiographique non-invasive (ECGi) pour une vision globale de l’arythmie, avec des EGM reconstruits mathématiquement à partir des électrocardiogrammes et des géométries cardio-thoraciques 3-D obtenues par CT-Scan. Les TV et TA sont alors diagnostiquées en étudiant les cartes d’activation qui sont des représentations des temps de passage locaux de l’onde d’activation sur la géométrie 3-D cardiaque. Cependant, les zones de ralentissement favorisant les TV et TA, et leurs motifs de propagation spécifiques n’y sont pas facilement identifiables. Ainsi, la caractérisation locale de la propagation de l’onde d’activation peut être utile pour améliorer le diagnostic. L’objet de cette thèse est le développement d’une méthode de caractérisation locale de la propagation de l’onde d’activation. Pour cela, un champ vectoriel de vitesse est estimé et analysé. La méthode a en premier lieu été validée sur des données simulées issues de modélisation, puis appliquée 1) à des données cliniques issues de l’ECGi pour la localisation des cicatrices d’infarctus et pour améliorer le diagnostic des TA; et 2) sur des données obtenues par cartographie électro-anatomique pour caractériser les zones pathogènes
Ventricular (VT) and atrial (AT) tachycardias are some of the most common clinical cardiac arrhythmias. For ablation of tachycardia substrates, two clinical diagnosis methods are used : electro-anatomical mapping for an accurate diagnosis using electrograms (EGMs) acquired with intracardiac catheters and localized on the three-dimensional (3-D) mesh of the studied cavities ; and non-invasive electrocardiographic imaging (ECGi) for a global view of the arrhythmia, with EGMs mathematically reconstructed from body surface electrocardiograms and the 3-D cardio-thoracic meshes obtained with CT-scan. VT and AT are diagnosed studying activation time maps ; that are 3-D representations of the transit time of the activation wavefront on the cardiac mesh. Nevertheless, slow conduction areas, a well-known pro-arrhythmic feature for tachycardias, and the tachycardias specific propagation patterns are not easily identifiable with these maps. Hence, local characterization of the activation wavefront propagation can be helpful for improving VT and AT diagnosis. The purpose of this thesis is to develop a method to locally characterize the activation wavefront propagation. For that, a conduction velocity vector field is estimated and analyzed. The method was first validated on a simulated database from computer models, then applied to 1) a clinical database obtained from ECGi to localize infarct tissues and improve AT diagnosis ; and 2) a clinical database acquired with electro-anatomical mapping systems to define pathological areas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Yengui, Firas. „Contribution aux méthodologies et outils d’aide à la conception de circuits analogiques“. Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0098/document.

Der volle Inhalt der Quelle
Annotation:
A la différence de la conception numérique, la conception analogique souffre d’un réel retard au niveau de la solution logicielle qui permet une conception à la fois rapide et fiable. Le dimensionnement de circuits analogiques exige en effet un nombre assez élevé de simulations et de vérifications et dépend beaucoup de l’expertise du concepteur. Pour pallier à ce retard, des outils de conception automatique basés sur des algorithmes d’optimisation locale et globale sont développés. Ces outils restent encore immatures car ils n’offrent que des réponses partielles aux questions du dimensionnement, alors que l’obtention d’un dimensionnement optimal d’un circuit analogique en un temps raisonnable reste toujours un enjeu majeur. La réduction du temps de conception de circuits analogiques intégrés nécessite la mise en place de méthodologies permettant une conception systématique et automatisable sur certaines étapes. Dans le cadre de cette thèse, nous avons travaillé suivant trois approches. Il s’agit d’abord de l’approche méthodologique. A ce niveau nous préconisons une approche hiérarchique descendante « top-down ». Cette dernière consiste à partitionner le système à dimensionner en sous blocs de fonctions élémentaires dont les spécifications sont directement héritées des spécifications du niveau système. Ensuite, nous avons cherché à réduire le temps de conception à travers l’exploration de solutions optimales à l’aide des algorithmes hybrides. Nous avons cherché à profiter de la rapidité de la recherche globale et de la précision de la recherche locale. L’intérêt des algorithmes de recherche hybride réside dans le fait qu’ils permettent d’effectuer une exploration efficace de l’espace de conception du circuit sans avoir besoin d’une connaissance préalable d’un dimensionnement initial. Ce qui peut être très intéressant pour un concepteur débutant. Enfin, nous avons travaillé sur l’accélération du temps des simulations en proposant l’utilisation des méta-modèles. Ceux-ci présentent un temps de simulation beaucoup plus réduit que celui des simulations des modèles électriques. Les méta-modèles sont obtenus automatiquement depuis une extraction des résultats des simulations électriques
Contrary to digital design, analog design suffers from a real delay in the software solution that enables fast and reliable design. In this PhD, three approaches are proposed. The first is the methodological approach. At this level we recommend a "top-down" hierarchical approach. It consists of partitioning the system to size into sub-blocks of elementary functions whose specifications are directly inherited from the system level specification. Next, we aimed to reduce design time through the exploration of optimal solutions using hybrid algorithms. We attempted to take advantage of the rapid global search and local search accuracy. The interest of hybrid search algorithms is that they allow to conduct effective exploration of the design space of the circuit without the need for prior knowledge of an initial design. This can be very useful for a beginner designer. Finally, we worked on the acceleration of time simulations proposing the use of meta-models which present a more reduced time than electrical simulation models. Meta-models are obtained automatically from extracting results of electrical simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Moretti, Basiliu. „Modélisation du comportement des feux de forêt pour des outils d’aide à la décision“. Thesis, Corte, 2015. http://www.theses.fr/2015CORT0007/document.

Der volle Inhalt der Quelle
Annotation:
La modélisation de la propagation des feux de forêt est une matière complexe pouvant être abordée de différentes manières (approche physique, semi-physique, empirique). Nombre de simulateurs existent avec chacun leurs particularités, leurs avantages et leurs points faibles. Les travaux qui ont conduits à la rédaction de cette thèse visent à l’amélioration du modèle physique simplifié de propagation de Balbi et al, 2007 ainsi qu’à la pose des premières pierres visant à le faire évoluer vers un modèle de comportement du feu. Ils se sont articulés autour de 3 grands axes :• La modélisation de la propagation d’un feu de surface avec pour principal moteur le transfert de chaleur radiatif. Cette modélisation à conduit à réaliser des améliorations concernant la formulation de la vitesse à plat sans vent. Elle a enfin conduit à caractériser de deux critères d’extinction portant sur des valeurs critique de deux paramètres du combustible (l’indice de surface foliaire et de la teneur en eau du combustible).• La quantification de l’énergie rayonnée par le front de flamme. Cette quantification, a été réalisée en prenant pour hypothèse le modèle de flamme solide. Cette approche a conduit à l’obtention d’une relation analytique permettant l’évaluation des Distances de Sécurité Admissibles (DSA) dans un temps très restreint.• L’étude de sensibilité des différents résultats obtenus afin de valider l’ensemble de ceux-ci et identifier l’influence relative des différents paramètres
Modeling the spread of forest fires is a complex affair which can be examined in different ways (physical, semi-physical, empirical). Numerous simulators exist, each one bearing its own particularities, benefits and weak points. The work which has led to the writing of this thesis aims at improving the simplified physical model of fire propagation (Balbi et al, 2007), as well as at laying down the first foundation stones of what will favor an evolution towards a fire behavioral pattern. This study is based upon three main themes :• Modeling the spread of a surface fire with the main engine the radiative heat transfer. This modeling leads to achieve improvements in the formulation of its speed on flat ground, without wind. It finally led to the characterization of two criteria of extinction with characterization of critical values of two parameters (leaf area index and the water content of the fuel).• Quantification of the energy radiating from the flame front. This quantification was performed assuming the solid flame model. This approach has led to obtaining an analytical relationship for the evaluation of Admissible Safety Distance (ASD) in a very short time. • Sensitivity analysis of the different results attained in order to confirm them as a whole and identify the relative influence of various parameters
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Noël, Guilhem. „Tension dans les services d’urgences : quantification, impact et outils d’aide à la gestion de l’aval des SU“. Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0686.

Der volle Inhalt der Quelle
Annotation:
La tension dans les SU est un défi de santé publique associée à une dégradation de la qualité des soins. Obj. 1: Valider un score de tension déductible des Résumés de Passages aux Urgences (RPU) pour une généralisation nationale. Identification (Delphi) de 15 indicateurs de tension consensuels. 2 Etudes prospectives validant des scores de tension dans les SU pédiatriques et adultes. Méthode visant à sélectionner les heures durant lesquelles le niveau de tension évalué par les soignants était consensuel. Le SOTU-RPU avait une AUC = 0,833 [0,814 - 0,851]. Le SOTU-RPU était associé à une altération de la qualité des soins Obj. 2: Prédire les d’hospitalisations et le besoin en lits des SU. Dans 1 étude prospective multicentrique nous avons développé un modèle automatisable (MA) prédictif de l’hospitalisation d’un patient en utilisant des variables disponibles dès le tri. Développé et validé sur 1 mois (11.653 patients) l’AUC du MA était de 0,815 [0,805–0,826] Développement d'un outil d’estimation du besoin minimum journalier en lits (BJML) à partir de l’historique des RPU. Appliqué à 15 SU pour l’année N+1, l’erreur était de 18 %. Obj. 3: impact de la tension sur la qualité des soins. Lors des épidémies hivernales pédiatriques la qualité des soins était dégradée avec une augmentation de 50 % des PSA . En utilisant le taux d’occupation du SU, dans une étude dans 2 SU pédiatriques sur 6 ans, la tension était associée à une diminution de l’adhésion aux recommandations concernant l’anaphylaxie; OR = 5,88 [1,88-18,0] et à une moindre compréhension parentale des consignes; OR = 3,972 [1,252-12,603]
Crowding in ED is a public health challenge associated with a deterioration in the quality of care. Obj. 1: Identification (Delphi) of 15 consensual crowding indicators. 2 Prospective studies validating crowding scores (SOTU) in pediatric and adult EDs. A method was proposed to select the hours during which the level of crowding assessed by caregivers was consensual. The AUC of SOTU was 0.833 [0.814-0.851]. SOTU was associated with an alteration in the quality of care. Obj 2: Predict hospitalizations and need for inpatient beds. In 1 prospective multicentre study we developed an automated model (MA) predictive of the hospitalization of a patient using variables available from triage. Developed and validated for 1 month (11,653 patients) the AUC of the MA was 0,815 [0,805-0,826]. Development of a tool for estimating the daily minimum bed requirement (BJML) based on the RPU history. Applied at 15 SU for the year N + 1, the error was 18%. Obj. 3: impact of tension on the quality of care. In winter pediatric epidemics, the quality of care was degraded with a 50% increase in patients LWBS. Using the SU occupancy rate, in a 2-year pediatric study, tension was associated with decreased adherence to anaphylaxis recommendations; OR = 5.88 [1.88-18.0] and less parental understanding of instructions; OR = 3.972 [1.252-12.603]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Thuillet, Céline. „Implantations cryptographiques sécurisées et outils d’aide à la validation des contremesures contre les attaques par canaux cachés“. Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14508/document.

Der volle Inhalt der Quelle
Annotation:
Depuis plusieurs années, les composants dédiés à la sécurité comme les cartes à puce sont soumises à des attaques dites par canaux cachés. Ces attaques permettent d'exhiber les secrets en analysant des caractéristiques physiques comme la consommation du composant ou encore son temps d'exécution. Dans le cadre de cette thèse, deux contremesures ont été réalisées et appliquées à l'AES (algorithme de chiffrement symétrique). De plus, afin d'aider les développements futurs des contremesures et la validation de celles-ci, un simulateur a été développé. Il permet de réaliser des attaques grâce à un modèle de consommation défini dans les phases amont de développement. Enfin, j'ai pu participer aux groupes de travail qui ont proposé Shabal à la compétition SHA-3, qui vise à définir un nouveau standard pour les fonctions de hachage. Des implantations matérielles ont été réalisées par la suite
For several years, the security components such as smart cards are subject to side channel attacks. These attacks allow to exhibit secrets by analyzing the physical characteristics such as power consumption or execution time. As part of this thesis, two countermeasures were carried out and applied to the AES (symmetric cipher). In addition, to help future development of countermeasures and their validation, a simulator was developed. It realizes attacks using a power consumption model defined in the early phases of development. Finally, I participated in working groups that have proposed Shabal to SHA-3 competition, which aims to define a new standard for hash functions. Hardware implementations have been made thereafter
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Tiffou, Benoît. „Etude des outils informatiques d'aide au diagnostic d'appareils électriques“. Thesis, McGill University, 1989. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=59235.

Der volle Inhalt der Quelle
Annotation:
This work is a study on software tools for the diagnosis of electrical equipment. It covers conventional and expert system methods, of which the latter are found to be more appropriate for the task.
The interest in expert systems is directed towards those based on deep knowledge, meaning the structural and functional description of devices. A well-known approach for reasoning on complex structural knowledge consists of using qualitative models. The thesis explores the principal works in this domain and applies them to the diagnosis of electrical equipment in order to evaluate their limitations. Another approach is also considered, based on causal networks, which exploits an important element of diagnosis and complements qualitative models: causality. Finally, a global diagnostic methodology is presented for each approach.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ziade, Haissam. „Methodes et outils pour le diagnostic fonctionnel de microprocesseurs“. Toulouse, INSA, 1986. http://www.theses.fr/1986ISAT0006.

Der volle Inhalt der Quelle
Annotation:
Ce travail s'interesse au diagnostic fonctionnel de microprocesseurs. Deux objectifs essentiels sont vises: recherche de nouveaux mecanismes de defaillances dans le but d'enrichir la base de connaissance actuelle et aide a la localisation de defauts. Apres une etude bibliographique du probleme de diagnostic de microprocesseurs dans ses deux aspects: detection et localisation, une approche de diagnostic dite approche "a posteriori" est proposee. Elle permet la localisation d'anomalies dans des circuits defectueux a l'aide d'une suite d'actions du type hypotheses d'erreurs/validation. Les hypotheses d'erreurs sont determinees en fonction des symptomes reellement observes lors d'un test. Cette approche a ete mise en oeuvre en utilisant la chaine de test gapt. Elle a ete appliquee a un ensemble de microprocesseurs 80c86. Les resultats obtenus ont prouve l'efficacite de cette methode et la souplesse d'utilisation de la chaine de test gapt.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ziade, Haissam. „Méthodes et outils pour le diagnostic fonctionnel de microprocesseurs“. Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb376019483.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Hebrard, Maxime. „Conception et développement d’un système d’aide au diagnostic clinique et génétique des rétinopathies pigmentaires“. Thesis, Montpellier 1, 2012. http://www.theses.fr/2012MON13519/document.

Der volle Inhalt der Quelle
Annotation:
Le diagnostic des rétinopathies pigmentaires pose différents problèmes, au niveau clinique comme au niveau moléculaire. En premier lieu, il s'agit de maladies rares, la faible prévalence de chaque pathologie à l'échelle de la population mondiale rend difficile leur étude. En second lieu, la caractérisation phénotypique de ces maladies est délicate car les symptômes qui en découlent s'avèrent très similaires. De manière liée, l'œil et le processus de la vision s'avèrent complexes et impliquent les produits d'expression de nombreux gènes. Ainsi, bien que les rétinopathies soient majoritairement monogénique et respectent le modèle d'hérédité mendélienne, les causes génétiques des maladies sont variées. Sur la base de ce double constat, nous proposons deux approches méthodologiques complémentaires menant à une meilleure compréhension de ce groupe de pathologies. Une première approche a pour finalité l'acquisition du jeu exhaustif des gènes impliqués. Les travaux portent sur l'exploitation des puces de génotypage. Nous effectuons une étude de liaison génétique entre les variations ponctuelles et les pathologies. Une seconde approche porte sur la représentation des connaissances associées aux phénotypes cliniques. Un composant ontologique est construit afin d'expliciter les savoirs nécessaires au diagnostic. Les données collectées sur le long terme par les experts sont étiquetées au travers de termes organisés au sein d'un thésaurus dédié. Les profils cliniques des patients et des maladies sont manipulés sous forme de collections de caractéristiques et comparés au moyen d'une mesure de similarité adaptée. L'objectif est alors de proposer un système d'aide au diagnostic
Diagnosis of retinitis pigmentosa could be difficult regarding both to clinics or molecular issues. Firstly, there are rare diseases, so the prevalence of each pathology in the world population is very low. Secondly, the symptoms of diseases are very similar, so their phenotypic characterization is hard. Moreover, the eye and the visual process are complex and numerous genes' products are implicated. Although retinopathies are mainly monogenic and mendelian inherited diseases, the polymorphisms involved in these diseases are very diverse.These both observations lead us to develop two complementary methodological approaches in a view to better understand the retinopathies.The first approach aims to identify all the genes involved in the diseases using genotyping chips. For this purpose, we studied genetic linkage between single nucleotide variations and pathologies. The second approach leads to the representation of clinical knowledge. An ontological compound was built to make explicit the knowledge involved in the process of diagnosis. The data previously collected by experts were labeled by terms that were organized in a specific thesaurus. The clinic profiles of the patients and diseases were handled as features collections and were compared by similarity calculations. The goal of this work is to build a knowledge-based system for diagnosis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Khalil, Toni. „Processus d’évaluation de la qualité de l’imagerie médicale et outils d’aide à la décision basée sur la connaissance“. Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0351.

Der volle Inhalt der Quelle
Annotation:
Les grands progrès que l'imagerie médicale a offerts dans le domaine médical sur le plan diagnostique (Radiologie conventionnelle, Tomodensitométrie, Résonnance magnétique nucléaire et la Radiologie interventionnelle) ont poussé la médecine à passer par ce domaine comme premier choix. Avec un nombre toujours croissant d'images diagnostiques réalisées chaque année, ainsi que les recommandations des organisations internationales exigeant une irradiation à faible dose entraînant un énorme bruit pouvant fausser le diagnostic, les méthodes de dé-bruitage par Intelligence Artificielle (IA) offrent la possibilité de répondre à la demande croissante. Dans cette thèse, on quantifie l'effet du dé-bruitage basé sur l'IA sur les paramètres textuels de la radiographie en relation avec un réseau neurone convolutif. L'étude était basée sur le principe de caractérisation du bruit radiographique issu d'une radiographie d'un fantôme d'eau, puis générer ce bruit dans une radiographie destine à produire des images artificiellement bruitées, et, ceci afin de pouvoir alimenter un réseau neurone par des milliers d'images pour assurer sa phase d'apprentissage. Après la phase d'apprentissage, la phase d'essai et l'inférence, des radiographies thoraciques humaines ont été extraites des archives pour valider le dé-bruitage sur des radiographies humaines en RGB et en « greyscale ». L'étude a été réalisée à l'aide d'un fantôme d'eau pour des raisons éthiques afin d'éviter l'irradiation des personnes, d'éviter les mouvements volontaires et involontaires des patients, et de fournir une étude à partir d'une matière homogène (eau) qui constitue la majeure partie du corps humain. Cette étude est réalisée d'une part sur 17 radiographies d'un fantôme d'eau avec différentes doses d'exposition pour étudier la distribution du bruit sur différentes valeurs d'échelle de gris et, d'autre part sur 25 radiographies réparties en 5 groupes de 5 images, chaque groupe est réalisé avec la même dose d'exposition sans et avec des obstacles à côté pour étudier l'effet de gain du détecteur plat choisi comme moyen de prétraitement. La distribution de bruit a été détectée sur deux niveaux de gris, soit 160 et 180 respectivement et, a montré un niveau de bruit plus important sur le niveau 160 où l'absorption du rayon est plus importante et, par de ce fait, l'effet quantique est plus important. Des diagrammes de dispersion de bruit sur ces deux niveaux ont été présentés. D'autre part, la présence d'obstacles dans un même cliché a montré une absorption directement proportionnelle avec le nombre d'obstacles à côté du fantôme d'eau, ce qui a déclenché un facteur de gain du capteur qui, dans son rôle génère un bruit de tracé non linéaire. Les caractéristiques de texture des images dé-bruitées à travers l'IA par rapport aux radiographies artificiellement bruitées ont été comparées avec un coefficient de rapport de signal sur bruit (PSNR). Les caractéristiques avec des valeurs PSNR augmenté sur les images RGB et sur les images « greyscale » ont été considérées comme concordantes. Un test a été effectué pour comparer les valeurs absolues entre les images IA sans bruit et les images présentant un bruit artificiel. Les résultats du rapport des caractéristiques concordantes étaient de (38,05/30,06) -100 (26,58%) d'amélioration en RGB contre (35,93/22.21) - 100 (61,77%) d'amélioration en « greyscale ». En conclusion, l'application d'un dé-bruitage basé sur l'IA sur les images radiographiques conserve la plupart des informations de texture de l'image. Le dé-bruitage basé sur l'intelligence artificielle dans la radiographie à faible dose est une approche très prometteuse car elle adapte le dé-bruitage, en préservant l'information où elle est nécessaire
The great progress that medical imaging has offered in the medical sector on the diagnostic level (Conventional Radiology, Computed Tomography, Nuclear Magnetic Resonance and Interventional Radiology) has pushed medicine to go through this area as the first choice. With an ever-increasing number of diagnostic images produced each year, as well as the recommendations of international organizations requiring low-dose irradiation resulting in enormous noise that can distort the diagnosis, Artificial Intelligence (AI) de-noising methods offer an opportunity to meet growing demand. In this thesis, we quantify the effect of AI-based de-noising on X-ray textural parameters with respect to a convolutional neural network.The study was based on the principle of characterizing the radiographic noise resulting from an X-ray of a water phantom and, generating this noise in a standard dose radiography aimed at producing artificially noisy images, and this in order to be able to feed a neural network by thousands of images to ensure its learning phase. After the learning phase, the testing phase and the inference, human chest X-rays were extracted from the archive to validate the de-noising on human X-rays in RGB and in “greyscale”. The study was done through a water phantom for ethical reasons in order to avoid irradiating people, avoiding voluntary and involuntary patient movements, and ensuring a study based on a homogeneous material (water) which constitutes the majority of the human body. This study is carried out on the one hand on 17 X-rays of a water phantom with different exposure doses to study the noise distribution on different gray scale values and, on the other hand on 25 X-rays divided into 5 groups of 5 images each taken with the same exposure dose without and with adjacent obstacles to study the gain effect of the flat panel detector chosen as the pre-processing means. The noise distribution was detected on two gray levels, i.e. 160 and 180 respectively, and showed a higher level of noise on the 160 level where the absorption of the X-ray beam is greater and, consequently, the quantum effect is most important. Noise scatter diagrams on these two levels have been shown. On the other hand, the presence of obstacles in the same image showed an absorption directly proportional to the number of obstacles next to the water phantom, which triggered a gain factor of the detector which, in its role produces nonlinear trace noise. Texture characteristics of AI-de-noised images compared to artificially noisy radiographs were compared with a peak signal-to-noise ratio (PSNR) coefficient. Features with increased PSNR values on RGB images and on greyscale images were considered to be consistent. A test to compare absolute values between AI-de-noised and artificially noisy images was performed. The results of the concordant features report were (38.05/30.06) -100 (26.58%) improvement in RGB versus (35.93/22.21) - 100 (61.77%) improvement in ‘greyscale'. In conclusion, applying AI-based de-noising on X-ray images retains most of the texture information of the image. AI-based de-noising in low-dose radiography is a very promising approach because it adapts de-noising, preserving information where it should
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Moustoifa, El-Farouck. „Nouveaux outils moléculaires de diagnostic des étapes invasives des cancers“. Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14055/document.

Der volle Inhalt der Quelle
Annotation:
Les métalloprotéases de la matrice extracellulaire (MMPs) sont une famille d’enzymes responsables de la dégradation de la matrice extracellulaire. Elles jouent un rôle important à tous les stades du développement tumoral, de la prolifération des cellules cancéreuses à l’émission de métastases. Elles sont donc une cible biologique de choix pour contrôler ou imager les processus tumoraux. Dans le travail présenté, nous avons développé de nouveaux substrats fluorescents sélectifs et spécifiques des MMPs, qui ont permis de suivre l’activité protéolytique de ces enzymes. Ces substrats sont stables en présence de plasma. Nous avons entrepris des études de complexation afin d’intégrer ces substrats d’un nouveau genre dans des systèmes supramoléculaire de libération contrôlée de principe actif
Abstract
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Poggi, Bastien. „Développement de concepts et outils d’aide à la décision pour l’optimisation via simulation : intégration des métaheuristiques au formalisme DEVS“. Thesis, Corte, 2014. http://www.theses.fr/2014CORT0012.

Der volle Inhalt der Quelle
Annotation:
Nous vivons dans un monde où le besoin d’efficacité s’impose de plus en plus. Ce besoin s’exprime dans différents domaines, allant de l’industrie à la médecine en passant par la surveillance environnementale. Engendrées par cette demande, de nombreuses méthodes d’optimisation « modernes » également appelées « métaheuristiques » sont apparues ces quarante dernières années. Ces méthodes se basent sur des raisonnements probabilistes et aléatoires et permettent la résolution de problèmes pour lesquels les méthodes d’optimisation « classiques » également appelées « méthodes déterministes » ne permettent pas l’obtention de résultats dans des temps raisonnables. Victimes du succès de ces méthodes, leurs concepteurs doivent aujourd’hui plus que jamais répondre à de nombreuses problématiques qui restent en suspens : « Comment évaluer de manière fiable et rapide les solutions proposées ? », « Quelle(s) méthode(s) choisir pour le problème étudié ? », « Comment paramétrer la méthode utilisée ? », « Comment utiliser une même méthode sur différents problèmes sans avoir à la modifier ? ». Pour répondre à ces différentes questions, nous avons développé un ensemble de concepts et outils. Ceux-ci ont été réalisés dans le cadre de la modélisation et la simulation de systèmes à évènements discrets avec le formalisme DEVS. Ce choix a été motivé par deux objectifs : permettre l’optimisation temporelle et spatiale de modèles DEVS existants et améliorer les performances du processus d’optimisation (qualité des solutions proposées, temps de calcul). La modélisation et la simulation de l’optimisation permettent de générer directement des propositions de paramètres sur les entrées du modèle à optimiser. Ce modèle, quant à lui, génère des résultats utiles à la progression de l’optimisation. Pour réaliser ce couplage entre optimisation et simulation, nous proposons l’intégration des méthodes d’optimisation sous la forme de modèles simulables et facilement interconnectables. Notre intégration se concentre donc sur la cohérence des échanges entre les modèles dédiés à l’optimisation et les modèles dédiés à la représentation du problème. Elle permet également l’arrêt anticipé de certaines simulations inutiles afin de réduire au maximum la durée de l’optimisation. La représentation des méthodes d’optimisation sous formes de modèles simulables apporte également un élément de réponse dans le choix et le paramétrage des algorithmes. Grace à l’usage de la simulation, différents algorithmes et paramètres peuvent être utilisés pour un même processus d’optimisation. Ces changements sont également influencés par les résultats observés et permettent une adaptation automatique de l’optimisation aux spécificités connues et/ou cachées du problème étudié ainsi qu’à ses différentes étapes de résolution. L’architecture de modèle que nous proposons a été validée sur trois problèmes distincts : l’optimisation de paramètres pour des fonctions mathématiques, l’optimisation spatialisée d’un déploiement de réseau de capteurs sans fil, l’optimisation temporisée de traitements médicaux. La généricité de nos concepts et la modularité de nos modèles ont permis de mettre en avant la facilité d’utilisation de notre outil. Au niveau des performances, l’interruption de certaines simulations ainsi que le dynamisme de l’optimisation ont permis l’obtention de solutions de qualité supérieure dans des temps inférieurs
In the world in witch we live the efficient needs are increasing in various fields like industry medecine and environnemtale monitoring. To meet this needs, many optimization methods nammed « metaheuristics » have been created over the last forty years. They are based on probabilistic and random reasoning and allow user to solve problems for witch conventional methods can not be used in acceptable computing times. Victim of their methods succes, the developers of the methods have to answer to several questions : « How can the fitness of solutions be assessed ? », « How to use the same method for several projects without change the code? », « What method will we choose for a specific problem ? », « How to parametrize algorithms ? ». To deal with this problem, we have developed a set of concepts and tools. They have been developed in the context of modeling and simulation of discrete event systems with DEVS formalism. The aims pursued are : allow temporized and spacialized optimization of existing DEVS models, improve the optimization process efficiency (quality of solutions, computing time). Modeling and simulation are used to propose parameters toward the input of problem to optimize. This one generate results used to improve the next proposed solutions. In order to combine optimization and simulation, we propose to represent the optimization method as models which can be easily interconnected and simulated. We focus on consistency of exchanges between optimization models and problem models. Our approach allows early stopping of useless simulations and reduce the computing time as a result. Modeling optimization methods in DEVS formalism also allows to autimatically choose the optimization algorithm and its parameters. Various algorithms and parameters can be used for the same problem during optimization process at different steps. This changes are influenced by collected results of problem simulation. They lead on a self adaptation to the visible or/and hidden features of the studied problem. Our models architecture has been tested on three different problems : parametric optimization of mathematical functions, spacialized optimization of a sensor network deployment, temporized optimization of a medical treatment. Genericity of our concepts and scalability of our models underline the usabily of proposed tool. Concerning performance, simulation breaks and dynamic optimization have obtained higher quality solutions in a short time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Nguyen, Hoang Van. „Estimation d'attitude et diagnostic d'une centrale d'attitude par des outils ensemblistes“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00585525.

Der volle Inhalt der Quelle
Annotation:
L'estimation de l'attitude (ou orientation) est un problème récurrent de nombreuses applications allant de la robotique aérienne ou sous-marine en passant par des applications médicales (surveillance de patients, réhabilitation), mais aussi jeux vidéo, etc. L'objectif de cette thèse est d'évaluer l'apport des approches ensemblistes dans le cadre de l'estimation de l'attitude à partir de données issues de triaxes accéléromètres (A), magnétomètres (M) et gyromètres (G). Dans un premier temps, on s'intéresse aux mouvements "quasi-statiques" et l'estimation de l'attitude est réalisée à partir de mesures AM. On aborde ensuite le cas des mouvements dynamiques, en considérant l'ensemble des mesures AGM. Le problème du choix de la paramétrisation de l'attitude a été abordé et on a comparé les résultats obtenus et le temps calcul pour des modélisations avec les angles de Cardan et le quaternion unitaire. Les algorithmes développés ont été validés en simulation et avec des données réelles. Les résultats ont été comparés avec ceux fournis par des algorithmes de l'état de l'art, par exemple SIVIA. La deuxième partie du manuscrit est consacrée à au diagnostic des capteurs de la centrale inertielle avec des approches ensemblistes. Les algorithmes développés dans la première partie du travail sont adaptés afin de pouvoir détecter et localiser un défaut dans l'ensemble des capteurs considérés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Benabid, Yacine. „Contribution à l’amélioration du processus de conception des produits innovants : Développement d’outils d’aide au choix des processus“. Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0003/document.

Der volle Inhalt der Quelle
Annotation:
L'optimisation des processus de conception est une activité de recherche en pleine évolution, soulignée dans de nombreuses références et pratiques des entreprises dans l'objectif l'amélioration et le développement de produits nouveaux. Notre démarche s'inscrit dans la continuité de ces activités qui prend comme point de départ la diversité des processus de conception existants et la difficulté de réaliser un choix où une adaptation. D'ou notre problématique est résumée autour d'une question centrale que nous formulons de la manière suivante : comment optimiser le choix d'un processus de conception soumis à un environnement contraint ? La réponse à cette question est à travers la proposition d'un outil d'aide au choix qui converge vers l'installation d'un processus de conception. Cet outil est tridimensionnel, où la première dimension vise la préparation de la phase amont de conception, la deuxième dimension sélectionne un processus de conception sur une carte de classement et l'objectif de la troisième dimension est l'identification des métiers, outils et méthodes pour le développement des produits. La partie expérimentale de notre travail nous a conduit à valider l'outil développer et proposer comment l'exploiter par des concepteurs. L'optimisation est réalisée dans notre travail par la proposition de l'outil tridimensionnel d'un coté et de l'autre par l'exploitation des algorithmes d'optimisation pour la modélisation de l'outil. Des nouvelles pistes de recherche pour l'amélioration sont identifiées et proposées pour des futurs travaux
The optimization of the design process is a research evolving highlighted in numerous references and business practices with the aim improving and developing new products. Our approach is a continuation of those activities that takes as its starting point the diversity of existing design processes and the difficulty of achieving a selection where adaptation. Hence our problem is summarized around a central question which we formulate as follows: how to optimize the choice of the design process subject to a constrained environment? The answer to this question is through the proposition of a tool Help in choosing which converges to the installation of a design process. This tool is three-dimensional, where the first dimension relates to the preparation of the upstream design phase, the second dimension selects a design process on a map classification and the objective of the third dimension is the identification of trades tools and methods for product development. The experimental part of our work has led us to validate the developed tool and propose how to use by designers. Optimization is achieved in our work by the proposal of a three-dimensional tool side and the other by the use of optimization algorithms for modeling tool. New avenues of research for improvement are identified and proposed for future work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Mounanga, Christian-Nazaire. „Outils biocliniques d'évaluation et de contrôle dans les programmes internationaux de lutte contre les filarioses humaines“. Tours, 2004. http://www.theses.fr/2004TOUR4050.

Der volle Inhalt der Quelle
Annotation:
Les filarioses concernent plus de 600 millions de sujets dans le monde et leurs conséquences ont conduit l'OMS au lancement des programmes de lutte. Nous avons étudié les outils d'évaluation, d'intervention et de contrôle des programmes. Nous avons mesuré les indices microfilarien et de séroprévalence respectivement en parasitologie par goutte épaisse, frottis sanguin, biopsie cutanée exsangue, leucoconcentration et en sérologie par ELISA, immunoempreinte, électrosynérèse, immunoélectrophorèse bidimensionnelle, immunochromatographic Test ICT. Les fractions antigéniques d'Ascaris lumbricoides ont été testées avec les sérums du Gabon, des Comores et du Yémen. En évaluation, la clinique, la leucoconcentration et la biopsie sont des références. En contrôle, l'ICT qui détecte les antigènes de Wuchereria bancrofti et l'ELISA restent incontournables ; les autres outils sont d'utilisation difficiles en campagne de masse. L'antigène ascaridien est d'une valeur suffisante pour le diagnostic
Filariasis affects more 600 million people in the world and their consequences drove the World Health Organization (WHO) to launch the campaign against filariasis. We studied tools for evaluation and control of these programmes. We measured parasitological indice by thick, thin blood films, skin snips, leucoconcentration and serological indice by ELISA, western blotting, electrosyneresis, immunoelectrophoresis bidimensional, immunochromatographic Test ICT. Antigens fractions of Ascaris lumbricoides (FSom, FLpc, FOg) have been tested. Serums have been gotten to Gabon, to the Comores and Yemen. We showed in assessment, the clinic diagnosis, the leucoconcentration and the skin snip are reference tools. In control, the ICT for detection of circulating antigens of Wuchereria bancrofti and the ELISA are absolutely necessary. The other tools remain difficult to use in mass campaign against filariasis. Ascaris antigen was revealed of a sufficient value for the diagnosis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Ouinekh, Fatima. „Evaluation des outils de diagnostic et d'impact des céphalées idiopathiques : intérêt dans le suivi prospectif de leur histoire naturelle“. Bordeaux 2, 2005. http://www.theses.fr/2005BOR21201.

Der volle Inhalt der Quelle
Annotation:
RATIONNEL : Le diagnostic des céphalées idiopathiques repose sur une description de symptômes précis (critères IHS). L'impact des céphalées sur la qualité de vie est important. OBJECTIFS : 1) Etudier la stabilité des critères IHS à 1 an 2) Etudier l'évolution des diagnostics IHS en 10 ans 3) Etude de la corrélation entre différentes échelles de mesure d'impact METHODES : Deux échantillons ont permis de répondre aux différents objectifs : la cohorte Hémicrania (issue de la cohorte (EDF-GDF et un échantillon de sujets céphalalgiques issu d'un observatoire des céphalées en médecine générale. RESULTATS : La stabilité des critères IHS est modérée, varie selon les symptômes et conduit à une inqtabilité du diagnostic à 1 an. L'étude à 10 ans montre une évolution favorablede la céphalée ce qui va dans le sens de la théorie du continuum de sévérité. L'échelle HIT-6 de par ses corrélations retrouvées avec les autres échelles semble être un outil adéquat pour la mesure d'impact des céphalées
BACKGROUND : The diagnosis of idiopathic headaches is based on a precise symptom description (IHS criteria). The impact of headaches on quality of life is very important. OBJECTIVES : 1) To study the stability of the IHS criteria in 1 year 2) To study the evolution of the IHS diagnosis in ten years 3) To study the correlation between different disability scales METHODS : Two samples were studied to answer to the objectives : Hemicrania cohort (outcome from the Gazel cohort (EDF-GDF) and a sample from a cross-sectionnal study in general practice. RESULTS : The IHS criteria stability is moderate, varies between symptoms and leads to an instability of the diagnosis at 12 months. The study over a ten year-period shows a facourable evolution of headaches. This finding is compatible with the continuum model of headache. The HIT-6 scale with its different correlation with the other impact scales seems to be well-adapted to assess the impact of headaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Kouadio, Sekedoua Jules Athanase. „Les technologies smartphone comme outils d’aide à l’alerte face aux crues rapides en France : Expérimentations dans le Vaucluse et le Var“. Thesis, Avignon, 2016. http://www.theses.fr/2016AVIG1163/document.

Der volle Inhalt der Quelle
Annotation:
En cas d’alerte aux inondations, l'information en temps réel et sa diffusion à un large public sont des éléments cruciaux pour limiter les comportements à risque, détecter les premiers dégâts ou préparer les acteurs locaux à gérer la crise. Face à ces enjeux, les technologies smartphones apparaissent, deplus en plus, comme des solutions logicielles et matérielles qui pourraient compléter de façon positiveles dispositifs d’alerte institutionnels, notamment grâce à la dynamique des contenus partagés et auxnombreuses interactions dont ils sont le support. Alors que plusieurs pays (États-Unis, Norvège, Pays-Bas, Suède, Philippines) utilisent déjà de tels outils, et même si le Ministère de l'Intérieur a lancé uneapplication urgentiste (SAIP) le 8 juin 2016, la population et les services de l’État semblent beaucoupplus réticents en France. La défense de la propriété individuelle, le manque de crédit attribué auxmessages postés et les verrous technologiques sont les principaux facteurs de blocage avancés. Aprèsavoir mené une enquête dans plusieurs communes rurales des départements du Var et du Vaucluse(qui confirme la méconnaissance des applications déjà existantes alors que les besoins sont bien réelsface aux crues rapides), une nouvelle application a été développée (Al’in). Le prototype créé vise àréduire les écarts entre une approche étatique descendante (top-down), qui positionne et impose l’Étatcomme le seul lanceur d’alerte, et une initiative citoyenne (approche « Bottom-Up »), qui érigel’individu au rang de « citoyen capteur », à la fois capable de remonter ou de diffuser une alerte àtravers l’usage de son smartphone. Répondre à ce défi ne s’avère toutefois pas si simple au regard descontraintes juridiques et techniques préexistantes en France
The information given on flash floods in real time should undoubtedly answers to the citizens needs aswell as to the politic and the safety services. Face to such objective, Smartphone could positivelycomplete the official institutional systems, especially thanks to the dynamic and nature of postedmessages, and to the social interactions they support. This study questions the opportunity ofdeveloping a proactive and innovative alert system using the Smartphone technologies to face therisks due to flash flood hazards. A first study focuses on several alert systems existing actually inFrance but we quickly aim at identifying limits (legal rules, technologies and scientific problems) andchallenges usefulness and opportunities in the numeric sphere) of our objective in general manner.Finally, a local study in Var and Vaucluse permits us to see if population and local stakeholdersshould be interested (or not) by a smartphone application. The proposed solution tries to achieve amajor challenge: reducing the gap between a state approach (top-down), which positions and imposedthe state as the main official alert source, and the citizen action (bottom-up) which establishes theindividual as “Citizen sensor” (both in go up or disseminate information) through the use of issmartphone. Meeting this challenge is indispensable if we hope effectively minimizing material andhuman damages especially when high temporal acuity phenomena such as flash floods happen
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Hoarau, Christelle. „Contribution à l’analyse de la qualité environnementale d’un projet d’aménagement périurbain/rural en milieu tropical : méthodes et outils d’aide à la décision“. Thesis, La Réunion, 2017. http://www.theses.fr/2017LARE0042/document.

Der volle Inhalt der Quelle
Annotation:
Le développement industriel important, le fort accroissement démographique, l'urbanisation intensive, l'expansion des trafics de transports routiers, aériens et maritimes, sont tout autant de facteur contribuant à l'épuisement des ressources planétaires, du foncier et au dérèglement climatique. Faire face aux émissions de gaz à effet de serre et aux autres impacts environnementaux se résume le plus souvent à la conduite d'une politique complémentaire couplant les 3 piliers stratégiques du développement durable : environnement, économie et social. Une normalisation des principes de développement durable est difficile à clarifier, elle dépend du contexte et des objectifs d'un pays ou du territoire d'étude impliqué. La transition énergétique et écologique nécessite un référentiel d'éco-aménagement adapté aux spécificités et aux enjeux des espaces concernés. Ces travaux contribuent à accompagner l'aménagement d'un site en milieu périurbaininsulaire, autour d'activité des secteurs primaires, secondaires, tertiaires et résidentiels.Dans ce cadre, plusieurs outils d'analyse ont été développés pour répondre aux exigences d'un éco-aménagement, à partir notamment des analyses techniques, environnementales et de l'évaluation globale d'un éco-aménagement. Ces outils développés permettent aux acteurs d'aménagement du territoire et de construction d'espaces bâtis, d'analyser les bilans d'impacts environnementaux d'un projet et d'évaluer différentes alternatives d'aménagement. Au delà des outils d'aide à la décision, il est proposé dans cette thèse, une démarche méthodologique basée sur l'approche systémique et typologique et le cadre normatif ISO 14044 relatif à l'Analyse de Cycle de Vie
Significant industrial development, strong population growth, intensive urbanization,expansion of road, air and sea transports are all factors that contribute to the exhaustion of natural resources, land and climate change. The combination of the 3 strategic pillars of sustainable development : environment, economy and social, in the deployment of complementary policies contributes to the reduction of greenhouse gases emissions and environmental impacts.The standardization of the sustainable development principles is difficult to implement. It depends on the context of a the studied country or territory. The ecological and energy transition requires a eco-mangement frame of reference adapted to the specificities and stakes of the concerned territories. This work contributes to the development of a surburban site in a tropical islandenvironment, around activities in the primary, secondary, and tertiary sectors. In this context, several analysis tools have been developed to meet the requirements of an eco-management scheme, including technical and environmental analyzes and the overall evaluation of an eco-management scheme. These tools provide local and regional actors to analyze the environmental impacts of a project and to evaluate different development alternatives. In addition to the decision-supporttools, a methodological approach is proposed in this thesis, based on the systemic and typological approaches and the ISO 14044 normative framework relating to Life Cycle Assessment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

El, Ayeb Béchir. „Méthodes, langages et outils de spécification et de construction des systèmes de diagnostic“. Nancy 1, 1989. http://www.theses.fr/1989NAN10054.

Der volle Inhalt der Quelle
Annotation:
Spécification et construction méthodiques de systèmes de diagnostic pour les grandes installations industrielles. Recherche d'un langage de spécification et des outils de construction des systèmes de diagnostic. Proposition d'une méthode de spécification pour structurer une installation en hiérarchies et graphes de composants abstraits, ainsi qu'un langage pour spécifier les différents composants
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Mathieu, Sophie. „Ingénierie de lectines d'invertébrés par le développement de nouveaux outils de diagnostic en cancérologie“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00568846.

Der volle Inhalt der Quelle
Annotation:
La lectine de Helix pomatia (HPA), extraite de la glande à albumine de l'escargot de Bourgogne et spécifique du résidu GalNAc, appartient à une nouvelle famille de lectine dite de type H. Elle est utilisée depuis plus de vingt ans comme marqueur d'adénocarcinomes (notamment du sein, du colon, du poumon) à fort pouvoir métastatique et donc faible pronostic vital. Son utilisation comme outil de routine en oncologie est, cependant, fortement limitée par son impossibilité à la produire sous forme recombinante. Afin de contourner ces difficultés, des protéines homologues ont été recherchées chez d'autres invertébrés. Deux lectines de type H ont été identifiées chez l'amibe Dictyostelium discoideum (discoidines) et une chez le corail Sinularia lochmodes (SLL-2). Les discoidines sont composées de deux domaines distincts, un domaine C-terminal, spécifique des résidus galactosylés et homologue à HPA et un domaine N-terminal, dit domaine discoidine, de fonction inconnue. Ces travaux de thèse portent, dans un premier temps, sur la poursuite de la caractérisation structurale de la discoidine 1 puis sur la production du domaine N-terminal de la discoidine 2 afin de confirmer la fonction lectine supposée. Dans un second temps, des expériences de microscopie confocale ont montrés que les discoidines ne possédaient pas la capacité d'HPA dans la discrimination des cellules métastatiques par rapport aux non métastatiques. La construction, par mutagenèse, d'une protéine chimérique entre la discoidine 2, très facilement produite dans E. coli, et HPA a alors été entreprise, le but étant de lui apporter la même spécificité qu'HPA. Enfin, la protéine SSL-2 a été clonée et de nombreux essais d'expression sous forme soluble et de purification ont été réalisés en vue de sa caractérisation biochimique et structurale pour sa possibilité d'utilisation comme marqueurs en histopathologie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Phlippoteau, Vincent. „Outils et Méthodes pour le diagnostic d’un état de santé d’une pile à combustible“. Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT013H/document.

Der volle Inhalt der Quelle
Annotation:
Un système à pile à combustible permet de convertir l'énergie d'un gaz combustible en électricité et chaleur, par le biais d'une réaction électrochimique. Il existe plusieurs types de piles à combustible et celle de notre étude a été à membrane échangeuse de protons (ou PEM), fonctionnant à des températures de l'ordre de 50°C à 100°C. A ce jour, une des principales problématiques est la durée de vie de la pile et sa gestion. Elle peut en effet être sujette à de multiples défaillances, comme l'assèchement ou l'engorgement dus à la gestion de l'eau dans la pile, les empoisonnements apportés par les gaz combustible ou comburant, les détériorations internes, etc. L'objectif de cette thèse a été de définir et de mettre en oeuvre des méthodes expérimentales et d'analyse pour caractériser ces défaillances. Ces méthodes expérimentales se basent sur des perturbations électriques de la pile ainsi que des mesures des réponses à ces perturbations. On y retrouvera notamment la spectroscopie d'impédance mieux adaptée aux systèmes instables (brevet). On peut les différencier en deux types d'essais : les essais de faible amplitude, qui peuvent être assez facilement réalisables même lorsque la pile est en train d'accomplir sa mission de fourniture d'énergie par exemple, et les essais de large amplitude qui ont un impact assez fort sur la réponse de la pile. Ces essais restent complémentaires et permettent d'évaluer un certain état de santé de la pile au moment de cette mesure. Le post traitement de ces mesures a aussi fait l'objet d'améliorations, notamment en vue d'améliorer la robustesse des résultats. Enfin, ces méthodes ont été validées pour suivre et analyser des dégradations provoquées et déterminer quels sont les paramètres clés associés à telle ou telle dégradation
A fuel cell system transforms the fuel energy into electricity and heat with electrochemical reaction. There are many kinds of fuel cells and we study here the Proton Exchange Fuelcell (PEMFC), which operates between 50°C and 100°C. At the moment, main issues are fuel cells’ life time and its management. Multiple problems can occur such as drying or flooding due to water management, poisoning with impurities in gas, internal deterioration, etc. The objective of this thesis is to define and carry out experimental and analysing methods to characterize these problems. These experimental methods use electrical perturbation and measurements of their effects. Impedance Spectroscopy is part of these methods, but is greatly improved for instable system (patent). We used two types of tests: low amplitude signal, which can be performed during normal operation of the fuel cell, and large amplitude signal which have a strong impact on the fuel cell response. These tests are complementary and are able to evaluate the state of health of the fuel cell. The analysing process of these measurements is ameliorated, in order to improve the uniqueness of the results. At the end, some problems are generated (drying, flooding, etc) and these methods are performed to follow the variation of performance and determine which parameter is involved with the deterioration
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Ait, Sghir Khalid. „Contribution de la cyclostationnarité et de l'identification aveugle au diagnostic des outils de coupe“. Thesis, Saint-Etienne, 2010. http://www.theses.fr/2010STET4012.

Der volle Inhalt der Quelle
Annotation:
Le diagnostic des outils de coupe joue un rôle dans l’industrie où il est important de maîtriser les coûts ainsi que la qualité des produits finis tout en maintenant la sécurité et la sûreté des biens et des personnes. L’objectif de cette thèse est l’analyse vibratoire des outils de coupe d’une opération de fraisage pour le diagnostic de leur état de dégradation. Dans une première partie nous avons étudié les possibilités offertes par les traitements statistiques synchrones des signaux vibrations issus d’une opération d’usinage pour étudier leur état de fonctionnement. Les signaux vibratoires traités ont la particularité d’être cyclostationnaires, c'est-à-dire périodiques dans leurs propriétés statistiques. La prise en compte de cette propriété permet l’utilisation des descripteurs capables de caractériser instantanément les processus vibratoires, en liaison avec la cinématique mécanique de l’opération d’usinage. De plus lorsque associé à l’échantillonnage angulaire, la cyclostationnarité conduit vers la proposition d’estimateurs statistiques synchrones commodes à mette en œuvre. Les statistiques synchrones d’ordre l et d’ordre 2, la corrélation spectrale ainsi que le bispectre cyclique sont définis avec leurs interprétations et leurs estimateurs. Un modèle des signaux de fraisage est donné. Cette modélisation vise à démontrer la cyclostationnarité de ces signaux. L’emploi de ces indicateurs est illustré sur des signaux réels et comparé avec des indicateurs classiques pour le diagnostic de dégradation des outils de coupe. Dans une deuxième partie, la déconvolution aveugle de la réponse impulsionnelle d’un processus cyclostationnaire est réalisé, en utilisant seulement les statistiques d’ordre deux. Pour cela on exploite la propriété de cyclostationnarité pour estimer la phase du système, même si le système est à phase non minimale. Deux méthodes sont présentées, paramétrique Ding-p et non paramétrique Ding-n. Ces méthodes ont été validées sur des signaux de simulation des signaux vibratoires issus des machines tournantes. Deux applications ont été faites, la première est d’estimer la réponse impulsionnelle d’un système broche-outil-pièce de fabrication. La deuxième c’est de reconstruire les forces de coupe, exerçants sur la pièce de fabrication, afin de faire le monitoring
The identification of the state of a cutting tool is important in any metal cutting process. An additional cost - in terms of scrapped components, machine tool breakage and unscheduled downtime - occurs as a result of tool defects. The thesis objective is the cutting tool vibration analysis of a milling operation for the diagnosis of their state of degradation. In the first part, the possibilities offered by the synchronous statistics, applied to vibration signal captured from a milling process, are studied to examine the cutting tool condition. The processed vibration signals are cyclostationary, i.e their statistical properties are periodic. Taking into account this property, the use of descriptors able to characterize the process, in conjunction with the kinematics of the mechanical machining operation. Furthermore, when combined with the angular sampling, the cyclostationarity led to the proposed synchronous statistical estimators convenient to implement. First order and second order synchronous statistics, the spectral correlation and the cyclic bispectrum are defined with their interpretations and estimators. A model of milling vibration signal is given. This model aims to demonstrate the cyclostationarity of the signals. The use of these indicators is illustrated on real signals and compared with conventional indicators for diagnosing degradation of cutting tools.In the second part, the blind deconvolution of the impulse response of a cyclostationary process is
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Dubos, François. „Outils prédictifs pour la distinction précoce des méningites bactériennes et virales de l'enfant“. Paris 6, 2010. http://www.theses.fr/2010PA066165.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Rolland, Laurence. „Analyses comparatives de systèmes d'infiltration-percolation : colmatage et outils de diagnostics“. Montpellier 2, 2009. http://www.theses.fr/2009MON20132.

Der volle Inhalt der Quelle
Annotation:
Les systèmes d'infiltration-percolation sont largement utilisés pour le traitement des eaux résiduaires en assainissement collectif des petites collectivités ainsi qu'en assainissement non collectif. Ces systèmes extensifs présentent l'avantage d'une gestion simple tout en présentant de bonnes performances épuratoires. Ils restent toutefois sensibles au colmatage physique et biologique du milieu filtrant, colmatage défavorable aux performances épuratoires mais aussi à la durée de vie des ouvrages. Le rôle des matériaux et de la conception des filtres sur le contrôle de la perméabilité du lit filtrant et de la régulation de la biomasse accumulée reste mal connus et aucun outil de diagnostic non destructif ne permet actuellement de caractériser l'état d'un massif en cours de fonctionnement. Ce travail a donc eu pour objectif d'analyser, à différentes échelles d'observation et avec différents outils, notamment non destructifs, la réponse de systèmes d'infiltration sous des conditions de fonctionnement imposées mettant en avant l'influence (i) de la nature de l'eau à traiter, la configuration du lit (type de matériaux filtrants et leur mise en œuvre, avec notamment la présence ou non d'une géogrille en fond de massif) mais également (ii) des paramètres de fonctionnement (charge hydraulique, charge organique, et mode d'alimentation). Les résultats obtenus montrent le rôle déterminant (i) de la granulométrie des sables sur la distribution hydraulique et le contrôle de la masse particulaire accumulée, (ii) du mode d'alimentation et des charges imposées. L'état de fonctionnement des systèmes a pu être évalué à différents temps de travail. Différents outils non destructifs de diagnostic ont montré leur intérêt et des velurs seuils ont pu être associées à différents états de fonctionnement des systèmes
Seepage beds are widely used for on-site and small communities wastewater treatment. These extensive systems present the advantages of both an easy management and good treatment performances. However, they are sensitive to the physical and biological clogging. Clogging alter the treatment performances but also reduce the service life. The role of materials and conception of filters on the control of the permeability of the filtering bed and regulation of the biomass accumulated remain badly understood. In addition, there is a lack of non-destructive tools in order to perform diagnosis on operating systems. The aim of this thesis is to analyse (at various scales and with different tools, especially non-destructive) the answer of infiltration systems to varying operating conditions that are, namely: (i) the composition of the influent, the seepage bed design (type of sand and its implementation, the presence of a geogrid at the bottom), but also (ii) of the operating parameters (hydraulic load, organic load, and mode of feeding). Results highlight the determining roles (i) of the grain size distribution on hydraulic behaviour and the retention of suspended solids, (ii) and of the feeding mode and organic loads. We estimate the operating state of the systems at different time. We distinguish several non-destructive tools fitted for the diagnosis: the measurement of the gaseous oxygen within soil porosity, the measurement of electrical resistivity. In addition, we determine threshold values that allow to differentiate the different state of the system operation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Nze, Ossima Arnaud Davin. „Evaluation statistique des outils diagnostiques et pronostiques à l'aide des surfaces ROC“. Thesis, Montpellier 1, 2014. http://www.theses.fr/2014MON1T005/document.

Der volle Inhalt der Quelle
Annotation:
Dans le diagnostic médical, la surface ROC est l'outil statistique utilisée pour évaluer la précision d'un test diagnostic dans la discrimination de trois états d'une maladie, et le volume sous la surface ROC est l'indice utilisé pour la quantification de la performance du test. Dans certaines situations, différents facteurs peuvent affecter les résultats du test et ainsi les mesures de précision. Dans le cas des études longitudinales, le statut du patient peut changer au cours du temps. Dans ce manuscrit, nous avons développé des méthodes statistiques permettant d'évaluer les capacités discriminatoires des outils diagnostics et pronostics. Nous avons d'abord proposé une méthode semi-paramétrique pour estimer la surface ROC sous des modèles de rapport de densité. La construction de la méthode proposée est basée sur le modèle logit à catégories adjacentes et l'approche de vraisemblance empirique. Nous avons décrit la méthode bootstrap pour l'inférence des estimateurs obtenus. Ensuite, nous avons présenté une méthode d'estimation des surfaces ROC appelée famille de Lehmann des surfaces ROC. Cette méthode est basée sur la famille d'alternatives de Lehmann ou modèle à hasards proportionnels. Elle a l'avantage de prendre en compte les covariables qui peuvent affecter la précision d'un test diagnostic. En outre, nous avons développé une surface ROC covariable-spécifique basée sur la règle de Bayes. Pour cela, nous avons proposé un estimateur semi-paramétrique pour les surfaces ROC covariable-spécifique via des procédures de régression logistique polytomique et un modèle semi-paramétrique de localisation. Enfin, dans le cas où le statut du patient peut évoluer à travers différents stades d'une maladie, une méthode des surfaces ROC dépendant du temps a été développée. L'estimateur obtenu utilise l'approche "Inverse Probability of Censoring Weighting" (IPCW). Des simulations et des exemples sont fournis afin d'illustrer la performance des estimateurs proposés
In diagnostic medical, the receiver operating characteristic (ROC) surface is the statistical tool used to assess the accuracy of a diagnostic test in discriminating three disease states, and the volume under the ROC surface is the used index for the quantification of the performance of the test. In some situations, various factors can affect the test results and subsequently the accuracy measures. In the case of longitudinal studies, the patient's status may change over time. In this manuscript, we developed statistical methods to assess the discriminatory capabilities of diagnostic and pronostic tools. We first proposed a semiparametric method for estimating ROC surface under density ratio models. The construction of the proposed method is based on the adjacent-category logit model and the empirical likelihood approach. We described the bootstrap method for inference of the obtained estimators. Next, we presented a method for estimating ROC surfaces called Lehmann family ROC surfaces. This method is based on the family of Lehmann alternatives or proportional hazards model. It has the advantage of taking into account covariates that may affect the accuracy of a diagnostic test. Moreover, we have developed a covariate-specific ROC surface based on the Bayes rule. For that, we proposed semiparametric estimator for covariate-specific ROC surfaces via polytomous logistic regression procedures and a semiparametric location model. Finally, in the case where patient's status may evolve through different stages of disease a method of time-dependent ROC surfaces was developed. The proposed estimator uses the "Inverse Probability of Censoring Weighting" (IPCW) approach. Simulations and examples are provided to illustrate the performance of the proposed estimators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Bentoumi, Mohamed. „Outils pour la détection et la classificationApplication au diagnostic de défauts de surface de rail“. Phd thesis, Université Henri Poincaré - Nancy I, 2004. http://tel.archives-ouvertes.fr/tel-00122046.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans ce mémoire aborde les problématiques de détection et de classification pour le diagnostic de défauts. Deux approches différentes sont abordées. La première approche est l'approche de détection et classification simultanées où le problème global à K classes est scindé en sous-problèmes. Chaque sous-problème a en charge la détection d'une ou plusieurs classes de défauts et il est traité par une cellule qui enchaîne les phases de prétraitement des signaux, de choix de l'espace de représentation, de détection, puis de décision. La résolution complète du problème à K classes s'effectue par un agencement séquentiel des cellules selon un arbre de décision hiérarchique ou par une mise en parallèle des cellules avec règles de décision associées.
La seconde approche est l'approche de détection et classification successives. Elle consiste à traiter tout
d'abord les signaux issus du capteur de manière simple pour la délivrance d'un signal d'alarme indiquant la
présence possible d'un défaut. Dans ce cas, et dans ce cas seulement, des traitements haut niveau sont mis en
oeuvre dans le but d'analyser plus finement les signatures de ces défauts. Les outils pour la classification - les différents classifieurs linéaires, les classifieurs neuronaux et les machines à vecteurs de support - sont détaillés. L'accent est mis sur le réglage des marges des classifieurs linéaires, sur leurs capacités de généralisation et sur les estimateurs de cette capacité de généralisation.
L'ensemble de ces méthodes a été validé sur une application concernant la détection de défauts de surface de rail dans un contexte métro. Un démonstrateur temps réel et opérant en condition d'exploitation a permis de tester les solutions de l'approche détection et classification simultanées, en considérant les taux de bonne détection et de
fausse alarme sur 4 classes de défauts de rail. La transformée en ondelettes, le filtrage inverse et la séparation de sources par analyse en composantes indépendantes sont les outils de prétraitement qui ont été particulièrement détaillés dans ce contexte applicatif.
Une base de données, constituée à partir de mesures sur site labellisées, a permis de qualifier statistiquement les solutions de l'approche détection et classification successives. Une hiérarchisation des méthodes est proposée en fonction de leur capacité de généralisation, mais aussi de leur complexité et de leur aptitude à traiter le problème avec ou sans optimisation des espaces de représentation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Boucherle, Tom. „Développement de nouveaux outils de diagnostic de terrain pour une application au dosage de l'arsenic“. Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0070.

Der volle Inhalt der Quelle
Annotation:
L’Organisation Mondiale de la Santé (OMS) a fixé en 1998 la concentration maximale en arsenic dans l’eau de consommation à 10 ppb (μg/L). Dans le monde, plus de 100 millions de personnes sont exposées à des concentrations supérieures à 50 ppb. La toxicité, l’omniprésence et la mobilité de l’arsenic entraînent la nécessité de pouvoir le doser immédiatement sur le terrain. Il existe actuellement deux méthodes de dosage de terrain commercialisées. La première, onéreuse, est basée sur la voltammétrie (> 7000 €). La seconde à environ 2 €/analyse se présente sous le format de bandelette. Elle permet la mesure de teneurs en arsenic avoisinant les 10 ppb, mais nécessite la génération d’arsine (forme la plus toxique), l’utilisation de bromure de mercure et donne jusqu’à 33% de faux positifs. L’entreprise Novassay souhaite développer une nouvelle méthode de dosage de l’arsenic simple, rapide et efficace pouvant être utilisée directement sur le terrain. Ce travail présente dans un premier temps, un nouveau protocole issu d’une optimisation de la méthode dite au bleu de molybdène et de l’utilisation d’une membrane filtrante permettant une lecture colorimétrique sur support solide. Dans un deuxième temps, seront présentés les résultats obtenus sur le développement d’une méthode de dosage inédite de l’arsenic par l’intermédiaire de nanoparticules d’or. Dans cette partie, une molécule imaginée à partir de la structure d'un complexant naturel de l’arsenic sera synthétisée. Les tests de dosage de l’arsenic avec cette molécule seront réalisés sur deux types de nanoparticules d’or, les premières stabilisées au citrate, les secondes stabilisées au xylane
In 1998, the World Health Organization (WHO) set the maximum concentration of arsenic in drinking water at 10 ppb (μg/L). In the world, more than 100 million people are exposed to concentrations upper than 50 ppb. The toxicity, ubiquity and mobility of arsenic imply the need to be able to dose it immediately on the field. There are currently two commercially available field dosing methods. The first, expensive, is based on voltammetry (> €7000). The second at about €2/analysis is available in the strip format. It allows the measurement of arsenic concentrations close to 10 ppb but requires the generation of arsine (the most toxic form of arsenic), the use of mercury bromide and gives up to 33% false positives. Novassay wants to develop a new simple, fast and efficient arsenic method that can be used directly in the field. Firstly, this work shows a new protocol resulting from an optimization of the molybdenum blue method and the use of a filtering membrane allowing a colorimetric reading on a solid support. In the second part of this work, the results obtained on the development of a novel method of dosing arsenic by the utilisation of gold nanoparticles will be presented. In this part, an imagined molecule from the structure of a natural complexant of arsenic will be synthesized. The arsenic assay with this molecule will be performed on two types of gold nanoparticles, the first stabilized with citrate, the second stabilized with xylan
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Lopes, Renaud. „Analyses fractale et multifractale en imagerie médicale : outils, validations et applications“. Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10100/document.

Der volle Inhalt der Quelle
Annotation:
La géométrie fractale, comprenant les analyses fractales et multifractales, est un outil en émergence dans de nombreux domaines d’applications et notamment en imagerie médicale. Elle consiste à formuler une mesure de l’hétérogénéité globale ou locale d’un signal (1D, 2D ou 3D). En imagerie médicale, son utilisation est souvent limitée au cas 1D ou 2D et ses domaines d’applications restent essentiellement restreints à la discrimination entre deux états (sains/pathologiques) grâce à une analyse globale du signal. L’objectif de cette thèse est de fournir à la fois des outils 3D de mesures des hétérogénéités globale (volume) et locale (voxel) basées sur la géométrie fractale. Les deux indices utilisés sont la dimension fractale et le spectre multifractal (coefficients de Hölder). Etant donné que les algorithmes de ces outils ne peuvent formuler que des estimations de la valeur théorique, nous utilisons des volumes de synthèses fractals et multifractals pour les valider. Les différents développements offrent ainsi non seulement des outils de discrimination mais également des outils de segmentation de texture. Ce deuxième point est particulièrement intéressant, car le développement de nouveaux attributs de texture est un domaine de recherche actif du fait de l’évolution incessante des technologies d’imagerie. Afin de valider et de montrer l’intérêt de la géométrie fractale, deux applications sont étudiées : la caractérisation des foyers épileptogènes sur des images de tomographie par émission mono-photonique, et la détection des tumeurs prostatiques sur des images IRM pondérées T2. L’efficacité des attributs fractals et multifractals sont étudiés à travers un schéma de classification supervisée. Les résultats concluants pour les deux applications démontrent l’intérêt de cette géométrie et son adaptabilité à différentes applications en imagerie médicale
Fractal geometry is an emerging concept used in medical image analysis. The aim of this geometry is to measure global and local heterogeneities (1D, 2D or 3D). In medical imaging, it is often used to characterize 1D and 2D signals and restricted to discriminate between 2 states (healthy/pathological) by a global analysis of a signal. This thesis aims at providing 3D fractal geometry based tools for the measures of global (volume) and local (voxel) heterogeneities. Two indices are used: fractal dimension and multifractal spectrum (Hölder exponents). Since these algorithms estimate the theoretical value, fractal and multifractal synthetic volumes were used for the validation. This work also proposes texture segmentation tools. Two applications were studied; characterization of epileptic foci on single photon emission computed tomography images and the detection of prostatic tumors on T2-weighted MR images. The effectiveness of fractal and multifractal features are studied through a framework of supervised classification. The results for both applications demonstrate the usefulness of this geometry and its adaptability to several applications in medical imaging
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Pham, Thai Binh. „Apports de nouveaux indicateurs cliniques et biologiques pour le diagnostic et le suivi de la dengue“. Paris 6, 2009. http://www.theses.fr/2009PA066293.

Der volle Inhalt der Quelle
Annotation:
Dans la première partie de cette thèse, nous avons décrit les caractéristiques précoces des formes graves de la dengue chez les adultes vietnamiens. De juillet à octobre 2007, une étude prospective longitudinale a été mise en oeuvre à l’hôpital populaire 115, Ho Chi Minh ville, Vietnam. Sur 195 patients suspectés de dengue, 151 cas ont été confirmés par RT-PCR et/ou isolement du virus sur des échantillons sériques prélevés au 3ème jour après le début de la fièvre. La dengue a été associée à une extravasation plasmatique chez 51 patients (33. 8%), à une cholécystite alithiasique chez 30 patients (20%), à des hémorragies spontanées chez 127 patients (84. 1%) et à des hémorragies internes chez 37 patients (24. 5%). De nombreux indicateurs précoces ont été associés à des manifestations sévères de la dengue. Des vomissements fréquents (≥ 3 fois par jour), une lymphopénie marquée, une thrombopénie et une élévation du taux d’enzymes hépatiques au 3ème jour après le début de la fièvre ont été significativement associés à une extravasation plasmatique et à une cholécystite. L’augmentation du taux d’ALAT plasmatique au 3ème jour a été significativement associée à des hémorragies internes. La cholécystite alithiasique et l’hémorragie interne ont été très fréquemment associées à des sérotypes spécifiques. La deuxième partie de ce manuscrit décrit une fluctuation de la concentration de la protéine HMGB1 circulante au cours de la dengue. Chez les enfants, nous avons observé des variations de la concentration d’HMGB1 circulante au cours de la maladie. Cette protéine s’accumule dans le sang jusqu’à J3-4 après le début; dans les phases tardives, les concentrations sériques restent plus élevées à J7-9 qu‘à J10-12. La survenue du syndrome de choc lié à la dengue chez les enfants est associée à une élévation des concentrations sériques de cette protéine. Chez les adultes atteints de la dengue, des variations précoces de la concentration en HMGB1 ont été mises en évidence au 3ème jour ; les concentrations mesurées sont similaires à celles observées à J3-4 chez les enfants infectés. Chez les adultes, ces variations sont significativement associées à la survenue d’extravasations plasmatique et d’hémorragies muqueuses; Par ailleurs, les concentrations sériques en HMGB1 sont corrélées à la leucocytémie et à la concentration en neutrophiles (p<0,0001). Dans la suite de nos travaux, nous avons évalué plusieurs tests diagnostics de la dengue en nous limitant à l’utilisation de prélèvements sanguins capillaires obtenus sur buvard. Cette approche présente de nombreux avantages, discutés dans ce document, notamment pour la mise en place de vastes études épidémiologiques en contexte tropical, et à distance des laboratoires d’analyse. Ces travaux nous ont permis de valider l’intérêt d’un test de détection de l’antigène viral NS1 (ELISA Ag NS1 Dengue PlateliaTM). Ce test a montré une sensibilité de 96% (IC 95%, 93-99%) et une spécificité de 93% (IC 95%, 87-99%). En nous appuyant sur les résultats présentés dans la 3ème partie de ce document, nous nous sommes proposés d’analyser la cinétique de plusieurs marqueurs virologiques dans les prélèvements capillaires sur buvard (détection de protéine virale NS1, d’ARN viral et d’anticorps IgM anti-dengue). Cette étude a été menée sur des patients vietnamiens recrutés sur la base de signes cliniques évocateurs de la dengue, et pour lesquels nous avons mis en évidence une positivité de la détection de l’antigène NS1 sur sang capillaire. Nous comparons la cinétique de ces marqueurs et montrons que la recherche de l’antigène NS1 est particulièrement performante aux périodes où les autres marqueurs virologiques ne sont pas encore (ou ne sont plus) présents. Les apports diagnostics sont discutés, et mis en perspective avec l’intérêt fondamental et médical que représente l’investigation du compartiment capillaire dans la compréhension de l’infection par le virus de la dengue.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Makni, Nasr. „Méthodes d’identification, d’aide au diagnostic et de planification utilisant de l’imagerie multi-modalité pour les thérapies focales du cancer de la prostate“. Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10117/document.

Der volle Inhalt der Quelle
Annotation:
Les récents progrès de l’imagerie de la prostate rendent possibles la détection de tumeurs de petite taille et le guidage de traitements ciblés dont le but est de minimiser la morbidité de la thérapie. Nous proposons des méthodes de traitement d’images médicales, pour assister et le praticien dans la prise de décision diagnostique et les traitements focalisés par laser du cancer de la prostate.Nous nous intéressons d’abord au diagnostic guidé par l’Imagerie à Résonance Magnétique (IRM). Nous développons des algorithmes pour l’extraction des contours de la prostate et la segmentation de ses zones centrale et périphérique. La détection des lésions suspectes est abordée en expérimentant des attributs de texture extraits de la géométrie fractale, dans des schémas de classification supervisée et non supervisée. La deuxième partie de cette thèse s’intéresse au guidage de la thérapie focalisée par laser. Une méthode de recalage non rigide est proposée pour fusionner les données de planification à l’échographie de guidage per-opératoire. Nous évaluons nos algorithmes en utilisant des données simulées et des fantômes physiques afin de comparer à une vérité terrain connue. Des examens de patients, analysés par des experts, sont utilisés pour des évaluations dans des conditions réelles, tenant compte de la variabilité inter-observateur. Les résultats obtenus montrent que les méthodes développées sont suffisamment précises, rapides et robustes. Des validations multi-centriques et des transferts à l’industrie devraient à l’avenir concrétiser les retombées de ces travaux et contribuer à l’amélioration des gestes diagnostiques et thérapeutiques du cancer de la prostate
In the last decade, new diagnosis procedures and treatment options have been developed and made possible thanks to the recent progress in prostate imaging modalities. The newest challenges in this field are to detect the smallest tumours and to treat locally to minimise the treatment morbidity. In this thesis, we introduce image processing methods for the guidance and assistance of diagnosis and treatment, in laser-based prostate cancer focal therapies. First, we propose novel approaches for extracting three dimensional outlines of the gland, and segmenting its zones (peripheral and central) from Magnetic Resonance Imaging (MRI) data. Computer-aided detection of prostate’s peripheral zone tumours is then investigated by experimenting novel texture features based on fractal geometry, using both supervised and unsupervised classification methods. The results of these different approaches were studied and compared.The second part of this work addresses the guidance of laser-based focal ablation of prostate tumours. A novel non rigid registration method is introduced for fusion of pre-operative MRI and planning data, and per-operative ultrasound imaging. We evaluate our algorithms using simulated data and physical phantoms, which enable comparison to ground truth. Patients’ data, combined to expert interpretation, are also used while taking into account the inter-observer variability.The results we obtained show that the methods we developed are satisfyingly accurate, fast and robust. Multi-centric validation and transfer to the industrial world would bring the contributions of this work to clinical routine, and help improving diagnosis and therapy of prostate cancer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

MATHIS, GAEL. „Outils de détection de rupture et de diagnostic : application à la surveillance de turbines à gaz“. Rennes 1, 1994. http://www.theses.fr/1994REN10121.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette these est l'elaboration d'un systeme de surveillance adapte a un moniteur de combustion d'une turbine a gaz. Afin d'atteindre ce but, nous suivons la demarche generale de surveillance elaboree a l'irisa. Elle consiste a partir d'une modelisation reduite mais suffisante pour discriminer les pannes a detecter, a construire une mesure de distance pertinente entre les observations mesurees et le modele choisi. Pour cela, nous nous placons selon un point de vue local et grace a des principes d'invariance nous ramenons le probleme de detection de pannes non lineaires a un probleme plus simple de detection de changement de moyenne dans une suite de variables aleatoires gaussiennes independantes et de meme matrice de covariance. Des detecteurs hors-ligne et en-ligne sont construits permettant la detection des pannes. Nous proposons plusieurs methodes de diagnostic afin de localiser les pannes. Cette etude est appliquee sur un grand nombre d'observations reelles. De plus, nous proposons la construction de detecteurs hors-ligne et en-ligne a partir des etimateurs de type robbins-monro. Enfin, nous exposons une methode de surveillance a base de reseaux d'ondelettes permettant de nous affranchir du modele physique de la turbine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Bentoumi, Mohamed. „Outils pour la détection et la classification : Application au diagnostic de défauts de surface de rail“. Nancy 1, 2004. http://www.theses.fr/2004NAN10159.

Der volle Inhalt der Quelle
Annotation:
Deux approches différentes sont abordées pour résoudre les problématiques de détection et de classification pour le diagnostic de défauts. La première approche est l'approche de détection et classification simultanées où le problème global à K classes est scindé en sous-problèmes. Chaque sous-problème est traité par une cellule de détection et classification. La résolution du problème global s'effectue par un agencement séquentiel ou par une mise en parallèle des cellules. La seconde approche est l'approche de détection et classification successives qui consiste à traiter tout d'abord les signaux issus du capteur de manière simple pour décider présence ou non d'un défaut. Si défaut détecté, des traitements haut niveau sont mis en oeuvre pour identifier le défaut. Des classifieurs linéaires (Ho-Kashyap et SVM) et neuronaux (RBF) sont utilisés. L'ensemble de ces méthodes a été validé sur une application concernant la détection de défauts de surface de rail dans un contexte métro
The works concern with detection and classification problems for fault diagnosis. Two approaches are treated. The first one, where the K-classes global problem is splitted into sub problems, is called simultaneous detection and classification. Each sub problem is solved by a block that links together pre-processing phase, choice of the representation space, detection then decision. The resolution of the global problem is carried out by a sequential arrangement of the blocks or a parallel decision scheme. The second approach is the successive detection and classification approach. It consits of a first basic signal processing for alarm generation that indicates the possible existence of default. Then, high-level processings are activated in order to precisely analyze the default signature. Classification tools - linear classifiers, neural classifiers, SVM - are used. All these methods have been validated on a rail surface defect detection application in subway context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Ahizi, Dorcas. „Évaluation de la performance de projets d’aide internationale au développement : exemple de trois projets exécutés en Côte d’Ivoire“. Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1226/document.

Der volle Inhalt der Quelle
Annotation:
Les projets d’aide internationale au développement sont extrêmement divers. Ils visent des objectifs multiples, prennent des formes variées, atteignent des dimensions très différentes et se déroulent dans des contextes très contrastés. Cette extraordinaire diversité suscite un discours méthodologique extrêmement normatif. En effet, concernant l’évaluation de la performance des projets, un seul dispositif est conçu dès le démarrage des projets et de façon invariante pour toute la durée de l’action. Les outils et les techniques de ces dispositifs sont censés collecter et traiter un grand nombre d’indicateurs également identifiés dès la création des projets à partir du « cadre logique ». Ces outils et techniques sont conçus par des instances éloignées du terrain, et redevables à l’égard de bailleurs de fonds. Dans la réalité, on constate cependant que même les projets dotés de moyens conséquents peinent à maîtriser le processus d’évaluation de la performance. Rares sont les praticiens qui réussissent à mener de bout en bout une évaluation de la performance. Plus rares encore sont les projets dont les comités de pilotages utilisent réellement les données issues de tels dispositifs d’évaluation pour éclairer leur décision. Pourtant, les évaluations de la performance sont systématiquement réalisées au sein de chaque projet d’aide internationale au développement. Cette thèse se propose d’expliquer les raisons d’un tel paradoxe
International development assistance projects are extremely various. They have multiple objectives, take various forms and take place in contrasted contexts. This diversity causes a normative methodological discourse. Indeed, concerning the project’s performance evaluation, a single and unchangeable management tools is designed from the start to the end of project.This management tools is supposed to collect and process a large number of indicators also designed at the beginning, according to the project « logical framework ». Tools conceives far away from the project and accountable to the donors. In reality, it can be seen that even projects with substantial resources struggle to master the process of evaluating performance. Few practitioners are successful in leading an evaluation of performance. Even few are the projects whose committee leaders use, for making decision, data from such evaluation. However, performance evaluation are systematically carried out within each international development aid project. This research proposes to explain the reasons of such paradox
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Mochel, Fanny. „Déficit énergétique dans la maladie de Huntington : outils diagnostiques et approches thérapeutiques“. Paris 6, 2010. http://www.theses.fr/2010PA066311.

Der volle Inhalt der Quelle
Annotation:
La maladie de Huntington (MH) est une maladie neurodégénérative autosomique dominante due à l’expansion pathologique de triplets CAG dans le gène HTT. Un déficit énergétique cérébral et périphérique a été incriminé dans la MH. L’étude de la perte de poids associée à la MH nous a initialement permis d’identifier (i) un hypercatabolisme au stade présymptomatique de la MH, (ii) une baisse d’acides aminés ramifiés plasmatiques (AAR) et d’IGF1 sérique dans la MH, et (iii) une cible thérapeutique mitochondriale au niveau du cycle de Krebs. L’objet de ce travail a donc été le développement d’outils d’étude du métabolisme énergétique dans la MH et de stratégies thérapeutiques énergétiques anaplérotiques, i. E. Ciblant le cycle de Krebs. Grâce à un système de fixation cérébrale par microondes, nous avons démontré l’existence d’un déficit énergétique cérébral chez des souris MH, associé à des mécanismes de compensation débutant à un stade présymptomatique. Nous avons également identifié un déficit sérotoninergique chez ces souris à un stade prémoteur, associé à des troubles anxieux. La preuve de concept préclinique de l’approche anaplérotique utilisant la triheptanoïne (TH) n’a pas pu être établie du fait d’une toxicité inattendue du composé chez les souris. En revanche, l’étude de phase 2a chez les patients MH a confirmé la relevance d’une intervention thérapeutique ciblée sur le cycle de Krebs. La TH a en effet conduit à une correction du profil énergétique musculaire des patients présentant des anomalies pré-traitement, ainsi qu’à une élévation d’IGF1 sérique chez tous les patients. Enfin, nous avons pu valider l’utilisation des AAR plasmatiques comme biomarqueur dans la MH.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Corne, Aurélie. „Performance et destination : outils d'aide à la décision pour les acteurs du secteur touristique : Le cas de la France“. Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0038.

Der volle Inhalt der Quelle
Annotation:
Nous postulons que la destination touristique, objet de recherche de ce travail, est un système complexe d’éléments en interaction qui se doit d’être commercialisée et gérée. Ainsi, pour maintenir sa compétitivité et son attractivité dans un environnement concurrentiel fort, les Organismes de Gestion de la Destination (OGD) et les professionnels du secteur se doivent d’adopter des stratégies opérationnelles et des outils d’aide à la décision. Cette recherche consiste à analyser la performance, principalement via l’efficience, de la destination touristique, afin de distinguer les meilleures pratiques observables (« benchmarks » ou points de comparaison) et d’apporter des recommandations managériales aux décideurs. À travers divers acteurs et échelles du territoire touristique français, nous tentons de soulever plusieurs questions de recherche liées à l’optimisation de la performance, problématique centrale en sciences de gestion. Les principaux enjeux de ce travail résident dans la valorisation de méthodes quantitatives d’aide à la décision destinéesau management du tourisme
We postulate that tourism destination, which is the research subject of this study, is a complex system of interacting elements. Tourism Destination has to be marketed and managed. Thus, to maintain its position and attractiveness in a highly competitive environment, the Destination Management Organization (DMO) and professionals have to adopt operational strategies and tools for decision-making. The purpose of this thesis is to analyse the performance, mainly through efficiency, of the tourism destination in order to identify the best practices (benchmarks) and provide managerial recommendations to decision makers. Through various actors and different scales of the French territory, we intend to raise several issues related to performance optimization, a core research problem in management. The main purposes of this thesis lie in the use of decision-making with quantitative methods for tourism management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Liu, Weiping. „Contribution au diagnostic de l'isolation statorique des machines électriques par modélisation et identification paramétrique dans le domaine haute-fréquence“. Nantes, 2008. http://www.theses.fr/2008NANT2074.

Der volle Inhalt der Quelle
Annotation:
Le défaut d'isolation des bobinages statoriques représente une des principales causes de défaillance des machines électriques. Or, les méthodes actuelles de diagnostic sont toutes basées sur deux phénomènes : la polarisation de l'isolant dont la dynamique est très lente, et les décharges partielles ayant une signature spectrale en très haute fréquence. En fait, il existe un domaine fréquentiel non encore exploité pour le diagnostic qui correspond à la diffusion de l’onde de tension dans le système isolant, système que l’on peut assimiler à une multiligne de transmission. Après avoir rappelé la constitution et la modélisation du système isolant des machines électriques, nous présentons le banc expérimental mis au point pour étudier sa réponse indicielle : un générateur d'impulsions haute tension et à commutation très rapide permet d'exciter le système avec un spectre suffisamment riche pour son identification. En parallèle, un modèle de simulation du système isolant est développé dans l'environnement Matlab/Simulink. Il permet d'étudier les phénomènes de diffusion de l'onde de tension et de simuler qualitativement l'influence de la pollution des têtes de bobines et du vieillissement des matériaux isolants. Les signaux expérimentaux et de simulation sont exploités afin d'étudier les potentialités de deux structures de modèle de diagnostic. Ce travail exploratoire montre la possibilité de différentier l'évolution des capacités entre spires, liée principalement à un vieillissement du diélectrique, de celle des capacités entre spires et masse liée au vieillissement et à la pollution des têtes de bobines. Elle valide ainsi notre approche
The stator winding insulation faults are one of the major failure sources in electrical machines. However, the current methods of diagnosis all are based on two phenomena: either the insulating material polarization, whose dynamics is very slow, or the partial discharges, which have a spectral signature in very high frequency. In fact, there exists a frequency domain not yet exploited for the diagnosis: it corresponds to the propagation of the voltage wave in the insulating system, which can be considered as a multiconductor transmission line. It is the underlying idea of our work. We first review the constitution of winding insulation system. Then, we present an experimental test bench developed to study its step response: a high voltage pulse generator with very fast commutations allows to excite the system with a sufficiently rich spectrum for its identification. In parallel, a simulation model of the insulating system is developed in the Matlab/Simulink environment. It allows to study the diffusion phenomena of the voltage wave and to qualitatively simulate the influence of the end-windings contamination and the ageing of the insulating material. Experimental and simulation signals are exploited to study the potentialities of two structures of diagnosis model. This exploratory work shows the possibility to discriminate the evolution of the inner capacitance of the windings, which is mainly dependent of the dielectric ageing, and the capacitance between the windings and the magnetic circuit, which is also affected by the pollution of the end-windings. So, these primary results valid the proposed approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Homssi, Louay. „Outils de modélisation, identification et traitement du signal pour le diagnostic des défauts dans les systèmes continus“. Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0017.

Der volle Inhalt der Quelle
Annotation:
Le travail presente dans ce memoire porte sur les outils de traitement analytique pour le diagnostic des defauts lentement variables dans les systemes continus. Une methodologie de diagnostic est presentee basee sur la modelisation et l'identification parametrique du systeme a superviser. Plusieurs avantages la caracterisent: etape d'analyse de la richesse du signal d'entree afin de selectionner des intervalles avec une entree riche en frequences, pour une bonne qualite d'identification, detection et localisation des defauts internes en observant les parametres estimes du systeme, possibilite de localisation de defauts de capteurs. Une grande partie du travail est consacree a l'identification des modeles parametriques continus: classification des methodes d'identification, presentation et comparaison numerique et qualitative de huit methodes d'identification. Divers problemes lies a l'identification ont ete discutes (modeles continus stochastiques, retard, conditions initiales et biais de mesure, richesse d'entree). Nous avons etabli des algorithmes recursifs pour le calcul des coefficients de fourier, dft et coefficients de legendre sur fenetre glissante. Un logiciel de simulation et d'identification des modeles continus (id4) a ete implemente en parallele a notre travail
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Even, Klervi. „Développement d' outils innovants pour le diagnostic et la découverte de cibles dans le cancer du sein“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4019/document.

Der volle Inhalt der Quelle
Annotation:
Au cours de sa vie, 1 femme sur 9 sera atteinte du cancer du sein, 1 sur 27 sera emportée par cette maladie et 10 à 15 % des patientes développeront des métastases dans les trois années suivant le diagnostic. Le diagnostic précis et personnalisé du cancer du sein ainsi que l'évaluation de son potentiel métastatique est donc un enjeu majeur. Une analyse plus précise des caractéristiques moléculaires d'une tumeur primaire devrait conduire à une médecine personnalisée, un traitement et un suivi plus efficace. La détection de biomarqueurs sériques serait un moyen de diagnostiquer un cancer métastatique. Dans le but de découvrir de nouveaux marqueurs, l'analyse protéomique d'échantillons de patient a un fort potentiel mais souffre de limitations techniques, incluant le manque d'anticorps stables reconnaissant des marqueurs tumoraux d'intérêt. Par l'utilisation de fragments d'anticorps aux propriétés remarquables nommé single domain antibody (sdAb), et grâce à la mise au point d'une stratégie innovante de phages display, ce travail apporte d'importantes réponses en termes de disponibilité d'anticorps, d'analyse spécifique d'échantillon et de découverte de nouvelles cibles. Nous avons élaboré une stratégie permettant la découverte de biomarqueurs et l'isolement des anticorps correspondants. Après la construction de banques de sdAb à partir de lamas immunisés par des biopsies, une nouvelles stratégie de sélection in vitro par phage display, la sélection masquée, nous a permis d'isoler des anticorps spécifiques du cancer du sein
In a lifetime, 1 in 9 women will develop breast cancer, 1 of 27 will be swept away by the disease and from 10 to 15% of patients will develop metastases within three years of diagnosis. Accurate and personalized diagnosis of breast cancer and the detection of its metastatic potential is a major challenge. It is essential to develop new analytical methods allowing an effective monitoring of breast cancer. A closer analysis of the molecular characteristics of a primary tumor should lead to more effective personalized medicine, treatment and monitoring. The efficient detection of serum biomarkers would be a way to diagnose metastatic cancer and to modify treatment based on these results. Toward this goal, the proteomic analysis of patient samples has great potential but suffers from technical limitations, including the lack of a wide variety of antibodies and tumor marker. By the use of innovative antibody fragments with remarkable properties named single domain antibody (sdAb), and through the development of a new innovative strategy of phage display, this work provides important answers in terms of availability of antibody, specific proteomic analysis of sample and new target discovery. We have developed a strategy allowing the simultaneous discovery of new biomarkers and the isolation of corresponding antibodies. After the construction of sdAb libraries from llamas immunized with biopsies, and using a new in vitro selection strategy by phage display named masked selection, we have isolated breast cancer-specific antibodies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Reichert, Sandra. „Nouveaux outils de communication pour le diagnostic partagé et la surveillance du patient - application au domaine de l'auscultation“. Phd thesis, Université de Technologie de Belfort-Montbeliard, 2009. http://tel.archives-ouvertes.fr/tel-00608454.

Der volle Inhalt der Quelle
Annotation:
Ce travail est fondé sur l'étude de nouveaux outils de télémédecine ; l'accent est mis sur la création d'un système d'auscultation. Trois points ont été développés : - la conception d'une plateforme innovante pour un meilleur suivit du patient et des échanges simplifiés entre professionnels de santé. Le système d'auscultation proposé permet notamment de réaliser des enregistrements et visualisations d'auscultations antérieures, des télé-auscultations, des envois de données auscultatoires à un expert, de demander un second avis temps réel, d'apporter une aide pédagogique pour l'enseignement de l'auscultation. - l'étude et la réalisation d'un prototype de stéthoscope électronique. En effet, nos travaux ont mis en lumière la nécessité de disposer d'un outil de capture du son performant et adapté à une analyse automatique. Cet outil doit disposer de caractéristiques particulières en termes de courbe de réponse, de bande de fréquence, de filtrage... mais également d'ergonomie. - l'étude d'un format d'échange des données auscultatoires. Aujourd'hui, il n'existe pas de standard pour transmettre de telles données. Nous avons mis en lumière l'intérêt de permettre cet échange d'informations, défini la nature des données devant être transportées (son mais également données patient, médico-légales, sémiologie...) et le moyen de les transmettre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Reverte, Maëva. „Etude de la biocompatibilité d acides nucléiques modifiés par des acides boroniques : développement de nouveaux outils de diagnostic“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT236.

Der volle Inhalt der Quelle
Annotation:
La modification d’oligonucléotides est un domaine attrayant de la chimie organique. De nombreuses études se sont intéressées à la génération de liens internucléosidiques artificiels à visée thérapeutique, diagnostic ou encore pour des applications en chimie prébiotique. Ce manuscript de thèse rapporte la synthèse et l’étude de biocompatibilité d’acides nucléiques modifiés à leurs extrémités 5’ par un acide boronique. Les comportement des oligomères boroniques a été évalué en présence de différentes classes d’enzymes telles que les ligases, les polymérases ou encore les phosphodiestérases. Les résultats de biocompatibilité obtenus en présence de ces enzymes nous ont permis d’utiliser ces acides nucléiques modifiés comme de réels outils de diagnostic pour réaliser de la détection de point de mutation ou encore de la détection de péroxynitrite in-cellulo
The modification of oligonucleotides is an attractive field of organic chemistry. Many studies have focused on the generation of artificial internucleoside linkages for therapeutic, diagnostic or for applications in prebiotic chemistry. This thesis manuscript reports the synthesis and study of nucleic acids biocompatibility modified at their 5 'ends by a boronic acid function. The behavior of boronic oligomers was assessed in the presence of different classes of enzymes, such as ligases, polymerases or phosphodiesterases. The biocompatibility results obtained in the presence of these enzymes allowed us to use these modified nucleic acids as real diagnostic tools to achieve mutation point detection or detection of peroxynitrite in-cellulo
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Schaeffer, Emmanuel. „Diagnostic des machines asynchrones : modeles et outils parametriques dedies a la simulation et a la detection de defauts“. Nantes, 1999. http://www.theses.fr/1999NANT2113.

Der volle Inhalt der Quelle
Annotation:
L'interet grandissant des industriels pour la maintenance predictive des entrainements electriques justifie le developpement actuel de recherches interdisciplinaires. C'est dans ce cadre que nous nous interessons au diagnostic des courts-circuits de la machine asynchrone utilisee en vitesse variable. Notre travail s'articule autour de la modelisation de la machine, a deux niveaux distincts. D'une part, les besoins specifiques au diagnostic necessitent la conception de nouveaux outils pour la simulation de la machine avec defaut. Nous proposons un modele de simulation adapte, fonde sur l'approche de type circuit. Les parametres du modele (inductances propres et mutuelles) sont calcules par la methode des elements-finis en regime stationnaire. L'entrainement a vitesse variable est simule a l'aide de matlab-simulink. Une machine asynchrone a conjointement ete rebobinee afin de pouvoir realiser des courts-circuits realistes et reversibles. Le modele de simulation et la machine experimentale nous permettent d'obtenir des signaux synthetiques et experimentaux similaires de la machine avec defaut. D'autre part, nous proposons un modele de comportement simple, a cinq parametres. Ce modele prend intrinsequement en compte l'existence, au sein de la machine, d'un champ stationnaire du au court-circuit. Les parametres sont estimes par une methode d'erreur de prediction sur le modele d'erreur de sortie. En utilisant les signaux synthetiques et experimentaux precedents, nous montrons que l'estimation des cinq parametres permet de localiser la phase en defaut, et de determiner le nombre de spires en court-circuit, a plus ou moins 1% du nombre de spires en serie par phase (pour la machine testee).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Wackenaer-Descleves, Estelle. „Les β-lactamases chromosomiques des Raoultella spp : support pour la résistance aux antibiotiques et outils de diagnostic étiologique“. Paris 5, 2008. http://www.theses.fr/2008PA05T037.

Der volle Inhalt der Quelle
Annotation:
Les espèces de Raoultella (anciennement Klebsiella). R. Planticola (Rp), R. Ornithinolytica (Ro) et R. Terrigena (Rt) sont difficilement différentiables phénotypiquement des espèces de Klebsiella en routine. Après avoir (i) clone les p-Iactamases des Raoultella (PLA, ORN et TER), (ii) déterminé le niveau d'identité entre elles (94% entre PLA et ORN et 78 % avec TER) et avec les autres p-lactamases de la classe A (70% avec TEM-1, 68% avec SHV-1 et 38% avec KOXY) et (iii) démontré des différences notables entre les activités enzymatiques de PLA et de TER tant entre elles qu'avec TEM-1, la place du gène bla pour l'identification de Rp et Ro a été évaluée sur une large collection d'isolats en comparaison aux gènes rpoB et ADNr 16S. Cette approche diagnostique a permis de découvrir que 70% des isolats Ro sont négatifs pour le test sur lequel a été fondé l'espèce Ro à savoir l'ornithine décarboxylase et que le gène bla via son analyse par RFLP permet de distinguer Ro de Rp sans ambiguïté
The three species of Raouliellu (formerly Klebsiella). R. Planticola (Rp), R. Ornithinolytica (Ro) and R. Terrigena (Rt) cannot be distinguished from the species of Klebsiella spp. By the tests used in the routine by microbiological laboratories. After having (i) cloned the p-lactamases of the 3 Raoultella species (PLA, ORN and TER), (ii) evaluated the percentage of identity between each other (94% between PLA and ORN, and 78% with TER) and with other class A P-lactamases (70% with TEM-1, 68% with SHV-1 and 38% with KOXY), and (iii) studied the p-lactamase activity of PLA and TER, the reliability of the bla gene for Rp and Ro identification was determined in comparison with that of the 16S rDNA and rpoB genes in 35 Raoultella spp. Isolates. This study allowed us to discover that 70% of the isolates identified as Ro were negative for the ornithine decarboxylase test, meaning negative for the biochemical character on which Ro definition was based, and to develop a new test, bla RFLP. To unambiguously identify Ro and Rp
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Ghiss, Moncef. „Dégénérescence discale et outils de diagnostics : couplage d'un modèle osmotico-mécanique et d'imagerie de résonance magnétique nucléaire“. Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4334.

Der volle Inhalt der Quelle
Annotation:
La dégénérescence discale (DD) est un problème majeur de santé publique dans les pays industrialisés où elle touche une grande partie de la population. Elle est considérée comme l'une des premières causes de consultation antidouleur et d'arrêt de maladie particulièrement en France. La présente étude s'inscrit dans le cadre du diagnostic de la DD et plus largement de l'évaluation de la fonctionnalité et de la viabilité du disque intervertébral (DIV).Le DIV est un fibrocartilage hétérogène qui assure d'une part la mobilité du rachis et d'autre part la distribution des contraintes mécaniques entre les vertèbres. Ces deux propriétés principales sont liées à la fois au contenu hydrique et à la présence des protéoglycanes (PG) dans le DIV.Plusieurs études ont montré l'importance de la teneur en eau du DIV sur son comportement biomécanique. Le but de notre étude est constitué de deux étapes:1. suivre avec une méthode d'Imagerie de Résonance Magnétique (IRM), les variations de morphologie et d'hydratation sous un chargement mécanique, 2. suivre avec une modélisation numérique, les évolutions des paramètres mécaniques notamment la rigidité, le coefficient de Poisson et la perméabilité intrinsèque du DIV.Les résultats ainsi obtenus sont conformes avec la littérature et le comportement retenu adhère parfaitement avec le cadre expérimental. Ce travail d'exploration de la viabilité discale apporte des informations importantes dans la compréhension du comportement osmotico-mécanique du DIV
Disc diseases are major public health problem in industrialized countries where they affect a large proportion of the population. Disc degeneration (DD) is considered to be one of the leading causes of pain consultation and sick leave in France. This study is an attempt to diagnose DD and more generally an assessment of the functionality and viability of the InterVertebral Disc (IVD). The IVD is an heterogeneous cartilage, that ensures rachis mobility and optimal stress redistribution between vertebrae. These two main properties are linked to the hydric content and the presence of proteoglycans (PG) which decline in a natural process throughout life. This degenerative process is in some case accelerated, leading to the Degenerative Disc Diseases (DDD) or troubles. Several studies have shown the importance of the water content of the disc on its biomechanical behavior. The aims of our study are:1. to follow with Magnetic Resonance Imaging (MRI), the variation in morphology and hydration under mechanical stress,2. to follow with a numerical model, the changes in mechanical parameters such as stiffness, Poisson's ratio and the intrinsic permeability of the IVD.The post-processing on Magnetic Resonance (MR) data allowed reconstructing the 3D deformation under a known mechanical load and deducing the porosity of the disc. The results obtained are conform with the literature and the adopted behavior adheres perfectly with the experimental data. This study demonstrates also, the ability to calculate the mechanical parameters of an IVD, providing precious information to understand the mechanical behaviour and hence judge the viability of the IVD
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Boutelier, Cécile. „Décider la programmation des espaces sportifs : la question des outils d’aide à la décision : entre logiques d’acteurs, demandes sociales et obsolescence du patrimoine : l’exemple de la Ville de Rennes“. Thesis, Rennes 2, 2013. http://www.theses.fr/2013REN20045/document.

Der volle Inhalt der Quelle
Annotation:
La gestion des équipements sportifs est un des piliers de la politique sportive élaborée par les élus, et ce, quelque soit la commune. La programmation, la réalisation et l’entretien d’infrastructures sportives permettent à une Direction des sports de réaliser diverses missions dans le domaine de l’éducation, l’animation sportive et le soutien aux associations dans l’organisation de manifestations sportives. Toutefois, ces initiatives publiques sont confrontées à un triptyque complexe : l’obsolescence du patrimoine sportif, l’identification des demandes sociales et les stratégies individuelles et collectives des acteurs du monde sportif.Ce champ d’étude soulève plusieurs questions : Comment concevoir une offre d’espaces sportifs pour une ville comme Rennes ? Quelles sont les logiques d’implantation du patrimoine sportif ? Quels sont les indicateurs inhérents aux pratiques sportives qu’un service des sports d’une collectivité locale doit intégrer pour concevoir une politique d'animation, de construction et de rénovation d'équipements sportifs ? L’approche sociohistorique permet d’appréhender l’articulation entre contexte local et national ainsi que les logiques de réseaux dans la prise de décision en matière de programmationd’équipements. Celle-ci s’appuie sur une étude de la construction des équipements sportifs à Rennes de la fin du 18ème siècle à nos jours. De plus, l’enquête auprès des acteurs du sport et des pratiquants à Rennes, ainsi qu’une étude comparative des méthodologies de programmation des équipements dans neuf villes de France, apportent des éléments de réponse et dessinent les perspectives en matière d’aide à la décision dans la programmation des espaces sportifs
Management of sports facilities is one of the pillars of sports policy developed by elected officials, whatever the town. Planning, implementing and maintaining sports facilities allow a Sports Departments to carry out various tasks in the field of education, sports activities and supporting associations in the organization of sport events. However these public initiatives are facing a complex triptych: the obsolescence of sporting equipment, identifying the social demand and the individual and collective strategies of the players in the sports world. This study raises several questions: How to design the right offer of sport facilities for a city like Rennes? What should be the logic behind picking location of sport equipment? What indicators are inherent to sports that sports department of a local authority must track to develop a policy for utilization, construction and renovation of sports facilities? The sociohistorical approach allows understanding the relationship between local and national context and the logic of the networks of decision making for equipment planning. It is based on a study of the construction of sports facilities in Rennes from the late 18th century to today. In addition a survey of sport stakeholders and practitioners in Rennes, and a comparative study of programming methodologies facilities in nine cities of France, provide some answers to improve decision making in regards to planning sport facilities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Sellami, Takwa. „Contribution à l’usage de l’analyse vibratoire comme outils de monitoring et de diagnostic d’avaries pour les machines électriques tournantes“. Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0915.

Der volle Inhalt der Quelle
Annotation:
Les capacités installées d’énergie éolienne continuent à croître rapidement et prennent une place de plus en plus significative dans le monde. Au fur et à mesure, les études menées sur la conception, la sureté de fonctionnement et la supervision de la chaîne éolienne ont pris progressivement de l’importance. Deux axes de recherche ont été privilégiés dans cette thèse. Le premier concerne la continuité de service d'une éolienne connectée au réseau en présence de défaut de court-circuit entre spires dans une phase du stator de la génératrice asynchrone à cage d'écureuil. L'analyse du défaut ainsi que son impact sur le système éolien et notamment sur la qualité de la puissance produite souligne l'intérêt de développement d'un algorithme de détection et d'isolation rapide, dédié par la suite à la reconfiguration de la commande. Ainsi, une commande tolérante au défaut (CTD) a été conçue de manière à éviter l'arrêt de la production, compenser l'impact de défaut et garder des performances acceptables de la qualité d'énergie produite. Le travail effectué s'est articulé sur les observateurs à mode glissant (OMG), communément connus comme outil puissant pour la supervision et la commande à la fois. Le deuxième axe porte sur la sécurité structurale et la stabilité du système éolien sous contraintes vibratoires. Les travaux se répartissent en deux parties complémentaires : L'établissement d'un modèle numérique tridimensionnel (3-D) sous un logiciel d’analyse par éléments finis (ANSYS) et la réalisation des essais vibratoires sous différentes excitations au sein d'une plateforme vibratoire (TREVISE). Dans ce cadre, un modèle numérique (3-D) d'une éolienne à axe horizontal couplée à un mât et une fondation adéquats a été développé en utilisant la méthode de volumes finis (FVM) afin d'appréhender son comportement vibratoire. Les essais vibratoires expérimentaux valident le modèle numérique et permettent l’identification de la réponse dynamique de la structure d'une manière fine. De plus, nous avons élaboré un modèle expérimental de la tenue de l’éolienne aux contraintes vibratoires de formes aléatoire, sinusoïdale et impulsionnelle
The wind energy capacity carries on growing quickly and taking an increasingly significant place in the world. Progressively, research studies dealing with designing and supervising wind turbines have become more important. Two areas of research were developed in this thesis. The first one concerns the continuity of service of a wind turbine connected to the grid while an inter-turn short-circuit fault is present in the stator phase of the induction squirrel cage generator. The analysis of the fault as well as its impact on the wind turbine system and mainly on the quality of the produced power highlights the interest of development of a fast detection and isolation algorithm, dedicated to the reconfiguration of the control law. Hence, a fault tolerant control scheme has been established in order to avoid stopping production, compensate the fault impact and maintain acceptable performances of the quality of the produced energy. The carried out work was based on sliding mode observers, commonly known as robust tools for monitoring and controlling at the same time. The second axis concerns the structural modeling and stability checking of the wind system under vibratory stresses. The work is divided into two complementary parts: The establishment of a three-dimensional (3-D) numerical model using a finite element analysis software (ANSYS) and the realization of vibratory tests under different excitations within the platform (TREVISE). In this framework, a numerical (3-D) model of a horizontal axis wind turbine coupled to a suitable tower and foundation was developed basing on the finite volume method (FVM) in order to analyze its vibratory behavior. The experimental vibratory tests validate the numerical model and allow the identification of the dynamic response of the structure in a precise way. In addition, we have developed an experimental model of the behavior of the wind turbine under vibratory stresses of random, sinusoidal and impulse shapes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Hamaz, Tahar. „Outils de caractérisation et de diagnostic d'une pile à combustible de type PEM par mesure du champ électromagnétique externe“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT074/document.

Der volle Inhalt der Quelle
Annotation:
Les piles à combustible à membrane échangeuse de protons (PEMFC) constituent une alternative aux moteurs thermiques utilisés dans le cadre d’applications transport ou dans le cadre d’applications stationnaires. Cependant, une large commercialisation des PEMFC dépend des progrès qui peuvent être réalisés pour améliorer leur fiabilité et leur durabilité. La PEMFC est sujette à plusieurs types de dégradations complexes et non entièrement maitrisées qui varient en fonction des conditions de fonctionnement. Cependant, il est admis qu’il est souhaitable de faire fonctionner la PEMFC à distributions de courant uniformes car des distributions de courant hétérogènes entraînent une mauvaise utilisation des réactifs et des catalyseurs, une diminution des performances globales et une possible dégradation des matériaux constitutifs du coeur de la pile. De nouvelles stratégies de diagnostic doivent donc être proposées en s’appuyant sur les distributions de courant. Mes travaux de recherche consistent à développer un nouvel outil de diagnostic s’appuyant sur une mesure du champ électromagnétique externe (non invasive) rayonné par la pile PEMFC. Le champ magnétique possède l’intérêt d’être corrélé à la distribution locale du courant circulant à l’intérieur de la pile, et permet d’avoir des informations sur les performances locales. Cette distribution est liée aux conditions opératoires de la pile. Il est alors possible, à partir d’une signature magnétique de remonter à une information locale et à la cause des distributions de courant non uniformes. Des bases (vecteurs) qui contiennent les données des champs magnétiques issues des 30 capteurs disposés autour de la PAC sont construites à partir de distributions de courant spécifiques. Ces bases constituent un espace de représentation du comportement anormal de la PEMFC et permettront de d’élaborer des signatures caractérisant les fonctionnements indésirables. Ainsi, deux méthodes ont été développées pour permettre : (i) d’extraire des paramètres pertinents sur la répartition de la densité de courant traduisant les performances locales de la PAC, (ii) de classifier les différents modes de fonctionnements indésirables. La première méthode consiste à générer des résidus vectoriels en comparant le comportement réel du système (caractérisé par un vecteur mesure) avec les bases générées. Des variables qualitatives ont été élaborées pour classifier les modes de fonctionnement indésirables de la pile. La deuxième méthode consiste à extraire des paramètres à partir de la projection du vecteur mesure dans la direction des bases. La classification est réalisée dans des espaces 2D. Une validation des deux méthodes proposées a été effectuée à partir de mesures expérimentales sur une PEMFC de taille industrielle (stack GENEPAC de 40 cellules construit par le CEA et PSA). La pertinence des paramètres extraits a été vérifiée en s’appuyant sur des distributions de courant mesurées directement. Les modes de fonctionnement indésirables prédéfinis permettent de localiser les paramètres opératoires ayant conduit à l’évolution de la distribution de courant. Les outils ainsi réalisés sont très facilement transposables à d’autres piles PEMFC
Proton exchange membrane fuel cell (PEMFC) is a potential alternative energy conversion device for stationary and automotive applications. Wide commercialization of PEMFC depends on progress that can be achieved to enhance its reliability and durability. The PEM fuel cell is subject to several types of complex and not fully mastered degradations which vary with operating conditions. It is desirable to operate the PEMFC at uniform current distribution because non uniform current distribution over the MEA could result in poor reactant and catalyst utilization, overall cell performance degradation as well as corrosion processes inside the PEM fuel cell. Therefore, new diagnostic strategies must be proposed, including choice of information gathered on the system and the fuel cell operation representation. My research is to develop a new diagnostic tool based on a measure of the external electromagnetic field (non-invasive) radiated by the fuel cell. The magnetic field has the advantage of being correlated to the local distribution of the current flowing inside the fuel cell (a physical indicator to obtain information on local performance of a fuel cell); it is linked to the local operating conditions: relative humidity level, temperature etc. It is then possible, from a magnetic signature to trace local information. Baselines (vectors) which contain the magnetic fields data generated by specific current distribution are built to characterize the magnetic field generated by the undesirable operation of the fuel cell. Baselines constitute a representation space of abnormal system behavior. Two methods have been developed to enable: (i) to extract the relevant parameters on the distribution of the current density resulting from PEM fuel cell stack local performance, (ii) to classify different types of undesirables operations. The first method is to generate vector residuals by comparing the actual behavior of the system (characterized by a measurement vector) with the baselines generated. Qualitative variables were created to classify the undesirable modes of PEM fuel cell stack operation. The second method is to extract parameters from the projection of the vector in the direction of measurement baselines. The classification is performed in 2D space. Validation from experimental measurements of the two proposed methods has been carried out on a commercial scale PEMFC (GENEPAC stack of 40 cells built by the CEA and PSA). The relevance of the extracted parameters was verified based on current density distributions measured directly. The undesirable predefined operating modes were used to locate the operating conditions parameters that led to the evolution of the current density distribution. The tools are made easily transferable to other PEMFC stack
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Chevalier, Arnaud. „Développement de nouveaux outils chimiques pour la synthèse de sondes optiques fluorogéniques pour la détection d'activités enzymatiques en milieu biologique“. Rouen, 2014. http://www.theses.fr/2014ROUES050.

Der volle Inhalt der Quelle
Annotation:
L'imagerie optique est un domaine en plein essor depuis les années 1960. La compréhension des phénomènes mis en jeu et de la relation structure/propriétés photo-physiques des fluorophores a permis l'élaboration de nouvelles stratégies de détection fluorogéniques applicables in vivo. Il en résulte des outils de détection extrêmement sensibles et très peux onéreux, qui ont conduit au développement permanent de nouvelles molécules toujours plus performantes. Mes travaux de thèses ont essentiellement porté sur la synthèse de nouveaux outils chimiques (fluorophores ou quencheurs de fluorescence) permettant le développement de sondes fluorogéniques fondées sur le principe de FRET et/ou de pro-fluorescence, pour la détection d'enzymes en milieux biologiques. La synthèse de nouvelles sulforhodamines non symétriques a aussi été effectuée conduisant à de nouveaux fluorophores dont l'utilité a pu être démontrée notamment par la synthèse de nouvelles sondes fluorescentes d'intérêt. Par ailleurs une chimiothèque de divers quencheurs bioconjugables (dont certains hydrosolubles) couvrant la totalité du spectre visible a été synthétisée. Plusieurs stratégies ont été développées pour la préparation des sonde FRET à protéases dont une partie a conduit à de bons résultats en imagerie in cellulo. Le résultat majeur de ces travaux de thèse est l'élaboration de deux voies d'accès à de nouvelles plateformes moléculaires multifonctionnelles permettant la détection simultanée de deux protéases, concept qui pourraient s'avérer utile pour le diagnostic de certaines pathologies telles que le cancer de la prostate pour laquelle les biomarqueurs utilisés à l'heure actuelle génèrent trop de faux positifs
Optical imaging is a continuously developing field of bio-organic chemistry over the past decades. The understanding of the physical phenomena and of the structure/photophysical properties relationship has resulted in the establishment of new strategies for the fluorogenic detection of (bio)analytes in vivo. Many tools have been developed leading to both sensitive and inexpensive diagnosis systems aiming at increasing their performances. My Ph. D. Thesis has been focused on the synthesis of new chemical tools (both quenchers and fluorescent organic dyes) for the development of new fluorogenic probes (based on FRET and/or pro-fluorescence concept) for the detection of enzymes in biological media. We proceeded to the synthesis of unsymmetrical sulforhodamines leading to novel fluorescent organic dyes whose the usefulness has been proved through the preparation of a wide range of new activatable "smart" optical bioprobes. In addition, a panel of various bioconjugatable quenchers (including water-soluble analogues) has been synthesized. Several synthetic routes have been developed for the rapid and effective access to new protease-sensitive "activatable" FRET-based probes. Some of them have been successfully applied to cellular molecular imaging assays. The major result of these works is probably the developement of two synthetic strategies to access to original heterotrifunctional molecular platforms for the simultaneous detection of two distinct protease activities. We expect that these tools could be highly useful for the early detection of some diseases as prostate cancer for which actual diagnosis technics based on detection/quantification of a single biomarker often lead to many false positive results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Colina, Zulimar. „DIAALE : Conception, implémentation et évaluation d’un dispositif en ligne d’aide à l’apprentissage de la lecture scientifique en anglais langue étrangère“. Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAL021/document.

Der volle Inhalt der Quelle
Annotation:
La thèse se propose de documenter les domaines du développement de la compréhension écrite en L2 chez des publics de non-spécialistes et de l’intégration des technologies de l’information et de la communication pour l’enseignement en contexte vénézuélien. Pour ce faire, la recherche s’appuie sur la conception, la mise en œuvre et l’analyse de deux dispositifs d’apprentissage de l’anglais comme langue étrangère, distanciels, intégrant des outils collaboratifs dans le contexte de la faculté d’ingénierie de l’université de Carabobo au Vénézuéla. Ces deux dispositifs permettent le recueil de données de recherche et de données écologiques, qui sont structurées en corpus puis traitées. A partir de ces données hétérogènes, sont étudiés particulièrement les processus de collaboration entre élèves-ingénieurs dans des tâches de lecture en anglais L2, le développement des compétences en compréhension écrite et l’utilisation des dispositifs électroniques mobiles pendant ces tâches collaboratives
This thesis proposes to document the fields of the development of the writing comprehension in L2 among non-specialist publics and the integration of the information and communication technologies for the teaching in Venezuelan context. In order to do this, this research is based on the design, implementation and analysis of two devices of learning English as a foreign language, distant, integrating collaborative tools in the context of the faculty of engineering of the University of Carabobo in Venezuela. These two devices allow the collection of researching data and ecological data, which are structured in corpus and then processed. From these heterogeneous data, the collaborative processes between student-engineers in L2 reading tasks, the development of written comprehension skills and the use of mobile electronic devices during these collaborative tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie