Дисертації з теми "Diagnostique automatique"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Diagnostique automatique.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-15 дисертацій для дослідження на тему "Diagnostique automatique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Nohra, Chadi. "Diagnostique de défauts sur un moteur Diesel." Aix-Marseille 3, 2009. https://tel.archives-ouvertes.fr/tel-01570301.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Longtemps considérés comme polluants, les moteurs diesels sont aujourd'hui autant, voire plus, propres que les moteurs à essence. Afin de respecter au mieux les normes environnementales, même en présence de dysfonctionnements, les constructeurs automobiles mettent en oeuvre des systèmes de détection et de localisation de défauts. La plupart des recherches précédentes pour le diagnostic des moteurs diesel étudie des parties bien déterminées du moteur et non pas le moteur complet. Cette thèse propose deux stratégies différentes de diagnostic sur un modèle de connaissance d'un moteur diesel ce qui permet de détecter, d'isoler et d'estimer six défauts dans les différentes parties d'un moteur diesel équipé d'un turbocompresseur à géométrie variable : fuite d'air dans le collecteur d'admission, mauvais fonctionnement du compresseur, défaut d'ouverture des soupapes d'admission, défaut dans l'échangeur, détérioration dans le couplage turbine compresseur, défaut dans la commande de la turbine à géométrie variable et défaut dans le capteur de vitesse. L'idée de base de la première stratégie est d'utiliser l'apprentissage récursif d'un observateur à modes glissants. La seconde stratégie utilisée pour concevoir un FDI (Fault Détection and Isolation) est basée sur la théorie de contrôle par «Séquencement de gain» appliquée sur un système multilinéaire de type Takagi-Sugeno. Des simulations avec un modèle diesel non-linéaire validé, en présence de bruit, ont été effectuées et qui a démontré l'efficacité de l'algorithme proposé
Long time considered pollutants, diesel engines are today as much clean, or even more, than the gasoline engines. In order to respect the environmental standards, even in presence of malfunctions, the automotive manufacturers set up systems of faults detection and isolation. Most previous works in the diesel engine diagnosis determined parts of the engine and not the complete engine. This thesis proposes an innovative fault-diagnosis system for a turbocharged diesel engine with variable-geometry turbocharger control. Numerous and diversified actuator and/or sensors faults are identified and analyzed such as air-leakage in the admission collector, compressor malfunctioning, intake-valves fault, intercooler fault, deterioration in the turbine-compressor coupling, defect in the variable geometry of the turbine, and fault in rotational speed sensor. Two different strategies for developing a Fault Detection and Isolation algorithm (FDD were proposed : The first one based on the adaptive training theory of an on line non linear observer with sliding mode. The second one based on the theory of Gain Schedule Control operated on a Takagi-Sugeno model of the diesel. Simulations with a nonlinear Diesel model in the presence of noise were carried out and which demonstrated the effectiveness of the proposed algorithm
2

Simon, Isabelle. "Interet d'un nouveau systeme d'analyse de la ventilation dans la strategie diagnostique du syndrome d'apnees du sommeil." Angers, 1994. http://www.theses.fr/1994ANGE1064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Morice, Vincent. "Saga : un generateur temporel de plans pour la recherche diagnostique." Paris 6, 1988. http://www.theses.fr/1988PA066426.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de saga est de determiner la sequence des examens complementaires a effectuer pour un patient donne, afin de pouvoir prendre, le plus rapidement possible, une decision therapeutique adaptee qui minimise les couts
4

Rilliard, Albert. "Vers une mesure de l'intelligibilité linguistique de la prosodie : évaluation diagnostique des prosodies synthétique et naturelle." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0156.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prosodie réalise plusieurs fonctions linguistiques, depuis la focalisation d'éléments du discours jusqu'à la segmentation et la hiérarchisation des énoncés. Nous voulons ici établir une mesure de l'intelligibilité prosodique de cette fonction de démarcation, afin (1) de valider un modèle de génération prosodique, et (2) de proposer un protocole d'évaluation appliqué comparativement sur les prosodies naturelles et synthétique. Trois paradigmes différents sont explorés : le premier met en œuvre une comparaison objective des capacités perceptives des sujets et de mesures de paramètres acoustiques des signaux prosodiques ; le second fait varier différents contours prosodiques sur un même support lexical, et propose à des sujets de juger de celui qui leur semble le plus adéquat ; le troisième utilise de la parole délexicalisée pour réaliser une tâche d'association d'une structure syntaxique à une prosodie "pure" – deux versions de ce paradigme sont évaluées. Les résultats de ces expériences mettent en évidence les compétences cognitives du traitement prosodique ainsi que la qualité diagnostique des protocoles pour la caractérisation et l'amélioration des synthétiseur
5

Martel, Éric, and Éric Martel. "Conception automatisée d'amorces et de sondes aux fins de diagnostic moléculaire." Master's thesis, Université Laval, 2011. http://hdl.handle.net/20.500.11794/22515.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des algorithmes de conception automatisée d’amorces PCR et de sondes d’hybridation aux fins de diagnostic moléculaire ont été créés et implémentés. La vitesse de recherche d’amorces PCR à la fois spécifiques, ubiquitaires et sensibles s’est avérée considérablement accrue par le calcul et l’emploi de consensus binaires d’alignements multiples de séquences d’ADN. La recherche de sondes d’hybridation spécifiques et l’analyse du potentiel d’hybridation en général entre deux séquences a été facilitée par la synthèse de données empiriques d’hybridation trouvées dans divers articles publiés. D’autres programmes servant à faciliter ou automatiser l’exécution de diverses tâches utiles ont également été créés. Tous les programmes résultants ont permis de valider les algorithmes créés et de confirmer leur utilité dans l’exécution des tâches désirées par les membres de l’équipe de recherche auxquels ils étaient prioritairement destinés.
Des algorithmes de conception automatisée d’amorces PCR et de sondes d’hybridation aux fins de diagnostic moléculaire ont été créés et implémentés. La vitesse de recherche d’amorces PCR à la fois spécifiques, ubiquitaires et sensibles s’est avérée considérablement accrue par le calcul et l’emploi de consensus binaires d’alignements multiples de séquences d’ADN. La recherche de sondes d’hybridation spécifiques et l’analyse du potentiel d’hybridation en général entre deux séquences a été facilitée par la synthèse de données empiriques d’hybridation trouvées dans divers articles publiés. D’autres programmes servant à faciliter ou automatiser l’exécution de diverses tâches utiles ont également été créés. Tous les programmes résultants ont permis de valider les algorithmes créés et de confirmer leur utilité dans l’exécution des tâches désirées par les membres de l’équipe de recherche auxquels ils étaient prioritairement destinés.
Algorithms for automatic design of PCR primers and of hybridization probes for molecular diagnostics have been created and implemented. The search speed for PCR primers that were at the same time specific, ubiquitary and sensitive was greatly improved by both computation and use of binary consensus of multiple alignments of DNA sequences. The search for specific hybridization probes and also analysis of hybridization potential in general between two sequences was facilitated by synthesis of empirical data gathered from different published papers. Other software for facilitating or automating the execution of different useful tasks were also created. All resulting software allowed both for the validation of algorithms and for the confirmation of their usefullness in executing desired tasks by the members of the research team for which they were written in the first place.
Algorithms for automatic design of PCR primers and of hybridization probes for molecular diagnostics have been created and implemented. The search speed for PCR primers that were at the same time specific, ubiquitary and sensitive was greatly improved by both computation and use of binary consensus of multiple alignments of DNA sequences. The search for specific hybridization probes and also analysis of hybridization potential in general between two sequences was facilitated by synthesis of empirical data gathered from different published papers. Other software for facilitating or automating the execution of different useful tasks were also created. All resulting software allowed both for the validation of algorithms and for the confirmation of their usefullness in executing desired tasks by the members of the research team for which they were written in the first place.
6

Leclerc, Sarah Marie-Solveig. "Automatisation de la segmentation sémantique de structures cardiaques en imagerie ultrasonore par apprentissage supervisé." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI121.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’analyse d’images médicales joue un rôle essentiel en cardiologie pour la réalisation du diagnostique cardiaque clinique et le suivi de l’état du patient. Parmi les modalités d’imagerie utilisées, l’imagerie par ultrasons, temps réelle, moins coûteuse et portable au chevet du patient, est de nos jours la plus courante. Malheureusement, l’étape nécessaire de segmentation sémantique (soit l’identification et la délimitation précise) des structures cardiaques est difficile en échocardiographie à cause de la faible qualité des images ultrasonores, caractérisées en particulier par l’absence d’interfaces nettes entre les différents tissus. Pour combler le manque d’information, les méthodes les plus performante, avant ces travaux, reposaient sur l’intégration d’informations a priori sur la forme ou le mouvement du cœur, ce qui en échange réduisait leur adaptabilité au cas par cas. De plus, de telles approches nécessitent pour être efficaces l’identification manuelle de plusieurs repères dans l’image, ce qui rend le processus de segmentation difficilement reproductible. Dans cette thèse, nous proposons plusieurs algorithmes originaux et entièrement automatiques pour la segmentation sémantique d’images échocardiographiques. Ces méthodes génériques sont adaptées à la segmentation échocardiographique par apprentissage supervisé, c’est-à-dire que la résolution du problème est construite automatiquement à partir de données pré- analysées par des cardiologues entraînés. Grâce au développement d’une base de données et d’une plateforme d’évaluation dédiées au projet, nous montrons le fort potentiel clinique des méthodes automatiques d’apprentissage supervisé, et en particulier d’apprentissage profond, ainsi que la possibilité d’améliorer leur robustesse en intégrant une étape de détection automatique des régions d’intérêt dans l’image
The analysis of medical images plays a critical role in cardiology. Ultrasound imaging, as a real-time, low cost and bed side applicable modality, is nowadays the most commonly used image modality to monitor patient status and perform clinical cardiac diagnosis. However, the semantic segmentation (i.e the accurate delineation and identification) of heart structures is a difficult task due to the low quality of ultrasound images, characterized in particular by the lack of clear boundaries. To compensate for missing information, the best performing methods before this thesis relied on the integration of prior information on cardiac shape or motion, which in turns reduced the adaptability of the corresponding methods. Furthermore, such approaches require man- ual identifications of key points to be adapted to a given image, which makes the full process difficult to reproduce. In this thesis, we propose several original fully-automatic algorithms for the semantic segmentation of echocardiographic images based on supervised learning ap- proaches, where the resolution of the problem is automatically set up using data previously analyzed by trained cardiologists. From the design of a dedicated dataset and evaluation platform, we prove in this project the clinical applicability of fully-automatic supervised learning methods, in particular deep learning methods, as well as the possibility to improve the robustness by incorporating in the full process the prior automatic detection of regions of interest
7

Karboub, Kaouter. "Contribution à l'amélioration des performances des services médicaux urgents appliquant l'IoT et l'intelligence artificielle." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0093.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'internet des objets (IoT) et l'intelligence artificielle (IA) sont deux domaines technologiques en progression utilisant les capacités d'exécution de tâches mains libres et d'analyse intelligente des données. Ces technologies présentent un potentiel prometteur pour améliorer les interactions homme-machine dans le flux de travail, créer une meilleure prise de décision et améliorer l'accessibilité aux données. Les progrès rapides et les nouvelles possibilités d'application de l'IoT et de l'IA en sont aux phases initiales. Par conséquent, les travaux de recherche de cette thèse ont pour objectifs d'identifier et d'étudier le potentiel, les défis et les possibilités d'utiliser l'IoT et l'IA pour évaluer les paramètres cliniques. Plusieurs organisations affirment qu'une attention accrue devrait être accordée à l'utilisation efficace des ressources de santé. L'augmentation de l'espérance de vie et de la taille de la population au niveau international s'accompagne d'une augmentation du nombre d'hospitalisations de courte durée, et donc de la capacité limitée des lits. Le rapport international sur la santé mondiale publié par l'Organisation Mondiale de la Santé « OMS » montre que 20 à 40 % de l'ensemble des ressources de soins de santé ne sont pas suffisamment utilisées. Ainsi, les outils qui favorisent un système de soins de santé efficace sont d'une grande importance pour la société actuelle. L'objectif de cette thèse est d'étendre les méthodes dans le domaine de l'IoT et de l'IA ainsi que la modélisation et l'optimisation au flux de patients dans les hôpitaux pour fournir à la direction et aux planificateurs une gamme d'outils de décision afin d'améliorer l'utilisation des ressources hospitalières. Nous élaborons plusieurs problèmes d'optimisation hospitalière pertinents qui concernent la prise de décision au niveau stratégique, tactique et opérationnel. En outre, nous nous concentrons sur différents types de flux de patients, des admissions de patients hospitalisés aux admissions de patients externes, ce qui a donné lieu à de nombreuses études de recherche différentes. Sur le plan méthodologique, nous nous concentrons principalement sur l'évaluation des différentes instances du flux de patients, mais plus particulièrement sur les patients atteints de maladies cardiovasculaires, dont nous appuyant sur la modélisation de la chaîne de Markov. L'accent a été mis plus particulièrement sur la séparation du séjour du patient à l'hôpital en trois phases principales. Chaque phase est interdépendante, variable dans le temps et dépend de l'autre phase. Le cœur de la contribution est d'évaluer et de donner à chaque étape du processus d'admission, de traitement et de sortie des patients des solutions qui peuvent aider les médecins à prendre des décisions temps minimum, mais aussi à les prendre efficacement. Dans notre cas, l'IoT a été de grande utilité afin de collecter les signaux d'électrocardiogrammes (ECG) de patients atteints de différentes pathologies cardiovasculaires, et de transférer ces données dans une plateforme pour le traitement et le stockage. L'IA est utilisée pour classer automatiquement ces signaux avec trois ensembles de données du MIT, afin de décider automatiquement des patients sont atteints de maladies cardiovasculaires. L'IA a ensuite été utilisée pour prédire efficacement quels patients doivent sortir de l'hôpital en fonction de leurs signaux et caractéristiques épidémiologiques et physiologiques, mais aussi en fonction de leur durée de séjour et de leur historique d'admission et de transfert. Enfin, vient le rôle de l'utilisation de l'optimisation métaheuristique. Ce dernier tient compte de l'admission, de la trajectoire de traitement et de la première analyse de survie de ces patients pour décider quels patients seront affectés à un lit dans quel service, principalement dans l'unité de soins intensifs
Internet of Things (IoT) and Artificial Intelligence (AI)are two advancing technological areas utilizing the capabilities of performing hands free tasks and intelligent data analysis. These technologies are showing promising potentials of improving the Human-to-Machine interactions in clinical workflow, create a better foundation of clinical decision-making, and improve the accessibility of clinical data. The novel aspect, rapid advancement, and new application possibilities of IoT and AI are in the initial phases. Hence, the thesis research has the objectives of identifying and investigating the potential, challenges, and possibilities of using IoT and AI to assess clinical settings.From the other hand, Various organizations claim that increasing attention should be put on an efficient use of healthcare resources. The internationally rising life expectancy and population size is accompanied by hospitals that are relying more on short admissions, and thus on limited bed capacity. The international World Health Report published by the World Health Organization shows that 20-40% of all healthcare resources are not being sufficiently utilized. Thus, tools that benefit an efficient healthcare system is greatly relevant to the present society. The goal of this thesis is to expand methods in the field of IoT and AI and modeling and optimization to hospital patient flow with a view to provide management and planners with a range of decision tools for improving the utilization of hospital resources. We elaborate on several relevant hospital optimization problems which relate to decision making on both the strategic, tactical and operational level. In addition, we focus on various types of patient flow, from inpatient to outpatient admissions, which has led to many different research studies. Methodologically we mainly focus on evaluating the different instances of patient flow but specifically on patients with cardiovascular diseases (CVD) based on Markov chain modeling.Mainly, the focus was on separating the patient stay in the hospital into three main phases. Each phase in an interdependent, time varying and function of the other phase. The core of the contribution is to assess and give every step of the process of admitting, treating, and discharging patients with solutions that can help physicians take decisions in short time but also take them efficiently. These techniques used IoT in order to collect electrocardiogram signals (ECG) from patients with different CVD pathologies and to transfer these data into a platform that can preprocess it and store it. AI that is used to automatically classify these signals along with three MIT dataset and decide which patients have cardiovascular diseases with no physician intervention. Then AI was used to efficiently predict which patients need to be discharged based on their epidemiological, physiological signals and characteristics and also based on their Length of Stay (LOS) and on their admission and transfer history. Finally, comes the role of using metaheuristic optimization. This last one, into account the admission, treatment trajectory and first survival analysis of these patients to decide which patients will be allocated to a bed in which ward mainly in the Intensive Care Unit (ICU).The proposed system for studying and optimizing the patients flow in a health care facility show high performance based on the different performance metrics we are using in this research project
8

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2337/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires
Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data
9

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
10

Brisse, Hervé. "Radioprotection en scanographie chez l'enfant : évaluation et optimisation des doses délivrées lors des examens multicoupes, impact du contrôle automatique d'exposition et proposition de niveaux de référence diagnostiques pédiatriques." Paris 11, 2009. http://www.theses.fr/2009PA11T043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Durepos, Suzanne. "Une étude des processus cognitifs automatiques et contrôlés, de la modalité mnémonique et des niveaux d'encodage chez les garçons diagnostiques du Trouble déficit de l'attention/hyperactivité." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape15/PQDD_0027/MQ33873.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Yang, Yu-Fang. "Contribution des caractéristiques diagnostiques dans la reconnaissance des expressions faciales émotionnelles : une approche neurocognitive alliant oculométrie et électroencéphalographie." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS099/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance experte de l'expression faciale est cruciale pour l'interaction et la communication sociale. Le comportement, les potentiels évoqués (ERP), et les techniques d’oculométrie peuvent être utilisés pour étudier les mécanismes cérébraux qui participent au traitement visuel automatique. La reconnaissance d'expressions faciales implique non seulement l'extraction d'informations à partir de caractéristiques faciales diagnostiques, stratégie qualifiée de traitement local, mais aussi l'intégration d'informations globales impliquant des traitements configuraux. Des nombreuses recherches concernant le traitement des informations faciales émotionnelles il apparaît que l’interaction des traitements locaux et configuraux pour la reconnaissance des émotions est mal comprise. La complexité inhérente à l'intégration de l'information faciale est mise en lumière lorsque l'on compare la performance de sujets sains et d’individus atteints de schizophrénie, car ces derniers ont tendance à s’attarder sur quelques éléments locaux, parfois peu informatifs. Les différentes façons d'examiner les visages peuvent avoir un impact sur la capacité socio-cognitive de reconnaître les émotions. Pour ces raisons, cette thèse étudie le rôle des caractéristiques diagnostiques et configurales dans la reconnaissance de l'expression faciale. En plus des aspects comportementaux, nous avons donc examiné la dynamique spatiale et temporelle des fixations à l’aide de mesures oculométriques, ainsi que l’activité électrophysiologique précoce considérant plus particulièrement les composantes P100 et N170. Nous avons créé de nouveaux stimuli des esquisses par une transformation numérique de portraits photos en esquisses, pour des visages exprimant colère, tristesse, peur, joie ou neutralité, issus de la base Radboud Faces Database, en supprimant les informations de texture du visage et ne conservant que les caractéristiques diagnostiques (yeux et sourcils, nez, bouche). Ces esquisses altèrent le traitement configural en comparaison avec les visages photographiques, ce qui augmente le traitement des caractéristiques diagnostiques par traitement élémentaire, en contrepartie. La comparaison directe des mesures neurocognitives entre les esquisses et les visages photographiques exprimant des émotions de base n'a jamais été testée, à notre connaissance. Dans cette thèse, nous avons examiné (i) les fixations oculaires en fonction du type de stimulus, (ii) la réponse électrique aux manipulations expérimentales telles que l'inversion et la déconfiguration du visage. Concernant, les résultats comportementaux montrent que les esquisses de visage transmettent suffisamment d'information expressive (compte tenu de la présence des caractéristiques diagnostiques) pour la reconnaissance des émotions en comparaison des visages photographiques. Notons que, comme attendu, il y avait un net avantage de la reconnaissance des émotions pour les expressions heureuses par rapport aux autres émotions. En revanche, reconnaître des visages tristes et en colère était plus difficile. Ayant analysé séparément les fixations successives, les résultats indiquent que les participants ont adopté un traitement plus local des visages croqués et photographiés lors de la deuxième fixation. Néanmoins, l'extraction de l'information des yeux est nécessaire lorsque l'expression transmet des informations émotionnelles plus complexes et lorsque les stimuli sont simplifiés comme dans les esquisses. Les résultats de l’électroencéphalographie suggèrent également que les esquisses ont engendré plus de traitement basé sur les parties. Les éléments transmis par les traits diagnostiques pourraient avoir fait l'objet d'un traitement précoce, probablement dû à des informations de bas niveau durant la fenêtre temporelle de la P100, suivi d'un décodage ultérieur de la structure faciale dans la fenêtre temporelle de la N170
Proficient recognition of facial expression is crucial for social interaction. Behaviour, event-related potentials (ERPs), and eye-tracking techniques can be used to investigate the underlying brain mechanisms supporting this seemingly effortless processing of facial expression. Facial expression recognition involves not only the extraction of expressive information from diagnostic facial features, known as part-based processing, but also the integration of featural information, known as configural processing. Despite the critical role of diagnostic features in emotion recognition and extensive research in this area, it is still not known how the brain decodes configural information in terms of emotion recognition. The complexity of facial information integration becomes evident when comparing performance between healthy subjects and individuals with schizophrenia because those patients tend to process featural information on emotional faces. The different ways in examining faces possibly impact on social-cognitive ability in recognizing emotions. Therefore, this thesis investigates the role of diagnostic features and face configuration in the recognition of facial expression. In addition to behavior, we examined both the spatiotemporal dynamics of fixations using eye-tracking, and early neurocognitive sensitivity to face as indexed by the P100 and N170 ERP components. In order to address the questions, we built a new set of sketch face stimuli by transforming photographed faces from the Radboud Faces Database through the removal of facial texture and retaining only the diagnostic features (e.g., eyes, nose, mouth) with neutral and four facial expressions - anger, sadness, fear, happiness. Sketch faces supposedly impair configural processing in comparison with photographed faces, resulting in increased sensitivity to diagnostic features through part-based processing. The direct comparison of neurocognitive measures between sketch and photographed faces expressing basic emotions has never been tested. In this thesis, we examined (i) eye fixations as a function of stimulus type, and (ii) neuroelectric response to experimental manipulations such face inversion and deconfiguration. The use of these methods aimed to reveal which face processing drives emotion recognition and to establish neurocognitive markers of emotional sketch and photographed faces processing. Overall, the behavioral results showed that sketch faces convey sufficient expressive information (content of diagnostic features) as in photographed faces for emotion recognition. There was a clear emotion recognition advantage for happy expressions as compared to other emotions. In contrast, recognizing sad and angry faces was more difficult. Concomitantly, results of eye-tracking showed that participants employed more part-based processing on sketch and photographed faces during second fixation. The extracting information from the eyes is needed when the expression conveys more complex emotional information and when stimuli are impoverished (e.g., sketch). Using electroencephalographic (EEG), the P100 and N170 components are used to study the effect of stimulus type (sketch, photographed), orientation (inverted, upright), and deconfiguration, and possible interactions. Results also suggest that sketch faces evoked more part-based processing. The cues conveyed by diagnostic features might have been subjected to early processing, likely driven by low-level information during P100 time window, followed by a later decoding of facial structure and its emotional content in the N170 time window. In sum, this thesis helped elucidate elements of the debate about configural and part-based face processing for emotion recognition, and extend our current understanding of the role of diagnostic features and configural information during neurocognitive processing of facial expressions of emotion
13

Ishak, Dany. "La conception d'un système ultrasonore passif couche mince pour l'évaluation de l'état vibratoire des cordes vocales." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0043/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, une approche de reconnaissance de l’orateur en utilisant un microphone de contact est développée et présentée. L'élément passif de contact est construit à partir d'un matériau piézoélectrique. La position du transducteur piézoélectrique sur le cou de l'individu peut affecter grandement la qualité du signal recueilli et par conséquent les informations qui en sont extraites. Ainsi, le milieu multicouche dans lequel les vibrations des cordes vocales se propagent avant d'être détectées par le transducteur est modélisé. Le meilleur emplacement sur le cou de l’individu pour attacher un élément transducteur particulier est déterminé en mettant en œuvre des techniques de simulation Monte Carlo et, par conséquent, les résultats de la simulation sont vérifiés en utilisant des expériences réelles. La reconnaissance est basée sur le signal généré par les vibrations des cordes vocales lorsqu'un individu parle et non sur le signal vocal à la sortie des lèvres qui est influencé par les résonances dans le conduit vocal. Par conséquent, en raison de la nature variable du signal recueilli, l'analyse a été effectuée en appliquant la technique de transformation de Fourier à court terme pour décomposer le signal en ses composantes de fréquence. Ces fréquences représentent les vibrations des cordes vocales (50-1000 Hz). Les caractéristiques en termes d'intervalle de fréquences sont extraites du spectrogramme résultant. Ensuite, un vecteur 1-D est formé à des fins d'identification. L'identification de l’orateur est effectuée en utilisant deux critères d'évaluation qui sont la mesure de la similarité de corrélation et l'analyse en composantes principales (ACP) en conjonction avec la distance euclidienne. Les résultats montrent qu'un pourcentage élevé de reconnaissance est atteint et que la performance est bien meilleure que de nombreuses techniques existantes dans la littérature
In this work, a speaker recognition approach using a contact microphone is developed and presented. The contact passive element is constructed from a piezoelectric material. In this context, the position of the piezoelectric transducer on the individual’s neck may greatly affect the quality of the collected signal and consequently the information extracted from it. Thus, the multilayered medium in which the sound propagates before being detected by the transducer is modeled. The best location on the individual’ neck to place a particular transducer element is determined by implementing Monte Carlo simulation techniques and consequently, the simulation results are verified using real experiments. The recognition is based on the signal generated from the vocal cords’ vibrations when an individual is speaking and not on the vocal signal at the output of the lips that is influenced by the resonances in the vocal tract. Therefore, due to the varying nature of the collected signal, the analysis was performed by applying the Short Term Fourier Transform technique to decompose the signal into its frequency components. These frequencies represent the vocal folds’ vibrations (50-1000 Hz). The features in terms of frequencies’ interval are extracted from the resulting spectrogram. Then, a 1-D vector is formed for identification purposes. The identification of the speaker is performed using two evaluation criteria, namely, the correlation similarity measure and the Principal Component Analysis (PCA) in conjunction with the Euclidean distance. The results show that a high percentage of recognition is achieved and the performance is much better than many existing techniques in the literature
14

Tripakis, Stavros. "L'analyse formelle des systèmes temporisés en pratique." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004907.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous proposons un cadre formel complet pour l'analyse des systèmes temporisés, avec l'accent mis sur la valeur pratique de l'approche. Nous décrivons des systèmes comme des automates temporisés et nous exprimons les propriétés en logiques temps-réel. Nous considérons deux types d'analyse. Vérification : étant donnés un système et une propriété, vérifier que le système satisfait la propriété. Synthèse de contrôleurs : étant donnés un système et une propriété, restreindre le système pour qu'il satisfasse la propriété. Pour rendre l'approche possible malgré la difficulté théorique des problèmes, nous proposons : Des abstractions pour réduire l'espace d'états concret en un espace abstrait beaucoup plus petit qui, pourtant, préserve toutes les propriétés qui nous intéressent. Des techniques efficaces pour calculer et explorer l'espace d'états abstrait. Nous définissons des bisimulations et simulations faisant abstraction du temps et nous étudions les propriétés qu'elles préservent. Pour les bisimulations, l'analyse consiste à générer d'abord l'espace abstrait, et ensuite l'utiliser pour vérifier des propriétés sur l'espace concret. Pour les simulations, la génération et la vérification se font en même temps (à-la-volée). Un algorithme à-la-volée est aussi développé pour la synthèse de contrôleurs. Pour aider l'utilisateur à sa compréhension du système, nous produisons des séquences diagnostiques concrètes. Nous avons implanté nos méthodes dans Kronos, l'outil d'analyse temps-réel de Verimag, et nous avons traité un nombre d'études de cas réalistes parmi lesquelles le protocole FRP-DT de réservation rapide de débit pour les réseaux ATM (dans le cadre d'une coopération scientifique avec le CNET), le protocole de détection de collisions dans un réseaux à accès multiple de Band&Olufsen, l'ordonnancement de tâches temps-réel périodiques, la cohérence et l'ordonnancement des documents multimédia, ainsi qu'un nombre d'études de cas benchmarks, telles que le protocole d'exclusion mutuelle de Fischer, les protocoles de communication CSMA/CD et FDDI.
15

Desmoulins, Cyrille. "Étude et réalisation d'un système tuteur pour la construction de figures géométriques." Phd thesis, 1994. http://tel.archives-ouvertes.fr/tel-00005086.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail se situe dans le cadre des systèmes informatiques pour l'enseignement intégrant des capacités de raisonnement. Les exigences de ces EIAO (Environnement Interactif d'Apprentissage avec Ordinateur) sont à la fois d'ordre didactique et d'ordre informatique : exigence d'un contrat didactique à la sémantique claire et pré­cise; exigence d'une liberté maximale donnée à l'enseignant dans la formulation de ce contrat; exigence de capacités de déduction complètes; exigence de performances garantissant un niveau d'interactivité suffisant. Concrétement, nous avons conçu et réalisé le système TALC (Tuteur d'Aide Logique à la Construction) pour l'enseignement de la géométrie, dont l'objectif est de diagnostiquer la correction de la construction d'un apprenant vis-à-vis de la spécification d'une figure donnée par un enseignant. La définition du contrat didactique constitue le point central de notre travail. Notre point de vue est que son expression à l'aide de la logique du premier ordre est nécessaire à la fois pour obtenir une définition claire et pour fournir de bonnes explications à l'apprenant. Nous donnons ainsi une sémantique précise aux langages manipulés par le système : le langage logique LDL - à partir duquel est déterminé le diagnostic - et les langages d'interface. Nous présentons aussi les principes de la formulation de la théorie logique représentant les connaissances présupposées de l'élève. Nous établissons, par étapes de dérivation successives, l'expression logique de la correction d'une construction. Cette attitude est fructueuse. Elle nous a amenés à proposer le concept d'extension logique d'une formule par rapport à une autre, nécessaire pour prendre en compte des objets non décrits dans la spécification. Les perspectives ouvertes sont les suivantes : amélioration de la formulation du contrat didactique (par une meilleure définition de la négation), extension des langages d'interface, constitution de séquences didactiques, construction d'un modèle de l'apprenant à l'aide de techniques d'apprentissage et définition d'un langage d'expression des dialogues à tenir.

До бібліографії