Dissertations / Theses on the topic 'Intelligence artificielle – Emploi en diagnostic'

To see the other types of publications on this topic, follow the link: Intelligence artificielle – Emploi en diagnostic.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle – Emploi en diagnostic.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Carette, Romuald. "Détection automatisée du trouble du spectre de l'autisme via eye-tracking et réseaux de neurones artificiels : conception d'un système d'aide à la décision." Electronic Thesis or Diss., Amiens, 2020. http://www.theses.fr/2020AMIE0025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les domaines de l'Informatique et de la Psychologie sont très éloignés. Cependant, certains besoins en Psychologie Cognitive (PC) peuvent être satisfaits par l'exploitation de l'Intelligence Artificielle (IA), en particulier ses approches connexionnistes. Il existe quelques applications des principes d'IA en PC, mais elles sont relativement discrètes. En particulier, le cas de l'aide à la détection du Trouble du Spectre de l'Autisme (TSA) est un domaine vierge, à quelques exceptions près. Des travaux en PC montrant une grande dissociation entre certains traits autistiques et la capacité de concentration, notamment visuelle, nous avons travaillé sur des données issues d'un Eye-Tracker pour tenter de discerner de jeunes enfants atteints de TSA d'autres enfants d'âge équivalent. Ces données sont de deux formats distincts, basées sur le relevé strict des positions des yeux sur l'écran (en deux dimensions) et par rapport à l'écran (en trois dimensions) d'une part, et basée sur une analyse automatisée de la dynamique du regard d'autre part. Ces deux types de données sont des modélisations numériques d'informations, lues en général via un tracé graphique sur une vidéo, par les experts en PC lors de l'observation de leurs participants. Les travaux de cette thèse ont porté sur l'application de diverses modifications sur les données (présentation sous forme d'images, réduction de dimensionnalité, approches statistiques). Ils ont exploité divers modèles d'IA (Réseaux de neurones artificiels, récurrents et convolutifs) afin de produire des techniques d'aide à la détection. Nous avons ensuite appliqué une moyenne pondérée des résultats de nos approches pour obtenir une technique d'aide à la détection encore plus précise. Dans le cadre des travaux poursuivis dans cette thèse, plusieurs approches ont été essayées, prenant les données comme élément de continuité et les réseaux de neurones comme outil d'apprentissage. Commençant par une étude des événements de concentration oculaire et des LSTM, nous avons continué avec les données brutes de suivi oculaire et une modélisation sous forme d'images, traitée avec un CNN. Après application d'une PCA sur ces images, ces données sont également traitées par un simple ANN, avec des résultats supérieurs. Une étude statistique vise ensuite à étudier la corrélation entre les valeurs relevées par notre outil d'Eye-Tracking, ces valeurs de corrélation sont alors fournies à un ANN pour atteindre les plus hauts résultats de nos travaux. Enfin, nous avons cherché à mettre en commun les informations de certains de ces modèles afin d'améliorer encore les résultats obtenus. Le meilleur de nos résultats permet d'obtenir une courbe ROC dont l'AUC atteint les 95%, ce qui permet d'envisager, avec l'ajout de données supplémentaires utilisées en diagnostic manuel, une aide presque parfaite et une libération complète du temps de l'expert pour permettre une totale concentration sur la mise en place d'une aide pour l'enfant et le suivi au plus près de celui-ci. Par ailleurs, l'opportunité d'un diagnostic au plus tôt de l'enfant permet de réduire au mieux le retard neurodéveloppemental de l'enfant. Aucun de ces modèles n'est parfait. Il reste cependant à noter que le diagnostic n'est jamais fait, en pratique, sur les seules données liées à l'Eye-Tracking. Visant à constituer un système d'aide au diagnostic, il sert principalement à guider le professionnel dans son travail et à lui libérer une partie de son temps
The Computer Sciences and Psychology fields are very far from each other. However, some needs in Cognitive Psychology (CP) can be satisfied through the use of Artificial Intelligence (AI), in particular its connectionist approaches. There are a few uses of AI principles in CP, but they are quite inconspicuous. In particular, the case of the diagnosis support applied to Autism Spectrum Disorder (ASD) is a blank slate, with a few exceptions. As some work in CP show a great difference between some autistic traits and the ability to focus, notably visually, we have worked on data from an Eye-Tracker to try and detect young children with ASD apart from others without ASD of equivalent age. This data is of two distinct formats, on one hand based on the strict recording of the eyes positions on the screen (2 dimensions) and from the screen (3 dimensions), and on the other hand based on an automatic analysis of the eye sight dynamics. These two data types are digital models of information, generally read via a graphical plot over a video, by CP experts while observing their participants. The work in this thesis have focused on the application of various data modifications (presented as images, with a dimension reduction or statistics). It used various AI models (Artificial, Recurrent and Convolutional Neural Networks) to produce detection support techniques. Then, we have applied a weighted mean over these results to increase the precision of this detection support technique. Through the work conducted in this thesis, various approaches have been tried, keeping as a common element the neural networks as learning tool. Starting with a study about eye focus event and LSTM, we continued with ocular recorded raw data and a image-based modeling, used with a CNN. After applying PCA on these images, this data are also used with a simple ANN, with enhanced results. Then, a statistical study aims for the study of correlation between the values recorded by our Eye-Tracking device, the correlation are then given to an ANN to reach the highest results of this work. Finally, we tried to gather the information of some of these models to improve the obtained results once more.The best of our results allowed to produce a ROC curve with an AUC reaching 95%, which allow to think about an almost perfect support, given we could add some data used in manual diagnosis, and a complete freeing of the experts' time to enable a total focus on the setup of the child's support and his/her closer following. Moreover, the opportunity of an earlier child diagnosis can help better reducing the child's neurodevelopmental delay. None of these models are perfect. Still, there is to be noted that the diagnosis is never made, in practice, with the sole Eye-Tracking related data. Aiming to constitute a diagnosis support system, it essentially serves as a guiding tool for the professional in his/her work and to free a part of his/her time
2

Taleb, Catherine. "Parkinson's desease detection by multimodal analysis combining handwriting and speech signals." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La maladie de Parkinson (MP) est un trouble neurologique causé par une diminution du niveau de dopamine dans le cerveau. Cette maladie est caractérisée par des symptômes moteurs et non moteurs qui s'aggravent avec le temps. Aux stades avancés de la maladie de Parkinson, le diagnostic clinique est clair. Cependant, dans les premiers stades, lorsque les symptômes sont souvent incomplets ou subtils, le diagnostic devient difficile et, parfois, le sujet peut rester non diagnostiqué. En outre, il n'existe pas de méthodes efficaces et fiables permettant d'établir avec certitude un diagnostic précoce du MP. La difficulté de la détection précoce est une forte motivation pour les outils d'évaluation informatisés/outils d'aide à la décision/instruments de test qui peuvent aider au diagnostic précoce et à la prédiction de la progression de la maladie de Parkinson. La détérioration de l'écriture et la déficience vocale peuvent être l'un des premiers indicateurs de l'apparition de la maladie. Selon la documentation examinée, un modèle indépendant du langage pour détecter la maladie de Parkinson à l'aide de signaux multimodaux n'a pas été suffisamment étudié. L'objectif principal de cette thèse est de construire un système multimodal indépendant du langage pour évaluer les troubles moteurs chez les patients atteints de la maladie de Parkinson à un stade précoce, basé sur des signaux combinés d'écriture et de parole, en utilisant des techniques d'apprentissage automatique. Dans ce but et en raison de l'absence d'un ensemble de données multimodales et multilingues, une telle base de données, également répartie entre les témoins et les patients atteints de la maladie de Parkinson, a d'abord été construite. La base de données comprend des enregistrements de l'écriture, de la parole et des mouvements oculaires recueillis auprès de patients témoins et de patients atteints de la maladie de Parkinson en deux phases (avec médication et sans médication). Dans cette thèse, nous nous sommes concentrés sur l'analyse de l'écriture et de la parole, où les patients atteints de la maladie de Parkinson ont été étudiés avec médication.Des modèles indépendants du langage pour la détection de la maladie de Parkinson basés sur les caractéristiques de l'écriture ont été construits ; deux approches ont été envisagées, étudiées et comparées : une approche classique d'extraction et de classification des caractéristiques et une approche d'apprentissage approfondi. Les deux approches ont permis d'atteindre une précision de classification d'environ 97 %. Un classificateur SVM multi-classes pour la détection des étapes basées sur les caractéristiques de l'écriture a été construit. Les performances obtenues n'étaient pas satisfaisantes par rapport aux résultats obtenus pour la détection de MD en raison des nombreux obstacles rencontrés.Un autre ensemble de caractéristiques acoustiques indépendantes de la langue et de la tâche a été construit pour évaluer les troubles moteurs chez les patients atteints de la maladie de Parkinson. Nous avons réussi à construire un modèle SVM indépendant du langage pour le diagnostic de la MP par analyse vocale avec une précision de 97,62%. Enfin, un système multimodal indépendant du langage pour la détection de la maladie de Parkinson en combinant l'écriture et les signaux vocaux a été mis au point, où le modèle SVM classique et les modèles d'apprentissage profond ont tous deux été analysés. Une précision de classification de 100 % est obtenue lorsque des caractéristiques artisanales des deux modalités sont combinées et appliquées au SVM. Malgré les résultats encourageants obtenus, il reste encore du travail à faire avant de mettre notre modèle multimodal de détection de la MP en usage clinique en raison de certaines limitations inhérentes à cette thèse
Parkinson’s disease (PD) is a neurological disorder caused by a decreased dopamine level on the brain. This disease is characterized by motor and non-motor symptoms that worsen over time. In advanced stages of PD, clinical diagnosis is clear-cut. However, in the early stages, when the symptoms are often incomplete or subtle, the diagnosis becomes difficult and at times, the subject may remain undiagnosed. Furthermore, there are no efficient and reliable methods capable of achieving PD early diagnosis with certainty. The difficulty in early detection is a strong motivation for computer-based assessment tools/decision support tools/test instruments that can aid in the early diagnosing and predicting the progression of PD.Handwriting’s deterioration and vocal impairment may be ones of the earliest indicators for the onset of the illness. According to the reviewed literature, a language independent model to detect PD using multimodal signals has not been enough addressed. The main goal of this thesis is to build a language independent multimodal system for assessment the motor disorders in PD patients at an early stage based on combined handwriting and speech signals, using machine learning techniques. For this purpose and due to the lack of a multimodal and multilingual dataset, such database that is equally distributed between controls and PD patients was first built. The database includes handwriting, speech, and eye movements’ recordings collected from control and PD patients in two phases (“on-state” and “off-state”). In this thesis we focused on handwriting and speech analysis, where PD patients were studied in their “on-state”.Language-independent models for PD detection based on handwriting features were built; where two approaches were considered, studied and compared: a classical feature extraction and classifier approach and a deep learning approach. Approximately 97% classification accuracy was reached with both approaches. A multi-class SVM classifier for stage detection based on handwriting features was built. The achieved performance was non-satisfactory compared to the results obtained for PD detection due to many obstacles faced.Another language and task-independent acoustic feature set for assessing the motor disorders in PD patients was built. We have succeeded to build a language independent SVM model for PD diagnosis through voice analysis with 97.62% accuracy. Finally, a language independent multimodal system for PD detection by combining handwriting and voice signals was built, where both classical SVM model and deep learning models were both analyzed. A classification accuracy of 100% is obtained when handcrafted features from both modalities are combined and applied to the SVM. Despite the encouraging results obtained, there is still some works to do before putting our PD detection multimodal model into clinical use due to some limitations inherent to this thesis
3

Ribas, Santos Eduardo. "Contribution au diagnostic qualitatif des procédés en intelligence artificielle." Vandoeuvre-les-Nancy, INPL, 1996. http://docnum.univ-lorraine.fr/public/INPL_T_1996_RIBAS_SANTOS_E.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de la supervision des procédés est de surveiller le fonctionnement d'une unité afin d'assurer la réalisation des objectifs fixés, quels que soient les incidents et perturbations extérieures pouvant intervenir. Il est nécessaire d'avoir une vue générale afin d'être en mesure de réagir et de se focaliser sur les points clés. Dans cette thèse, nous proposons une modélisation de la connaissance du fonctionnement des procédés adaptée à la représentation généralement choisie par les spécialistes lors d'un problème donné: à l'aide d'un modèle complet du fonctionnement normal de l'unité, ils cherchent à trouver des fautes ou des combinaisons de fautes possibles. Les concepts proposés sont fondés sur une réflexion du processus d'acquisition de la connaissance qui permet au spécialiste de progresser dans l'analyse des activités en production. Ce processus inclut la formulation, à partir des modèles mathématiques contenant la description du comportement dynamique ou statique des systèmes, d'un modèle préliminaire, de telle manière qu'un spécialiste, pour améliorer ses connaissances, puisse s'appuyer sur celles composant un modèle crée par un autre spécialiste. Dans un premier temps, nous introduisons une méthodologie pour la définition des connaissances permettant au spécialiste (ou, en général, à un individu placé au sein d'une organisation industrielle) de mieux représenter formellement les descriptions de problèmes afin de reproduire ses raisonnements. Dans un deuxième temps, nous proposons une formulation pour la représentation de la connaissance et pour le diagnostic, ou la construction de la base de connaissances comprend des étapes résultant du processus d'acquisition de la connaissance qualitative. Les concepts sont illustrés par des procédés simples choisis dans le domaine du génie des procédés. Ainsi, le diagnostic qualitatif d'un réacteur idéal continu parfaitement agité est examiné en détail dans le cadre général précédemment étudié
4

Jaouen, Tristan. "Caractérisation du cancer de la prostate de haut grade à l’IRM multiparamétrique à l’aide d’un système de diagnostic assisté par ordinateur basé sur la radiomique et utilisé comme lecteur autonome ou comme second lecteur." Electronic Thesis or Diss., Lyon, 2022. http://www.theses.fr/2022LYSE1140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons développé un système de diagnostic assisté par ordinateur (CAD) basé sur des régions d'intérêt pour caractériser le cancer de la prostate avec un grade de l'International Society of Urological Pathology (ISUP) ≥2 lors d'une IRM multiparamétrique (IRM-mp). Les paramètres de l'image provenant de 2 jeux de données multi-constructeurs de 265 IRM pré-prostatectomie et 112 IRM pré-biopsie ont été combinés en utilisant la régression logistique. Les meilleurs modèles contenaient le 2e percentile d’ADC (ADC2) et le taux de rehaussement normalisé (WI) dans la zone périphérique (ZP) et le 25e percentile d'ADC (ADC25) dans la zone de transition (ZT). Ils ont été associés dans le système CAD. Le CAD a été évalué rétrospectivement sur 2 jeux de données multi-constructeurs contenant respectivement 158 et 105 IRM pré-biopsie de notre institution (test interne) et d'une autre institution (test externe). Deux radiologues ont indépendamment décrit les lésions ciblées par la biopsie. Le score PI-RADSv2 (Prostate Imaging-Reporting and Data System version 2) attribué prospectivement lors de la biopsie et le score CAD ont été comparés aux résultats de la biopsie. A l’échelle des patients, les aires sous la courbe Receiver Operating Characteristic (AUC) du score PI-RADSv2 étaient de 82% (IC 95% : 74-87) et 85% (IC 95% : 79-91) dans les jeux de données de test interne et externe respectivement. Pour les deux radiologues, le score CAD avait des AUC similaires dans les jeux de données interne (82%, IC 95% : 76-89, p=1 ; 84%, IC 95% : 78-91, p=1) et externe (82%, IC 95% : 76-89, p=0.82 ; 86%, IC 95% : 79-93, p=1). La combinaison du PI-RADSv2 et du CAD aurait pu éviter 41 à 52% des biopsies tout en manquant 6 à 10% des cancers ISUP≥2. Le système CAD a confirmé sa robustesse dans une étude multicentrique impliquant 22 scanners et des protocoles d'imagerie très hétérogènes. Dans l'analyse par patient, le CAD et le PI-RADSv2 avaient des performances similaires en termes d’AUC (76%, IC 95% : 70-82 contre 79%, IC 95% : 73-86 ; p=0.34) et de sensibilité (86%, IC 95% : 76-96 contre 89%, IC 95% : 79-98 pour le PI-RADSv2≥4). La spécificité du CAD (62%, IC 95% : 53-70 contre 49% ; IC 95% : 39-59 pour le PI-RADSv2≥4) permettait une complémentarité avec le score PI-RADSv2 pour potentiellement éviter 50% des biopsies, tout en manquant 13% des cancers ISUP≥2. Ces résultats étaient similaires à ceux rapportés dans les cohortes de test issues d’un unique centre et ont ouvert la voie à de nouvelles applications du CAD. Le CAD a d’abord permis une bonne discrimination des cancers ISUP≥2 chez des patients placés en surveillance active. Son AUC (80% ; IC 95% : 74-86) était similaire à celle du score PI-RADSv2 attribué prospectivement par des uro-radiologues spécialisés (81%, IC 95% : 74-87 ; p=0.96). Le CAD était plus spécifique que les scores PI-RADS≥3 (p<0.001) et PI-RADS≥4 (p<0.001). Il pourrait offrir une solution pour sélectionner les patients pouvant éviter sans risque une biopsie de confirmation ou de suivi dans le cadre de leur surveillance active (25%). Il manquerait alors 5% des cancers ISUP≥2. Le CAD a enfin été confronté aux IRM-mp pré-prostatectomie de 56 patients japonais, issus d’une population qui est géographiquement éloignée de sa population d’entraînement et qui intéresse de par ses faibles taux d’incidence et de mortalité du cancer de la prostate. Son AUC était alors similaire au score PI-RADSv2 attribué par un radiologue expérimenté dans la ZP (80%, IC 95% : 71-90 contre 80%, IC 95% : 71-89 ; p=0.886) et dans la ZT (79%, IC 95% : 66-90 contre 93%, 95%CI : 82-96 ; p=0.051). Ces résultats prometteurs et robustes sur des jeux de données hétérogènes suggèrent que le CAD pourrait être utilisée dans la routine clinique quotidienne comme un second lecteur pour aider à sélectionner les patients pouvant éviter la biopsie en toute sécurité. Ce CAD pourrait aider les lecteurs moins expérimentés à caractériser les lésions de la prostate
We developed a region of interest-based (ROIs) computer-aided diagnosis system (CAD) to characterize International Society of Urological Pathology grade (ISUP) ≥2 prostate cancers at multiparametric MRI (mp-MRI). Image parameters from two multi-vendor datasets of 265 pre-prostatectomy and 112 pre-biopsy MRIs were combined using logistic regression. The best models used the ADC 2nd percentile (ADC2) and normalized wash-in rate (WI) in the peripheral zone (PZ) and the ADC 25th percentile (ADC25) in the transition zone (TZ). They were combined in the CAD system. The CAD was retrospectively assessed on two multi-vendor datasets containing respectively 158 and 105 pre-biopsy MRIs from our institution (internal test dataset) and another institution (external test dataset). Two radiologists independently outlined lesions targeted at biopsy. The Prostate Imaging-Reporting and Data System version 2 (PI-RADSv2) score prospectively assigned at biopsy and the CAD score were compared to biopsy findings. At patient level, the areas under the Receiver Operating Characteristic curve (AUC) of the PI-RADSv2 score were 82% (95% CI: 74-87) and 85% (95% CI: 79-91) in the internal and external test datasets respectively. For both radiologists, the CAD score had similar AUC results in the internal (82%, 95% CI: 76-89, p=1; 84%, 95% CI: 78-91, p=1) and external (82%, 95% CI: 76-89, p=0.82; 86%, 95% CI: 79-93, p=1) test datasets. Combining PI-RADSv2 and CAD findings could have avoided 41-52% of biopsies while missing 6-10% of ISUP≥2 cancers. The CAD system confirmed its robustness showing good discrimination of ISUP ≥2 cancers in a multicentric study involving 22 different scanners with highly heterogeneous image protocols. In per patient analysis, the CAD and the PI-RADSv2 had similar AUC values (76%, 95% CI: 70-82 vs 79%, 95% CI: 73-86; p=0.34) and sensitivities (86%, 95% CI: 76-96 vs 89%, 95% CI: 79-98 for PI-RADSv2 ≥4). The specificity of the CAD (62%, 95% CI: 53-70 vs 49%, 95% CI: 39-59 for PI-RADSv2 ≥4) could be used to complement the PI-RADSv2 score and potentially avoid 50% of biopsies, while missing 13% of ISUP ≥2 cancers. These findings were very similar to those reported in the single center test cohorts. Given its robustness, the CAD could then be exploited in more specific applications. The CAD first provided good discrimination of ISUP ≥2 cancers in patients under Active Surveillance. Its AUC (80%, 95% CI: 74-86) was similar to that of the PI-RADS score prospectively assigned by specialized uro-radiologists at the time of biopsy (81%, 95% CI: 74-87; p=0.96). After dichotomization, the CAD was more specific than the PI-RADS ≥3 (p<0.001) and the PI-RADS ≥4 scores (p<0.001). It could offer a solution to select patients who could safely avoid confirmatory or follow-up biopsy during Active Surveillance (25%), while missing 5% of ISUP≥2 cancers. Finally, the CAD was tested with the pre-prostatectomy mp-MRIs of 56 Japanese patients, from a population which is geographically distant from its training population and which is of interest because of its low prostate cancer incidence and mortality. The CAD obtained an AUC similar to the PI-RADSv2 score assigned by an experience radiologist in the PZ (80%, 95% CI: 71-90 vs 80%, 95% CI: 71-89; p=0.886) and in the TZ (79%, 95% CI: 66-90 vs 93%, 95%CI: 82-96; p=0.051). These promising and robust results across heterogeneous datasets suggest that the CAD could be used in clinical routine as a second opinion reader to help select the patients who could safely avoid biopsy. This CAD may assist less experience readers in the characterization of prostate lesions
5

Fabien, Aratbi-Perrot. "Diagnostic et suivi d'état embarqués -- Une étude algorithmique." Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00864629.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de cette thèse a été d'étudier les systèmes pouvant (se) diagnostiquer en vue de (se) reconfigurer dans le contexte de l'amélioration de l'autonomie des systèmes spatiaux. Pour cela, nous nous sommes intéressés aux agents fondés sur un modèle du système, concept étudié en Intelligence Artificielle. Nous avons utilisé ce concept dans un but de suivi d'état, tout en prenant en compte les défauts pouvant affecter le système, effectuant ainsi la tâche de diagnostic dynamique. Pour cela, les aspects concernant les défauts du système ont été intégrés dans le modèle. Le suivi d'état est la tâche qui met à jour un état de croyance concernant le système. Nous l'avons analysé sous un angle algorithmique dans le but de répondre aux contraintes de faibles ressources de calcul présentes à bord des systèmes spatiaux. Nous avons étudié les algorithmes de suivi qui opèrent sur des modèles logiques, tels que ceux écrits en logique propositionnelle ou dans le langage des réseaux de contraintes, et sur des modèles probabilistes, tels que les réseaux Bayésiens dynamiques. Cette étude a permis de cibler le phénomène d'enchevêtrement qui rend exponentiel la représentation de l'état de croyance. Notre contribution consiste à proposer une approche algorithmique qui utilise un algorithme de recherche en profondeur d'abord dans un espace de recherche Et/Ou. Dans cet espace, le phénomène d'enchevêtrement a pu être analysé sous un nouvel angle. Nous avons proposé une solution au phénomène d'enchevêtrement en définissant, sous la forme de trois règles de calcul, un système cohérent et complet dans la théorie des ensembles. Nous avons ensuite défini des structures de données servant de représentation compacte de l'état de croyance. Ces structures de données sont appelées arbres symboliques. Nous concluons par une généralisation et des perspectives dans le domaine algorithmique et les mathématiques.
6

Hamburger, Jean. "Intelligence artificielle et geologie : interpretation geo-historique et diagnostic de ceonception." Paris 6, 1990. http://www.theses.fr/1990PA066533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux travaux en intelligence artificielle ont deja aborde le probleme de l'interpretation geologique. Mais, la plupart concernent seulement l'interpretation lithologique. Le probleme d'interpretation que nous nous proposons de resoudre est l'interpretation geo-historique dont l'objectif est la reconstitution de l'histoire du sous-sol. L'interpretation geo-historique a un role primordial puisqu'elle constitue l'essence meme de la geologie. Pour mener a bien cette interpretation, nous proposons deux methodes qui sont complementaires, mais qui peuvent etre utilisees independamment: la reconnaissance d'objets geologiques et le diagnostic de conception. Pour reconnaitre les objets geologiques, nous substituons a la reconnaissance de formes ce que nous appelons la reconnaissance genetique ou les modeles d'objets sont definis non pas par leurs caracteristiques geometriques, mais par leurs caracteristiques historiques, autrement dit par leur genese. Cela permet d'associer a chaque objet reconnu un ou plusieurs scenarios possibles. Mais la validite de cette interpretation geo-historique n'est fondee que sur la confiance que l'on a dans les regles d'expertise qui sont les regles d'association entre objets geologiques et scenarios. Le diagnostic de conception dont l'objet est la construction d'un scenario valide est fonde sur les regles du jugement par contumace. Un scenario incomplet produit une coupe geologique differente de celle que l'on peut observer. Les regles du jugement par contumace incriminent les evenements geologiques dont l'absence est susceptible de causer les differences entre la coupe geologique observee et la coupe synthetique resultant d'un scenario. Le diagnostic de conception qui est derive du diagnostic de pannes n'est pas un diagnostic de dysfonctionnement d'un composant, mais de presence d'un evenement. Pour mener a bien la construction d'un scenario, le diagnostic de conception peut etre utilise seul, mais beneficie avantageusement des ebauches de scenario fournies par la reconnaissance d'objets geologiques. Les principes sur lesquels est fonde le diagnostic de conception sont generaux. Celui est donc applicable a tous domaines ayant trait a la comprehension de processus temporels
7

Gerlinger, Gilles. "Diagnostic en temps réel par système expert : application à un système de diagnostic embarqué sur automobile." Compiègne, 1991. http://www.theses.fr/1991COMPD366.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il existe un intérêt grandissant à l'heure actuelle pour les systèmes experts (SEs) dits « temps réel ». A cela, on peut voir deux raisons. Tout d'abord un SE est capable, dans des cas où il n'existe pas de solution algorithmique satisfaisante, de résoudre un problème en un temps réaliste (polynomial), notamment à l'aide d'heuristiques appropriées. Ensuite, les applications temps réel peuvent bénéficier de certaines caractéristiques des SEs, particulièrement intéressantes vis-à-vis des contraintes de temps, comme la possibilité de faire progresser le travail déjà effectué sans le remettre en cause dans sa globalité ou la capacité à estimer le sous-espace de recherche le plus prometteur en fonction de l'état du système. Cependant, l'intégration d'un SE dans une application temps réel soulève bon nombre de difficultés. Globalement, le SE doit satisfaire trois exigences principales : 1) l'intégration dans l'environnement extérieur, c'est-à-dire avec les autres composants logiciels de l'application temps réel; 2) le fonctionnement en temps réel, qui recouvre des concepts comme le fonctionnement en continu, la prise en compte de données asynchrones, la focalisation d'attention, l'activation, etc. ; 3) la prise en compte du temps dans le raisonnement, afin que le SE puisse déterminer la position relative d'événements dans le temps. Tous ces aspects ont été développés à partir d'un générateur de SEs existant, le système SUPER. La démarche suivie est de faire du SE une des pièces d'un système temps réel conventionnel. Les points forts concernant par conséquent les problèmes d'interruption en cours de raisonnement, de communication et d'interaction entre modules et enfin de temps de réponse. Une application d'un tel système a été réalisée dans le cadre du projet européen PROMETHEUS avec la mise au point d'un système de diagnostic embarqué sur véhicule.
8

Larrechea, Michel. "Méthodologie de modélisation des connaissances dans le domaine du diagnostic technique." Bordeaux 1, 1995. http://www.theses.fr/1995BOR10651.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail expose dans cette these se situe dans le domaine des systemes a base de connaissances appliques au diagnostic technique des systemes complexes. L'objectif est de definir une methodologie de modelisation cognitive pour le developpement de systemes a base de connaissances de seconde generation, pour l'aide aux depanneurs. Dans ce but, nous montrons l'utilite de recourir a une modelisation complete des deux types de connaissances utilisees par de tels systemes. Ainsi, nous proposons plusieurs modeles, d'une part, du systeme physique objet du diagnostic, et d'autre part, de l'expertise structuree en fonction des methodes de resolution de problemes (mrp) utilisees. Nous definissons ainsi un cadre de modelisation conceptuel base sur une structuration des connaissances en trois niveaux interdependants. Deux d'entre eux sont dependants de la mrp utilisee, alors que le troisieme contient les connaissances specifiques a une application et notamment les differents modeles precites du systeme physique. L'un d'entre eux est central, il predit son comportement grace a l'utilisation combinee d'informations quantitatives et qualitatives. Ce cadre constitue notre apport principal. Nous lui associons une demarche de mise en uvre
9

El, Falou Mohamad. "Contributions à la composition dynamique de services fondée sur des techniques de planification et diagnostic multi-agents." Caen, 2010. http://www.theses.fr/2010CAEN2015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le problème de la composition de service. Nous nous focalisons sur les travaux qui utilisent les techniques de planification et nous proposons deux approches qui permettent de surmonter quelques limites des approches existantes. La première approche propose deux algorithmes centralisés fondés respectivement sur Tree-seach et Graphplan. Ces algorithmes n'assurent pas le passage à l'échelle à cause de leurs complexités exponentielles. Dans la seconde approche, cette limite est dépassée en proposant une architecture de planification multi-agents où chaque Web service est défini par un groupe de services et est considéré comme un agent. Les agents se coordonnent en fusionnant leurs meilleurs plans partiels qui permettent de répondre partiellement à une requête. Cette procédure est répétée jusqu'à atteindre le but en utilisant une fonction heuristique locale. Cette approche est ensuite étendue par des heuristiques globales pour assurer sa complétude si les sous-problèmes assignés aux agents sont dépendants. L’heuristique globale d'évaluation du meilleur plan local partiel permet d'éviter les puits en considérant les plans locaux intermédiaires proposés par d'autres agents. L'étude de la complexité des approches décentralisées montre qu'elles sont polynômiales, et les résultats expérimentaux montrent qu'elles sont capables d'assurer le passage à l'échelle pour des problèmes complexes. Enfin, une architecture d'agent de composition auto-guérissant est développée. Cette architecture vise une réelle intégration entre les processus de composition, de diagnostic actif, et de réparation en un seul processus de planification
This thesis addresses the problem of service composition. We focus on the use of planning techniques and we introduce two different approaches that overcome some limitations of the existing approaches. The first approach has two centralized algorithms based respectively on Tree-seach and Graphplan. These algorithms do not scale up well due to their exponential complexity. In the second approach, we overcome this limitation by proposing a multi-agents planning architecture where each web service defined by a set of services and is considered as an agent. The agents are coordinated by merging their best partial plan that answer partially to a request. This coordination procedure is repeated iteratively until reaching the goal using a local heuristic function. This approach is then extended by a global heuristics to ensure its completeness if the sub-problems assigned to the agents are dependent. This global heuristic of evaluating the best local plan avoids the wells by considering the intermediate local plans offered by other agents. The study of the complexity of decentralized approaches shows that they are polynomial, and experimental results show that they are able to scale up well for complex problems. Finally, a self-healing services composition agent-based architecture is developed. This architecture is a real integration between the processes of composition, active dignosis, and repair into one planning process
10

Maalej, Mohamed-Amine, and Véronique Delcroix. "Diagnostic multiple des systèmes complexes à base de réseaux bayésiens." Valenciennes, 2006. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/46028b3e-dbca-41c6-a69f-b740ee4d0519.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le diagnostic à base de modèles a révolutionné le domaine du diagnostic en ayant pallié le manque de connaissances par l'utilisation de modèle. Notre recherche se concentre sur la tâche de diagnostic multiple pour un système complexe, fiable et de grande taille à partir d’observations de panne. Nous exploitons les modèles en réseaux bayésiens pour perfectionner le diagnostic de ces systèmes. Ces modèles intègrent les probabilités a priori de défaillance des composants, et permettent, par un calcul approché, de calculer les probabilités a posteriori des diagnostics. Nous présentons une méthodologie de diagnostic à base de réseau bayésien, intégrant d'une part, la méthode de conception du modèle et d'autre part, deux algorithmes de diagnostic : le premier permet le calcul des diagnostics les plus probables pour un système défaillant, le deuxième fournit rapidement des représentants des classes de diagnostic et révèle les cas où des observations supplémentaires sont nécessaires. Nous présentons les résultats de ces algorithmes en terme de temps de calculs et qualité des résultats pour des systèmes numériques de différentes tailles
Model Based Diagnosis approach revolutionizes the field of the diagnosis as overcoming the lack of knowledge by using Model. Our research focuses on the task of multiple diagnosis, from failure observations, for complex and highly-reliable large systems. We take the advantages of the Bayesian networks models to improve the diagnosis of this type of systems. These models integrate the components failures prior probabilities, and allow estimating posterior probabilities of diagnoses, by an approached calculation. We present a methodology of diagnosis using Bayesian network. Our approach integrates a model design method, in addition to two diagnosis algorithms : the first algorithm allows calculating the most probable diagnoses for a failing system; the second provides quickly representatives of the diagnosis classes, it reveals also the cases while additional observations are necessary. Finally we test these algorithms in terms of computing time and results quality for digital circuits of various sizes
11

Hiluy-Filho, Joâo José. "Contribution à l'étude de l'exploitation d'un procédé de fabrication de bioéthanolApplication des systèmes experts au diagnostic d'incidents en fermentation." Châtenay-Malabry, Ecole centrale de Paris, 1995. http://www.theses.fr/1995ECAP0914.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une méthodologie de diagnostic de dysfonctionnement pour la fermentation éthanolique dans un procédé de fabrication d'éthanol à partir de la canne à sucre a été développée. Cette méthode est basée sur le couplage entre une approche issue de l'Intelligence Artificielle (I. A. ) par l'utilisation d'un logiciel générateur de systèmes experts et un logiciel de simulation dynamique. La recherche a été orientée sur la définition d'une méthodologie appropriée pour contribuer à la résolution de la problématique du diagnostic. La stratégie de couplage entre systèmes experts et simulation dynamique offre plus de possibilités et de flexibilité aux utilisateurs pour le choix convenable et la proposition du diagnostic. Cette approche correspond à une stratégie intéressante de résolution d'un problème de diagnostic de dysfonctionnement pour la fermentation éthanolique dans le procédé de fabrication du bioéthanol spécifiquement, et sur les installations industrielles de façon plus générale. L'approche du couplage des systèmes s'avère efficace dans la tâche de diagnostic. Elle utilise le calcul symbolique comme support pour la construction de la base de connaissance, et le calcul numérique comme outil complémentaire. Ceci permet de s'affranchir des limitations de la programmation de l'Intelligence Artificielle d'une part et de la programmation conventionnelle d'autre part.
12

Darwesh, Aso. "Diagnostic cognitif en EIAH : le système PépiMep." Paris 6, 2010. http://www.theses.fr/2010PA066397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de notre travail est de concevoir un système de diagnostic automatique fiable utilisé à grande échelle sur une plateforme d’enseignement en ligne dans le domaine de l’apprentissage de l’algèbre élémentaire. Ma thèse s’est déroulée dans le cadre du projet Lingot, projet de recherche pluridisciplinaire regroupant, des informaticiens, des didacticiens des mathématiques, des psychologues ergonomes, des enseignants et des formateurs d’enseignants. Ce projet a deux objectifs fondamentaux. Le premier consiste à concevoir des EIAH (Environnements Informatiques pour l’Apprentissage Humain) pour aider les enseignants à gérer la diversité cognitive des élèves pour l’apprentissage de l’algèbre au collège. Le deuxième objectif est de fournir aux chercheurs des dispositifs d’observation pour étudier, sur le long terme, les résultats d’apprentissage des enseignements dispensés. Notre apport est double : d’une part il porte sur l’évaluation du diagnostic et l’amélioration de sa qualité et, d’autre part, il propose un diagnostic adaptatif. Enfin notre système a été mis en œuvre sur la plateforme de l’association Sésamath utilisée par des milliers d’enseignants et d’élèves. Le problème principal qui nous concerne, en tant qu’informaticien, est celui du mode d’inférence des descripteurs de la compétence d’un apprenant à partir des données recueillies lors d’un test diagnostic. Le processus de diagnostic se décompose en deux étapes : un diagnostic local qui consiste à analyser chaque réponse d’un élève, et un diagnostic que nous qualifions de global qui consiste à détecter des cohérences dans les réponses des élèves afin de dresser un bilan des compétences qui ont été détectées. Nous avons, à partir de premiers prototypes, mis au point un modèle conceptuel et un logiciel, PépiMep, qui le met en œuvre. Dans un premier temps, PépiMep recueille des réponses ou des raisonnements algébriques sur une plateforme d’enseignement en ligne, puis, dans un deuxième temps, PépiMep analyse ces réponses en prenant en compte non seulement leur degré de validité mais aussi leur caractérisation sur plusieurs dimensions. Cette analyse s’appuie sur un logiciel de calcul formel développé par l’équipe. Enfin PépiMep construit un bilan cognitif qui caractérise la compétence de l’élève, en établissant des leviers pour l’apprentissage et des fragilités à faire évoluer, et qui le situe sur une échelle de compétence. Nous avons mis en place les modèles de données et le système qui les interprète. Nous nous sommes enfin penchés sur le problème de mettre au point un diagnostic adaptatif pour minimiser le temps de passage du test diagnostic. Ce diagnostic s’appuie sur le modèle markovien de décision séquentielle. Pour mener à bien notre travail de recherche, nous avons adopté une démarche fondée sur le prototypage et sur l’analyse de corpus de réponses d’élèves obtenus à partir de prototypes. Nous avons mis en place des outils pour faciliter l’analyse de ces données par des experts humains (enseignants et didacticiens des mathématiques dans notre cas) et la comparaison entre le diagnostic automatique et celui d’experts ou de professionnels humains. Les résultats de cette comparaison montrent que notre système permet de faire instantanément un travail qui prend plusieurs heures à un expert humain, selon un taux de concordance avec l’expertise humaine qui est supérieur aux taux d’accords entre experts humains avant discussion pour établir un consensus sur un corpus de référence.
13

Wolman, Frédéric. "Modèles du processus de raisonnement diagnostique : application au développement d'un système d'aide au diagnostic dans les tumeurs osseuses." Bordeaux 2, 1991. http://www.theses.fr/1991BOR23057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Fiol, Jean-Charles. "Logique floue dans un système expert de diagnostic d'entreprise." Paris 1, 1997. http://www.theses.fr/1997PA010041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Delf2 est un système expert conçu pour établir le diagnostic à moyen terme d'une entreprise. Une étude préalable a montré qu'il était nécessaire de sortir de l'obligation de conclure toute proposition par vrai ou faux. L'aspect original de ce travail a impliqué une approche particulière du raisonnement artificiel dans le domaine de la gestion d'entreprise, qui se traduit par l'utilisation de la théorie des sous-ensembles flous et de la théorie des possibilités pour la représentation des connaissances et la conduite du raisonnement graduel. Les règles, qui contiennent les connaissances déductives, sont écrites afin de pouvoir utiliser des appréciations linguistiques, et traiter des informations imprécises et incertaines. Les métarègles, contiennent les connaissances procédurales, et assurent le pilotage du système ,en contrôlant la comparaison des valeurs floues ; l'utilisation optimale de toutes les règles regroupées en modules spécifiques ,est réalisée par itération
Defl2 is an expert system designed for the medium term analysis of a company. A preliminary study has demonstrated that it is necessary to put aside the obligation to settle all propositions on the basis of true or false. The original aspect of this work consists in a particular approach of artificial reasoning in the area of company management. This involves the use of the theory of fuzzy sub-groups and the theory of the possibilities concerning the representation of knowledge and the application of gradual reasoning. The rules, which include deductive knowledge, are written to make use of linguistic analysis, and process imprecise and uncertain information. The meta-rules include procedural knowledge and ensure the piloting of the system, by controlling the comparison of fuzzy data; the optimal use of all the rules regrouped into specific modules is achieved by means of repetition
15

Aguilera, Ana Isabel. "Construction dynamique d'une base de connaissance dans le cadre du diagnostic médical multi-experts." Rennes 1, 2008. http://www.theses.fr/2008REN1S144.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche que nous présentons dans cette thèse concernent la définition d’une méthode d’acquisition de connaissance multi-expert dans le cadre du diagnostic médical. En effet, les environnements médicaux et la connaissance associée à ceux-ci ont des caractéristiques spécifiques qui demandent des efforts additionnels dans la conception des systèmes de connaissance. Notre méthode a consisté en trois étapes : 1) la modélisation conceptuelle des agents qui prennent part à la résolution du problème, 2) la mise en œuvre des outils informatiques pour l’acquisition de connaissance et 3) la validation de la connaissance acquise. Nous avons accompli les étapes décrites par notre méthode et à la fin, nous avons construit une base de cas basée sur des vrais cas et nous avons compté sur l’expérience des experts pour sa validation
The research work presented in this thesis is related to the definition of knowledge acquisition method from multi-experts in medical diagnosis. Indeed, the medical environments and their knowledge associated have specific characteristics which require additional efforts in the design of knowledge systems. Our method consisted of three phases: 1) conceptual modeling of the agents which participate in the problem resolution, 2) development of computer tools for the knowledge acquisition and 3) validation of knowledge acquired. We achieved the phases described by our method and finally, we built a case base based on true cases and experts have validated it
16

Osmani, Aomar. "Diagnostic de pannes dans les réseaux : approche à base de modèles et raisonnement temporel." Paris 13, 1999. http://www.theses.fr/1999PA132044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse se situe dans le cadre de la construction d'un système d'aide à la supervision de réseaux de télécommunications qui soit à la fois efficace et générique. L'architecture proposée pour cela par le projet GASPAR comporte une approche à base de modèles pour générer automatiquement un système de supervision à base de règles. Nous nous sommes intéressé principalement à la modélisation et à la simulation du comportement du réseau. Nous avons amélioré quelques aspects de la modélisation utilisée et propose des algorithmes permettant de réduire l'explosion combinatoire due à l'incertitude sur l'ordre des événements. Nous avons mis en oeuvre ces analyses dans notre logiciel AUTMODSIM. Nous avons également introduit une approche d'apprentissage à partir d'exemples utilisant le formalisme d'intervalles généralisés. Nous avons accordé une grande importance dans notre travail à la gestion des informations temporelles. D'abord, dans le cadre du projet GASPAR, où nous avons proposé des algorithmes de simulation prenant en compte les informations temporelles imprécises. Puis, dans un cadre plus général du raisonnement sur le temps utilisant les techniques de satisfaction de contraintes où nous avons proposé deux formalismes : le raisonnement sur les intervalles généralisés et le raisonnement sur les intervalles décrits sur un cercle.
17

Abchiche, Nadia. "Elaboration, implémentation et validation d'une approche distribuée pour l'intégration de modèles de raisonnement hétérogènes : application au diagnostic de pannes électriques." Paris 8, 1999. http://www.theses.fr/1999PA081527.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente l'elaboration d'une approche distribuee pour l'integration de systemes manipulant chacun, un modele de raisonnement particulier. Chaque modele de raisonnement est constitue d'un type de connaissances specifique et d'un ensemble de moyens appropries pour l'exploitation de ces connaissances, ce qui lui conferent un ensemble de caracteristiques lors de la resolution d'un probleme. Notre modele de cooperation mocah (modelisation de la cooperation entre agents heterogenes) est concu pour permettre l'integration de plusieurs modeles de raisonnement dans un meme systeme, en vue de combiner les avantages de plusieurs modeles de raisonnement tout en minimisant leurs inconvenients. Mocah est base sur l'identification de connaissances de cooperation (reseaux contractuels, negociation) que nous avons modelise avec la methodologie commet. Cette methodologie est appliquee aussi bien aux connaissances de cooperation qu'aux connaissances du domaine. Elle consiste a decomposer ces deux types de connaissances selon trois dimensions : les taches, les methodes et le modele du domaine. A partir de mocah, nous avons concu une architecture d'agent cooperatif implementee dans un environnement de programmation multi-agents. Chaque agent represente un modele de raisonnement particulier, dote d'une architecture capable de manipuler avec un meme algorithme l'ensemble des connaissances d'un agent. A cause des limites individuelles des modeles de raisonnement, aucun agent n'est capable de maitriser un probleme dans sa totalite. Cette maitrise concerne aussi bien le nombre de problemes resolus que la qualite meme d'une solution. Les agents communiquent entre eux grace a une representation consensuelle. Ils cooperent et creent ainsi, une synergie entre les modeles de raisonnement, ce qui permet alors d'augmenter le nombre de problemes resolus et d'ameliorer les solutions obtenues. Notre approche a ete experimentee pour le diagnostic de pannes de circuits electriques
This work describes the elaboration of a distributed approach to integrate several heterogeneous reasoning models using multi-agents paradigms. Each reasoning model represents particular knowledge with appropriate methods. Since none of the reasonig models is able to solve a whole problem with acceptable performances, we have proposed a cooperation model, mocah (modellig cooperation between heterogeneous agents). The starting point is to model the cooperation reasoning at the knowledge level with a methodology usefull for domain expertise commet. In fact, we extracted cooperation expertise from works done in distributed artificial intelligence (contract net protocoles to allocate tasks, solving conflicts using negociation mechanisms). The most important point to develop is an agent's architecture to support the two levels of reasoning: cooperation reasoning and domain reasoning. These two levels are modeled using the above mentioned methodology which consist in decomposing knowledge according to three dimensions: the tasks, the methods and the domain model. Our architecture is sufficiently flexible to allow increasing the variety and the number of agents, deal with existing cooperation expertise and easily integrate new ones, and finally, be domain independent. A consensus representation is developed to make the agents communicating despite heterogeneous local representations. The agents reason not only on their own domain problems, but also on their capabilities and other agents' capabilities so they can cooperate to improve the problem solving process and increase the variety of the problems solved by the whole system. Our approach has been applied to diagnosis of faults in electrical functions of cars
18

Le, Guillou Xavier Cordier Marie-Odile. "Une approche décentralisée à base de chroniques pour la surveillance et le diagnostic de services web." Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/leguillou.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Le, Guillou Xavier. "Une approche décentralisée à base de chroniques pour la surveillance et le diagnostic de services web." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/leguillou.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse étend au cadre distribué et plus précisément à la surveillance de services web l'approche de type reconnaissance de chroniques, adaptée au diagnostic de systèmes à évènements discrets. Lorsqu'une requête est envoyée à un service web, celui-ci coopère avec d'autres services pour fournir une réponse adaptée à la demande. Des fautes peuvent se propager d'un service à l'autre et, afin d'y réagir convenablement, leur diagnostic est un problème crucial. Le formalisme des chroniques a été proposé il y a quelques années dans le but de surveiller des systèmes dynamiques en temps réel. Une chronique, caractérisée par un ensemble d'évènements temporellement contraints, décrit les situations à surveiller. Il existe des algorithmes efficaces de reconnaissance de chroniques à la volée, mais toujours dans un cadre centralisé. On sait maintenant que les approches distribuées sont plus adaptées à la surveillance de systèmes réels. La contribution de cette thèse est d'étendre l'approche à base de chroniques au contexte distribué. Nous proposons ainsi une extension du formalisme des chroniques ainsi que deux architectures décentralisées dont le but commun est, en fusionnant des diagnostics locaux calculés par des reconnaisseurs de chroniques, d'obtenir un diagnostic global permettant d'élaborer un plan de réparation centralisé. Ces deux architectures se différencient par l'utilisation ou non d'un modèle global des interactions entre services web. Ce travail a été motivé par une application visant à surveiller le comportement de composants logiciels, au sein du projet européen WS-Diamond
This work extends the chronicle recognition approach, commonly employed for diagnosing discrete event systems, to a distributed context and more precisely to the monitoring of web services. When a web service is sent a request, it collaborates with other services so as to provide its client with the expected answer. Faults may propagate from one service to another and, in order to react properly, diagnosing them is a key issue. The formalism of chronicles has been proposed a few years ago in order to monitor dynamic systems in real time. A chronicle, characterized by a set of temporally constrained events, describes the situations to monitor. Efficient algorithms allowing chronicle recognition on the fly exist, but in centralized cases only. It is now well-known that distributed approaches are well-suited to the monitoring of real systems. This PhD thesis aims at extending the chronicle-based approach to a distributed context. We propose an extension of the formalism of chronicles and two decentralized architectures whose common goal is, by merging local diagnoses computed by chronicle recognition systems, to obtain a global diagnosis allowing to elaborate a centralized repair plan. The main difference between those architectures consists in a global model of the interactions between services that is only used by one architecture. This work has been motivated by an application aiming at monitoring the behavior of software components, within the framework of the WS-Diamond european project
20

Grastien, Alban. "Diagnostic décentralisé et en-ligne de systèmes à événements discrets reconfigurables." Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00011757.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons au diagnostic de systèmes à événements discrets modélisés par un automate. Pour pouvoir prendre en compte des observations incertaines, nous les représentons sous la forme d'un automate. Le diagnostic est alors défini comme la synchronisation des deux automates. Pour permettre un calcul incrémental et en-ligne du diagnostic, nous définissons une structure appelée chaîne d'automates qui représente les observations par périodes appelées fenêtres.
Le diagnostic peut s'effectuer sur chacune de ces périodes, et on peut raffiner le résultat en vérifiant l'égalité entre l'état final d'une fenêtre et l'état initial de la suivante. Puisque le modèle global d'un système réel est trop grand pour être calculé, nous avons adapté les techniques de diagnostic décentralisé à notre approche. Enfin, nous avons étendu nos résultats aux systèmes reconfigurables, c'est-à-dire dont certains composants ainsi que les connexions entre ceux-ci peuvent être ajoutés, modifiés ou supprimés.
21

Diouf, Saliou Madani Kurosh. "Contribution au diagnostic industriel de défauts de roulement et de balourd par techniques neuronales application à la machine asynchrone à cage /." Créteil : Université de Paris-Val-de-Marne, 2007. http://doxa.scd.univ-paris12.fr:80/theses/th0254083.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Diouf, Saliou. "Contribution au diagnostic industriel de défauts de roulement et de balourd par techniques neuronales : application à la machine asynchrone à cage." Paris 12, 2007. http://www.theses.fr/2007PA120024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se focalise sur la détection et l'aide au diagnostic vibratoire de dysfonctionnement de type balourd ou de type écaillage de la bague extérieure de roulement de machines tournantes. Elle concerne la mise en oeuvre de techniques neuronales pour la détection et l'aide au diagnostic de ces défauts. Dans ce cadre, deux approches sont développées, à partir des signatures vibratoires issues pour l'une d'un capteur de courant, et pour l'autre d'un capteur accéléromètre. Ces signatures sont d'abord prétraitées par ACP puis classifiées par un réseau de neurones artificiel. Deux type de réseaux neuronaux, reconnus pour leur capacité de classification, ont été retenus : RBF et LVQ. La validation de ces deux approches, à travers l'étude des prétraitements des signatures et des paramètres des différents RNAs, est réalisée sur un banc d'essai équipé d'un moteur asynchrone à cage
This thesis is focused on vibratory signatures based faults detection and classification aiming computer aided diagnosis of defects relative to umbalanced rotation or dealing with rolling bearing's external ring's chipping defects appearing in turning machines. It relates the use of neural techniques for detection and computer aided diagnosis of such defects. We develop two approaches starting from the vibratory signatures obtained for the first one from a current sensor, and for the other one from an accelometer-like sensor. These signatures are initially pre-processed by PCA and after that they are classified by an artificial neural network (ANN). We use two types of neural classifiers, known for their classification capabilities : RBF and LVQ. The validation of these two approaches is carried out through the study of the pre-processing of the signatures and the parameters of different ANNs, using an experimental asynchronous electromotor
23

François, Jérémie. "Fusion de connaissances expérimentales et expertes : une approche évolutive du diagnostic." Compiègne, 2000. http://www.theses.fr/2000COMP1308.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On sait que le diagnostic de l'état d'un objet ou d'un système bénéficie de l'utilisation simultanée de plusieurs sources d'informations, expérimentales (données) ou expertes (a priori). Or cette fusion est difficile de par la diversité, l'imprécision et l'incer¬titude des informations, Le modèle des croyances transférables, une reformulation axio¬matisée de la théorie de l'évidence, permet dans ce contexte une représentation, une combinaison et une décision rigoureuses sur la base d'informations incertaines et impré¬cises. Comme il est souvent plus facile et rapide d'obtenir un historique de diagnostics qu'une expertise du domaine, le système proposé s'articule autour d'un clas¬sifieur simple, basé sur des exemples et une mesure de similarité entre cas. Le pouvoir de représentation par prototypes est malgré tout assez faible et dépend de la quantité et de la qualité des données disponibles. On introduit et étudie ici une méthode de ré-échantillonnage et d'agrégation pour réduire les conséquences du bruit de mesure et des ensembles d'apprentissage de petite taille. On montre que la classification est amé¬liorée et l'excès de confiance du système initial corrigé. Le recueil d'information supplémentaire pour la classification de l'objet à diagnostiquer est dirigé par les faiblesses ou les incomplétudes du système. Une pre¬mière application en reconnaissance optique de caractères illustre la pertinence de la démarche avec l'ajoût d'une règle simple, spécialisée sur un sous-ensemble de carac¬tères seulement. Le ré-échantillonnage améliore la représentation issue de la base non paramétrique du système et permet alors pleinement aux informations supplémentaires de mieux conclure sur les cas auparavant mal diagnostiqués. Le système est enfin validé avec le diagnostic de fonctionnement d'un réacteur de biodégradation de taille se mi-industrielle. L'étude des transitions d'états du système confirme de plus le grand intérêt de l'approche pour le diagnostic dynamique.
24

Aygalinc, Pascal. "Application de la reconnaissance des formes à l'aide au diagnostic médical : sélection multicritère de variables explicatives." Lille 1, 1986. http://www.theses.fr/1986LIL10083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Antoine, Jean-Luc. "Diagnostic en entretien routier : le système-expert coopérant ERASME." Paris 5, 1990. http://www.theses.fr/1990PA05SA18.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Zanni-Merk, Cecilia. "Proposition d'un cadre conceptuel pour l'analyse, la classification et le choix de systèmes de diagnostic à base de connaissances." Aix-Marseille 3, 2004. http://www.theses.fr/2004AIX30010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire propose un cadre de représentation, d'analyse et de comparaison de systèmes de diagnostic à base de connaissances. Ce cadre est défini par un espace tridimensionnel intégrant les descriptions conceptuelle, fonctionnelle et ontologique. La dimension conceptuelle concerne la méthode de résolution de problèmes et la dimension fonctionnelle décrit la manière dont la causalité est représentée dans les modèles. La dimension ontologique décrit la nature des phénomènes à diagnostiquer. Ainsi, les similarités et les différences entre les systèmes peuvent être observées et analysées. L'étude plus fine de la dimension conceptuelle nous a permis de proposer une structure d'inférence que nous avons appelée COPE. COPE nous permet de voir toutes les structures d'inférence des systèmes comme une particularisation d'elle-même. De plus, si l'on considère ces systèmes du point de vue conceptuel, COPE constitue leur description générale
This dissertation proposes a framework to represent, analyse and compare knowledge-based diagnosis systems. It is defined by a three-dimensional space that is described by a conceptual, a functional and an ontological dimension. The conceptual dimension focuses on the problem solving method, while the functional dimension describes in which causality is represented in the models. Finally, the ontological dimension describes the nature of the phenomena to be diagnosed. In this way, the similarities and the differences among the systems can be easily observed and analysed. Further study of the conceptual dimension leads to the formulation of a unifying inference structure for describing this kind of systems. We call this unifying inference structure COPE. We remark that every inference structure of these systems may be seen as a particularisation of it. Additionally, COPE constitutes a general description of knowledge-base diagnosis systems when considered from a conceptual point of view
27

Cauvin, Jean-Michel. "Raisonnement médical et aide à la décision en endoscopie digestive." Rennes 1, 2001. http://www.theses.fr/2001REN1B052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'endoscopie digestive illustre l'évolution technologie du diagnostic médical. Les techniques de numérisation-compression assurent la conservation des images. Exploiter ces masses de données impose de concevoir de nouveaux outils qui classent et retrouvent l'information. L'objet de ce travail est la conception d'un système d'aide à la décision en endoscopie digestive. Comment retrouver dans une base iconographique les situations les plus similaires à une scène observée ambigue͏̈ ? Comment renforcer la conviction de l'opérateur ?
28

Soualhi, Abdenour. "Du diagnostic au pronostic de pannes des entraînements électriques." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10146/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le diagnostic et le pronostic de pannes des systèmes d'entraînement électriques est un enjeu majeur pour assurer la fiabilité et la sûreté de fonctionnement des outils de production notamment dans les secteurs sensibles (militaire, l'aéronautique, l'aérospatiale et nucléaire, etc.). Le travail de recherche présenté dans cette thèse vise à introduire de nouvelles méthodes de diagnostic et de pronostic des défauts d'une machine asynchrone ainsi que des roulements à rouleaux. Ces méthodes, orientées données, utilisent les données de mesure recueillies à partir de capteurs placés sur un système (machine asynchrone, roulement à rouleaux) afin de construire un vecteur de paramètres indicateur de défaut. Les méthodes de classification développées (supervisée, non supervisée) permettent de classer les observations, décrites par le vecteur de paramètres, par rapport aux différents modes de fonctionnement, connus ou inconnus du système, avec ou sans défauts. Des défauts ont été créés au rotor et aux roulements de la machine asynchrone, alimentée par le biais d'un onduleur de tension. La classification non supervisée, basée sur l'algorithme des fourmis artificielles, permet d'analyser les observations inconnues et inexplorées afin de mettre en évidence les classes regroupant les observations similaires. Cela permet d'améliorer la classification et de détecter l'apparition de nouveaux modes de fonctionnement. La classification supervisée, basée sur les modèles de Markov cachés, permet d'associer un degré d'appartenance (sous forme d'une probabilité) lors de l'affectation d'une observation à une ou plusieurs classes. Cela permet de définir un indice de fiabilité à l'affectation réalisée mais aussi de détecter l'apparition de nouveaux modes de fonctionnement. Ces méthodes ne se limitent pas qu'à diagnostiquer les défauts, elles peuvent aussi contribuer au pronostic des défauts. En effet, le pronostic peut être défini comme une extension du problème de diagnostic. La prédiction d'un défaut est réalisée par trois méthodes basées sur les modèles de Markov cachés pour la détection de l'imminence d'un défaut ainsi que par deux méthodes basées sur le système neuro-flou (ANFIS pour Adaptive Neuro Fuzzy Inference System et le neurone neuro-flou) pour estimer le temps restant avant son apparition. Des données de vieillissement d'un ensemble de roulements à rouleaux ont été utilisées afin de tester les méthodes proposées. Les résultats obtenus montrent l'efficacité de ces méthodes pour le diagnostic et le pronostic des défauts dans les entraînements électriques
Faults diagnosis and prognosis of electrical drives play a key role in the reliability and safety of production tools especially in key sectors (military, aviation, aerospace and nuclear, etc.). The research presented in this thesis aims to introduce new methods for faults diagnosis and prognosis of an induction motors and roller bearings. These methods use measured data collected from sensors placed on the system (induction motor, roller) in order to construct a feature vector which indicates the state of the system. Supervised and unsupervised classification methods are developed to classify measurements (observations) described by the feature vector compared to known or unknown operating modes, with or without failures. Defects were created in the rotor and the bearing of the induction motor, fed by a voltage inverter. The unsupervised classification technique, based on artificial ant-clustering, allows analyzing the unknown and unexplored observations to highlight classes with similar observations. This allows improving the classification and the detection of new operating modes. The supervised classification, based on hidden Markov models, allows associating a degree of similarity when we affect an observation to one or more classes. This defines a reliability index which allows the detection of new operating modes. These methods are not limited to diagnose faults; they can also contribute to the prognosis of faults. Indeed, the prognosis can be defined as an extension of the problem of diagnosis. The prognosis of faults is carried out by three methods based on hidden Markov models for the detection of an impending failure and by two methods based on the neuro-fuzzy system (ANFIS for Adaptive Neuro fuzzy Inference System and the neo-fuzzy neuron) to estimate the remaining time before its appearance. A set of historical data collected on roller bearings is used to validate the proposed methods. The obtained results show the effectiveness of the proposed methods for faults diagnosis and prognosis of electrical drives
29

Guerraz, Bruno. "Construction de chroniques à partir d'une modélisation du système : application au diagnostic de réseaux de télécommunications." Rennes 1, 2005. http://www.theses.fr/2005REN1S146.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une méthodologie pour construire des scénarios à partir du modèle comportemental d'un système. Ces scénarios sont une compilation du modèle. Le modèle utilisé est le système de pièces qui permet d'exprimer les notions de concurrence et de non-déterminisme, ce qui est particulièrement adapté aux systèmes répartis. Pour construire les scénarios, nous proposons de raffiner temporellement le formalisme des pièces, puis nous lui associons une sémantique d'ordre partiel. Cette méthodologie a été testée sur un modèle de dysfonctionnement d'un réseau de télécommunication. La reconnaissance en ligne des scénarios obtenus constituera le diagnostic du réseau. Dans le cadre du diagnostic, l'approche proposée utilise les avantages de deux approches : la reconnaissance de scénarios qui permet de traiter en temps réel un grand nombre d'événements et le diagnostic à base de modèle qui présente l'avantage de s'adapter facilement aux changements de structure du système.
30

Zhang, Jie. "Diagnostic multi-expert : extension de l'approche système expert organisé en réseau du système SUPER." Compiègne, 1991. http://www.theses.fr/1991COMPD405.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lorsque les systèmes experts abordent des domaines d'application très complexes, l'organisation d'un système expert sous forme d'une base de connaissances, d'une mémoire de travail et un mécanisme d'inférence, aussi puissant soient-ils, devient insuffisante. De telles applications font souvent intervenir une expertise hétérogène provenant de plusieurs experts dans différents domaines. Les techniques d'Intelligence Artificielle Distribuée comme celles des systèmes multi-experts, sont nées de la nécessité de développer ces applications. Dans ce mémoire, nous présentons un outil basé sur le générateur de systèmes experts SUPER, qui permet de développer une architecture multi-expert pour répondre à la demande de telles applications complexes. Notre démarche a consisté à distribuer le travail en plusieurs systèmes experts, chaque système expert possédant sa propre base de connaissances, sa propre base de faits et son propre moteur d'inférence. Une structuration en réseau de bases de connaissances est proposée pour assurer la cohérence globale du système et une stratégie de résolution efficace. Les systèmes experts peuvent communiquer entre eux par envoi de messages, et s'assister par l'échange des informations. Différentes stratégies de contrôle du système qui permettent le suivi de processus dynamique sont décrites dans ce mémoire. Un élément considéré comme important dans ce travail, est le temps de réponse du système. Nous présentons également dans ce mémoire une application de l'outil développé pour réaliser un système de diagnostic automobile. Cette application est réalisée dans le cadre du projet Euréka-Prometheus.
31

Courtois, Joël. "Siam : un système de diagnostic qui s'adapte aisément à de nouveaux domaines et qui enseigne sa méthode." Paris 6, 1990. http://www.theses.fr/1990PA066461.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
SIAM est un système d'assistance au diagnostic chargé de guider l'élève en lui fournissant la justification des étapes-clés de la méthode de diagnostic définie par l'expert. Le système opère sur site, dans un laboratoire lors de séances de travaux pratiques dans l'enseignement supérieur, et en situation réelle de panne. Le développement de SIAM met l'accent sur les problèmes de réutilisabilite et de maintenabilité des connaissances et sur leur utilisation à des fins pédagogiques. La généricité des connaissances est un facteur essentiel dans la réutilisabilité des expertises pour le développement de nouvelles applications. Elle permet également d'améliorer la maintenance en séparant les connaissances générales de celles spécifiques à un contexte d'application. L'objectif pédagogique doit intervenir des la phase de conception d'un système à base de connaissances afin de disposer de toutes les justifications du comportement de l'expert. La réalisation du système est centrée sur l'analyse du comportement de l'expert et des besoins de l'utilisateur. Le savoir et le savoir-faire de SIAM sont représentés, soit sous forme de descriptifs conçus à l'aide de modèles prédéfinis, soit sous forme de règles de production. Toutes les connaissances, liées au domaines ou aux matériels, susceptibles d'évoluer sont rassemblées dans des bibliothèques sous forme de descriptifs facilement manipulables par les assistants de TP. Les règles de base et les métarègles de contrôle qui représentent des connaissances générales de diagnostic sont toutes indépendantes des matériels, des montages et même des domaines d'application. Après expérimentation, SIAM est actuellement opérationnel dans une école d'ingénieurs
32

Pencolé, Yannick. "Diagnostic décentralisé de systèmes à évènements discrets : application aux réseaux de télécommunications." Rennes 1, 2002. https://tel.archives-ouvertes.fr/tel-00003581.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Boatas, Armand. "Diagnostic par estimation de densité conditionnelle. Application à la surveillance du convertisseur catalytique d'une automobile." Compiègne, 2001. http://www.theses.fr/2001COMP1333.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse, réalisée dans le cadre d'une convention CIFRE entre le groupe PSA Peugeot Citroën et le laboratoire Heudiasye (UMR CNRS 6599) de l'Université de Technologie de Compiègne, a pour objet d'étudier l'apport de méthodes de reconnaissance des formes pour le diagnostic embarqué dans une automobile. L'application concerne le diagnostic des systèmes de dépollution (fonctions regroupées sous l'appellation On-Board Diagnosis) et plus spécifiquement la surveillance du convertisseur ca analytique. L'approche retenue pour réaliser une stratégie de détection de défaillance est celle dite de "reconnaissance des formes", en opposition à une approche dite "à base de modèle". Son avantage est de permettre de construire un système de décision reposant uniquement sur les données d'apprentissage. L'enjeu est alors double : s'affranchir de la dépendance des paramètres discriminants avec les paramètres représentant le point de fonctionnement du système et composer avec des données d'apprentissage incomplètes. Pour cela, différentes techniques sont proposées : une option de rejet de distance séquentielle et une utilisation de la théorie du conditionnement pour représenter les relations de dépendance entre les deux types de paramètres. Après avoir présenté quelques résultats théoriques, l'approche est ensuite appliquée au cas du convertisseur catalique en présentant des résultats obtenus sur les données d'apprentissage disponibles.
34

Cocca, Claude. "Contribution à l'élaboration d'un système de diagnostic à deux niveaux : application à la surveillance d'une pompe à chaleur." Compiègne, 1988. http://www.theses.fr/1988COMPD140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On présente une nouvelle méthode qui permet de traiter le problème d'évolution et de décision en connaissance incomplète. On présente ensuite la notion de méta-classe qui permet de définir un niveau de pré-décision supérieur à celui auquel les décisions statistiques sont établies. Par cette notion, on vise à développer des méthodes nouvelles qui allient décision statistique à raisonnement sur faits, c'est-à-dire à adjoindre des méthodologies symboliques à des traitements statistiques. On propose alors un système de diagnostic à deux niveaux et on présente une application sur la surveillance d'un système complexe réel : une pompe à chaleur.
35

Henry-Chatelain, Catherine. "Génération de méta-faits pour la modélisation du raisonnement en diagnostic médical : application du diagnostic de l'infection néonatale." Compiègne, 1987. http://www.theses.fr/1987COMPD068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème de ce travail est le développement d'un système expert relatif au diagnostic de l'infection materno-fœtale chez le nouveau né. Cette étude s'insère dans le cadre de développement d'un générateur de système expert utilisable en mode diagnostic et en mode simulation. Après avoir présenté les différentes étapes de réalisation d'un système expert d'une part et les principaux modes de représentation des connaissances à travers la description de systèmes experts en médecine d'autre part, nous décrivons le générateur de système expert et son interface langage naturel à partir desquels nous avons réalisé ce développement. Nous décrivons ensuite ce qu'est l'infection materno-fœtale afin de soulever tous les problèmes posés par son diagnostic. Ceux-ci sont décomposés et formulés de façon telle que l'expertise se retrouve sous forme de règles de raisonnement simples. Nous proposons alors un modèle général de représentation des connaissances, fondé ici sur les critères d'infection, ainsi qu'un module de génération automatique de méta-faits qui, à partir de la description directe de faits initiaux, permet d'en déduire de nouveaux dans des termes compatibles avec ceux utilisés dans le raisonnement du médecin. La mise en œuvre pratique du module est largement détaillée. L'ensemble des différents méta-faits générés est proposé, l'analyse de ceux ci ainsi que le choix des règles déclenchables sont explicités, un exemple de consultation est donné. Les résultats obtenus lors de la phase d'évaluation réalisée au sein d'un service de réanimation pédiatrique sont enfin présentés
The theme of this work is the development of an expert system for materno-foetal diagnosis in newborn babies. The study is part of the development of an essential expert system usable in either the diagnostic or simulation mode. Firstly, we present the various stages of an expert system development and also the main modes of knowledge representation via expert system description in the medical field. Secondly, we describe the essential expert system and its natural language interface with which its development has been conducted. Following this, we describe the main feature of materno-foetal infections, so as to highlight the various problems associated with their diagnosis. These are broken down and formulated in such a way that the analysis is in the form of fairly simple reasoning process. We put forward a general-purpose model of knowledge representation, based here upon infection criteria, as well as a meta-knowledge automatic generation module ; the latter, using the direct description of the basic facts allows us to deduce new data, in terms compatible with those used by doctors. The practical use of the module is described in considerable detail. The whole of the various generated meta-knowledge is reported, as is its analysis and the choice of triggerable rules. An example of a consultation is given. Results are presented for the evaluation phase, which was conducted in a pediatric reanimation unit
36

Belard, Nuno. "Reasoning about models: detecting and isolating abnormalities in diagnostic systems." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00719547.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre du diagnostic à base de Modèle, un ensemble de règles d'inférence est typiquement exploité pour calculer des diagnostics, ceci en utilisant une théorie scientifique et mathématique sur le système à diagnostiquer, ainsi qu'un ensemble d'observations. Contrairement aux hypothèses classiques, les Modèles sont souvent anormaux vis-à-vis d'un ensemble de propriétés requises. Naturellement, cela affecte la qualité des diagnostics [à Airbus]. Une théorie sur la réalité, l'information et la cognition est créé pour redéfinir, dans une perspective basée sur la théorie des modèles, le cadre classique de diagnostic à base de Modèle. Ceci rend possible la formalisation des anomalies et de leur relation avec des propriétés des diagnostics. Avec ce travail et avec l'idée qu'un système de diagnostic implémenté peut être vu comme un objet à diagnostiquer, une théorie de méta-diagnostic est développée, permettant la détection et isolation d'anomalies dans les Modèles des systèmes de diagnostic. Cette théorie est mise en pratique à travers d'un outil, MEDITO; et est testée avec succès à travers un ensemble de problèmes industriels, à Airbus. Comme des différents systèmes de diagnostic Airbus, souffrant d'anomalies variées, peuvent calculer des diagnostics différents, un ensemble de méthodes et outils et développé pour: 1) déterminer la cohérence entre diagnostics et 2) valider et comparer la performance de ces systèmes de diagnostic. Ce travail dépend d'un pont original entre le cadre de diagnostic Airbus et son équivalent académique. Finalement, la théorie de méta-diagnostic est généralisée pour prendre en compte des métasystèmes autres que des systèmes de diagnostic implémentés.
37

Foucher, Philippe. "Etude d'indicateurs morphologiques pour la caractérisation de l'état hybride de végétaux par analyse d'images." Angers, 2003. http://www.theses.fr/2003ANGE0015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail est d'étudier comment la vision artificielle peut être utilisée, selon des méthodes d'analyse de forme, comme un indicateur du changement d'état du végétal. Dans ce but, des indicateurs morphologiques permettant d'émettre un diagnostic sur l'état de la plante lorsque celle-ci est soumise à des déficits hydriques plus ou moins prononcés, sont recherchés. L'étude est réalisée sur des images de forsythias acquises en visée verticale. La procédure mise en œuvre pour la vision artificielle se décompose en deux étapes. La première consiste à mettre au point une méthode permettant de classifier les pixels de l'image en deux groupes : végétal et fond. A cet effet, un perceptron à une couche cachée est testé avec succès. La deuxième étape concerne l'identification des paramètres traduisant l'évolution morphologique globale du végétal au cours du stress hydrique. Plusieurs méthodes ont été développées et testées. Pour trois d'entre elles, un seuil au-delà duquel le végétal peut-être considéré comme stressé, a pu être défini de façon absolue. Une étude physiologique de l'état hydrique du végétal est menée en parallèle de façon à valider les résultats obtenus par vision artificielle
The purpose of this work is to study how artificial vision, using shape analysis methods, can indicate a modificatifion of the state of the plant. To this end, morphological indicators, allowing a diagnosis in the case of plants when water deficits are fairly high, are researched. The study is realised on images of forsythias looked at from a horizontal plane. The artificial vision is composed of two steps. The first one consists of developing a method to classify pixels of the image in two groups : the plant and its background. Thus, a one hidden layer perceptron was tested with success. The second step concerns the identification of parameters indicating the whole morphological evolution of plants under water stress conditions. Several methods were developped and tested. Three methods allowed to define, in an absolute manner, a threshold above which the plant can be considered stressed. A physiological study of the water status of the plant was undertaken in a parallel way to validate the results obtained-by artificial vision
38

Noorsaman, Andy. "Contribution à l'étude et au développement d'un système de diagnostic de dysfontionnement d'un procédé de distillation." Châtenay-Malabry, Ecole centrale de Paris, 1993. http://www.theses.fr/1993ECAP0273.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un système de diagnostic de dysfonctionnement sur un procédé de distillation a été développé. La construction du système est basée sur un couplage entre une approche de programmation d'intelligence artificielle (IA) et une approche de programmation conventionnelle. L'approche de l'IA est représentée par un système de base de connaissance de diagnostic de dysfonctionnement. Son architecture est basée sur la structure hiérarchique de tache et la programmation logique en catégorisant le dysfonctionnement des systèmes et sous systèmes. La programmation conventionnelle est représentée par une simulation statique et a été écrite par la programmation impérative. Dans cette tâche, la hiérarchie est une collection de petites unités opératoires individuelles, coordonnées pour atteindre l'ensemble du diagnostic. Cette hiérarchie de dysfonctionnement est particulièrement efficace pour gérer les multi-symptômes et les multi-situations de dysfonctionnement. Prolog comme langage de programmation logique base sur l'unification est parfaitement adapté pour effectuer un système hiérarchique. Il supporte le paradigme de la hiérarchie coordonnée au niveau système, au niveau sous-système et au niveau composant. La stratégie couplage du système pour la résolution du problème donne beaucoup plus de possibilités et de flexibilité aux utilisateurs; comment choisir la stratégie convenable pour résoudre leur problème. Cette approche correspond à une stratégie importante d'une résolution de problème de diagnostic de dysfonctionnement sur un procédé de distillation spécifiquement et sur les installations de procédé industriel généralement.
39

Fromont, Élisa. "Apprentissage multisource par programmation logique inductive : application à la caractérisation d'arythmies cardiques." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00011455v2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons aux possibilités d'acquisition automatique de connaissances à partir de données provenant de nouveaux capteurs et d'intégration de ces connaissances pour le diagnostic d'arythmies cardiaques à partir de données multisources. Nous utilisons la programmation logique inductive pour apprendre des règles discriminantes permettant de caractériser les arythmies à partir des données des différentes sources prises séparément. Ces règles permettent d'exploiter la redondance des sources et ainsi pallier aux problèmes de perte de signal ou de bruit. Nous exposons ensuite une méthode tirant parti des règles monosources pour apprendre efficacement et automatiquement des connaissances mettant en relation les différentes sources. Ces nouvelles règles permettent d'exploiter la complémentarité des sources pour augmenter les performances en détection des systèmes de surveillance automatique de patients. Ces méthodes sont comparées sur des données provenant de signaux réels.
40

Kanaoui, Nadia Madani Kurosh. "Contribution à l'étude et à la mise en oeuvre d'approches hybrides d'aide au diagnostic application aux domaines biomédical et industriel /." [S.l.] : [s.n.], 2008. http://doxa.scd.univ-paris12.fr:80/theses/th0405815.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Kanaoui, Nadia. "Contribution à l'étude et à la mise en oeuvre d'approches hybrides d'aide au diagnostic : application aux domaines biomédical et industriel." Paris 12, 2007. http://www.theses.fr/2007PA120066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de cette thèse est en rapport avec les systèmes d'aide à la décision pour le diagnostic de défaillances, la reconnaissance de forme et la prise de décisions basées sur l'intelligence artificielle utilisant les techniques hybrides, et le "soft computing" impliquant les réseaux de neurones et la logique floue. Le but de ce travail n'est absolument pas de remplacer le spécialiste humain (médecin, expert. . . ) mais de proposer des systèmes d'aide à la décision pour le diagnostic de défaillances avec un certain indice de confiance. Ainsi, l'objectif principal est le développement d'approches hybrides modulaires permettant l'élaboration de tels SAD, destinés à répondre à certains types d'applications (biomédicale et industrielle). Pour cela, une méthodologie globale, basée sur une multiple représentation de la connaissance et une multiple classification, a été proposée exploitant différentes stratégies de représentation et de classification. Les avantages potentiels de cette méthodologie sont : la multiple représentation de la connaissance d'une même source ou de différentes sources d'information (exploitant la richesse de l'information que l'on peut extraire de différentes représentations), la multiple classification (redondance et/ou complémentarité), l'hybridation dans la classification et la prise de décisions basée sur des approches hybrides modulaires afin d'exploiter le caractère complémentaire, et l'exploitation d'un paramètre de confiance dans la prise de décisions afin de proposer un résultat final de diagnostic avec un indice de confiance. De plus, l'aspect modulaire dans cette méthodologie facilitera son adaptation d'un application à une autre
Research work developed in this thesis deals with decision support systems for fault diagnosis, pattern recognition and decision-making based on artificial intelligence using hybrid techniques, and soft computing implying neural networks and fuzzy logic. The aim of this work is absolutely not to replace specialized human (doctor, expert,. . . ) but to suggest efficient Diagnosis Support Systems (DSS) with a certain confidence index. Thus, the main objective is the development of hybrid modular approaches allowing the elaboration of such DSS for certain kinds od applications (biomedicine and industrial). For that, a global methodology, based on multiple knowledge representation and multiple classification has been suggested exploiting different representation and classification strategies. Potential advantages of this methodology are : the multiple knowledge representation from same source or different sources of information (exploiting rich information which can be extracted from different representations : signal, global image, subdivided image), the multiple classification (redundancy and/or complementary), the hybrid structure in classification and decision-making based on hybrid modular approaches in order to exploit the complementary aspect, and the exploitation of a confidence parameter in the decision-making to suggest a final result of diagnosis with a confidence index. More, the modular aspect in this methodology will facilitate its adaptation from one application to another
42

Duran, Audrey. "Intelligence artificielle pour la caractérisation du cancer de la prostate par agressivité en IRM multiparamétrique." Thesis, Lyon, 2022. http://theses.insa-lyon.fr/publication/2022LYSEI008/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le cancer de la prostate (CaP) est le cancer le plus diagnostiqué dans plus de la moitié des pays du monde et le cinquième cancer le plus meurtrier chez les hommes en 2020. Le diagnostic du CaP inclut l'acquisition d'une imagerie par résonance magnétique multiparamétrique (IRM-mp) - qui combine une séquence T2-pondérée (T2-w), une imagerie pondérée en diffusion (DWI) et une séquence dynamique de contraste amélioré (DCE) - avant la réalisation de biopsies. L'analyse jointe de ces images multimodales est fastidieuse et chronophage, en particulier lorsque les séquences mènent à des conclusions différentes. En outre, la sensibilité de l'IRM reste faible pour les cancers peu agressifs et la variabilité inter-observateur élevée. De plus, l'analyse visuelle ne permet pas aujourd'hui de déterminer l'agressivité des cancers, caractérisée par le score de Gleason (GS). C'est pourquoi des systèmes d'aide au diagnostic (CAD) basés sur des modèles statistiques par apprentissage ont été proposés ces dernières années, pour d'assister les radiologues dans leur diagnostic. Toutefois, la majorité de ces systèmes se concentrent sur une tâche de détection binaire des lésions cliniquement significatives (CS). L'objectif de cette thèse est d'élaborer un système CAD pour détecter les CaP sur des IRM-mp, mais aussi de caractériser leur agressivité en prédisant le GS associé. Dans une première partie, nous présentons un système CAD supervisé permettant de segmenter le CaP par agressivité à partir des cartes T2-w et ADC. Ce réseau de neurones multiclasse segmente simultanément la prostate et les lésions par agressivité. Le modèle a été entraîné et évalué en validation croisée à 5 plis sur une base de données hétérogène de 219 examens IRM acquis avant prostatectomie. Pour la tâche de classification par GS, le kappa de Cohen quadratiquement pondéré (κ) est de 0.418 ± 0.138, ce qui représente le meilleur kappa par lésions pour une tâche de segmentation par GS à notre connaissance. Le modèle présente également des capacités de généralisation encourageantes sur le jeu de données public PROSTATEx-2. Dans une deuxième partie, nous nous penchons sur un modèle faiblement supervisé, permettant l'inclusion de données où les lésions sont identifiées par des points seulement, pour un gain de temps conséquent et l'inclusion de bases de données établies sur la biopsie. Concernant la tâche de classification par GS, les performances approchent celles obtenues avec le modèle totalement supervisé de référence, en n'ayant que 6% de voxels annotés pour l'entraînement. Dans une dernière partie, nous étudions l'apport de l'imagerie DCE, séquence souvent omise en entrée des modèles profonds, pour la détection et la caractérisation du CaP. Plusieurs stratégies d'encodage de la perfusion dans une architecture U-Net sont étudiées. Nous montrons que les cartes paramétriques dérivées des examens IRM DCE ont un impact positif sur les performances de segmentation et de classification du CaP
Prostate cancer (PCa) is the most frequently diagnosed cancer in men in more than half the countries in the world and the fifth leading cause of cancer death among men in 2020. Diagnosis of PCa includes multiparametric magnetic resonance imaging acquisition (mp-MRI) - which combines T2 weighted (T2-w), diffusion weighted imaging (DWI) and dynamic contrast enhanced (DCE) sequences - prior to any biopsy. The joint analysis of these multimodal images is time demanding and challenging, especially when individual MR sequences yield conflicting findings. In addition, the sensitivity of MRI is low for less aggressive cancers and inter-reader reproducibility remains moderate at best. Moreover, visual analysis does not currently allow to determine the cancer aggressiveness, characterized by the Gleason score (GS). This is why computer-aided diagnosis (CAD) systems based on statistical learning models have been proposed in recent years, to assist radiologists in their diagnostic task, but the vast majority of these models focus on the binary detection of clinically significant (CS) lesions. The objective of this thesis is to develop a CAD system to detect and segment PCa on mp-MRI images but also to characterize their aggressiveness, by predicting the associated GS. In a first part, we present a supervised CAD system to segment PCa by aggressiveness from T2-w and ADC maps. This end-to-end multi-class neural network jointly segments the prostate gland and cancer lesions with GS group grading. The model was trained and validated with a 5-fold cross-validation on a heterogeneous series of 219 MRI exams acquired on three different scanners prior prostatectomy. Regarding the automatic GS group grading, Cohen’s quadratic weighted kappa coefficient (κ) is 0.418 ± 0.138, which is the best reported lesion-wise kappa for GS segmentation to our knowledge. The model has also encouraging generalization capacities on the PROSTATEx-2 public dataset. In a second part, we focus on a weakly supervised model that allows the inclusion of partly annotated data, where the lesions are identified by points only, for a consequent saving of time and the inclusion of biopsy-based databases. Regarding the automatic GS group grading on our private dataset, we show that we can approach performance achieved with the baseline fully supervised model while considering 6% of annotated voxels only for training. In the last part, we study the contribution of DCE MRI, a sequence often omitted as input to deep models, for the detection and characterization of PCa. We evaluate several ways to encode the perfusion from the DCE MRI information in a U-Net like architecture. Parametric maps derived from DCE MR exams are shown to positively impact segmentation and grading performance of PCa lesions
43

Charest, Jonathan. "Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.
44

Belard, Nuno. "Raisonnement sur les modèles : détection et isolation d'anomalies dans les systèmes de diagnostic." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1697/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre du diagnostic à base de Modèle, un ensemble de règles d'inférence est typiquement exploité pour calculer des diagnostics, ceci en utilisant une théorie scientifique et mathématique sur le système à diagnostiquer, ainsi qu'un ensemble d'observations. Contrairement aux hypothèses classiques, les Modèles sont souvent anormaux vis-à-vis d'un ensemble de propriétés requises. Naturellement, cela affecte la qualité des diagnostics [à Airbus]. Une théorie sur la réalité, l'information et la cognition est créé pour redéfinir, dans une perspective basée sur la théorie des modèles, le cadre classique de diagnostic à base de Modèle. Ceci rend possible la formalisation des anomalies et de leur relation avec des propriétés des diagnostics. Avec ce travail et avec l'idée qu'un système de diagnostic implémenté peut être vu comme un objet à diagnostiquer, une théorie de méta-diagnostic est développée, permettant la détection et isolation d'anomalies dans les Modèles des systèmes de diagnostic. Cette théorie est mise en pratique à travers d'un outil, MEDITO; et est testée avec succès à travers un ensemble de problèmes industriels, à Airbus. Comme des différents systèmes de diagnostic Airbus, souffrant d'anomalies variées, peuvent calculer des diagnostics différents, un ensemble de méthodes et outils et développé pour: 1) déterminer la cohérence entre diagnostics et 2) valider et comparer la performance de ces systèmes de diagnostic. Ce travail dépend d'un pont original entre le cadre de diagnostic Airbus et son équivalent académique. Finalement, la théorie de méta-diagnostic est généralisée pour prendre en compte des méta-systèmes autres que des systèmes de diagnostic implémentés
In Model-Based Diagnosis, a set of inference rules is typically used to compute diagnoses using a scientific and mathematical theory about a system under study and some observations. Contrary to the classical hypothesis, it is often the case that these Models are abnormal with respect to a series of required properties, hence affecting the quality of the computed diagnoses with possibly huge economical consequences, in particular at Airbus. A thesis on reality and cognition is firstly used to redefine the classic framework of model-based diagnosis from a formal model-theoretic perspective. This, in turn, enables the formalisation of abnormalities and of their relation with the properties diagnoses. With such material and the idea that an implemented diagnostic system can be seen a real-world artefact to be diagnosed, a theory of meta-diagnosis is developed, enabling the detection and isolation of abnormalities in Models of diagnostic systems and explanation in general. Such theory is then encoded in a tool, called MEDITO, and successfuly tested against Airbus real-world industrial problems. Moreover, as different heterogeneous implemented Airbus diagnostic systems, suffering from distinct abnormalities, may compute different diagnoses, methods and tools are developed for: 1) checking the consistency between subsystem-level diagnoses and 2) validating and comparing the performance of these diagnostic systems. Such work relies on an original bridge between the Airbus framework of diagnosis and its academic counterpart. Finally, meta-diagnosis is generalised to handle meta-systems other than implemented diagnostic systems
45

Bourrier, Yannick. "Diagnostic et prise de décision pédagogique pour la construction de compétences non-techniques en situation critique." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les compétences non-techniques (CNT) sont un panel de capacités métacognitives complémentant les compétences techniques, et garantissant la réalisation d’une activité technique sûre. Elles jouent un rôle particulièrement important dans la gestion de situations critiques, et ce dans de nombreux domaines, comme la conduite automobile, ou la médecine d’urgence. Les travaux de cette thèse ont eu pour but de contribuer à la construction d’un environnement virtuel pour l’apprentissage humain (EVAH) de ces compétences non-techniques, via l’expérience de situations critiques. Les travaux se sont focalisés sur deux aspects fondamentaux pour la mise en place d’un EVAH. Dans un premier temps, nous nous sommes focalisés sur la conception d’une architecture de diagnostic des compétences non-techniques de l’apprenant, un problème complexe, « mal-défini » au regard du faible degré de formalisation du domaine, de la nature en temps réel de cet apprentissage, et des relations, propres à chaque individu, entre criticité, compétences techniques et compétences non-techniques. Cette architecture associe connaissances du domaine, apprentissage machine et un réseau bayésien, afin de franchir l’important gap sémantique séparant l’activité perceptivo-gestuelle de l’apprenant produite au sein d’un environnement virtuel, de l’évaluation épistémique de ses compétences. Dans un second temps, nous avons consacré nos efforts à la conception d’un module pédagogique capable de raisonner sur la base du module de diagnostic pour proposer à chaque apprenant un voyage à travers la criticité qui lui soit adapté, personnalisé, et à même de renforcer ses CNT. Ce module associe connaissances issues du réseau bayésien, à un algorithme d’apprentissage par renforcement de type « bandit manchot », pour guider l’apprenant vers une maîtrise toujours plus grande de ses compétences non-techniques. Les expérimentations ont eu pour but de valider les choix de modélisation. Elles se sont basées sur des données réelles, obtenues au cours de sessions d’apprentissage réalisées sur un simulateur « grande échelle » de conduite automobile, pour mettre en évidence la robustesse et la capacité de couverture de l’architecture de diagnostic. Nous avons ensuite conçu un jeu de données synthétiques pour évaluer les capacités du module pédagogique à proposer des situations d’apprentissage adaptées aux singularités de chaque apprenant, et à mêmes de contribuer au renforcement de ses CNT
Non-technical skills (NTS) are a set of metacognitive abilities that complement technical skills and allow for a safe and efficient technical activity. They play an important role during the handling of critical situations, in many domains, including driving or acute medicine. This thesis work focused on the building of a virtual environment for learning (VEL), dedicated to the training of these non-technical skills, through the experience of critical situations. The main contributions target two fundamental aspects with regards to the construction of such a VEL. First, we focused our efforts on the conception of an architecture able to diagnose a learner’s NTS. This is an ill-defined problem, given the low degree of domain knowledge, the real time aspects of this learning process, and the unique relations between criticality, technical, and non-technical skills. This architecture combines domain knowledge, machine learning, and a Bayesian network, to cross the semantic gap between the learner’s perceptual-gestural activity inside the VEL, and the diagnostic of high level, cognitive, NTS. Second, we built a pedagogical module, able to make decisions based on the diagnostic module, in order to build a « journey through criticality » adapted to each of our learners’ characteristics, in order to strengthen said their NTS. This module associates the knowledge about the learner obtained by the Bayesian network, with a reinforcement-learning « multi-armed bandit » algorithm, to reinforce the learner’s NTS through time. Experiments were conducted in order to validate our modelling choices. These experiments were first conducted on real user data, obtained during training sessions performed on a « large scale » driving simulator, in order to evaluate the robustness of the Bayesian network as well as its ability to provide varied diagnostics given its inputs. We then built a synthetic dataset in order to test the pedagogical module, more specifically its capabilities to provide adapted learning situations to learners of different profiles, and to contribute to these learner’s acquisition of NTS through time
46

Jousselin, Agnès. "Extension de méthodes de reconnaissance statistique de formes pour l'applicabilité au diagnostic." Compiègne, 1985. http://www.theses.fr/1985COMPI187.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Boufflet, Jean-Paul. "Emplois du temps dans un environnement fortement contraint : exemple de l'U.T.C." Compiègne, 1992. http://www.theses.fr/1992COMP454S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux problèmes sont de nature combinatoire, c'est particulièrement le cas de la planification et de l'ordonnancement. Parmi eux la conception d'emplois du temps pour les universités représente un ensemble de problèmes difficiles à traiter. Généralement, ces emplois du temps sont conçus par des personnes et le plus souvent manuellement. Ces concepteurs sont capables de gérer mentalement une combinatoire qu'un ordinateur ne peut maîtriser. L'étude du cas de l'Université de Technologie de Compiègne a permis de mettre en évidence des caractéristiques essentielles de ce type de problème, telles que l'importance des négociations pour aboutir à une solution, le raisonnement basé sur une représentation graphique et l'instabilité du problème lui-même dans le temps. L'expert utilise implicitement de nombreuses techniques (recherche opérationnelle, intelligence artificielle, propagation de contraintes). Il existe deux possibilités pour construire des emplois du temps, soit on cherche à mettre au point un traitement automatique, soit on conçoit un outil qui aide le concepteur dans sa tâche. Nous avons choisi la deuxième option en mettant au point un système intelligent de conception assistée par ordinateur qui se nomme CELAME. Il est basé sur les méthodes de bas niveau de l'expert et lui fournit un environnement graphique pour résoudre son problème
48

Boufflet, Jean-Paul. "Emplois du temps dans un environnement fortement contraint : exemple de l'U.T.C." Compiègne, 1992. http://www.theses.fr/1992COMPD454.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux problèmes sont de nature combinatoire, c'est particulièrement le cas de la planification et de l'ordonnancement. Parmi eux la conception d'emplois du temps pour les universités représente un ensemble de problèmes difficiles à traiter. Généralement, ces emplois du temps sont conçus par des personnes et le plus souvent manuellement. Ces concepteurs sont capables de gérer mentalement une combinatoire qu'un ordinateur ne peut maîtriser. L'étude du cas de l'Université de Technologie de Compiègne a permis de mettre en évidence des caractéristiques essentielles de ce type de problème, telles que l'importance des négociations pour aboutir à une solution, le raisonnement basé sur une représentation graphique et l'instabilité du problème lui-même dans le temps. L'expert utilise implicitement de nombreuses techniques (recherche opérationnelle, intelligence artificielle, propagation de contraintes). Il existe deux possibilités pour construire des emplois du temps, soit on cherche à mettre au point un traitement automatique, soit on conçoit un outil qui aide le concepteur dans sa tâche. Nous avons choisi la deuxième option en mettant au point un système intelligent de conception assistée par ordinateur qui se nomme CELAME. Il est basé sur les méthodes de bas niveau de l'expert et lui fournit un environnement graphique pour résoudre son problème
49

Racoceanu, Daniel. "Contribution à la Surveillance des Systèmes de Production en Utilisant l'Intelligence Artificielle." Habilitation à diriger des recherches, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00011708.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En suivant les principales tendances d'évolution des systèmes automatisés et de la productique, nos travaux de recherche se positionnent dans l'optique des mutations induites par l'intégration des Sciences et Technologies de l'Information et de la Communication dans ces disciplines. Dans ce contexte, la décentralisation de l'intelligence et sa migration vers les niveaux bas, génèrent une évolution vers des services nouveaux, à même de permette non seulement de garder des positions privilégiées en terme de parts de marché, mais aussi d'en gagner de nouvelles.
Nos contributions se sont orientées précisément vers la mise au point de systèmes de surveillance dynamiques intelligents, en abordant des problématiques liées à la détection dynamique et au diagnostic curatif et préventif. Les techniques de l'intelligence artificielle ont ainsi constituées la colonne vertébrale de nos études, avec des travaux allant de la conception théorique et le test de nouveaux outils de surveillance dynamique, jusqu'à la validation, le prototypage et l'exploitation industrielle des concepts développés.
Dans le domaine de la surveillance dynamique, une de nos contributions majeures correspond à l'introduction d'un réseau de neurones dynamique innovant, le Réseau Récurrent à base de Fonctions radiales (RRFR). En faisant appel aux propriétés dynamiques des architectures localement récurrentes, le RRFR se caractérise par une approche de reconnaissance locale – essentielle en surveillance industrielle –, tout en permettant – de part ses caractéristiques dynamiques intrinsèques – une détection précoce des paliers de dégradation et une robustesse vis-à-vis des fausses alarmes. L'existence d'une mémoire statique et d'une mémoire dynamique facilement paramétrables au sein de la même structure, confère au réseau une souplesse d'utilisation très intéressante, ainsi qu'un accès à des techniques d'apprentissage allégées. Par ailleurs, dans le but d'augmenter la rapidité et l'efficacité de l'apprentissage, une version améliorée de l'algorithme des k-moyennes, permet d'améliorer la robustesse des algorithmes et de se situer dans la zone optimale de « bonne généralisation ».
La prise en compte de l'incertain fait l'objet d'une deuxième partie de nos travaux, située dans la continuité de la première. Dans ce sens, l'utilisation de la logique floue en surveillance dynamique se montre très intéressante de part la proximité par rapport au raisonnement et à l'expérience des opérateurs et ingénieurs, ainsi que de part la possibilité d'assurer une traçabilité essentielle pour le retour d'expérience en maintenance. Un outil de type réseau de Petri flou dédié à la surveillance (RdPFS) des systèmes de production a ainsi constitué l'objet de cette étude. Cet outil, basé essentiellement sur la modélisation floue de la variable "instant d'apparition" de l'événement discret, est muni d'un mécanisme d'interfaçage intégré, inspiré des réseaux de Petri à synchronisations internes, permettant la communication entre les outils de modélisation, de surveillance et de reprise. Dans un tel système, l'utilisation de la logique floue offre une souplesse d'utilisation et une dimension prédictive très intéressante. Basé sur un modèle RdPFS construit à partir des règles logiques induites par l'arbre de défaillance du système surveillé, nous avons montré sa capacité d'analyse dynamique des défauts, en utilisant une approche temporelle floue.
Dans nos travaux les plus récents, les avantages des outils neuronaux dynamiques et de la logique floue ont été mis à l'œuvre conjointement dans le cadre de systèmes hybrides neuro-flous d'aide à la surveillance. L'outil hybride ainsi proposé comporte deux parties, une première pour la détection dynamique – utilisant le RRFR amélioré essentiellement au niveau des algorithmes d'apprentissage dynamiques – et une deuxième pour le diagnostic curatif et prédictif, utilisant un réseau neuro-flou construit à partir de l'arbre de défaillance et de l'AMDEC du système / sous-système surveillé. Il est à noter que ce type de système de surveillance dynamique utilise l'approche abductive de recherche de cause – élément indispensable pour un diagnostic efficace. Par ailleurs, l'apprentissage dynamique permet de commencer l'activité de surveillance dynamique même en l'absence de données très consistantes, en enrichissant et affinant les symptômes et les causes associées (respectivement les degrés de crédibilité de celles-ci) au fur et à mesure du fonctionnement du système, grâce aux algorithmes neuronaux incorporés.
Parmi les verrous technologiques abordés lors de nos contributions, une place importante est accordée à la surveillance dynamique par apprentissage en ligne, en traitant des problèmes liés à la rapidité et la flexibilité de l'apprentissage, au temps de réponse, au traitement de grands flux de données, ainsi qu'aux méthodes de validation utilisant le test sur des benchmarks et le prototypage industriel.
Dans ce sens, l'exploitation industrielle du réseau récurrent à fonctions de base radiales a représenté une étape importante de nos travaux. Elle nous a permis la mise en œuvre d'une application de surveillance dynamique en temps réel d'un système, en utilisant l'apprentissage dynamique distant via le web. Mettant en évidence l'intérêt des techniques développées dans la réorganisation de l'activité de surveillance grâce aux nouvelles technologies, cette exploitation industrielle a donné lieu à un brevet d'invention, déposé en collaboration avec une SSII bisontine.
La conception de l'outil de surveillance neuro-flou a été menée en utilisant des spécifications UML. Cette approche a été initiée (étude, normalisation, spécification) dans le cadre du projet Européen PROTEUS/ITEA et finalisée (prototypage) dans le cadre d'un projet financé par l'ANVAR. Essentiels pour l'industrialisation des systèmes proposés, l'information de départ est considérée sous un format industriel classique (ADD, AMDEC, ...) et la mise à jour est assurée par une réelle ouverture du système traduite par des liens permanents avec les systèmes d'acquisition (capteurs, SCADA, ...) et les systèmes de gestion (GMAO, ...).
Dans le domaine de la e-maintenance, un défi considérable est constitué par le besoin de normalisation des plates-formes de e-maintenance, dans l'objectif d'arriver à terme à une génération automatique de ces plateformes, et à un standard qui pourra constituer un guide pour tous les constructeurs d'équipement soucieux d'intégrer leur produit dans une plate-forme de ce type. Du point de vue scientifique, il s'agit d'arriver à une génération automatique ou interactive d'une telle plate-forme, en fonction des services participants et du contexte d'utilisation. L'objectif est très ambitieux, car générateur de nouveaux services et de nouvelles opportunités commerciales. Il constitue l'objectif principal du projet européen SHIVA, dans lequel se retrouvent les partenaires les plus actifs de PROTEUS, avec – mise a part des partenaires déjà existants comme Cegelec et Schneider – des partenaires industriels nouveaux, tout aussi prestigieux, comme la Division des Constructions Navales et Airbus.
Concernant les perspectives de nos travaux, s'inscrivant dans le cadre des mêmes tendances de décentralisation et de migration de l'intelligence vers les niveaux opérationnels, une direction d'étude intéressante est constituée par le domaine des réseaux de capteurs intelligents. Cette perspective pourra ainsi intégrer des tendances technologiques liées aux connecteurs intelligents (« smart connectors ») basés sur le multiplexage et sur les courants porteurs, afin de réduire le volume de câblage, des points de connexion et afin de mieux prendre en considération les contraintes de sûreté de fonctionnement de ce type de réseaux, contraintes qui – dans un avenir très proche – seront vraisemblablement déterminantes.
Par ailleurs, dans un contexte régional, lié à la création du pôle de compétitivité « microtechniques », la problématique de la fabrication des microsystèmes est une problématique présentant un intérêt croissant. En effet, de nombreux prototypes de microsystèmes sont proposés en phase de prototype, avec une création liée à une manière plutôt artisanale, tout à fait compréhensible – vu les technologies innovantes utilisées -, mais qui ne se prête pas à une commercialisation de ces produits. De ce fait, l'étude des microsystèmes de production semble être un domaine porteur et permettant de garder des emplois européens – souvent menacés par la délocalisation.
Enfin, le diagnostic à partir de l'imagerie médicale en utilisant les techniques de l'intelligence artificielle me semble un domaine où mes compétences en recherche (surveillance par IA) et en enseignement (traitement de l'image) peuvent se donner la main pour aborder une thématique nouvelle, présentant un grand intérêt dans le domaine des biotechnologies, dans lequel la France est bien engagée depuis un certain nombre d'années. Cette perspective correspond au projet de recherche propose dans le cadre de ma délégation CNRS au laboratoire IPAL – Image Perception, Access and Learning (actuellement FRE, UMI-CNRS a partir de 2006) de Singapour.
50

Bourrier, Yannick. "Diagnostic et prise de décision pédagogique pour la construction de compétences non-techniques en situation critique." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les compétences non-techniques (CNT) sont un panel de capacités métacognitives complémentant les compétences techniques, et garantissant la réalisation d’une activité technique sûre. Elles jouent un rôle particulièrement important dans la gestion de situations critiques, et ce dans de nombreux domaines, comme la conduite automobile, ou la médecine d’urgence. Les travaux de cette thèse ont eu pour but de contribuer à la construction d’un environnement virtuel pour l’apprentissage humain (EVAH) de ces compétences non-techniques, via l’expérience de situations critiques. Les travaux se sont focalisés sur deux aspects fondamentaux pour la mise en place d’un EVAH. Dans un premier temps, nous nous sommes focalisés sur la conception d’une architecture de diagnostic des compétences non-techniques de l’apprenant, un problème complexe, « mal-défini » au regard du faible degré de formalisation du domaine, de la nature en temps réel de cet apprentissage, et des relations, propres à chaque individu, entre criticité, compétences techniques et compétences non-techniques. Cette architecture associe connaissances du domaine, apprentissage machine et un réseau bayésien, afin de franchir l’important gap sémantique séparant l’activité perceptivo-gestuelle de l’apprenant produite au sein d’un environnement virtuel, de l’évaluation épistémique de ses compétences. Dans un second temps, nous avons consacré nos efforts à la conception d’un module pédagogique capable de raisonner sur la base du module de diagnostic pour proposer à chaque apprenant un voyage à travers la criticité qui lui soit adapté, personnalisé, et à même de renforcer ses CNT. Ce module associe connaissances issues du réseau bayésien, à un algorithme d’apprentissage par renforcement de type « bandit manchot », pour guider l’apprenant vers une maîtrise toujours plus grande de ses compétences non-techniques. Les expérimentations ont eu pour but de valider les choix de modélisation. Elles se sont basées sur des données réelles, obtenues au cours de sessions d’apprentissage réalisées sur un simulateur « grande échelle » de conduite automobile, pour mettre en évidence la robustesse et la capacité de couverture de l’architecture de diagnostic. Nous avons ensuite conçu un jeu de données synthétiques pour évaluer les capacités du module pédagogique à proposer des situations d’apprentissage adaptées aux singularités de chaque apprenant, et à mêmes de contribuer au renforcement de ses CNT
Non-technical skills (NTS) are a set of metacognitive abilities that complement technical skills and allow for a safe and efficient technical activity. They play an important role during the handling of critical situations, in many domains, including driving or acute medicine. This thesis work focused on the building of a virtual environment for learning (VEL), dedicated to the training of these non-technical skills, through the experience of critical situations. The main contributions target two fundamental aspects with regards to the construction of such a VEL. First, we focused our efforts on the conception of an architecture able to diagnose a learner’s NTS. This is an ill-defined problem, given the low degree of domain knowledge, the real time aspects of this learning process, and the unique relations between criticality, technical, and non-technical skills. This architecture combines domain knowledge, machine learning, and a Bayesian network, to cross the semantic gap between the learner’s perceptual-gestural activity inside the VEL, and the diagnostic of high level, cognitive, NTS. Second, we built a pedagogical module, able to make decisions based on the diagnostic module, in order to build a « journey through criticality » adapted to each of our learners’ characteristics, in order to strengthen said their NTS. This module associates the knowledge about the learner obtained by the Bayesian network, with a reinforcement-learning « multi-armed bandit » algorithm, to reinforce the learner’s NTS through time. Experiments were conducted in order to validate our modelling choices. These experiments were first conducted on real user data, obtained during training sessions performed on a « large scale » driving simulator, in order to evaluate the robustness of the Bayesian network as well as its ability to provide varied diagnostics given its inputs. We then built a synthetic dataset in order to test the pedagogical module, more specifically its capabilities to provide adapted learning situations to learners of different profiles, and to contribute to these learner’s acquisition of NTS through time

To the bibliography