Academic literature on the topic 'Détection des nouveautés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Détection des nouveautés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Détection des nouveautés"

1

Barnier, Jean-Philippe, and David Lebeaux. "L’antibiogramme : interprétation, pièges et nouveautés." Médecine Intensive Réanimation 33, no. 1 (March 29, 2024): 47–60. http://dx.doi.org/10.37051/mir-00194.

Full text
Abstract:
L’évolution rapide de la résistance aux antibiotiques, en particulier chez les bactéries à Gram négatif, nécessite des outils fiables pour guider l’antibiothérapie. La détermination de la sensibilité aux antibiotiques est donc une activité centrale des laboratoires de microbiologie clinique. Le but est d’assurer l’adéquation entre le traitement antibiotique et la sensibilité des isolats bactériens, de détecter les résistances acquises, et de fournir des données pour le suivi de l’épidémiologie de la résistance aux antimicrobiens. De nombreuses méthodes d’antibiogramme sont disponibles : microdilution en milieu liquide, méthode automatisées, diffusion en milieu gélosé. Toutes ces techniques offrent des résultats qualitatifs : catégorisation des isolats bactériens en sensible, intermédiaire ou résistant et certaines des résultats quantitatifs (concentration minimale inhibitrice). De plus, l’antibiogramme est un outil essentiel pour la détection de mécanismes de résistance émergents, malgré les progrès de la génomique. Si de nombreux outils permettant la détection rapide des mécanismes de résistance sont aujourd’hui disponibles, il est probable que l’antibiogramme gardera une place importante dans la prise en charge des infections bactériennes dans les prochaines années. Son interprétation, parfois complexe, impose un dialogue entre le microbiologiste et le clinicien.
APA, Harvard, Vancouver, ISO, and other styles
2

Vogt. "Bildgebung in der Gastroenterologie – Was gibt es Neues?" Praxis 92, no. 35 (August 1, 2003): 1435–41. http://dx.doi.org/10.1024/0369-8394.92.35.1435.

Full text
Abstract:
Durant ces dernières années, on a assisté à un grand nombre de nouveautés dans le domaine de l'endoscopie, de la radiologie et de la sonographie comme par exemple la coloscopie virtuelle, l'endoscopie capsulaire ainsi que la sonographie avec produit de contraste. La coloscopie virtuelle par tomographie computérisée ou résonnance magnétique a actuellement une haute sensitivité de 90% pour la détection de polypes > 1 cm. Cependant, il faut préciser que la préparation est similaire à celle que nécessite une coloscopie conventionnelle et que les coûts sont élevés en raison de la longue durée de l'examen et de son interprétation, si bien que la place de cet examen en routine n'est pas encore définie clairement. L'endoscopie capsulaire est une nouvelle technique d'imagerie très intéressante pour le diagnostic des maladies de l'intestin grêle. L'indication principale est la recherche de la source de saignements dans l'intestin grêle : Dans cette indication, l'endoscopie capsulaire est supérieure à la push-entéroscopie considérée jusqu'à l'heure actuelle comme l'examen de premier choix. Il n'est pas encore clair quelles conclusion pourront être tirées des résultats de l'endoscopie capsulaire et si ses coûts élevés seront justifiés. La sonographie avec produit de contraste est un développement important surtout pour la détection et la caractérisation de masses hépatiques et pourra remplacer dans le futur certains examens par tomographie computérisée et par résonnance magnétique.
APA, Harvard, Vancouver, ISO, and other styles
3

Broussin, Marjorie, Chloé Richer, and Tatiana Tumanova. "Jakuta Alikavazovic, La blonde et le bunker derrière le miroir…" Voix Plurielles 10, no. 2 (November 28, 2013): 157–77. http://dx.doi.org/10.26522/vp.v10i2.849.

Full text
Abstract:
Le roman que nous propose la romancière française, née en 1979, après le prix Goncourt du premier roman avec Les corps Volatils, a remporté la mention spéciale du jury Wepler. Et l’œuvre perturbe en effet tous nos repères, réalisant les aspirations de son auteure : « L’originalité dans la répétition. Le déjà-vu comme condition du sens, et paradoxalement comme irruption de la nouveauté. » Impossible de se raccrocher longtemps au désir d’élucidation, moteur du roman noir, tant la narration joue du speculum, à la fois jeux de regards et de miroirs, et spéculations de toutes sortes. Et pourtant, Jakuta Alikavazovic a éveillé notre curiosité et notre instinct de détective. C’est pourquoi nous vous proposons de nous suivre dans cette enquête, sur les traces du récit, avec pour seul indice celui qu’a laissé l’auteure derrière elle : « L’un des thèmes de La blonde et le bunker (comme de tous mes livres) est la disparition »
APA, Harvard, Vancouver, ISO, and other styles
4

Cassier, Olivier. "Fiabilisation des contrôles ultrasons manuels : Le matériel a un rôle à jouer dans l'amélioration du facteur humain." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28485.

Full text
Abstract:
Malgré l’émergence et le développement des technologies Multi-éléments, TFM et PWI, le contrôle Ultrasons manuel avec des traducteurs conventionnels n’est pas mort et celuici garde encore une place prépondérante tant au niveau du nombre d’appareils en opération que du nombre d’opérateurs certifiés. La question de la fiabilisation de ces contrôles reste donc d’actualité et parmi les différents facteurs influents, le matériel, outre ses performances techniques, a un rôle à jouer au travers de la simplification de son interface homme-machine et de l’aide à l’interprétation qu’il doit fournir à l’opérateur. Le propos de cette communication est de présenter une approche originale et novatrice permettant de proposer aujourd’hui aux opérateurs des équipements allant dans ce sens. Les deux axes majeurs développés sont d’une part la simplification de l’interface Homme-machine et sa personnalisation pour s’adapter au niveau de compétence opérateur souhaité et d’autre part l’aide à l’interprétation en fournissant un outil graphique permettant de visualiser le faisceau acoustique dans la pièce en personnalisant la pièce par l’intégration de fichier CAO dans l’équipement de contrôle. Alors que cela fait presque 2 ans que ces nouveautés sont apparues sur certains équipements, on constate un accroissement de compétences des utilisateurs sous l’effet de deux phénomènes : - Une meilleure compréhension des phénomènes physiques avec la simulation graphique qui permet un apprentissage plus rapide et plus efficace ; - Une meilleure concentration des opérateurs sur leur métier et leur contrôle, n’étant plus perturbés par une interface inutilement compliquée par un vocabulaire non adapté ou par une multitude de paramètres non exploités. Même si le matériel est souvent jugé peu influent sur la fiabilité du contrôle, car le choix du client reste trop souvent limité à des comparaisons de performances techniques somme toute très voisines, l’objet de cette communication est de démontrer que celui-ci peut contribuer de façon importante à une approche innovante et pédagogique permettant de réduire les fausses détections et améliorer du même coup le facteur opérationnel humain.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Détection des nouveautés"

1

Abdel, Sayed Mina. "Représentations pour la détection d’anomalies : Application aux données vibratoires des moteurs d’avions." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC037/document.

Full text
Abstract:
Les mesures de vibrations sont l’une des données les plus pertinentes pour détecter des anomalies sur les moteurs. Les vibrations sont acquises sur banc d’essai en phase d’accélération et de décélération pour assurer la fiabilité du moteur à la sortie de la chaine de production. Ces données temporelles sont converties en spectrogrammes pour permettre aux experts d’effectuer une analyse visuelle de ces données et de détecter les différentes signatures atypiques. Les sources vibratoires correspondent à des raies sur les spectrogrammes. Dans cette thèse, nous avons mis en place un outil d’aide à la décision automatique pour analyser les spectrogrammes et détecter tout type de signatures atypiques, ces signatures ne proviennent pas nécessairement d’un endommagement du moteur. En premier lieu, nous avons construit une base de données numérique de spectrogrammes annotés. Il est important de noter que les signatures inusuelles sont variables en forme, intensité et position et se trouvent dans un faible nombre de données. Par conséquent, pour détecter ces signatures, nous caractérisons les comportements normaux des spectrogrammes, de manière analogue aux méthodes de détection de nouveautés, en représentant les patchs des spectrogrammes sur des dictionnaires comme les curvelets et la Non-negative matrix factorization (NMF), ainsi qu’en estimant la distribution de chaque point du spectrogramme à partir de données normales dépendamment ou non de leur voisinage. La détection des points atypiques est réalisée par comparaison des données tests au modèle de normalité estimé sur des données d’apprentissage normales. La détection des points atypiques permet la détection des signatures inusuelles composées par ces points
Vibration measurements are one of the most relevant data for detecting anomalies in engines. Vibrations are recorded on a test bench during acceleration and deceleration phases to ensure the reliability of every flight engine at the end of the production line. These temporal signals are converted into spectrograms for experts to perform visual analysis of these data and detect any unusual signature. Vibratory signatures correspond to lines on the spectrograms. In this thesis, we have developed a decision support system to automatically analyze these spectrograms and detect any type of unusual signatures, these signatures are not necessarily originated from a damage in the engine. Firstly, we have built a numerical spectrograms database with annotated zones, it is important to note that data containing these unusual signatures are sparse and that these signatures are quite variable in shape, intensity and position. Consequently, to detect them, like in the novelty detection process, we characterize the normal behavior of the spectrograms by representing patches of the spectrograms in dictionaries such as the curvelets and the Non-negative matrix factorization (NMF) and by estimating the distribution of every points of the spectrograms with normal data depending or not of the neighborhood. The detection of the unusual points is performed by comparing test data to the model of normality estimated on learning normal data. The detection of the unusual points allows the detection of the unusual signatures composed by these points
APA, Harvard, Vancouver, ISO, and other styles
2

Bouguelia, Mohamed-Rafik. "Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034/document.

Full text
Abstract:
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
APA, Harvard, Vancouver, ISO, and other styles
3

Chapelin, Julien. "Détection et diagnostic de dérives de processus de production hétérogènes et complexes : proposition d’une approche générique d'intelligence artificielle basée sur l'apprentissage continu." Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD026.

Full text
Abstract:
Cette thèse s’inscrit dans le contexte de la maintenance prévisionnelle des processus de production hétérogènes, en ciblant trois problématiques scientifiques : la détection des dérives sans besoin de données étiquetées, le diagnostic des dérives à l’aide de méthodes hybrides, et l’intégration de ces activités dans une approche méthodologique adaptable. La première contribution propose, via un logigramme décisionnel, une méthode guidée pour sélectionner les algorithmes d’apprentissage automatique les mieux adaptés aux données via le calcul d’indicateurs. La deuxième contribution présente un diagnostic hybride, combinant classificateurs binaires et arbres de décision enrichis par des connaissances expertes, pour identifier les causes racine des dérives. Enfin, la troisième contribution élabore une approche méthodologique intégrée de détection et diagnostic des dérives de processus intégrant des étapes d’apprentissage continu, pour permettre l’adaptation aux évolutions des processus. Validée sur un processus industriel chez SEW USOCOME, cette approche montre des résultats prometteurs et confirme la pertinence des contributions
This thesis is set in the context of predictive maintenance for heterogeneous production processes, targeting three scientific issues: drift detection without the need for labeled data, drift diagnosis using hybrid methods, and the integration of these activities into an adaptable methodological approach. The first contribution proposes, via a decision logigram, a guided method for selecting the machine learning algorithms best suited to the data via the calculation of indicators. The second contribution presents a hybrid diagnosis, combining binary classifiers and decision trees enriched with expert knowledge, to identify the root causes of drift. Finally, the third contribution develops an integrated methodological approach to process drift detection and diagnosis, incorporating continuous learning steps to enable adaptation to process evolutions. Validated on an industrial process at SEW USOCOME, this approach shows promising results and confirms the relevance of the contributions
APA, Harvard, Vancouver, ISO, and other styles
4

Bouguelia, Mohamed-Rafik. "Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034.

Full text
Abstract:
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
APA, Harvard, Vancouver, ISO, and other styles
5

Clément, Antoine. "Détection de nouveauté pour le monitoring vibratoire des structures de génie civil : approches chaotique et statistique de l'extraction d'indicateurs." Phd thesis, Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1348/.

Full text
Abstract:
Le suivi vibratoire de l'état des ouvrages de génie civil vise à anticiper une défaillance structurale par la détection précoce d'endommagement. Dans ce contexte, la détection de nouveauté constitue une approche particulièrement adaptée à l'analyse des signaux compte tenu des difficultés à modéliser une structure unique et soumise à de nombreux facteurs extérieurs influant sur la dynamique vibratoire. Le premier objectif du travail de thèse consiste à observer dans quelle mesure la détection de nouveauté parvient à détecter un endommagement dans un contexte fortement perturbé par des variations environnementales d'une part, et par une excitation de nature impulsionnelle, d'autre part. Le deuxième objectif est de proposer et d'étudier un nouvel indicateur vectoriel, désigné par JFV (pour Jacobian Feature Vector). Le calcul du JFV s'appuie sur la reconstruction de la trajectoire du système dynamique observé dans son espace des phases. Cette approche exploite les développements scientifiques récents réalisés en théorie des systèmes dynamiques non linéaires, parfois qualifiée de théorie du chaos. Le JFV est comparé aux coefficients de modèles auto-régressifs (AR), couramment utilisés en analyse des séries temporelles. Pour réaliser ce travail de thèse, plusieurs cas d'études expérimentaux sont utilisés dont notamment une maquette de structure en bois sur laquelle l'excitation est contrôlée et des variations environnementales sévères sont imposées. Enfin, différentes approches de modélisation statistique des indicateurs normalisés sont mises en œuvre dans le but de comparer leurs aptitudes respectives à la définition d'un seuil de classification robuste
The aim of structural health monitoring of civil structure is the early detection of damage to prevent tructure failure. But modelling the behaviour of such structure is a very challenging task due to it uniqueness and to the effect of environmental parameters on the dynamic. In this context, the novelty detection approach appears to be well adapted since it avoids the need of prior hypothesis on the nature of the dynamical behaviour, and integrates all variability factors. The work of this thesis has two principal aims. The first one is to quantify the ability of novelty detection to discriminate damage under strong environmental variations and impulse excitation. The second one is to introduce a new damage sensitive feature, referred as Jacobian Feature Vector (JFV). The JFV calculation is based on the reconstructed state space which exploits the progress achieved in the theory of non-linear dynamical systems, also known as chaos theory. The comparison between AR parameters, widely used for time series analysis, and the JFV is carried out on several case studies. One of them is a three storey wooden laboratory structure subjected to strong environmental variations and controlled excitation. Finally, since the last step of novelty detection is decision making based on statistical modelling of the normalized damage sensitive features, the robustness of several approaches for the setting of the classification threshold is investigated
APA, Harvard, Vancouver, ISO, and other styles
6

Clément, Antoine. "Détection de nouveauté pour le monitoring vibratoire des structures de génie civil : Approches chaotique et statistique de l'extraction d'indicateurs." Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00687065.

Full text
Abstract:
Le suivi vibratoire de l'état des ouvrages de génie civil vise à anticiper une défaillance structurale par la détection précoce d'endommagement. Dans ce contexte, la détection de nouveauté constitue une approche particulièrement adaptée à l'analyse des signaux compte tenu des difficultés à modéliser une structure unique et soumise à de nombreux facteurs extérieurs influant sur la dynamique vibratoire. Une telle approche présente un double intérêt consistant à éviter de formuler des hypothèses a priori sur le comportement dynamique et à intégrer tous les facteurs de variabilité. Ce travail de thèse poursuit ainsi deux objectifs. Le premier objectif consiste à observer dans quelle mesure la détection de nouveauté parvient à détecter un endommagement dans un contexte fortement perturbé par des variations environnementales d'une part, et par une excitation de nature impulsionnelle, d'autre part. Le deuxième objectif est de proposer et d'étudier un nouvel indicateur vectoriel, désigné par JFV (pour Jacobian Feature Vector). Le calcul du JFV s'appuie sur la reconstruction de la trajectoire du système dynamique observé dans son espace des phases. Cette approche exploite les développements scientifiques récents réalisés en théorie des systèmes dynamiques non linéaires, parfois qualifiée de théorie du chaos. Le JFV est comparé aux coefficients de modèles auto-régressifs (AR), couramment utilisés en analyse des séries temporelles. Pour réaliser ce travail de thèse, plusieurs cas d'études expérimentaux sont utilisés dont notamment une maquette de structure en bois sur laquelle l'excitation est contrôlée et des variations environnementales sévères sont imposées. \indent Les indicateurs AR et JFV sont extraits des signaux vibratoires relatifs aux différents cas d'études et normalisés par le biais du concept de distance de Mahalanobis. Les résultats expérimentaux montrent que, pour les deux indicateurs vectoriels, la détection de l'endommagement est favorisée par une sollicitation comportant une composante de bruit. Une excitation purement instationnaire, constituée de séquences aléatoires d'impulsions, dégrade de façon significative les performances de détection. Les variations environnementales génèrent une forte variabilité des indicateurs, rendant difficile l'ajustement d'un modèle statistique robuste dédié à la discrimination des dégradations. Seuls les niveaux d'endommagement extrêmes sont repérés dans la configuration d'essai la plus pénalisante. L'analyse comparée des coefficients AR et du JFV met en évidence une dispersion beaucoup plus grande des composantes de ce dernier, conduisant à une sensibilité plus faible. Une étude paramétrique montre cependant que la sensibilité du JFV peut être améliorée par une optimisation des méthodes de sélection des paramètres de reconstruction de l'espace des phases. Face aux performances limitées des indicateurs AR et JFV dans certains cas très défavorables, un autre indicateur est proposé, basé sur la corrélation croisée des informations portées par une paire de capteurs. Cet indicateur présente une performance intéressante sur un cas d'étude complexe combinant variations environnementales fortes et sollicitation purement instationnaire. Une discussion est également proposée sur la façon de répartir les mesures de référence dans les différentes bases de données nécessaires à l'application de la démarche de détection de nouveauté. Enfin, différentes approches de modélisation statistique des indicateurs normalisés sont mises en oeuvre dans le but de comparer leurs aptitudes respectives à la définition d'un seuil de classification robuste.
APA, Harvard, Vancouver, ISO, and other styles
7

Arégui, Astrid. "Novelty detection in the Belief Function Framework, with application to the monitoring of a waste incineration process : applications à la surveillance d'un système d'incinération de déchets." Compiègne, 2007. http://www.theses.fr/2007COMP1716.

Full text
Abstract:
Cette thèse apporte deux contributions principales, l'une à la construction de fonctions de croyance et l'autre au problème de détection de nouveauté. La première partie de la thèse résume les principales notions de la théorie des fonctions de croyance (Fe) avant d'introduire les contributions associées. Le problème considéré est celui dans lequel la variable d'intérêt est définie comme le résultat dune expérience aléatoire. Deux techniques basées sur des observations passées, et permettant de prédire quelle sera la prochaine observation, sont introduites. La seconde partie de la thèse établit un état de l'art de la classification à une classe avant de montrer quels peuvent être les apports de la théorie des FC dans ce domaine, notamment pour la comparaison ou la combinaison des sorties de différents classifieurs. Une application à la surveillance d'un procédé d'incinération de déchets est présentée en troisième partie de la thèse. Les résultats obtenus sont détaillés et critiqués
Abstract the main two contributions of this PhD Thesis are related with the belief function theory and the problem of novelty detection. The thesis is divided into three parts. The first introduces the main notions pertaining to the belief function theory before describing the associated contributions. The special case considered here is that where the variable of interest is defined from the result of a random experiment. Based on past observations, we introduce two different approaches to predict what the next observation will be. In the second part, the state of the art on the one-class classification problem is summarized before the benefits of the use of belief functions in this domain are shown. Indeed, this theory can be used together with novelty detectors so that the outputs of different classifiers are all expressed in the form of belief functions. The latter can then be compared or combined. Finally, an application to the monitoring of waste incineration plants is detailed
APA, Harvard, Vancouver, ISO, and other styles
8

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10027/document.

Full text
Abstract:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples
Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes
APA, Harvard, Vancouver, ISO, and other styles
9

Domingues, Rémi. "Probabilistic Modeling for Novelty Detection with Applications to Fraud Identification." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS473.pdf.

Full text
Abstract:
La détection de nouveauté est le problème non supervisé d’identification d’anomalies dans des données de test qui diffèrent de manière significative des données d’apprentissage. La représentation de données temporelles ou de données de types mixtes, telles des données numériques et catégorielles, est une tâche complexe. Outre le type de données supporté, l'efficacité des méthodes de détection de nouveauté repose également sur la capacité à dissocier avec précision les anomalies des échantillons nominaux, l'interprétabilité, la scalabilité et la robustesse aux anomalies présentes dans les données d'entraînement. Dans cette thèse, nous explorons de nouvelles façons de répondre à ces contraintes. Plus spécifiquement, nous proposons (i) une étude de l'état de l'art des méthodes de détection de nouveauté, appliquée aux données de types mixtes, et évaluant la scalabilité, la consommation mémoire et la robustesse des méthodes (ii) une étude des méthodes de détection de nouveauté adaptées aux séquences d'évènements (iii) une méthode de détection de nouveauté probabiliste et non paramétrique pour les données de types mixtes basée sur des mélanges de processus de Dirichlet et des distributions de famille exponentielle et (iv) un modèle de détection de nouveauté basé sur un autoencodeur dans lequel l'encodeur et le décodeur sont modélisés par des processus Gaussiens profonds. L’apprentissage de ce modèle est effectué par extension aléatoire des dimensions et par inférence stochastique variationnelle. Cette méthode est adaptée aux dimensions de types mixtes et aux larges volumes de données
Novelty detection is the unsupervised problem of identifying anomalies in test data which significantly differ from the training set. While numerous novelty detection methods were designed to model continuous numerical data, tackling datasets composed of mixed-type features, such as numerical and categorical data, or temporal datasets describing discrete event sequences is a challenging task. In addition to the supported data types, the key criteria for efficient novelty detection methods are the ability to accurately dissociate novelties from nominal samples, the interpretability, the scalability and the robustness to anomalies located in the training data. In this thesis, we investigate novel ways to tackle these issues. In particular, we propose (i) a survey of state-of-the-art novelty detection methods applied to mixed-type data, including extensive scalability, memory consumption and robustness tests (ii) a survey of state-of-the-art novelty detection methods suitable for sequence data (iii) a probabilistic nonparametric novelty detection method for mixed-type data based on Dirichlet process mixtures and exponential-family distributions and (iv) an autoencoder-based novelty detection model with encoder/decoder modelled as deep Gaussian processes. The learning of this last model is made tractable and scalable through the use of random feature approximations and stochastic variational inference. The method is suitable for large-scale novelty detection problems and data with mixed-type features. The experiments indicate that the proposed model achieves competitive results with state-of-the-art novelty detection methods
APA, Harvard, Vancouver, ISO, and other styles
10

Lamirel, Jean-Charles. "Application d'une approche symbolico-connexionniste pour la conception d'un système documentaire hautement interactif : le prototype NOMAD." Nancy 1, 1995. http://www.theses.fr/1995NAN10423.

Full text
Abstract:
Les systèmes de recherche documentaire (SRD) existants sont peu enclins à gérer l'interaction avec l'utilisateur de manière satisfaisante ainsi qu’à proposer différents types de recherche à celui-ci. La forme des connaissances qu'ils utilisent les rend également souvent inaptes à améliorer leur comportement au cours du temps, ainsi qu'à s'adapter à l'évolution ou à la diversification du contenu des bases documentaires, et enfin à fonctionner de manière distribuée. Nous montrons, à travers l'exemple de NOMAD, qu'il est possible de pallier une grande partie des défauts précédents en adoptant une approche systémique de la recherche documentaire et en dérivant un modèle de SRD dont les composants y sont adaptés. Le modèle NOMAD que nous décrivons ici est un modèle dont le fonctionnement est à la fois symbolique et connexionniste. Il utilise plus particulièrement des topographies neuronales multiples pour représenter et exploiter sa connaissance à long terme et un modèle de mémoire de session base sur la détection de nouveauté pour représenter et exploiter sa connaissance à court terme. Pratiquement, le modèle NOMAD garantit de nombreux modes d'interaction avec l'utilisateur, de multiples formes d'apprentissage à court et à long terme, ainsi que l'utilisation au cours de son raisonnement de connaissances acquises en mode non supervisé, contextuellement à la base utilisée. Il gère la notion de point de vue descriptif sur les documents et sur les connaissances, et se trouve notamment capable de s'auto-adapter à différents types de recherche et différents types d'utilisateurs de profils et de compétences variés. Ce modèle est opérationnel sur la plupart des fonds existants sans modification directe de leur indexation initiale
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography