Thèses sur le sujet « Détection de modèles »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Détection de modèles.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Détection de modèles ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Ghorbanzadeh, Dariush. « Détection de rupture dans les modèles statistiques ». Paris 7, 1992. http://www.theses.fr/1992PA077246.

Texte intégral
Résumé :
Ce travail concerne l'etude d'une classe de tests de detection de rupture dans les modeles statistiques. La classe de tests consideree est basee sur le test du rapport de vraisemblance. Dans le cadre de la contiguite au sens de lecam, sous l'hypothese nulle (non rupture) et sous l'hypothese alternative (rupture), les lois asymptotiques des statistiques de tests sont evaluees, ce qui permet de determiner asymptotiquement les regions critiques des tests. Les expressions analytiques des puissances asymptotiques sont proposees. En utilisant les techniques de l'analyse discriminante, le probleme de la detection du passage en sida avere a ete etudie par application directe sur les donnees concernant 450 patients hiv-positifs
Styles APA, Harvard, Vancouver, ISO, etc.
2

Moussi, Aurélie. « Détection de débris orbitaux : comparaison avec les modèles ». Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0016.

Texte intégral
Résumé :
Une des composantes de l'environnement spatial à prendre en compte lors de la préparation d’une mission est la composante solide qui se décline en particules naturelles - les météoroïdes - et les débris. L'objectif de cette thèse est de mieux appréhender cette composante en orbite basse ainsi que son évolution au cours du temps dans le but d'améliorer les modèles environnementaux existants. Un intérêt particulier a été porté à la population de débris orbitaux. L'analyse, après exposition à l'espace, des panneaux solaires télescope spatial Hubble (Hubble Space Télescope ou HST) récupérés en 2002, est une source unique de données. En effet, d’une part, les techniques d'analyses permettant de remonter à l'origine de la particule à partir d’un impact sont actuellement très efficaces et de nouvelles clefs peuvent être envisagées suite à ce travail de thèse. D’autre part, une analyse a déjà été menée en 1993 sur un des panneaux précédents nous procurant ainsi une opportunité unique d’étude de l'évolution des flux de particules solides sur une décade. En outre, grâce à la moisson de données importante fournie, une meilleure compréhension de la physique de l’impact et de la génération de débris est possible. Cependant, la détection passive telle qu’elle est envisagée pour les matériaux récupérés sur HST, présente des limites et d’autres moyens d’étude ont alors été envisagés et explorés afin de proposer de nouvelles orientations.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Dang, Quoc Viet. « Similarités dans des Modèles BRep Paramétriques : Détection et Applications ». Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/12154/1/Dang_quoc_viet.pdf.

Texte intégral
Résumé :
Dans cette thèse, nous identifions et exploitons des similarités partielles dans des objets 3D pour répondre à des besoins courants du domaine de la Conception Assistée par Ordinateur (CAO). De nouvelles méthodes sont introduites, d'une part pour détecter les similarités partielles, d'autre part pour utiliser ces similarités dans des applications spécifiques telles que l'édition de forme, la compression et l'indexation d'objets 3D. Grâce au développement des applications de la modélisation géométrique, ces modèles sont de plus en plus nombreux et sont disponibles à travers plusieurs modalités. Pour augmenter la productivité dans la création de tels objets virtuels, la réutilisation et l'adaptation des modèles existants est un choix prioritaire. Cela exige donc des méthodes facilitant le stockage, la recherche et l'exploitation de ces modèles. Heureusement, les similarités dans des objets 3D est un phénomène fréquent. De nombreux objets sont composés de parties similaires à une rotation, à une translation ou à une symétrie près. De ce fait, la détection des similarités partielles dans ces modèles est capable de répondre aux problématiques courantes : la taille du stockage est réduite en conservant seulement une partie au lieu de toutes les parties répétées d'un modèle; l'indexation des modèles 3D requiert a priori l'orientation canonique des modèles. Or, la symétrie dans un objet 3D est toujours une référence d'orientation cohérente avec la perception humaine. Nous utilisons donc la symétrie partielle pour aligner ces modèles et ainsi renforcer la robustesse des méthodes d'indexation. Dans un premier temps, nous introduisons une approche similaire à la Transformée de Hough pour détecter des similarités partielles dans des modèles BRep-NURBS. Cette approche identifie non seulement les parties similaires mais aussi les transformations qui les lient. À travers la classification des isométries dans l'analyse des transformations, notre approche peut distinguer la nature de transformation liant des parties similaires d'un modèle, c'est-à-dire, les parties similaires à une rotation, à une translation ou à une symétrie près. Dans le deuxième temps, nous proposons deux applications héritées directement des résultats obtenus par la détection. Tout d'abord, pour la compression, un modèle se transforme en un graphe de similarités d'où les faces principales à conserver sont sélectionnées dans la structure compressée. Ensuite, pour l'orientation, le plan de la symétrie dominante et la projection orthographique d'un modèle autour de ce plan permettent de définir un repère canonique pour aligner ce modèle.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Le, Gallou Sylvain. « Détection robuste des éléments faciaux par modèles actifs d'apparence ». Rennes 1, 2007. http://www.theses.fr/2007REN1S083.

Texte intégral
Résumé :
Dans le cadre des interfaces hommes-machine, pouvoir interagir dans un environnement non contraint est un enjeu majeur. Nous utilisons des Modèles Actifs d'Apparence (AAM) pour localiser précisément les yeux, le nez et la bouche d'un visage. Nos travaux consistent à rendre les AAM robustes à l'illumination, la pose, l'identité et l'expression du visage. Nous proposons d'une part un prétraitement basé sur des cartes orientées pour s'affranchir des variations lumineuses et d'autre part un système adaptatif permettant aux AAM de se focaliser à la volée sur le modèle spécifique de visage pré-appris le plus adapté au visage inconnu analysé
For man-machine interfaces, interactions with the machines in an unconstrained environment are a major issue. We use the Active Appearance Models (AAM) to precisely localize the eyes, the nose and the mouth of faces. Our work consists of making the AAM more robust to illumination, pose, identity and expression of faces. On the one hand, we propose a pretreatment based on oriented maps to get independent from the effects of illumination variations and on the other hand, an adaptive system allowing the AAM to focus itself in real time on the pre-learned specific model of a face the more adapted to the analyzed unknown face
Styles APA, Harvard, Vancouver, ISO, etc.
5

Tabia, Karim. « Modèles graphiques et approches comportementales pour la détection d'intrusions ». Artois, 2008. http://www.theses.fr/2008ARTO0407.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à la modélisation du problème de détection d'intrusions à base de modèles graphiques. Nous avons d'abord défini un ensemble de variables essentielles en tenant compte des attaques actuelles et des caractéristiques du trafic normal. Ensuite, nous avons analysé la faiblesse des réseaux Bayésiens et des arbres de décisions dans la détection des nouvelles attaques. Nous avons proposé deux directions pour résoudre ce problème: la première propose des adaptations pour les réseaux Bayésiens et les arbres de décisions standard afin de les adapter aux objectifs de l'approche comportementale pour mieux détecter les nouvelles attaques. La deuxième direction propose une combinaison en série visant à doter une approche par classification d'un module comportemental et d'un module de diagnostic. Enfin, nous nous sommes intéressés au traitement des événements d'audit lorsque les observations sont incertaines ou incomplètes. Nous avons commencé par analyser l'application de la règle Jeffrey pour la révision de distributions de possibilités avec des observations incertaines. Nous avons proposé ensuite un algorithme efficace pour la révision de la distribution de possibilités codée par un réseau possibiliste naïf. Cet algorithme est particulièrement approprié pour la classification avec des observations entachées d'incertitude car il permet de réaliser la classification en temps polynomial grâce à une série de transformations équivalentes appliquées au réseau possibiliste initial
In this thesis, we deal with modelling intrusion detection problem using graphical models. We first define relevant variables taking into account nowadays attacks and normal traffic characteristics. We after that study the failure of standard Bayesian networks and decision trees in detecting novel attacks. We proposed two directions in order to solve this problem: the first one proposes to enhance and adapt standard Bayesian networks and decision trees in order to fit anomaly approach requirements and better detect novel attacks. The second direction proposes a serial combination aiming at equipping a classifier with an anomaly approach and a diagnosis component. We finally deal with analyzing audit events when inputs are uncertain or missing. We start with analyzing Jeffrey's rule for revising possibility distributions by uncertain observations. Then, we propose an efficient algorithm for revising possibility distributions encoded by a naive possibilistic network. This algorithm is particularly suitable for classification with uncertain inputs since it allows classification in polynomial time using different efficient transformations of the initial naive possibilistic networks
Styles APA, Harvard, Vancouver, ISO, etc.
6

Smith, Isabelle. « Détection d'une source faible : modèles et méthodes statistiques : application à la détection d'exoplanètes par imagerie directe ». Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00548905.

Texte intégral
Résumé :
Cette thèse contribue à la recherche de planètes extra-solaires à partir d'instruments au sol imageant une étoile et son environnement très proche. Le grand contraste lumineux et la proximité entre une potentielle exoplanète et son étoile parente rendent la détection de l'exoplanète extrêmement difficile. Une modélisation qualitative et probabiliste fine des données et l'utilisation de méthodes d'inférence adaptées permettent d'accroître a posteriori les performances des instruments. Cette thèse se focalise ainsi sur l'étape de traitement des données et sur un problème de méthodologie statistique plus général. Chaque étude est abordée sous des angles théoriques et appliqués. La thèse décrit d'abord les données attendues pour le futur instrument SPHERE du Very Large Telescope, simulées à partir d'une modélisation physique détaillée. Un modèle probabiliste simple de ces données permet notamment de construire une procédure d'identification de candidats. Les performances des inférences sont aussi étudiées à partir d'un modèle décrivant de façon plus réaliste les bruits caractérisant les images (bruit de speckle corrélé, bruit de Poisson). On souligne la différence entre les probabilités de fausse alarme calculées à partir du modèle simple et à partir du modèle réaliste. Le problème est ensuite traité dans le cadre bayésien. On introduit et étudie d'abord un outil original de test d'hypothèses : la distribution a posteriori du rapport de vraisemblance, notée PLR. Son étude théorique montre notamment que dans un cadre d'invariance standard le PLR est égal à une p-value fréquentiste. Par ailleurs, un modèle probabiliste des données est développé à partir du modèle initial et un modèle probabiliste de l'intensité de l'exoplanète est proposé. Ils sont finalement utilisés dans le PLR et le facteur de Bayes.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Soule, Augustin. « Méthodes et modèles de détection d'anomalies dans les réseaux d'opérateurs ». Paris 6, 2006. http://www.theses.fr/2006PA066088.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Meacher, Duncan. « Binaires compactes : modèles de populations, détection multi-messagers et cosmologie ». Thesis, Nice, 2015. http://www.theses.fr/2015NICE4058/document.

Texte intégral
Résumé :
Je présente ma thèse sur l'analyse des ondes gravitationnelles dans les deux domaines suivants. Pour le premier il s'agit de vérifier que les collaborations LIGO et Virgo sont prêtes pour la détection d'un fond gravitationnel stochastique astrophysique pendant l'ère des détecteurs avancés qui va démarrer à l'été 2015. Pour le deuxième il s'agit de poursuivre l'étude du potentiel scientifique, notamment pour l'astrophysique et la cosmologie, d'un détecteur de troisième génération, le Einstein Telescope. Dans les deux cas, j'utilise des "mock data and science challenges" qui consistent à simuler Les données des détecteurs gravitationnels contenant un grand nombre de sources distribuées de façon réalistes dans l'espace des paramètres
Here I present my thesis investigating gravitational-wave data analysis in the following two areas. The first is to test the readiness of the LIGO-Virgo collaborations to the advanced detector era, which will begin in the summer of 2015, to make a detection of an astrophysical stochastic gravitational-wave background. The second is to continue an investigation into the science potential of a conceived, third generation gravitational-wave detector, the Einstein Telescope, in terms of astrophysics and cosmology. Both of these are conducted with the use of mock data and science challenges which consists of the production of expected gravitational-wave detector data, containing a large number of sources, that are simulated using realists distributions
Styles APA, Harvard, Vancouver, ISO, etc.
9

Kenaza, Tayeb. « Modèles graphiques probabilistes pour la corrélation d'alertes en détection d'intrusions ». Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0401/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à la modélisation du problème de la corrélation d'alertes à base de modèles graphiques probabilistes. Nous avons constaté que les approches existantes de corrélation d'alertes, soit se basent sur des connaissances explicites d'experts, soit utilisent des mesures de similarité simples qui ne permettent pas de détecter des scénarios d'attaque. Pour cela, nous avons d'abord proposé une nouvelle modélisation de la corrélation d'alertes, basée sur les classifieurs Bayésiens naïfs, qui permet d'apprendre les coordinations entre les attaques élémentaires qui contribuent à la réalisation d'un scénario d'attaque. Notre modélisation nécessite seulement une légère contribution des connaissances d'experts. Elle tire profit des données disponibles et fournit des algorithmes efficaces pour la détection et la prédiction des scénarios d'attaque. Ensuite, nous avons montré comment notre approche de corrélation d'alertes peut être améliorée en prenant en considération les informations contextuelles codées en logiques de description, notamment dans le contexte d'une détection coopérative d'intrusions. Enfin, nous avons proposé plusieurs mesures d'évaluation pour un multi-classifieurs Bayésiens naïfs. Ceci est très important pour l'évaluation de notre approche de corrélation d'alertes car elle utilise un ensemble de classifieurs Bayésiens naïfs pour surveiller plusieurs objectifs d'intrusion en même temps
In this thesis, we focus on modeling the problem of alert correlation based on probabilistic graphical models. Existing approaches either require a large amount of expert knowledge or use simple similarity measures which are not enough to detect coordinated attacks. We first proposed a new modeling for the alert correlation problem, based on naive Bayesian classifiers, which can learn the coordination between elementary attacks that contribute to the achievement of an attack scenario. Our model requires only a slight contribution of expert knowledge. It takes advantage of available data and provides efficient algorithms for detecting and predicting attacks scenario. Then we show how our alert correlation approach can be improved by taking into account contextual information encoded in description logics, particularly in the context of a cooperative intrusion detection. Finally, we proposed several evaluation measures for a naive Bayesian multi-classifiers. This is very important for evaluating our alert correlation approach because it uses a set of naive Bayesian classifiers to monitor multiple intrusion objectives simultaneously
Styles APA, Harvard, Vancouver, ISO, etc.
10

Kenaza, Tayeb. « Modèles graphiques probabilistes pour la corrélation d'alertes en détection d'intrusions ». Electronic Thesis or Diss., Artois, 2011. http://www.theses.fr/2011ARTO0401.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à la modélisation du problème de la corrélation d'alertes à base de modèles graphiques probabilistes. Nous avons constaté que les approches existantes de corrélation d'alertes, soit se basent sur des connaissances explicites d'experts, soit utilisent des mesures de similarité simples qui ne permettent pas de détecter des scénarios d'attaque. Pour cela, nous avons d'abord proposé une nouvelle modélisation de la corrélation d'alertes, basée sur les classifieurs Bayésiens naïfs, qui permet d'apprendre les coordinations entre les attaques élémentaires qui contribuent à la réalisation d'un scénario d'attaque. Notre modélisation nécessite seulement une légère contribution des connaissances d'experts. Elle tire profit des données disponibles et fournit des algorithmes efficaces pour la détection et la prédiction des scénarios d'attaque. Ensuite, nous avons montré comment notre approche de corrélation d'alertes peut être améliorée en prenant en considération les informations contextuelles codées en logiques de description, notamment dans le contexte d'une détection coopérative d'intrusions. Enfin, nous avons proposé plusieurs mesures d'évaluation pour un multi-classifieurs Bayésiens naïfs. Ceci est très important pour l'évaluation de notre approche de corrélation d'alertes car elle utilise un ensemble de classifieurs Bayésiens naïfs pour surveiller plusieurs objectifs d'intrusion en même temps
In this thesis, we focus on modeling the problem of alert correlation based on probabilistic graphical models. Existing approaches either require a large amount of expert knowledge or use simple similarity measures which are not enough to detect coordinated attacks. We first proposed a new modeling for the alert correlation problem, based on naive Bayesian classifiers, which can learn the coordination between elementary attacks that contribute to the achievement of an attack scenario. Our model requires only a slight contribution of expert knowledge. It takes advantage of available data and provides efficient algorithms for detecting and predicting attacks scenario. Then we show how our alert correlation approach can be improved by taking into account contextual information encoded in description logics, particularly in the context of a cooperative intrusion detection. Finally, we proposed several evaluation measures for a naive Bayesian multi-classifiers. This is very important for evaluating our alert correlation approach because it uses a set of naive Bayesian classifiers to monitor multiple intrusion objectives simultaneously
Styles APA, Harvard, Vancouver, ISO, etc.
11

Benabdallah, Khalid. « Identification et détection de modèles non stationnaires. Application aux signaux EEG ». Rouen, 1992. http://www.theses.fr/1992ROUES035.

Texte intégral
Résumé :
Le présent document traite de l'application de méthodes de traitement du signal a des signaux EEG. Notre objectif principal est de tester la validité d'un modèle AR évolutif pour la détection et l'identification des pointes-ondes, phénomènes non stationnaires très présents dans le trace électro-encéphalographique et typiques de l'épilepsie. Une compréhension phénoménologique permet d'introduire un modèle AR évolutif d'ordre 2 modélisant le phénomène pointe-onde. La méthodologie consiste a utiliser le filtre de Kalman étendu pour l'identification des signaux non stationnaires provenant du modèle interne dont l'évolution est non linéaire et aléatoire. L'identification des paramètres du modèle évolutif qui dépendent d'une relation non linéaire des observations pour le signal EEG, est réalisée par une extension quadratique du filtre de Kalman. Les paramètres identifiés à partir de cette approximation quadratique des équations non linéaires sont ensuite optimises en temps diffère. En effet, une méthode fondée sur le maximum de vraisemblance permet, a partir de l'estimation récursive fournie par le filtre de Kalman quadratique, d'atteindre les valeurs des paramètres du modèle évolutif, la nominale a chaque itération est améliorée. Ce document expose ensuite deux techniques de modélisations auto-régressive et évolutive permettant la détection de phénomènes non stationnaires pointes-ondes. La technique de filtrage de Kalman étendu conduit a un suivi régulier, sur l'évolution dynamique du phénomène pointe-onde réel, grâce au modèle interne évolutif d'ordre 2 propose dans ce travail. Lors de la validation des résultats, nous introduisons des bruits d'état après une analyse des erreurs pour le modèle évolutif
Styles APA, Harvard, Vancouver, ISO, etc.
12

Mehmel, Cherif. « Modélisation et commande d'un interféromètre pour la détection d'ondes gravitationnelles ». Chambéry, 1998. http://www.theses.fr/1998CHAMS021.

Texte intégral
Résumé :
Ce travail a porté sur la modélisation et la commande d'un interféromètre dédié à la détection d'ondes gravitationnelles. Cet interféromètre sera composé de plusieurs miroirs formant des cavités optiques. Certaines de ces cavités auront des longueurs de l'ordre du kilomètre. Pour que l'interféromètre soit opérationnel les longueurs des cavités le formant doivent être maintenues aussi stables que possible. Nous avons proposé dans ce travail un modèle dynamique de l'interféromètre qui relie les les longueurs à contrôler aux signaux mesurés. Ce modèle a été validé avec succès à l'aide d'un outil de simulation de l'interféromètre. La deuxième partie de ce travail a concerné l'analyse de la robustesse des lois de commande de l'interféromètre. Deux lois de commande ont été analysées. La première est basée sur une approche classique de synthèse et permet d'obtenir de bonnes marges de stabilité en sortie du procédé mais conduit à des marges de stabilité réduites en entrée du procédé. La deuxième loi de commande est basée sur une approche de synthèse H∞. Cette approche conduit à une amélioration des marges de stabilité en entrée. Néanmoins ces marges demeurent faibles. Ce constat nous a conduit à analyser l'influence de la stratégie de commande choisie sur les marges de stabilité en entrée, nous avons montré en utilisant la marge de module en entrée comme indicateur que la stratégie de commande utilisée ne permet pas d'obtenir des marges de stabilité en entrée acceptables. Nous avons aussi analyse la robustesse des deux lois de commande vis-a-vis d'erreurs paramétriques de modèle. Cette analyse a montré une grande sensibilité des deux lois de commande vis a vis de ce type d'erreur.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Elomary, Youssef. « Modèles déformables et multirésolution pour la détection de contours de traitement d'images ». Phd thesis, Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00010656.

Texte intégral
Résumé :
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.

Notre propos dans cette thèse est d'étudier ces modèles dans un environnement multirésolution.

Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.

Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation

d'énergie.

Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'aggrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle

associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon

une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Vicente, David. « Modèles de Mumford-Shah pour la détection de structures fines en image ». Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2055/document.

Texte intégral
Résumé :
Cette thèse est une contribution au problème de détection de fines structures tubulaires dans une image2-D ou 3-D. Nous avons plus précisément en vue le cas des images angiographiques. Celles-ci étant bruitées, les vaisseaux ne se détachent pas nettement du reste de l’image, la question est donc de segmenter avec précision le réseau sanguin. Le cadre théorique de ce travail est le calcul des variations eten particulier l'énergie de Mumford-Shah. Cependant, ce modèle n'est adapté qu'à la détection de structures volumiques étendues dans toutes les directions de l’image. Le but de ce travail est donc deconstruire une énergie qui favorise les ensembles qui ne sont étendus que dans une seule direction, cequi est le cas de fins tubes. Pour cela, une nouvelle inconnue est introduite, une métrique Riemannienne,qui a pour but la détection de la structure géométrique de l’image. Une nouvelle formulation de l’énergie de Mumford-Shah est donnée avec cette nouvelle métrique. La preuve de l'existence d'une solution au problème de la minimisation de l’énergie est apportée. De plus, une approximation par gamma-convergence est démontrée, ce qui permet ensuite de proposer et de mettre en oeuvre une implémentation numérique
This thesis is a contribution to the fine tubular structures detection problem in a 2-D or 3-D image. We arespecifically interested in the case of angiographic images. The vessels are surrounded by noise and thenthe question is to segment precisely the blood network. The theoretical framework of our work is thecalculus of variations and we focus on the Mumford-Shah energy. Initially, this model is adapted to thedetection of volumetric structures extended in all directions of the image. The aim of this study is to buildan energy that favors sets which are extended in one direction, which is the case of fine tubes. Then, weintroduce a new unknown, a Riemannian metric, which captures the geometric structure at each point ofthe image and we give a new formulation of the Mumford-Shah energy adapted to this metric. Thecomplete analysis of this model is done: we prove that the associated problem of minimization is wellposed and we introduce an approximation by gamma-convergence more suitable for numerics. Eventually,we propose numerical experimentations adapted to this approximation
Styles APA, Harvard, Vancouver, ISO, etc.
15

Colot, Olivier. « Apprentissage et détection automatique de changements de modèles : application aux signaux électroencéphalographiques ». Rouen, 1993. http://www.theses.fr/1993ROUES012.

Texte intégral
Résumé :
La thèse présentée traite du problème de la détection de changements de modèles dans des signaux vectoriels lentement variables. L'étude s'articule autour de deux thèmes: modélisation vectorielle, détection de changements de modèles. Le premier thème est traité sous l'angle d'une technique récursive de modélisation linéaire, tirant profit des propriétés de stationnarité locale des signaux étudiés dans un contexte vectoriel. Dans une seconde partie, le problème de la détection de changements de modèles est étudié. Deux approches sont proposées et testées: la première s'appuie sur un critère d'énergie d'erreurs issues de la modélisation, la seconde est fondée sur la comparaison d'histogrammes approchant des lois de probabilité, les histogrammes étant construits à l'aide d'un critère de type Akaike. La détection de changements de modèles, synonymes de changements de lois, est effectuée à l'aide de mesure de dissemblance. La validation de ces méthodes est réalisée sur des signaux biomédicaux: les signaux électroencéphalographiques
Styles APA, Harvard, Vancouver, ISO, etc.
16

Poncet, Bénédicte N. « Modèles de distribution d’allèles pour la détection de la variabilité génétique adaptative chez une espèce non modèle, Arabis alpina ». Grenoble, 2010. http://www.theses.fr/2010GRENV034.

Texte intégral
Résumé :
Comprendre les bases moléculaires de l'adaptation est un enjeu majeur en biologie évolutive. L'adaptation locale est le patron de distribution de génotypes résultant de l'action de la sélection qui tend à différencier certaines populations vivant dans des environnements différents. Au niveau génétique, l'adaptation locale se traduit par des fréquences alléliques variant le long des gradients de sélection. L'objectif de ce travail de doctorat est d'étudier l'apport des modèles de distributions d'allèles dans l'étude de l'adaptation locale à travers le cas de la plante alpine Arabis alpina (Brassicaceae) en milieu naturel. Premièrement, un criblage génomique de 825 marqueurs AFLPs sur 678 plantes provenant de 198 sites des Alpes françaises et suisses a été réalisé. Il a nécessité le développement d'une méthode de sélection des marqueurs semi-automatique. Les conséquences de cette sélection des marqueurs sur l'estimation des structure et variabilité génétiques ont été explorées. Deuxièmement, des loci d'intérêt écologique ont été identifiés comme potentiellement sous sélection. Leurs distributions alléliques sont significativement corrélées à des variables environnementales climatiques et topographiques. Les effets confondants (admixture et isolement par la distance) ont été évalués et écartés dans notre cas d'étude. Troisièmement, certains loci d'intérêt écologique ont été séquencés afin d'identifier des gènes candidats et régions génomiques potentiellement sélectionnées, en recourant à la synténie entre les génomes d'A. Alpina et de l'espèce modèle, Arabidopsis thaliana. Finalement, l'approche corrélative de détection de la sélection a été comparée avec les approches plus classiques de génomique des populations permettant de la valider. L'ensemble de ces travaux suggère que les modèles de distribution d'allèles sont une première étape pertinente avant des études d'écologie fonctionnelle visant à mieux comprendre l'adaptation à différentes conditions environnementales
Understanding the molecular basis of adaptation is a major task in evolutionary biology. Local adaptation is the pattern of genotype distributions driven by the natural selection that tends to differentiate populations living in different environments. Genetically, local adaptation results in allele frequencies varying along selection gradients. Our objective is to infer the contribution of allele distribution models in the study of local adaptation through the case of the alpine plant Arabis alpina (Brassicaceae) in the wild. First, a genome scan of 825 AFLP markers genotyped on 678 plants from 198 sites in French and Swiss Alps has been completed and has required the development of a semi-automatic method to select the markers. The effects of this selection on the estimation of genetic structure and variability have been explored. Second, ecologically relevant loci were identified as potentially submitted to selection. Their allele distributions are significantly correlated with environmental variables and topographical conditions. The confounding effects (admixture and isolation by distance) were assessed and discarded in our study case. Some ecologically relevant loci have been sequenced to identify candidate genes and genomic regions potentially selected using the synteny between the genomes of A. Alpina and the model species Arabidopsis thaliana. Finally, the correlative approach to detect selection was compared with more traditional approaches of population genomic. These results suggest that the allele distribution models are a first step before the relevant functional ecology studies to better understand the adaptation to different environmental conditions
Styles APA, Harvard, Vancouver, ISO, etc.
17

Aynaud, Thomas. « Détection de communautés dans les réseaux dynamiques ». Paris 6, 2011. http://www.theses.fr/2011PA066438.

Texte intégral
Résumé :
La plupart des graphes de terrain ont une structure particulière dans laquelle les noeuds sont organisés suivant des groupes, appelés communautés, avec beaucoup de connexions internes mais peu entre eux. L'identification des communautés apporte un éclairage nouveau sur la structure du graphe et est importante dans de nombreux contextes. Nous allons étudier cette structure dans le cas des réseaux dynamiques afin de comprendre comment évoluent les groupes. Pour cela, nous allons suivre deux approches. La première consiste à suivre des communautés au cours du temps en les détectant à chaque instant et en suivant leur évolution. Bien que très naturelle, cette approche pose de nombreuses questions de stabilité : les algorithmes ont tendance à modifier beaucoup leur résultat même si le réseau change peu. Nous proposerons donc une analyse de l'instabilité de trois algorithmes et une solution à cette instabilité. La deuxième approche consiste à détecter la structure communautaire non pas juste pour un instant mais pour une période donnée. La durée de celle-ci est alors un problème crucial et nous proposons une méthode de décomposition hiérarchique en fenêtres de temps permettant de détecter des structures se répétant. Enfin, nous conclurons par des applications à la détection d'événements sur Internet et la segmentation de vidéos. Nous montrerons que l'on peut détecter des événements en trouvant les moments où la structure change brutalement. Pour la segmentation de vidéos, nous avons aussi eu des problème de stabilité et nous avons développé une méthode plus stable de suivi
Most complex networks have a particular structure in which nodes are arranged in groups, called communities, with many internal links but only a few between them. The identification of communities gives insights on the structure of the graph and is important in many contexts. We will study this structure in the case of dynamic networks using two different approaches. The first approach consists in tracking communities over time by detecting them at every timestep and following their evolution. We will see that although very natural, this approach raises many questions of stability: the algorithms tend to change their results a lot even if the network changes only a little. This implies that the observed changes in the communities are in fact related to the algorithm and not to real transformations in network structure. We therefore propose an analysis of the instability of three algorithms and a solution to the instability. The second approach consists in detecting the community structure not just for a moment but for a period of time called the time window. The length of the time window is then a crucial problem and we propose a hierachical time segmentation method in time windows. Moreover, the time windows do not have to be contiguous allowing for example to detect a repeating structure. Finally, we conclude with applications to event detection on the Internet and segmentation of videos. We will show that we can detect events by finding the times when the structure changes abruptly. For the segmentation of videos, we also had stability issues and thus we have developed a more stable tracking and detection algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
18

Rio, Maxime. « Modèles bayésiens pour la détection de synchronisations au sein de signaux électro-corticaux ». Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00859307.

Texte intégral
Résumé :
Cette thèse propose de nouvelles méthodes d'analyse d'enregistrements cérébraux intra-crâniens (potentiels de champs locaux), qui pallie les lacunes de la méthode temps-fréquence standard d'analyse des perturbations spectrales événementielles : le calcul d'une moyenne sur les enregistrements et l'emploi de l'activité dans la période pré-stimulus. La première méthode proposée repose sur la détection de sous-ensembles d'électrodes dont l'activité présente des synchronisations cooccurrentes en un même point du plan temps-fréquence, à l'aide de modèles bayésiens de mélange gaussiens. Les sous-ensembles d'électrodes pertinents sont validés par une mesure de stabilité calculée entre les résultats obtenus sur les différents enregistrements. Pour la seconde méthode proposée, le constat qu'un bruit blanc dans le domaine temporel se transforme en bruit ricien dans le domaine de l'amplitude d'une transformée temps-fréquence a permis de mettre au point une segmentation du signal de chaque enregistrement dans chaque bande de fréquence en deux niveaux possibles, haut ou bas, à l'aide de modèles bayésiens de mélange ricien à deux composantes. À partir de ces deux niveaux, une analyse statistique permet de détecter des régions temps-fréquence plus ou moins actives. Pour développer le modèle bayésien de mélange ricien, de nouveaux algorithmes d'inférence bayésienne variationnelle ont été créés pour les distributions de Rice et de mélange ricien. Les performances des nouvelles méthodes ont été évaluées sur des données artificielles et sur des données expérimentales enregistrées sur des singes. Il ressort que les nouvelles méthodes génèrent moins de faux-positifs et sont plus robustes à l'absence de données dans la période pré-stimulus.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Hossen, Karim. « Inférence automatique de modèles d'applications Web et protocoles pour la détection de vulnérabilités ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM077/document.

Texte intégral
Résumé :
Les approches de tests basées sur les modèles (MBT) ont su montrer leur efficacité pour le test logiciel, mais elles nécessitent de disposer au préalable d'un modèle formel du logiciel. Dans la plupart des cas, ce modèle n'est pas disponible pour des raisons de coût, de temps ou encore de droits. Dans le cadre du projet SPaCIoS qui vise à développer une plate-forme pour le test de la sécurité basé sur les modèles, l'objectif est de fournir un outil d'inférence automatique de modèle pour les applications Web ainsi que des méthodes de détection de vulnérabilités à partir de ce modèle. Nous avons conçu pour cela un algorithme d'inférence adapté aux applications Web et à leurs caractéristiques. Cette méthode prend en compte les données et leurs impacts sur le flot de contrôle. À l'aide d'algorithmes de fouille de données, le modèle est complété par des gardes ainsi que des fonctions de sortie. Nous avons aussi travaillé sur l'automatisation de la procédure d'inférence. Dans les approches d'inférence active, il est généralement nécessaire de connaître l'interface complète du système à inférer pour pouvoir communiquer avec l'application. Cette étape a été rendue automatique par l'utilisation d'un collecteur qui parcourt l'application pour en extraire les informations nécessaires et optimisées pour l'inférence. Ce collecteur est aussi utilisable par des méthodes d'inférence tierces. Dans la version complète de l'algorithme, nous avons fusionné l'algorithme d'inférence et celui d'extraction d'interfaces pour obtenir une méthode automatique. Nous présentons ensuite l'outil libre SIMPA qui implémente ces différents algorithmes ainsi que divers résultats obtenus sur les cas d'études du projet SPaCIoS ainsi que des protocoles
In the last decade, model-based testing (MBT) approaches have shown their efficiency in the software testing domain but a formal model of the system under test (SUT) is required and, most of the time, not available for several reasons like cost, time or rights. The goal of the SPaCIoS project is to develop a security testing tool using MBT approach. The goal of this work, funded by the SPaCIoS project, is to develop and implement a model inference method for Web applications and protocols. From the inferred model, vulnerability detection can be done following SPaCIoS model-checking method or by methods we have developed. We developed an inference algorithm adapted to Web applications and their properties. This method takes into account application data and their influence on the control flow. Using data mining algorithms, the inferred model is refined with optimized guards and output functions. We also worked on the automation of the inference. In active learning approaches, it is required to know the complete interface of the system in order to communicate with it. As this step can be time-consuming, this step has been made automatic using crawler and interface extraction method optimized for inference. This crawler is also available as standalone for third-party inference tools. In the complete inference algorithm, we have merged the inference algorithm and the interface extraction to build an automatic procedure. We present the free software SIMPA, containing the algorithms, and we show some of the results obtained on SPaCIoS case studies and protocols
Styles APA, Harvard, Vancouver, ISO, etc.
20

Cheynet, Valérie. « De la détection du virus VIH-1 : protéines recombinantes et modèles cellulaires d'infection ». Lyon 1, 1994. http://www.theses.fr/1994LYO1T211.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Belard, Nuno. « Raisonnement sur les modèles : détection et isolation d'anomalies dans les systèmes de diagnostic ». Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1697/.

Texte intégral
Résumé :
Dans le cadre du diagnostic à base de Modèle, un ensemble de règles d'inférence est typiquement exploité pour calculer des diagnostics, ceci en utilisant une théorie scientifique et mathématique sur le système à diagnostiquer, ainsi qu'un ensemble d'observations. Contrairement aux hypothèses classiques, les Modèles sont souvent anormaux vis-à-vis d'un ensemble de propriétés requises. Naturellement, cela affecte la qualité des diagnostics [à Airbus]. Une théorie sur la réalité, l'information et la cognition est créé pour redéfinir, dans une perspective basée sur la théorie des modèles, le cadre classique de diagnostic à base de Modèle. Ceci rend possible la formalisation des anomalies et de leur relation avec des propriétés des diagnostics. Avec ce travail et avec l'idée qu'un système de diagnostic implémenté peut être vu comme un objet à diagnostiquer, une théorie de méta-diagnostic est développée, permettant la détection et isolation d'anomalies dans les Modèles des systèmes de diagnostic. Cette théorie est mise en pratique à travers d'un outil, MEDITO; et est testée avec succès à travers un ensemble de problèmes industriels, à Airbus. Comme des différents systèmes de diagnostic Airbus, souffrant d'anomalies variées, peuvent calculer des diagnostics différents, un ensemble de méthodes et outils et développé pour: 1) déterminer la cohérence entre diagnostics et 2) valider et comparer la performance de ces systèmes de diagnostic. Ce travail dépend d'un pont original entre le cadre de diagnostic Airbus et son équivalent académique. Finalement, la théorie de méta-diagnostic est généralisée pour prendre en compte des méta-systèmes autres que des systèmes de diagnostic implémentés
In Model-Based Diagnosis, a set of inference rules is typically used to compute diagnoses using a scientific and mathematical theory about a system under study and some observations. Contrary to the classical hypothesis, it is often the case that these Models are abnormal with respect to a series of required properties, hence affecting the quality of the computed diagnoses with possibly huge economical consequences, in particular at Airbus. A thesis on reality and cognition is firstly used to redefine the classic framework of model-based diagnosis from a formal model-theoretic perspective. This, in turn, enables the formalisation of abnormalities and of their relation with the properties diagnoses. With such material and the idea that an implemented diagnostic system can be seen a real-world artefact to be diagnosed, a theory of meta-diagnosis is developed, enabling the detection and isolation of abnormalities in Models of diagnostic systems and explanation in general. Such theory is then encoded in a tool, called MEDITO, and successfuly tested against Airbus real-world industrial problems. Moreover, as different heterogeneous implemented Airbus diagnostic systems, suffering from distinct abnormalities, may compute different diagnoses, methods and tools are developed for: 1) checking the consistency between subsystem-level diagnoses and 2) validating and comparing the performance of these diagnostic systems. Such work relies on an original bridge between the Airbus framework of diagnosis and its academic counterpart. Finally, meta-diagnosis is generalised to handle meta-systems other than implemented diagnostic systems
Styles APA, Harvard, Vancouver, ISO, etc.
22

Plesse, François. « Intégration de Connaissances aux Modèles Neuronaux pour la Détection de Relations Visuelles Rares ». Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1003.

Texte intégral
Résumé :
Les données échangées en ligne ont un impact majeur sur les vies de milliards de personnes et il est crucial de pouvoir les analyser automatiquement pour en mesurer et ajuster l'impact. L'analyse de ces données repose sur l'apprentissage de réseaux de neurones profonds, qui obtiennent des résultats à l'état de l'art dans de nombreux domaines. En particulier, nous nous concentrons sur la compréhension des intéractions entre les objets ou personnes vivibles dans des images de la vie quotidienne, nommées relations visuelles.Pour cette tâche, des réseaux de neurones sont entraînés à minimiser une fonction d'erreur qui quantifie la différence entre les prédictions du modèle et la vérité terrain donnée par des annotateurs.Nous montrons dans un premier temps, que pour la détection de relation visuelles, ces annotations ne couvrent pas l'ensemble des vraies relations et sont, de façon inhérente au problème, incomplètes. Elle ne sont par ailleurs pas suffisantes pour entraîner un modèle à reconnaître les relations visuelles peu habituelles.Dans un deuxième temps, nous intégrons des connaissances sémantiques à ces réseaux pendant l'apprentissage. Ces connaissances permettent d'obtenir des annotations qui correspondent davantage aux relations visibles. En caractérisant la proximité sémantique entre relations, le modèle apprend ainsi à détecter une relation peu fréquente à partir d'exemples de relations plus largement annotées.Enfin, après avoir montré que ces améliorations ne sont pas suffisantes si le modèle annote les relations sans en distinguer la pertinence, nous combinons des connaissances aux prédictions du réseau de façon à prioriser les relations les plus pertinentes
Data shared throughout the world has a major impact on the lives of billions of people. It is critical to be able to analyse this data automatically in order to measure and alter its impact. This analysis is tackled by training deep neural networks, which have reached competitive results in many domains. In this work, we focus on the understanding of daily life images, in particular on the interactions between objects and people that are visible in images, which we call visual relations.To complete this task, neural networks are trained in a supervised manner. This involves minimizing an objective function that quantifies how detected relations differ from annotated ones. Performance of these models thus depends on how widely and accurately annotations cover the space of visual relations.However, existing annotations are not sufficient to train neural networks to detect uncommon relations. Thus we integrate knowledge into neural networks during the training phase. To do this, we model semantic relationships between visual relations. This provides a fuzzy set of relations that more accurately represents visible relations. Using the semantic similarities between relations, the model is able to learn to detect uncommon relations from similar and more common ones. However, the improved training does not always translate to improved detections, because the objective function does not capture the whole relation detection process. Thus during the inference phase, we combine knowledge to model predictions in order to predict more relevant relations, aiming to imitate the behaviour of human observers
Styles APA, Harvard, Vancouver, ISO, etc.
23

Ginolhac, Guillaume. « Utilisation de modèles de réverbération pour améliorer la détection en acoustique sous-marine ». Grenoble INPG, 2001. http://www.theses.fr/2001INPG0112.

Texte intégral
Résumé :
Ce travail de thèse s'intéresse au problème de détection en présence de réverbération dans le domaine de l'acoustique sous marine. Nous nous concentrons plus particulièrement sur la modélisation de la réverbération dans le but de la supprimer ou au moins d'en diminuer ses effets sur la détection. Après une présentation du modèle optimal, que l'on montre impossible à mettre en place, nous proposons deux modélisations sous optimales de la réverbération : bruit non stationnaire et coloré et somme d'échos issus du signal émis. La première modélisation nous permet de développer des algorithmes de détection/estimation basés sur la méthode du maximum de vraisemblance généralisé. Un premier algorithme normalise la réverbération, alors que dans un second, nous ajoutons une étape de blanchiment. La seconde modélisation apporte une approche plus originale car la méthode consiste à estimer les échos de réverbération, puis de les supprimer. Nous utilisons la puissance des échos pour distinguer les échos de réverbération de l'écho cible. Nous proposons ensuite de construire la méthode de détection à partir de l'algorithme du "Principal Component Inverse" (PCI), basé sur la Décomposition en Valeurs Singulières (DVS) d'une matrice, car cet algorithme permet de séparer des échos de puissance différentes. Tous les algorithmes sont testés et comparés sur des données réelles temporelles et spatio-temporelles. Une amélioration de l'algorithme du PCI est aussi proposée en spatio-temporel. Finalement, nous proposons d'étendre le PCI aux tableaux 3D pour utiliser un nouveau contraste, la diversité temporelle, pour distinguer les échos de réverbération de fond de l'écho cible. En effet, nous avons remarqué que ces échos de réverbération sont très stables d'une récurrence à l'autre. Cette nouvelle méthode nécessite un outil capable de calculer la DVS d'un tableau 3D : la "Higher Order Singular Value Decomposition". Les résultats du PCI 3D montrent une amélioration de la détection.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Saidi, Yacine. « Méthodes appliquées de détection et d'estimation de rupture dans les modèles de régression ». Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://tel.archives-ouvertes.fr/tel-00319930.

Texte intégral
Résumé :
Nous étudions deux procédures ― somme cumulée des résidus récursifs et rapport des vraisemblances maximales ― de détection de rupture dans un modèle de régression, en vue de leur application à des problèmes concrets. Nous menons une étude expérimentale par simulation, afin de cerner le comportement de ces deux méthodes de détection de rupture. Le problème de l'estimation, par le maximum de vraisemblance, dans un modèle de régression à une rupture est traité. Une application des méthodes étudiées sur des données d'hydrologie est présentée
Styles APA, Harvard, Vancouver, ISO, etc.
25

Rahal, Mohamed Ilyas. « Génération d'algorithmes de diagnostic robustes à base de modèles bond graph hybrides ». Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10029/document.

Texte intégral
Résumé :
Le travail de thèse concerne la conception intégrée d'un système de détection et localisation de fautes robuste aux incertitudes paramétriques pour les systèmes hybrides à base de modèle bond graph hybride(BGH) sous la forme LFT (Transformations linéaires fractionnelles). Sur la base de la littérature consultée, les systèmes hybrides sont principalement modélisés pour chaque mode de fonctionnement pour lequel sont générés des indicateurs de fautes déterministes. L'intérêt scientifique de la présente recherche peut être résumé comme suit : (1) l’utilisation d’un seul modèle BGH incertain basé sur les jonctions contrôlées et représentant l’ensemble des modes de fonctionnement, (2) exploitation des propriétés structurelles et causales du BGH LFT pour la génération systématique de Relations de Redondance Analytiques Globales (RRAG) et des seuils de détection robustes aux incertitudes paramétriques et, valides pour tous les modes de fonctionnement, et enfin (3) l’utilisation d’un seul outil : le modèle BGH de Diagnostic (BGHD), pour non seulement la modélisation mais aussi la surveillance en ligne. La démarche développée a été illustrée par un exemple pédagogique représentant un circuit électrique à commutation et par une application à un système hydraulique
The present PH.D thesis deals with integrated design of robust Fault Detection and Isolation system (FDI) based on Hybrid Bond Graph (HBG) in Linear Fractional Transformation (LFT) form. Based on consulted literature about hybrid systems, each operating mode is mainly modelled by specific model for which are generated determinist fault indicators. The innovative interest of developed research can be summarized as follows: (1) use only one HBG uncertain model based on controlled junctions and representing all operating modes, (2) structural and causal properties of the LFT HBG are exploited for systematic generation of Global Analytical Redundancy Relations (GARRs), and detection thresholds, robust to parameter uncertainties, and (3) finally use of only one tool: the Diagnosis Hybrid Bond Graph (DHBG) for not only modelling but also for online surveillance. The developed approach is illustrated by electrical circuit pedagogical example and application to hydraulic system
Styles APA, Harvard, Vancouver, ISO, etc.
26

Boursier, Yannick. « Ejections coronales de masse : détection, propriétés statistiques et reconstruction 3D ». Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30082.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
27

Gabard, Christophe. « Détection et suivi de cibles dans un environnement non-contraint ». Paris 6, 2013. http://www.theses.fr/2013PA066536.

Texte intégral
Résumé :
Les systèmes de vidéosurveillance intelligente présentent souvent des étapes qui restent, malgré de nombreux travaux, compliquées à mettre en place et à utiliser. Les travaux proposés dans cette thèse recherchent à diminuer la complexité d’utilisation de ces systèmes et à proposer des méthodes de détection et de suivi de cibles génériques. Tout d'abord, avec un modèle de cible, nous modélisons un processus de segmentation de manière à pouvoir en estimer a priori le résultat. En inversant ces expressions théoriques, nous sommes capables de spécifier le seuil à utiliser pour atteindre un taux statistique désiré de détection et donc, réaliser une paramétrisation automatique. Nous proposons ensuite un algorithme de détection utilisant une modélisation, les SMOG, basée sur un mélange de distributions gaussienne global pour toute la scène, fond et cibles. Un mode, représentant un groupe de pixels dans un espace 5D (couleur et position), caractérise alors autant l'apparence les carastéristiques physiques du groupe. L’approche combine la précision d'une décision pixellique à la robustesse d'une décision par groupe de pixels et permet d'obtenir un premier niveau de suivi d’objets. À partir des informations fournies par cette méthode de détection, un algorithme de suivi multi-cibles générique a été proposé. La méthode génère différentes hypothèses qui représentent chacune une évolution possible des pistes. Nous évaluons pour chacune des hypothèses leur vraisemblance qui est utilisée pour ne conserver que les plus pertinentes. Dans un soucis de généricité une large partie des seuils utilisés sont évalués automatiquement à partir des modélisations générées
Intelligent video surveillance systems are often complicated to set up and depend on parameters which are difficult to control. The main goal of the proposed thesis is to reduce the complexity to use these video surveillance systems and to propose generic methods. At first, with a target model, we fully model the segmentation process in order to estimate a priori statistics on the results. By reversing these theoretical expressions, we are thus able to find the threshold to be used to achieve a desired statistical detection rate, thus providing an automatic parameterization method. We then propose a detection algorithm that uses a modeling of the whole scene called SMOG is based on a single and global mixture of Gaussian distributions for both the background and the targets. A mode, describing a group of pixels in a 5D space (color and position), characterizes as well the appearance and the shape of the pixels group. The proposed approach combines the accuracy of pixel-wise decision to the robustness of a decision based on a group of pixels and provides a first level of object tracking. Based on information provided by the detection algorithm, a generic algorithm for multi-target tracking has been proposed. The method generates different hypotheses, each one representing a possible evolution of different tracks. The likelihood of each hypothesis is estimated and used to retain only the most relevant ones. To obtain a generic algorithm a large part of the thresholds are automatically estimated from the generated models
Styles APA, Harvard, Vancouver, ISO, etc.
28

Diallo, Boubacar. « Mesure de l'intégrité d'une image : des modèles physiques aux modèles d'apprentissage profond ». Thesis, Poitiers, 2020. http://www.theses.fr/2020POIT2293.

Texte intégral
Résumé :
Les images numériques sont devenues un outil de communication visuel puissant et efficace pour transmettre des messages, diffuser des idées et prouver des faits. L’apparition du smartphone avec une grande diversité de marques et de modèles facilite la création de nouveaux contenus visuels et leur diffusion dans les réseaux sociaux et les plateformes de partage d’images. Liés à ce phénomène de création et publication d'images et aidés par la disponibilité et la facilité d’utilisation des logiciels de manipulation d’images, de nombreux problèmes sont apparus allant de la diffusion de contenu illégal à la violation du droit d’auteur. La fiabilité des images numériques est remise en cause que ce soit pour de simples utilisateurs ou pour des professionnels experts tels que les tribunaux et les enquêteurs de police. Le phénomène des « fake news » est un exemple bien connu et répandu d’utilisation malveillante d’images numériques sur les réseaux.De nombreux chercheurs du domaine de la cybersécurité des images ont relevé les défis scientifiques liés aux manipulations des images. De nombreuses méthodes aux performances intéressantes ont été développées basées sur le traitement automatique des images et plus récemment l'adoption de l'apprentissage profond. Malgré la diversité des techniques proposées, certaines ne fonctionnent que pour certaines conditions spécifiques et restent vulnérables à des attaques malveillantes relativement simples. En effet, les images collectées sur Internet imposent de nombreuses contraintes aux algorithmes remettant en question de nombreuses techniques de vérification d’intégrité existantes. Il existe deux particularités principales à prendre en compte pour la détection d'une falsification : l’une est le manque d'informations sur l'acquisition de l'image d'origine, l'autre est la forte probabilité de transformations automatiques liées au partage de l'image telles que la compression avec pertes ou le redimensionnement.Dans cette thèse, nous sommes confrontés à plusieurs de ces défis liés à la cybersécurité des images notamment l’identification de modèles de caméra et la détection de falsification d’images. Après avoir passé en revue l'état de l'art du domaine, nous proposons une première méthode basée sur les données pour l’identification de modèles de caméra. Nous utilisons les techniques d’apprentissage profond basées sur les réseaux de neurones convolutifs (CNN) et développons une stratégie d’apprentissage prenant en compte la qualité des données d’entrée par rapport à la transformation appliquée. Une famille de réseaux CNN a été conçue pour apprendre les caractéristiques du modèle de caméra directement à partir d’une collection d’images subissant les mêmes transformations que celles couramment utilisées sur Internet. Notre intérêt s'est porté sur la compression avec pertes pour nos expérimentations, car c’est le type de post-traitement le plus utilisé sur Internet. L’approche proposée fournit donc une solution robuste face à la compression pour l’identification de modèles de caméra. Les performances obtenues par notre approche de détection de modèles de caméra sont également utilisées et adaptées pour la détection et la localisation de falsification d’images. Les performances obtenues soulignent la robustesse de nos propositions pour la classification de modèles de caméra et la détection de falsification d'images
Digital images have become a powerful and effective visual communication tool for delivering messages, diffusing ideas, and proving facts. The smartphone emergence with a wide variety of brands and models facilitates the creation of new visual content and its dissemination in social networks and image sharing platforms. Related to this phenomenon and helped by the availability and ease of use of image manipulation softwares, many issues have arisen ranging from the distribution of illegal content to copyright infringement. The reliability of digital images is questioned for common or expert users such as court or police investigators. A well known phenomenon and widespread examples are the "fake news" which oftenly include malicious use of digital images.Many researchers in the field of image forensic have taken up the scientific challenges associated with image manipulation. Many methods with interesting performances have been developed based on automatic image processing and more recently the adoption of deep learning. Despite the variety of techniques offered, performance are bound to specific conditions and remains vulnerable to relatively simple malicious attacks. Indeed, the images collected on the Internet impose many constraints on algorithms questioning many existing integrity verification techniques. There are two main peculiarities to be taken into account for the detection of a falsification: one is the lack of information on pristine image acquisition, the other is the high probability of automatic transformations linked to the image-sharing platforms such as lossy compression or resizing.In this thesis, we focus on several of these image forensic challenges including camera model identification and image tampering detection. After reviewing the state of the art in the field, we propose a first data-driven method for identifying camera models. We use deep learning techniques based on convolutional neural networks (CNNs) and develop a learning strategy considering the quality of the input data versus the applied transformation. A family of CNN networks has been designed to learn the characteristics of the camera model directly from a collection of images undergoing the same transformations as those commonly used on the Internet. Our interest focused on lossy compression for our experiments, because it is the most used type of post-processing on the Internet. The proposed approach, therefore, provides a robust solution to compression for camera model identification. The performance achieved by our camera model detection approach is also used and adapted for image tampering detection and localization. The performances obtained underline the robustness of our proposals for camera model identification and image forgery detection
Styles APA, Harvard, Vancouver, ISO, etc.
29

Lyazrhi, Faouzi. « Procédures optimales de détection de ruptures dans un modèle linéaire gaussien ». Toulouse 3, 1993. http://www.theses.fr/1993TOU30076.

Texte intégral
Résumé :
Nous considérons l'étude de l'optimalité au sens de bayes des techniques de détection d'éventuelle(s) rupture(s) dans un modèle linéaire gaussien. Nous présentons le problème comme une règle de décision multiple entre l'hypothèse d'absence de rupture et l'une des hypothèses de présence de rupture en un ou des point(s) donne(s) traitant ainsi simultanément les deux questions de test et d'estimation. Nous proposons tout d'abord une procédure invariante, optimale pour une fonction de perte simple et une large famille de lois de probabilités a priori; et nous montrons son équivalence, dans des cas particuliers importants, avec les règles les plus usuelles de la littérature, ce qui confère a certaines d'entre elles une forme d'optimalité. Nous définissons ensuite une nouvelle fonction de perte plus réaliste et donnons la procédure optimale associée. Nous comparons alors sur des exemples simules les performances des deux procédures précédentes et de certaines autres procédures rencontrées dans la littérature. Nos propositions sont aussi illustrées par des exemples réels. En ce qui concerne le problème des valeurs critiques inhérent a toutes ces procédures de décision, nous proposons une méthode empirique permettant de les évaluer dans tous les cas. Nous dressons ensuite des tables donnant quelques valeurs critiques pour les niveaux usuels. Enfin, nous élaborons une procédure multiple optimale (pour une certaine fonction de perte) pour détecter au plus k ruptures, ou k est un entier strictement supérieur a 1. Nous en donnons une illustration a l'aide des exemples réels cites plus haut.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Soullard, Yann. « Classification et détection de figures chartistes par apprentissage statistique ». Paris 6, 2013. http://www.theses.fr/2013PA066341.

Texte intégral
Résumé :
Cette thèse porte sur l'analyse de cours financiers et plus particulièrement sur la reconnaissance de figures chartistes qui sont des motifs possédant un potentiel prédictif. Bien que leur définition obéisse à des règles théoriques précises, leur détection pose problème. L’écart entre la théorie et la pratique est importante ; les figures réelles ne respectent pas parfaitement les règles théoriques. La définition des figures semble subjective et dépendre de l’expert financier. Enfin il n’existe pas de corpus de données étiquetées. Nous avons étudié la classification et la détection de ces figures à l’aide de systèmes statistiques markoviens génératifs (HMMs) et discriminants (CRFs et Hidden CRFs) qui sont des technologies de référence pour le traitement de séquences. Nous avons proposé plusieurs stratégies pour apprendre de façon robuste ces systèmes avec peu de données étiquetées. La première est une hybridation des HMMs et des HCRFs reposant sur l’idée d’exploiter les capacités de modélisation des HMMs afin de limiter le sur-apprentissage des modèles discriminants (HCRFs). La seconde est une approche semi-supervisée qui emprunte au co-training l’idée de l’apprentissage conjoint de deux systèmes, l’un génératif, l’autre discriminant. Afin de concevoir des systèmes de détection performants et adaptés à chaque expert, nous avons conçu un système à deux niveaux dans lequel des motifs d'un cours sont pré-sélectionnés par des HMMs puis confirmés ou infirmés par une SVM opérant sur une description enrichie des motifs. Le modèle SVM est appris par une stratégie d’apprentissage actif pour personnaliser le système à un expert particulier
This thesis deals with financial stock market analysis and is especially focused on chart pattern recognition. A chart pattern is a particular shape which has a predictive power; it is defined by theoretical rules. Detecting such patterns is difficult. There is an important gap between theory and practice; real patterns do not perfectly respect the theoretical rules. Moreover, chart patterns definition seems subjective; it depends on the financial expert. Finally, there is no large labeled datasets of chart patterns. We study classification and detection of chart patterns using statistical markovian systems. We focus on generative (Hidden Markov Models) and discriminative (Conditional Random Fields, Hidden CRFs) approaches which are standard technologies for sequential data recognition. We propose various strategies to learn accurate systems with small training sets. The first one blends HMMs and HCRFs in such a way that the modeling ability of the generative models is used to limit the overfitting of the discriminative ones. The second strategy, is a semi-supervised approach which learns jointly a HMM and a HCRF systems; it has some similarity with the well-known co-training algorithm. To design an accurate detection system dedicated to a particular financial expert, we propose a two level system where candidate patterns are first extracted from the financial stock-market using HMMs, and then they are confirmed as chart patterns or rejected by a SVM which uses an enriched representation of patterns. While the HMM system is learn once for every expert, the SVM level is trained with an active learning strategy to take into account the expert’s own detection criteria
Styles APA, Harvard, Vancouver, ISO, etc.
31

Belbachir, Faiza. « Approches basées sur les modèles de langue pour la recherche d'opinions ». Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2341/.

Texte intégral
Résumé :
Avec l'évolution du Web, de nombreuses formes de contenu ont été générées par les utilisateurs, y compris les pages personnelles, les discussions et les blogs. Ces derniers sont un moyen facile pour l'expression des avis personnels, le partage des sentiments, ou pour commenter différents sujets. La présence d'information de nature subjective (opinion) apparaît de manière très visible dans les blogs. Ces opinions ont une grande importance dans plusieurs domaines (politique, commercial, ou industriel) d'où la nécessité de les détecter automatiquement. Nos travaux de thèse s'inscrivent dans le contexte de la recherche d'information et s'intéressent plus précisément à l'information de type opinion. Le challenge majeur dans ce cadre est d'arriver à sélectionner des documents qui sont à la fois pertinents à un sujet donné et porteurs d'opinions sur ce sujet. Si la recherche d'information thématique, permet de répondre au critère de pertinence, une des problématiques majeure de cette tâche est de répondre au second critère. En effet outre la question relative à l'identification de documents porteurs d'opinions (nous parlons ainsi de documents subjectifs) ; il faudrait que l'opinion exprimée dans le document porte sur le sujet. Ceci n'est évidemment pas certain car un document peut traiter différents sujets. Parmi les différentes approches existantes dans la détection d'opinion, certaines se basent sur des lexiques de termes subjectifs et d'autres sur l'apprentissage automatique. Dans le cadre de cette thèse nous nous sommes intéressés aux deux types d'approches en palliant certaines de leurs limites. Notre contribution porte sur trois principaux volets. En premier lieu nous proposons une approche lexicale pour la détection d'opinion dans les blogs. Pour ce faire, nous exploitons différentes ressources subjectives, ouvertes, disponibles telles que IMDb, ROTTEN, CHESLY et MPQA qui constituent la source d'opinions. Nous supposons que si un document est similaire à cette source, il est vraisemblablement porteur d'opinions. Pour estimer cette vraisemblance, nous proposons de modéliser le document à tester et la source d'opinion par des modèles de langue et de mesurer la similarité des deux modèles. Plus cette similarité est grande et plus le document est vraisemblablement subjectif. Notre deuxième contribution porte sur la proposition d'une approche de détection d'opinion basée sur l'apprentissage automatique. Pour cela, nous proposons différentes caractéristiques pertinentes telles que l'Émotivité, la Subjectivité, L'Adressage, La Réflexivité permettant de répondre à la tâche en question. Notre troisième contribution concerne la polarité de l'opinion qui consiste à déterminer si un document subjectif a une opinion positive ou négative sur le sujet. De ce fait, nous proposons de prendre en compte un aspect du domaine, permettant de montrer que la polarité d'un terme peut dépendre du domaine dans lequel il est utilisé
Evolution of the World Wide Web has brought us various forms of data like factual data, product reviews, arguments, discussions, news data, temporal data, blog data etc. The blogs are considered to be the best way for the expression of the one's opinions about something including from a political subject to a product. These opinions become more important when they influence govt. Policies or companies marketing agendas and much more because of their huge presence on the web. Therefore, it becomes equally important to have such information systems that could process this kind of information on the web. In this thesis, we propose approach (es) that distinguish between factual and opinion documents with the purpose of further processing of opinionated information. Most of the current opinion finding approaches, some base themselves on lexicons of subjective terms while others exploit machine learning techniques. Within the framework of this thesis, we are interested in both types of approaches by mitigating some of their limits. Our contribution revolves around three main aspects of opinion mining. First of all we propose a lexical approach for opinion finding task. We exploit various subjective publicly available resources such as IMDB, ROTTEN, CHESLY and MPQA that are considered to be opinionated data collections. The idea is that if a document is similar to these, it is most likely that it is an opinionated document. We seek support of language modeling techniques for this purpose. We model the test document (i. E. The document whose subjectivity is to be evaluated) the source of opinion by language modeling technique and measure the similarity between both models. The higher the score of similarity is, the more the document subjective. Our second contribution of detection of opinion is based on the machine learning. For that purpose, we propose and evaluate various features such as the emotivity, the subjectivity, the addressing, the reflexivity and report results to compare them with current approaches. Our third contribution concerns the polarity of the opinion which determines if a subjective document has a positive or negative opinion on a given topic. We conclude that the polarity of a term can depend on the domain in which it is being used
Styles APA, Harvard, Vancouver, ISO, etc.
32

Dib, Linda. « Détection des mutations simultanées dans les séquences protéiques non-divergentes ». Paris 6, 2012. http://www.theses.fr/2012PA066016.

Texte intégral
Résumé :
L'utilisation de séquences protéiques alignées semble essentielle à la détection de résidus fonctionnellement et structurellement importants. Depuis près de 40 ans de nombreuses études évaluent la conservation des positions protéiques et identifient les positions fonctionnellement importantes (site d'interaction entre molécules). Cependant, les positions conservées ne sont les seuls résidus clefs. Depuis près de dix ans, des approches statistiques analysent la co-évolution entre les résidus. Nous avons élaboré une méthode combinatoire nommée BIS (pour Block In Sequence) pour détecter des fragments co-évoluants. Cette méthode est basée sur l' alignement des séquences et la topologie de l'arbre associé aux séquences. La méthode n'a pas besoin de données structurelles, ni de la connaissance de résidus fonctionnels. Elle permet d'analyser de très petites familles de protéines et des familles de protéine très conservées. Ces domaines d'application distinguent notre méthodologie des autres approches existantes. La méthodologie a été appliquée sur de petites protéines ayant au plus 400 séquences homologues telles que le domaine B de la protéine A (Fersht et al. , 2006), MukB (Innis, 2007), le peptide beta de l'amyloïde et les sous-familles SF1 et SF2 de l'AATPase. Le domaine B de la protéine A est une protéine caractérisée par trois hélices beta. Les classes de positions co-évoluantes détectés pour cette protéine ont permit de détecter les résidus impliqués dans le repliement de la protéine et identifiés par Alan Fersht.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ok, David. « Mise en correspondance robuste et détection de modèles visuels appliquées à l'analyse de façades ». Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00974556.

Texte intégral
Résumé :
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, souvent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. A partir de cette formalisation, nous en dérivons un algorithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste
Styles APA, Harvard, Vancouver, ISO, etc.
34

Ok, David, et David Ok. « Mise en correspondance robuste et détection de modèles visuels appliquées à l'analyse de façades ». Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/tel-00844049.

Texte intégral
Résumé :
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, souvent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. A partir de cette formalisation, nous en dérivons un algorithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste
Styles APA, Harvard, Vancouver, ISO, etc.
35

Coulon, Martial. « Contribution à la détection de modèles paramétriques en présence de bruit additif et multiplicatif ». Toulouse, INPT, 1999. http://www.theses.fr/1999INPT035H.

Texte intégral
Résumé :
Dans cette thèse sont étudiés plusieurs problèmes de détection de modèles paramétriques, dans des contextes différents concernant la stationnarité (ou la non-stationnarité) des processus et la nature du bruit (additif ou multiplicatif). On envisage dans un premier temps un problème de détection dans un contexte de bruit additif "classique''. Il s'agit de choisir entre un processus AR bruité et un processus ARMA bruité, lorsque ces deux processus ont le même spectre. Des techniques basées sur les cumulants d'ordre supérieur sont alors développées et des performances asymptotiques sont fournies. On s'est intéressé dans la suite de la thèse à des problèmes de détection dans un environnement de bruit multiplicatif. On a d'abord cherché à détecter la présence de bruit multiplicatif sur des signaux stationnaires, plus particulièrement des processus ARMA. Des détecteurs utilisant cette fois également les cumulants sont proposés et étudiés. La détection de ruptures abruptes dans des signaux non-stationnaires perturbés par du bruit multiplicatif est alors envisagée. Deux approches sont considérées : l'approche bayésienne et l'approche par les moindres carrés. Ces méthodes suscitent l'utilisation soit d'algorithmes stochastiques, comme l'algorithme de Metropolis-Hastings ou le recuit simulé, soit de la programmation dynamique, qui a l'avantage de fournir un résultat exact. Ces techniques sont alors appliquées à la détection de contours dans des images radar a synthèse d'ouverture. Les estimateurs bayésiens ou des moindres carrés permettent de construire une carte de puissance de contour. Celle-ci est lissée et on lui applique la méthode de seuillage des dynamiques de contour. L'image résultante est alors formée de contours fermes et squelettisés.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Altuve, Miguel. « Détection multivariée des épisodes d'apnée-bradycardie chez le prématuré par modèles semi-markovien cachés ». Rennes 1, 2011. http://www.theses.fr/2011REN1S053.

Texte intégral
Résumé :
Cette thèse a comme domaine applicatif la détection précoce des événements d'apnée-bradycardie (AB) chez le prématuré. Après avoir situé l'importance sur le plan clinique de la détection des AB, une démarche méthodologique est proposée. Elle s'appuie sur un processus de fouille de données qui inclut le nettoyage et l'extraction de caractéristiques. Au chapitre 3, une méthode originale à base d'algorithmes évolutionnaires, pour optimiser des seuils et fenêtres d'analyse, est proposée pour adapter les algorithmes de traitement du signal ECG aux caractéristiques spécifiques du prématuré, très différentes de l'EGC de l'adulte. Au chapitre 4, une approche semi-Markovienne est adaptée pour la modélisation des dynamiques et plusieurs améliorations sont proposées : hétérogénéité des modèles, adaptation au traitement en ligne, optimisation de la gamme dynamique, extension de l'observabilité. Au chapitre 5, ces propositions sont exploitées dans des expériences de classification et de détection en ligne, tant sur signaux simulés que réels. Les résultats mettent bien en exergue l'intérêt de prendre en compte la dynamique des signaux. Ils soulignent également qu'avec un prétraitement approprié tel que la quantification des observations, l'introduction du retard entre les observables, un gain notable en performance peut être observé
This dissertation studies the early detection of apnea-bradycardia (AB) events in preterm infants. After defining the importance of AB detection from a clinical point of view, a methodological approach is proposed. It relies on a data mining process that includes data cleansing and feature extraction. In chapter 3, a novel method based on evolutionary algorithms, for optimizing the thresholds and the analysis windows, is proposed to adapt the algorithms of the ECG signal to the specific characteristics of preterm infants, very different from the EGC of adult. In chapter 4, a semi-Markovian approach is adapted for modeling of dynamics and several improvements are proposed : heterogeneous models, adaptation to online processing, optimization of experiments, are reported on simulated and read signals. They clearly highlight the importance of considering the dynamic of the signals. They also emphasize that with a suitable pre-treatment such as the quantification of observations and the introduction of delay between the observable, a significant gain in performance can be observed
Styles APA, Harvard, Vancouver, ISO, etc.
37

Rusch, Philippe. « Modèles d'écoulement de globules rouges à travers un réseau capillaire : détection d'effets non linéaires ». Université Louis Pasteur (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR13203.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
38

Izard, Camille. « Modélisation et estimation statistique pour l'imagerie médicale : application à la détection d'amers ». Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10026/document.

Texte intégral
Résumé :
Dans ce travail, nous présentons une famille de modèles statistiques à atlas déformable pour l'analyse d'images médicales et plus particulièrement pour la détection d'amers. Les modèles à atlas déformable sont couramment utilisés pour la mise en correspondance d'images en vue de leur segmentation, alignement ou classification. Nous montrons que le problème de détection d'amers peut être formulé comme un problème de mise en correspondance locale. Dans un premier temps, nous présentons deux modèles statistiques qui utilisent les variations d'intensité ou les contours de l'image pour détecter les amers. Ensuite nous introduisons un modèle statistique plus riche qui permet de segmenter une nouvelle image et de la mettre en correspondance avec un atlas pour détecter les amers. À partir de chaque modèle proposé, nous obtenons par maximum de vraisemblance un algorithme d'apprentissage et un algorithme de détection. Les algorithmes ainsi dérivés sont à la fois simples et génériques. Grâce à l'étape d'apprentissage, la méthode proposée s'adapte automatiquement à différents types d'amers. Enfin, en introduisant le concept d'objet déformable et de fond d'image, il est possible de limiter les temps de calcul, en focalisant les efforts sur les sous parties de l'image qui caracterisent la position des amers. Cette modification s'avère utile en vue de l'application des algorithmes proposés à la détection d'amers dans des images médicales en 3D. Enfin nous présentons les résultats obtenus pour la détection d'amers dans des Images à Résonance Magnétique de cerveau
We present a family of statistical mode/s based on deformable template for medical image analysis, and more specifically for the detection of anatomical landmarks. Deformable template models are commonly used for image matching to perform segmentation, registration or classification. We show that if the position of the landmarks characterizes uniquely the deformation of an image, the landmark detection problem can be formalized as a local matching problem. Based on the proposed statistical models and using maximum Iikelihood principles, we derive both an algorithm to learn the model from training data and a testing algorithm for the detection of landmarks in new images. The first two statistical models we propose rely on intensity or edge matching to identify the location of the landmarks; while the third one uses simultaneous image segmentation and template registration to locate the landmarks. We introduce a foregroundlbackground statistical model for medical imaging, which allows us to limit the computational effort to matching discriminative patterns surrounding the land marks. The proposed a/gorithms provide simple generic methods to perform automatic detection of landmarks in medical imaging. We tested our approach on the detection of landmarks ln brain Magnetic Resonance Images
Styles APA, Harvard, Vancouver, ISO, etc.
39

Demattei, Christophe. « Détection d'agrégats temporels et spatiaux ». Phd thesis, Université Montpellier I, 2006. http://tel.archives-ouvertes.fr/tel-00134491.

Texte intégral
Résumé :
L'objectif de ce travail est de proposer des solutions nouvelles dans le domaine de la détection de clusters d'évènements de santé. Ce type d'analyse est traditionnellement utilisé dans la surveillance de maladies dont l'étiologie est incertaine afin de localiser et mettre en évidence des agrégats ayant une densité anormalement élevée dans le temps et/ou dans l'espace. La détermination de ces clusters constitue généralement une étape préliminaire à la recherche de facteurs de risque.
Nous proposons une revue des méthodes existantes ainsi que notre contribution dans différentes directions. Deux approches sont proposées dans le cadre temporel permettant pour l'une d'éviter l'utilisation de simulations et pour l'autre de prendre en compte les données dont l'information temporelle est incomplète. Nous avons également mis au point une méthode de détection de clusters spatiaux de forme arbitraire permettant d'analyser des données dont on connaît la localisation géographique exacte. Cette approche a été appliquée sur des données particulières, celles obtenues par Imagerie par Résonance Magnétique fonctionnelle. Les perspectives d'analyse spatio-temporelle sont finalement évoquées.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Vaezi-Nejad, Hossein. « Détection de défauts d'instruments de mesure ». Nancy 1, 1990. http://docnum.univ-lorraine.fr/public/SCD_T_1990_0016_VAEZI_NEJAD.pdf.

Texte intégral
Résumé :
Les méthodes de détection de défaillance d'instruments de mesure que nous développerons dans ce document sont caractérisées par leur utilisation sur un instrument isolé. Isolé, dans le cas ou ces méthodes de détection de défaut de capteurs n'exigeront pas de redondance d'information. Notre travail est ainsi décomposé. Nous étudions tout d'abord les différents éléments de la chaine de mesure. Nous présentons diverses méthodes simples de détection de défauts. Ces méthodes ne permettant que des détections grossières. Le signal issu du capteur comporte deux informations imbriquées: l'une reflète les variations du mesurande, l'autre l'état propre du capteur. Pour détecter des défauts exclusivement liés au capteur, nous avons tout d'abord extrait du signal de sortie du capteur l'information représentative de son état. Ensuite, sur ce signal, nous étudions sur différents horizons temporels d'observation, des fonctions statistiques de comparaison pour la détection de changement des caractéristiques du capteur. Nous évaluons les performances des fonctions retenues sur un pilote industriel en provoquant des défauts réels. Dans une dernière phase, nous étudions les modifications spectrales du signal, dues à un défaut, par l'utilisation de modèles de type arma. De nouveau, nous éprouvons en simulation cette méthode avant de l'appliquer sur un pilote industriel.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Nel, François. « Suivi de mouvements informationnels : construction, modélisation et simulation de graphes de citations, application à la détection de buzz ». Paris 6, 2011. http://www.theses.fr/2011PA066541.

Texte intégral
Résumé :
Cette thèse a pour contexte général l'étude des mouvements informationnels sur le Web. La démarche retenue se base sur l'étude du graphe des citations entre sites d'information sur le Web selon trois axes principaux : la construction, l'analyse et la génération d'un graphe de citations. Pour construire le graphe de citations, nous proposons une méthode de crawling adaptée à l'extraction de corpus de relations de citations entre sources Web. La stratégie choisie se base sur une extraction exhaustive des publications des sources et un nettoyage des pages afin d'en extraire les liens hypertextes utiles. L'analyse du graphe extrait consiste en une méthode de caractérisation des noeuds du graphe, considérés comme des sources d'information ayant des comportements de publication distincts et nous permet d'en identifier quatre. L'objectif de nos travaux sur la génération de graphes de citations est d'obtenir des graphes réalistes, c'est-à-dire capables de reproduire les comportements de publication identifiés sur les données réelles. Ainsi, nous proposons un modèle suffisamment flexible et adaptable en imitant au mieux le processus de publication réel d'un article sur un site et l'implémentons en un outil de simulation. Enfin, nous proposons une mise en application de nos travaux dans le cadre d'une étude sur la détection de buzz. Nous étudions le concept de buzz en proposant une définition sur laquelle nous basons plusieurs formalisations adaptées aux données disponibles. L'interprétation des expérimentations effectuées nous conduit à attribuer les méthodes de détection proposées à des cas d'application spécifiques selon la sémantique qui peut leur être attribuée.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Choukri, Karim. « Un formalisme pour les tests statistiques de conformité de modèles pour des séries chronologiques : application à la détection de changements de modèles ». Ecole Nationale Supérieure des Télécommunications(Paris), 1994. http://www.theses.fr/1994ENST0027.

Texte intégral
Résumé :
L'analyse des séries chronologiques et l'identification des systèmes nécessitent la détermination d'un modèle paramétrique d'inférence. Ce choix est donc d'une importance cruciale. Une structure de modèles inappropriée (ou sur paramétrisée) peut conduire a une complexité de calcul non nécessaire pour l'estimation de ses paramètres. A l'opposé, une structure de modèles sous-paramètrisée peut produire des résultats non significatifs. Le but principal de notre travail, est d'élaborer une méthodologie statistique générale qui puisse être utilisée pour la validation de structures de modèles les plus appropriées possibles (selon un certain sens statistique). La classe de tests développés, repose sur la construction de statistiques du minimum de Chideux, tenant compte des déviations entre les moyennes ergodiques de certaines transformations non linéaires du processus et de leur moyennes d'ensemble. Les distributions asymptotiques exactes de ces tests sont calculées sous l'hypothèse de base ho (modèle valide) et sous des hypothèses alternatives locales et globales. Pour illustrer la flexibilité de ces procédures générales, des versions explicites de ces tests sont construites, calibrées et appliquées sur des données réelles afin d'y détecter d'éventuels changements brusques de modèle. Finalement, nous présentons des résultats de simulation pour mettre en avant les performances des procédures de test ici développées
Styles APA, Harvard, Vancouver, ISO, etc.
43

Lavarde, Marc. « Fiabilité des semi-conducteurs, tests accélérés, sélection de modèles définis par morceaux et détection de sur-stress ». Paris 11, 2007. http://www.theses.fr/2007PA112266.

Texte intégral
Résumé :
Cette thèse traite de l'exploitation de données accélérées et de la sélection de modèles de régression dans un domaine de hautes technologies : les semi-conducteurs. Les données recueillies à la suite d'un test accéléré sont des données de régression. L'objectif du test est d'ajuster le comportement moyen du logarithme des durées de vie à l'aide d'une fonction f, dite fonction d'accélération. Cependant les données accélérées ont parfois des comportements complexes. Afin d'adapter la modélisation à ces comportements atypiques, nous avons cherché à détecter les changements de comportement de la fonction d'accélération. Nous proposons d'utiliser une collection de modèles de régressions définis par morceaux, pour chaque modèle candidat à l'estimation nous calculons l'estimateur des moindres carrés. Et nous sélectionnons le modèle final à l'aide d'un critère des moindres carrés pénalisés. L'estimateur pénalisé est une approximation optimale du modèle réel au sens où le risque de l'estimateur pénalisé est comparable au risque minimum parmi l'ensemble des modèles candidats. De plus, nous disposons d'une borne de risque non asymptotique. Et nous avons cherché à limiter les hypothèses de modélisation afin de prendre en compte un grand nombre de cas pratiques : nous avons envisager le cas d'usure (loi de durée de vie Lognormale) et le cas de chocs (loi de durée de vie Weibull). Nous avons mis en place des outils de sélection de modèles permettant à l'ingénieur de réaliser ses études de fiabilité sans a priori sur les modèles d'accélération et d'exploiter les données issues d'essais accélérés en sur-stress
This thesis deals with the using of accelerating data and regression model selection for high technology field: semiconductor chips. The accelerating trail gives us regression frameworks. The aim of the accelerating test consists on fitting the logarithm of the lifetime through the use of some function f, called the acceleration function. However, accelerating data may have misleading and complex comportment. In order to adapt the model with such data, we have proposed to detect the changes on the comportment of the acceleration function. We have considered a collection of piecewise acceleration models candidate to the estimation. For each model candidate we have estimated the least-squares estimation. And we have selected the final estimator using a penalized criterion. The penalized estimator is optimal approximation of the reality since the quadratic risk of penalized estimator is bounded by the minimal risk upon every least-squares estimators candidates. Moreover, this oracle inequality is non asymptotic. Furthermore, we have considered classical reliability cases: the Lognormal case associating with some fatigue failure, and the Weibull case associating with some choc failure. Lastly we have implemented model selection tools in order to realise survey study without a priori on the acceleration models and to use overstress trials
Styles APA, Harvard, Vancouver, ISO, etc.
44

Haddadi, Souad. « Réseaux de neurones, textures et modèles markoviens pour la détection et l'identification d'objets en mouvement ». Compiègne, 1997. http://www.theses.fr/1997COMP1081.

Texte intégral
Résumé :
Cette thèse, propose le développement d'une méthode d'analyse de séquence d'images pour l'interprétation de scènes dynamiques où évoluent des objets quelconques ou des êtres humains, sur fond non uniforme et sous éclairage peu contrôlé. Deux axes de recherche ont été abordés : l'analyse de mouvement (détection des objets en mouvement) et la reconnaissance des formes (identification des objets). L'approche de détection proposée s'appuie sur une procédure de segmentation statistique fondée sur le principe markovien et sur l'analyse de la texture. En considérant un opérateur fondé sur les différences entre trois images successives prises deux à deux, on met en évidence les objets mobiles ainsi que les régions du fond découvertes ou recouvertes par ces objets pendant leur mouvement. Une segmentation grossière est ensuite appliquée afin de ne traiter que les zones retenues de l'image. On enchaîne par une segmentation plus fine fondée sur le principe markovien et textural en rapprochant ce problème à celui d'une classification de l'image en pixel fixe et pixel mobile. L'approche d'identification de ces objets utilise un modèle statistique par les réseaux de neurones artificiels. Ils permettent ainsi l'apprentissage numérique par l'exemple. Des modèles d'architectures de réseaux de neurones ont été développés et appliqués à l'identification des êtres humains. Les performances de ces réseaux ont été calculées à l'aide de deux bases de données construites à cette occasion. Nous avons montré que l'on pouvait obtenir de bonnes performances à l'aide de réseaux du type MLP pour notre application. Toutefois, les études menées au cours de cette thèse soulèvent un certain nombre de problèmes théoriques difficiles, ainsi par exemple, à plusieurs reprises, nous nous sommes trouvés confrontés aux problèmes de la sélection d'un ensemble d'apprentissage pertinent
In this PhD thesis, we present a method of analysis for image sequences. The method aims at dynamic scene interpretation where arbitrary objects evolve (in particular, human beings) and the scenes present non-uniform backgrounds and non-controlled illumination. Two processing approaches have been aborded : movement analysis (moving object detection) and pattern recognition (object identification). The proposed detection approach relies on a statistical segmentation procedure, which is based on the markovian principle and the analysis of texture. Considering an operator based on the differences between three successive images, taken two at a time, moving objects are detected, as well as the background regions which are discovered or occluded by these objects during their displacement. A coarse segmentation of this image operator is then applied to process the relevant zones of the image. This operation is then linked to a finer segmentation based on the markovian and textural principle. This problem was approached to a classification of the image operator into fixed and moving pixels. The identification approach of these objects uses another type of statistical model : the artificial neural networks, which allow computer training, after examples. Thus, models of neural network architectures were developed and applied to human being identification. The performances of these networks were calculated using two databases built for this project. We have demonstrated that high performances could be attained using MLP-type networks for our application. However, the studies accomplished during this thesis reveal a certain number of difficult problems. For example, in several cases we confronted the problem of selecting a pertinent training set
Styles APA, Harvard, Vancouver, ISO, etc.
45

Zheng, Huicheng. « Modèles de maximum d'entropie pour la détection de la peau : application au filtrage de l'internet ». Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Zheng.pdf.

Texte intégral
Résumé :
La détection de la peau dans les images en couleur joue un rôle très important pour de nombreux problèmes de reconnaissance de formes. Citons la détection de visages ou encore la détection de corps humain dans une image. La résolution partielle de ces problèmes permet de faire des progrès dans les applications suivantes : le filtrage de l'internet, afin, par exemple, de signaler les images pornographiques, l'indexation par le contenu de catalogues d'images, ou encore la visioconférence, en permettant le suivi des visages dans des séquences d'images. Nous disposons d'une large collection d'images qui ont été étiquetées manuellement. Ainsi, chaque pixel de chaque image de cette collection admet un label binaire : "peau" ou "non-peau". Nous considérons successivement trois modèles probabilistes de complexité croissante pour la détection de la peau. Chaque modèle est un modèle de maximum d'entropie sur la moyenne. Tout d'abord, les contraintes ne portent que sur les lois marginales des couleurs pour chaque pixels. Puis, nous ajoutons des contraintes sur les lois jointes des labels binaires - "peau" ou "non-peau" - des pixels voisins. Le modèle obtenu est alors un champs de Markov
Dans un troisième temps, nous ajoutons des contraintes sur les couleurs des pixels voisins. Le modèle obtenu est à nouveau un champs de Markov mais contenant un très grand nombre de paramètres. Afin, aussi bien d'estimer les paramètres de ces modèles que d'effectuer de l'inférence, c'est à dire, étant donné une image couleur, calculer la probabilité pour chaque pixel qu'il corresponde à de la peau, nous proposons d'approximer, localement, le graphe associé aux pixels par un arbre. On dispose alors de l'algorithme "iterative scaling" pour l'estimation des paramètres et de l'algorithme "belief propagation" pour l'inférence. Nous avons effectué de nombreuses études expérimentales afin d'évaluer les performances respectives des différents modèles, en particulier en modifiant la taille et la géométrie des arbres. Dans le cas du projet européen Poesia, nous avons utilisé notre détecteur de peau en entrée d'un système de classification utlisant la méthode des réseaux neuronaux pour bloquer les pages webs indésirable pour les enfants. Nous avons obtenu des résultats extrèmement encourageants
Styles APA, Harvard, Vancouver, ISO, etc.
46

Parisot, Sarah. « Compréhension, modélisation et détection de tumeurs cérébrales : modèles graphiques et méthodes de recalage/segmentation simultanés ». Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-00944541.

Texte intégral
Résumé :
L'objectif principal de cette thèse est la modélisation, compréhension et segmentation automatique de tumeurs diffuses et infiltrantes appelées Gliomes Diffus de Bas Grade. Deux approches exploitant des connaissances a priori de l'ordre spatial et anatomique ont été proposées. Dans un premier temps, la construction d'un atlas probabiliste qui illustre les positions préférentielles des tumeurs dans le cerveau est présentée. Cet atlas représente un excellent outil pour l'étude des mécanismes associés à la genèse des tumeurs et fournit des indications sur la position probable des tumeurs. Cette information est exploitée dans une méthode de segmentation basée sur des champs de Markov aléatoires, dans laquelle l'atlas guide la segmentation et caractérise la position préférentielle de la tumeur. Dans un second temps, nous présentons une méthode pour la segmentation de tumeur et le recalage avec absence de correspondances simultanés. Le recalage introduit des informations anatomiques qui améliorent les résultats de segmentation tandis que la détection progressive de la tumeur permet de surmonter l'absence de correspondances sans l'introduction d'un à priori. La méthode est modélisée comme un champ de Markov aléatoire hiérarchique et à base de grille sur laquelle les paramètres de segmentation et recalage sont estimés simultanément. Notre dernière contribution est une méthode d'échantillonnage adaptatif guidé par les incertitudes pour de tels modèles discrets. Ceci permet d'avoir une grande précision tout en maintenant la robustesse et rapidité de la méthode. Le potentiel des deux méthodes est démontré sur de grandes bases de données de gliomes diffus de bas grade hétérogènes. De par leur modularité, les méthodes proposées ne se limitent pas au contexte clinique présenté et pourraient facilement être adaptées à d'autres problèmes cliniques ou de vision par ordinateur.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Liebelt, Jörg. « Détection de classes d'objets et estimation de leurs poses à partir de modèles 3D synthétiques ». Grenoble, 2010. https://theses.hal.science/tel-00553343.

Texte intégral
Résumé :
Cette thèse porte sur la détection de classes d'objets et l'estimation de leur poses à partir d'une seule image en utilisant des étapes d'apprentissage, de détection et d'estimation adaptées aux données synthétiques. Nous proposons de créer des représentations en 3D de classes d'objets permettant de gérer simultanément des points de vue différents et la variabilité intra-classe. Deux méthodes différentes sont proposées : La première utilise des données d'entraînement purement synthétiques alors que la seconde approche est basée sur un modèle de parties combinant des images d'entraînement réelles avec des données géométriques synthétiques. Pour l'entraînement de la méthode purement synthétique, nous proposons une procédure non-supervisée de filtrage de descripteurs locaux afin de rendre les descripteurs discriminatifs pour leur pose et leur classe d'objet. Dans le cadre du modèle de parties, l'apparence d'une classe d'objets est apprise de manière discriminative à partir d'une base de données annotée et la géométrie en 3D est apprise de manière générative à partir d'une base de modèles CAO. Pendant la détection, nous introduisons d'abord une méthode de vote en 3D qui renforce la cohérence géométrique en se servant d'une estimation robuste de la pose. Ensuite, nous décrivons une deuxième méthode d'estimation de pose qui permet d'évaluer la probabilité de constellations de parties détectées en 2D en utilisant une géométrie 3D entière. Les estimations approximatives sont ensuite améliorées en se servant d'un alignement de modèles 3D CAO avec des images en 2D ce qui permet de résoudre des ambiguïtés et de gérer des occultations
This dissertation aims at extending object class detection and pose estimation tasks on single 2D images by a 3D model-based approach. The work describes learning, detection and estimation steps adapted to the use of synthetically rendered data with known 3D geometry. Most existing approaches recognize object classes for a particular viewpoint or combine classifiers for a few discrete views. By using existing CAD models and rendering techniques from the domain of computer graphics which are parameterized to reproduce some variations commonly found in real images, we propose instead to build 3D representations of object classes which allow to handle viewpoint changes and intra-class variability. These 3D representations are derived in two different ways : either as an unsupervised filtering process of pose and class discriminant local features on purely synthetic training data, or as a part model which discriminatively learns the object class appearance from an annotated database of real images and builds a generative representation of 3D geometry from a database of synthetic CAD models. During detection, we introduce a 3D voting scheme which reinforces geometric coherence by means of a robust pose estimation, and we propose an alternative probabilistic pose estimation method which evaluates the likelihood of groups of 2D part detections with respect to a full 3D geometry. Both detection methods yield approximate 3D bounding boxes in addition to 2D localizations ; these initializations are subsequently improved by a registration scheme aligning arbitrary 3D models to optical and Synthetic Aperture Radar (SAR) images in order to disambiguate and prune 2D detections and to handle occlusions. The work is evaluated on several standard benchmark datasets and it is shown to achieve state-of-the-art performance for 2D detection in addition to providing 3D pose estimations from single images
Styles APA, Harvard, Vancouver, ISO, etc.
48

Harrou, Fouzi. « Détection d'anomalies en présence de paramètres de nuisance bornés ». Troyes, 2010. http://www.theses.fr/2010TROY0002.

Texte intégral
Résumé :
Dans le cadre de la détection d’anomalies à base de modèles dans des systèmes complexes, les anomalies à détecter sont souvent associées à des paramètres de nuisances qui sont indésirables mais physiquement inévitables. En absence d'informations a priori fiables et précises sur la valeur de ces paramètres de nuisance, leur élimination devient nécessaire, ce qui peut considérablement diminuer les performances de la procédure de détection et même rendre indétectables certaines anomalies. Dans de nombreux cas, la nature physique des paramètres de nuisance est connue, ce qui permet de fixer des bornes sur les valeurs prises par ces paramètres. Dans cette thèse, on a étudié d'un point de vue statistique les problèmes de la détection d'anomalies dans un système linéaire en présence de paramètres de nuisance bornés. On a proposé une méthodologie statistique du rapport de vraisemblance généralisé avec contraintes permettant de prendre en compte des paramètres de nuisance bornés. Les propriétés statistiques de la méthode proposée ont été étudiées. On a montré que la prise en compte des informations de bornes dont on dispose sur les paramètres de nuisance permet d'améliorer la détection d'anomalies par rapport au test optimal UPPC invariant. Des applications au contrôle d’intégrité des systèmes de localisation GPS sont exposées dans le cas de la navigation ferroviaire. Enfin, les développements théoriques proposés dans cette thèse permettent la détection de mesures d'ozone anormales au moyen d'un réseau régionale de surveillance
Anomaly detection is addressed within a statistical framework. Often the statistical model is composed of two types of parameters: the informative parameters and the nuisance ones. The nuisance parameters are of no interest for detection but they are necessary to complete the model. In the case of unknown, non-random and non-bounded nuisance parameters, their elimination is unavoidable. Unfortunately, this can lead to a serious degradation of the detector capacity because some anomalies are masked by nuisance parameters. Nevertheless, in many cases, the physical nature of nuisance parameter is known, and this may allow set bounds to the values taken by this parameter. In this work, the problem of anomaly detection with bounded nuisance parameters has been addressed from the statistical point of view in the context of linear model. The con-strained generalized likelihood ratio test has been studied. It has been shown that the performances of anomaly detector can be drastically improved by taking into account the lower and upper bounds, naturally imposed on the nuisance parameters. Some applications to integrity control of GPS positioning systems are developed in fields of train navigation. Finally, the detection of abnormal ozone measurements by using a regional ozone surveillance network has been used to illustrate the theoretical findings and to show the relevance of the proposed method
Styles APA, Harvard, Vancouver, ISO, etc.
49

Louis, Huguette. « Détection de l'activation des CML vasculaires : implications dans la différenciation : approches dans les modèles animaux et in vitro : double détection immunologique/hybridation in situ froide ». Bordeaux 2, 1998. http://www.theses.fr/1998BOR28605.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Morvidone, Marcela. « Etude et comparaison d'algorithmes de détection optimale pour les signaux modulés en amplitude et en fréquence : applications aux ondes gravitationnelles ». Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11063.

Texte intégral
Résumé :
Cette thèse est consacrée au problème de détection de signaux modulés en amplitude et en fréquence ("chirps") dans des situations où la forme du signal est connue, modulo quelques paramètres inconnus à estimer. Les données dont on dispose sont affectées par un bruit additif, modélisé comme un processus aléatoire faiblement stationnaire, centré. Le filtre adapté est la méthode classiquement utilisée pour résoudre ce type de problème ; un "banc de filtres" est construit à partir du signal de référence et de la densité spectrale du bruit. Cette technique optimale est toutefois assez peu robuste, et oblige à des discrétisations très fines, qui engendrent d'importants coûts de calcul. Il s'avère que les signaux de type chirp ont des caractéristiques qui justifient l'utilisation des méthodes temps-échelle (analyse par ondelettes) pour son étude. Ces transformations fournissent une représentation des chirps localisée sur des courbes (arêtes) dans l'espace bidimensionnel dans lequel elles sont définies. Nous développons une méthode de détection d'arêtes comme alternative au filtrage adapté. On montre que cette approche, sous-optimale en termes de détection, est toutefois plus robuste dans certains cas, et donc plus adaptée à des situations où le modèle de signal n'est connu qu'à un ordre d'approximation donné. Les performances des deux approches sont testées et comparées de façon systématique sur des signaux modèles (modèles d'ondes gravitationnelles, en approximations Newtonienne et post-Newtoniennes d'ordre deux).
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie