Дисертації з теми "Détection du locuteur actif"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Détection du locuteur actif.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-24 дисертацій для дослідження на тему "Détection du locuteur actif".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Gacon, Pierre. "Analyse d'images et modèles de formes pour la détection et la reconnaissance : application aux visages en multimédia." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00207391.

Повний текст джерела
Анотація:
La segmentation de la bouche est un problème important qui trouve des applications dans plusieurs domaines du multimédia.
Dans ce travail, notre objectif est d'obtenir une détection robuste et efficace des contours des lèvres de façon à être capable de restaurer les mouvements de la parole aussi fidèlement que possible.
Nous apportons une attention particulière au contour intérieur de la bouche dans la segmentation est une tâche difficile à cause des variations non-linéaires de l'apparence.
Nous proposons une méthode basée sur un modèle statistique de la forme et de l'apparence échantillonnée faisant intervenir des descripteurs gaussiens locaux d'apparence.
Notre hypothèse est que la réponse de ces descripteurs locaux peut être prédite à partir de la forme par le biais d'un réseau de neurones non-linéaire.
Nous avons d'abord testé cette hypothèse dans un cas mono-locuteur et l'avons ensuite généralisé à un cas multi-locuteurs en tenant de la variabilité
inter-personne.
A cet effet, nous adaptons progressivement notre modèle au locuteur traité en déterminant son apparence caractéristique.
A partir de notre segmentation de la bouche, nous pouvons ensuite générer un clone de la bouche de la personne dont les mouvements seront aussi proches que possible de ceux de l'originale.
Finalement, nous avons évalué quantitativement puis qualitativement la pertinence de notre méthode en menant une expérience qui a quantifié l'apport effectif de compréhension de notre schéma d'analyse/synthèse dans le cas de numéros de téléphone en milieu bruité.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Pouthier, Baptiste. "Apprentissage profond et statistique sur données audiovisuelles dédié aux systèmes embarqués pour l'interface homme-machine." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4019.

Повний текст джерела
Анотація:
Les algorithmes d'apprentissage profond ont révolutionné le domaine des interfaces Homme-machine. Une nouvelle ère d'algorithmes audiovisuels a vu le jour, élargissant le spectre des cas d'utilisations et renforçant les performances des systèmes traditionnels. Cependant, cette remarquable avancée est entravée par les coûts computationnels ; l'intégration des algorithmes audio-visuels sur des systèmes intégrés représente un défi considérable. Cette thèse se concentre principalement sur cette limitation, adressant l'optimisation des algorithmes audiovisuels à plusieurs niveaux fonctionnels et au regard de différents critères tels que la latence et la précision. Notre approche implique l'examination méticuleuse et l'amélioration des éléments clés de l'interface Homme machine audiovisuelle. En particulier, nous investiguons et contribuons dans les domaines de la détection du locuteur actif et de la reconnaissance de la parole audiovisuelle. En adressant ces tâches, nous visons à réduire le décalage existant entre le potentiel des algorithmes audiovisuels et leur application dans les systèmes embarqués. Notre recherche introduit plusieurs modèles efficients pour la détection du locuteur actif. D'une part, notre nouvelle stratégie de fusion audiovisuelle permet d'améliorer significativement l'état de l'art, avec un modèle comparativement plus simple. D'autre part, nous explorons la recherche automatique d'architecture neuronale pour développer un modèle particulièrement compact et efficient pour la détection du locuteur actif. En outre, nous présentons nos travaux sur la reconnaissance de la parole audiovisuelle, avec un accent particulier porté sur la reconnaissance de mots clés. Notre contribution principale dans ce domaine cible l'aspect visuel de la parole, avec une approche à base de graphes pour simplifier la chaîne de traitement des données
In the rapidly evolving landscape of human-machine interfaces, deep learning has been nothing short of revolutionary. It has ushered in a new era of audio-visual algorithms, which, in turn, have expanded the horizons of potential applications and strengthened the performance of traditional systems. However, these remarkable advancements come with a caveat - many of these algorithms are computationally demanding, rendering their integration onto embedded devices a formidable task. The primary focus of this thesis is to surmount this limitation through a comprehensive optimization effort, addressing the critical factors of latency and accuracy in audio-visual algorithms. Our approach entails a meticulous examination and enhancement of key components in the audio-visual human-machine interaction pipeline; we investigate and make contributions to fundamental aspects of audio-visual technology in Active Speaker Detection and Audio-visual Speech Recognition tasks. By tackling these critical building blocks, we aim to bridge the gap between the vast potential of audio-visual algorithms and their practical application in embedded systems. Our research introduces efficient models in Active Speaker Detection. On the one hand, our novel audio-visual fusion strategy yields significant improvements over other state-of-the-art systems, featuring a relatively simpler model. On the other hand, we explore neural architecture search, resulting in the development of a compact yet efficient architecture for the Active Speaker Detection problem. Furthermore, we present our work on audio-visual speech recognition, with a specific emphasis on keyword spotting. Our main contribution targets the visual aspect of speech recognition with a graph-based approach designed to streamline the visual processing pipeline, promising simpler audio-visual recognition systems
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Kerkeni, Leila. "Analyse acoustique de la voix pour la détection des émotions du locuteur." Thesis, Le Mans, 2020. http://www.theses.fr/2020LEMA1003.

Повний текст джерела
Анотація:
L'objectif de cette thèse est de proposer un système de reconnaissance automatique des émotions (RAE) par analyse de la voix pour une application dans un contexte pédagogique d'orchestration de classe. Ce système s'appuie sur l'extraction de nouvelles caractéristiques, par démodulation en amplitude et en fréquence, de la voix ; considérée comme un signal multi-composantes modulé en amplitude et en fréquence (AM-FM), non-stationnaire et issue d'un système non-linéaire. Cette démodulation est basée sur l’utilisation conjointe de la décomposition en modes empiriques (EMD) et de l’opérateur d’énergie de Teager-Kaiser (TKEO).Dans ce système, le modèle discret (ou catégoriel) a été retenu pour représenter les six émotions de base (la tristesse, la colère, la joie, le dégoût, la peur et la surprise) et l'émotion dite neutre. La reconnaissance automatique a été optimisée par la recherche de la meilleure combinaison de caractéristiques, la sélection des plus pertinentes et par comparaison de différentes approches de classification. Deux bases de données émotionnelles de référence, en allemand et en espagnol, ont servi à entrainer et évaluer ce système. Une nouvelle base de données en Français, plus appropriée pour le contexte pédagogique a été construite, testée et validée
The aim of this thesis is to propose a speech emotion recognition (SER) system for application in classroom. This system has been built up using novel features based on the amplitude and frequency (AM-FM) modulation model of speech signal. This model is based on the joint use of empirical mode decomposition (EMD) and the Teager-Kaiser energy operator (TKEO). In this system, the discrete (or categorical) emotion theory was chosen to represent the six basic emotions (sadness, anger, joy, disgust, fear and surprise) and neutral emotion.Automatic recognition has been optimized by finding the best combination of features, selecting the most relevant ones and comparing different classification approaches. Two reference speech emotional databases, in German and Spanish, were used to train and evaluate this system. A new database in French, more appropriate for the educational context was built, tested andvalidated
Стилі APA, Harvard, Vancouver, ISO та ін.
4

François, Dominique. "Détection et identification des occlusives et fricatives au sein du système indépendant du locuteur APHODEX." Nancy 1, 1995. http://www.theses.fr/1995NAN10044.

Повний текст джерела
Анотація:
Les travaux présentés dans cette thèse portent sur le décodage acoustico-phonétique dans un système expert indépendant du locuteur. Ce système, APHODEX, est la réalisation d'une des premières expériences sur la modélisation de la lecture de spectrogramme. Une première évaluation permettait de mettre en évidence les atouts du système ainsi que ses carences. Connaissant les caractéristiques de la parole continue, en particulier la coarticulation, l'architecture et le fonctionnement du moteur d'inférence, de par leur prise en compte dans le raisonnement des contextes gauches et droits du segment de parole à traiter, s'avèrent être un point fort. L'étude des résultats de décodage a montré que les efforts devaient en premier lieu se porter sur les consonnes occlusives et fricatives, les voyelles étant plutôt bien reconnues et le mauvais score des autres consonnes étant pour beaucoup la conséquence d'erreurs durant l'étape de segmentation. Après une étude de la masse de connaissances disponibles, nous retenons celles qui paraissent les mieux adaptées à un traitement automatique. Nous proposons alors des procédures réalisant l'extraction d'indices recensés et d'autres expérimentaux ; puis, avant d'écrire une base de règles, nous présentons une phase de validation statistique des procédures sur un corpus d'étude. Une nouvelle évaluation du système permet alors de mesurer l'amélioration mise en œuvre. Voulant comparer ces résultats déjà positifs à ceux d'une méthode différente, plus proche de la distinction des phonèmes par l'intelligence humaine, nous proposons l'intégration de modèles connexionnistes à l'architecture d'APHODEX. Une discrimination des occlusives sourdes et sonores, puis des fricatives sourdes et sonores par des perceptrons multi-couches est présentée. Les résultats très positifs nous conduisent alors à étudier une possible interaction des deux méthodes inspirées de sciences différentes, la phonétique et la neurobiologie
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Remy, Bertrand. "Étude et réalisation d'un imageur actif laser à compression d'impulsion." Paris 11, 1986. http://www.theses.fr/1986PA112346.

Повний текст джерела
Анотація:
Cette thèse présente l'étude et la réalisation d'un imageur actif à laser CO₂ basé sur l'emploi d'un laser continu monomode, de la détection hétérodyne et de la compression d'impulsion. Un modèle théorique en est donné : bilan de portée, résolution angulaire, en distance et en vitesse Doppler ; l'influence sur l'hétérodynage optique des phénomènes de granularité laser, de turbulence atmosphérique, de la mauvaise adaptation des taches signal et oscillateur local au niveau du détecteur et des aberrations du système optique. On évalue également plusieurs systèmes de balayage angulaire et on compare leur performance en terme de précision Doppler. L'imageur réalisé après optimisation des choix comporte 64 lignes de 128 points dans un champ de 1 ° x 0,5 °. Les trois images Distance/Réflectance et Doppler sont four­ nies simultanément à une cadence de 1,5 Hz. Les essais ont confirmé la validité de la modélisation et permettent de juger de l'intérêt comparé de ces images nouvelles dont le domaine potentiel d'application apparait très vaste
The thesis describes the breadboard of an imaging CO₂ laser radar based upon the use of a CW waveguide single mode laser, heterodyne detection and chirp pulse compression. A theoretical model of the system is given: overall performance, angular, range and Doppler precisions are estimated, as well as the influence of heterodyne mixing, speckle, atmospheric turbulence and optical aberrations. An evaluation of several scanning devices is also given, that compares their performance as far as Doppler precision is concerned. Parametric optimization of this imaging system has 1ed to a total field of view of 0,5° x 1° (corresponding to 64 x 128 points). The 3 images Range-Doppler Velocity and Reflectivity are generated at a repetition rate of about 1,5 Hz. Field tests and experimental results confirm the theoretical investigations and help compare the relative interests of these new images in a wide range of applications
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Ait, Fares Wassima. "Détection et suivi d'objets par vision fondés sur segmentation par contour actif basé région." Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00932263.

Повний текст джерела
Анотація:
La segmentation et le suivi d'objets sont des domaines de recherche compétitif dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet du celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous proposons d'abord un critère global qui dépend des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-­‐disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-­‐disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode des contours actifs, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ait, Fares Wassima. "Détection et suivi d'objets par vision fondés sur segmentation par contour actif base région." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2143/.

Повний текст джерела
Анотація:
La segmentation et le suivi d'objets sont des domaines de recherche compétitifs dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet de celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous utilisons des critères qui dépendent des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode du contour actif, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées
Object segmentation and tracking is a challenging area of ongoing research in computer vision. One important application lies in robotics where the ability to accurately segment an object of interest from its background is crucial and particularly on images acquired onboard during robot motion. Object segmentation technique consists in separating the object region from the image background according to a pre-defined criterion. Object tracking is a process of determining the positions of moving objects in image sequences. Several techniques can be applied to ensure these operations. In this thesis, we are interested to segment and track objects in video sequences using active contour method due to its robustness and efficiency to segment and track non-rigid objects. Active contour method consists in making a curve converge from an initial position around the object to be detected towards this object boundary according to a pre-defined criterion. We employ criteria which depend on the image regions what may impose certain constraints on the characteristics of these regions as a homogeneity assumption. This assumption may not always be verified due to the heterogeneity often present in images. In order to cope with the heterogeneity that may appear either in the object of interest or in the image background in noisy images using an inadequate active contour initialization, we propose a technique that combines local and global statistics in order to compute the segmentation criterion. By using a radius with a fixed size, a half-disk is superposed on each point of the active contour to define the local extraction regions. However, when the heterogeneity appears on both the object of interest and the image background, we develop a new technique based on a flexible radius that defines two half-disks with two different radius values to extract the local information. The choice of the value of these two radii is determined by taking into consideration the object size as well as the distance separating the object of interest from its neighbors. Finally, to track a mobile object within a video sequence using the active contour method, we develop a hybrid object tracking approach based on region characteristics and on motion vector of interest points extracted on the object region. Using our approach, the initial active contour for each image will be adequately adjusted in a way that it will be as close as possible to the actual boundary of the object of interest so that the evolution of active contour based on characteristics of the region will not be trapped by false contours. Simulation results on synthetic and real images validate the effectiveness of the proposed approaches
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Cámara, Chávez Guillermo. "Analyse du contenu vidéo par apprentissage actif." Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0380.

Повний текст джерела
Анотація:
L’objet de cette thèse est de proposer un système d’indexation semi-automatique et de recherche interactive pour la vidéo. Nous avons développé un algorithme de détection des plans automatique sans paramètre, ni seuil. Nous avons choisi un classifieur SVM pour sa capacité à traiter des caractéristiques de grandes dimensions tout en préservant des garanties de généralisation pour peu d’exemples d’apprentissage. Nous avons étudié plusieurs combinaisons de caractéristiques et de fonctions noyaux et présenté des résultats intéressants pour la tâche de détection de plan de TRECVID 2006. Nous avons proposé un système interactif de recherche de contenu vidéo : RETINVID, qui permet de réduire le nombre d’images à annoter par l’utilisateur. Ces images sont sélectionnées pour leur capacité à accroître la connaissance sur les données. Nous avons effectué de nombreuses simulations sur les données de la tâche de concepts haut-niveaux de TRECVID 2005
This thesis presents work towards a unified framework for semi-automated video indexing and interactive retrieval. To create an efficient index, a set of representative key frames are selected from the entire video content. We developed an automatic shot boundary detection algorithm to get rid of parameters and thresholds. We adopted a SVM classifier due to its ability to use very high dimensional feature spaces while at the same time keeping strong generalization guarantees from few training examples. We deeply evaluated the combination of features and kernels and present interesting results obtained, for shot extraction TRECVID 2006 Task. We then propose an interactive video retrieval system: RETINVID, to significantly reduce the number of key frames annotated by the user. The key frames are selected based on their ability to increase the knowledge of the data. We perform an experiment against the 2005 TRECVID benchmark for high-level task
Стилі APA, Harvard, Vancouver, ISO та ін.
9

García-Gutiérrez, Luis Antonio. "Développement d'un contrôle actif tolérant aux défaillances appliqué aux systèmes PV." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30071.

Повний текст джерела
Анотація:
Cette thèse de doctorat aborde la problématique de la réalisation d'un système de contrôle actif de détection de défaut et diagnosis (FDD) pour un système de conversion photovoltaïque. Ce type de système de production d'énergie électrique est composé de panneaux solaires, d'un dispositif MPPT, d'un convertisseur de courant DC-DC, d'un onduleur DC-AC et d'une charge. Le système de contrôle actif à tolérance de pannes qui a été développé dans cette thèse est composé de deux étages : * Un étage assurant la fonction de diagnostic et comprenant les fonctions de détection de défauts, la fonction d'isolement de défauts, l'identification de défauts et l'estimation de l'ampleur du/des défaut(s) * Une fonction de reconfiguration du système photovoltaïque. Ce manuscrit est divisé en quatre chapitres : * Introduction au problème et révision de l'état de la technique * Modélisation mathématique du système photovoltaïque avec une validation expérimental de ce dernier effectué sur la plateforme PV de caractérisation du bâtiment réel ADREAM (Laboratoire LAAS-CNRS) * Conception et mise en œuvre du système de diagnostic de pannes du système photovoltaïque comprenant un Système actif à tolérance de pannes * Un système de diagnostic expérimental en cours de développement à l'aide d'un dispositif FPGA
This work contributes by developing an active fault tolerant control (AFTC) for Photovoltaic (PV) systems. The fault detection and diagnosis (FDD) methodology is based on the analysis of a model that compares real-time measurement. We use a high granularity PV array model in the FDD tool to allow faults to be detected in complex conditions. Firstly, the research focuses on fault detection in complex shadow conditions. A real-time approach is presented to emulate the electrical characteristics of PV modules under complex shadow conditions. Using a precise emulators approach is a real challenge to study the high non-linearity and the complexity of PV systems in partial shading. The real-time emulation was validated with simple experimental results under failure conditions to design specific fault-detection algorithms in a first sample. The second part of the research addresses the FDD method for DC/DC and DC/AC power converters that are connected to the grid. Primary results allowed us to validate the system's recovery for normal operating points after a fault with this complete AFTC approach. Emulations based on the simulation of distributed power converters, fault detection methodologies based on a model, and a hybrid diagnostician were then presented
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Motchon, Koffi Mawussé Djidula. "Caractérisation de la discernabilité des systèmes dynamiques linéaires et non-linéaires affines en la commande." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10027/document.

Повний текст джерела
Анотація:
Le problème de discernabilité des comportements entrées-sorties de deux systèmes dynamiquesse pose dans de nombreuses applications telles que l’observation et la commande dessystèmes dynamiques hybrides. Dans cette thèse, nous nous intéressons à la caractérisation decette propriété de discernabilité des comportements entrées-sorties. Pour la classe des systèmesdynamiques linéaires et non-linéaires affines en la commande, nous établissons : des conditionsde discernabilité stricte qui garantissent la discernabilité des systèmes quelles que soient lescommandes qui leur sont conjointement appliquées ; des conditions de discernabilité contrôlablequi assurent l’existence d’au moins une commande qui rend discernable les sorties ; desconditions de résidu-discernabilité qui caractérisent la discernabilité à travers les résidus issusde la méthode de l’espace de parité. Outre ces différentes conditions, nous spécifions dans le caslinéaire, une forme de distance qui permet de quantifier pour une commande donnée, le degréde discernabilité des systèmes ainsi que la robustesse de la propriété de discernabilité
The distinguishability of the input-output behavior of two dynamical systems plays a crucialrole in many applications such as control and observation of hybrid dynamical systems. Thisthesis aims to characterize this property of distinguishability. For linear systems and nonlinearcontrol-affine systems, we establish: conditions for strict distinguishability that ensure thedistinguishability of the systems for every control input jointly applied to them; conditions forcontrolled-distinguishability that guarantee the existence of a control input which makes distinguishable the outputs of the systems; conditions for residual-distinguishability that characterize the distinguishability of the modes through parity-space residuals. Moreover, in the linear case, a metric is specified in order to quantify for a given control input, the distinguishability degreeof the systems and the robustness of the property of distinguishability
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Lelong, Amelie. "Convergence phonétique en interaction Phonetic convergence in interaction." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00822871.

Повний текст джерела
Анотація:
Le travail présenté dans cette thèse est basé sur l'étude d'un phénomène appelé convergence phonétique qui postule que deux interlocuteurs en interaction vont avoir tendance à adapter leur façon de parler à leur interlocuteur dans un but communicatif. Nous avons donc mis en place un paradigme appelé " Dominos verbaux " afin de collecter un corpus large pour caractériser ce phénomène, le but final étant de doter un agent conversationnel animé de cette capacité d'adaptation afin d'améliorer la qualité des interactions homme-machine.Nous avons mené différentes études pour étudier le phénomène entre des paires d'inconnus, d'amis de longue date, puis entre des personnes provenant de la même famille. On s'attend à ce que l'amplitude de la convergence soit liée à la distance sociale entre les deux interlocuteurs. On retrouve bien ce résultat. Nous avons ensuite étudié l'impact de la connaissance de la cible linguistique sur l'adaptation. Pour caractériser la convergence phonétique, nous avons développé deux méthodes : la première basée sur une analyse discriminante linéaire entre les coefficients MFCC de chaque locuteur, la seconde utilisant la reconnaissance de parole. La dernière méthode nous permettra par la suite d'étudier le phénomène en condition moins contrôlée.Finalement, nous avons caractérisé la convergence phonétique à l'aide d'une mesure subjective en utilisant un nouveau test de perception basé sur la détection " en ligne " d'un changement de locuteur. Le test a été réalisé à l'aide signaux extraits des interactions mais également avec des signaux obtenus avec une synthèse adaptative basé sur la modélisation HNM. Nous avons obtenus des résultats comparables démontrant ainsi la qualité de notre synthèse adaptative.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Bouguelia, Mohamed-Rafik. "Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034/document.

Повний текст джерела
Анотація:
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Lelong, Amélie. "Convergence phonétique en interaction Phonetic convergence in interaction." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT079/document.

Повний текст джерела
Анотація:
Le travail présenté dans cette thèse est basé sur l’étude d’un phénomène appelé convergence phonétique qui postule que deux interlocuteurs en interaction vont avoir tendance à adapter leur façon de parler à leur interlocuteur dans un but communicatif. Nous avons donc mis en place un paradigme appelé « Dominos verbaux » afin de collecter un corpus large pour caractériser ce phénomène, le but final étant de doter un agent conversationnel animé de cette capacité d’adaptation afin d’améliorer la qualité des interactions homme-machine.Nous avons mené différentes études pour étudier le phénomène entre des paires d’inconnus, d’amis de longue date, puis entre des personnes provenant de la même famille. On s’attend à ce que l’amplitude de la convergence soit liée à la distance sociale entre les deux interlocuteurs. On retrouve bien ce résultat. Nous avons ensuite étudié l’impact de la connaissance de la cible linguistique sur l’adaptation. Pour caractériser la convergence phonétique, nous avons développé deux méthodes : la première basée sur une analyse discriminante linéaire entre les coefficients MFCC de chaque locuteur, la seconde utilisant la reconnaissance de parole. La dernière méthode nous permettra par la suite d’étudier le phénomène en condition moins contrôlée.Finalement, nous avons caractérisé la convergence phonétique à l’aide d’une mesure subjective en utilisant un nouveau test de perception basé sur la détection « en ligne » d’un changement de locuteur. Le test a été réalisé à l’aide signaux extraits des interactions mais également avec des signaux obtenus avec une synthèse adaptative basé sur la modélisation HNM. Nous avons obtenus des résultats comparables démontrant ainsi la qualité de notre synthèse adaptative
The work presented in this manuscript is based on the study of a phenomenon called phonetic convergence which postulates that two people in interaction will tend to adapt how they talk to their partner in a communicative purpose. We have developed a paradigm called “Verbal Dominoes“ to collect a large corpus to characterize this phenomenon, the ultimate goal being to fill a conversational agent of this adaptability in order to improve the quality of human-machine interactions.We have done several studies to investigate the phenomenon between pairs of unknown people, good friends, and between people coming from the same family. We expect that the amplitude of convergence is proportional to the social distance between the two speakers. We found this result. Then, we have studied the knowledge of the linguistic target impact on adaptation. To characterize the phonetic convergence, we have developed two methods: the first one is based on a linear discriminant analysis between the MFCC coefficients of each speaker and the second one used speech recognition techniques. The last method will allow us to study the phenomenon in less controlled conditions.Finally, we characterized the phonetic convergence with a subjective measurement using a new perceptual test called speaker switching. The test was performed using signals coming from real interactions but also with synthetic data obtained with the harmonic plus
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Bouguelia, Mohamed-Rafik. "Classification et apprentissage actif à partir d'un flux de données évolutif en présence d'étiquetage incertain." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0034.

Повний текст джерела
Анотація:
Cette thèse traite de l’apprentissage automatique pour la classification de données. Afin de réduire le coût de l’étiquetage, l’apprentissage actif permet de formuler des requêtes pour demander à un opérateur d’étiqueter seulement quelques données choisies selon un critère d’importance. Nous proposons une nouvelle mesure d’incertitude qui permet de caractériser l’importance des données et qui améliore les performances de l’apprentissage actif par rapport aux mesures existantes. Cette mesure détermine le plus petit poids nécessaire à associer à une nouvelle donnée pour que le classifieur change sa prédiction concernant cette donnée. Nous intégrons ensuite le fait que les données à traiter arrivent en continu dans un flux de longueur infinie. Nous proposons alors un seuil d’incertitude adaptatif qui convient pour un apprentissage actif à partir d’un flux de données et qui réalise un compromis entre le nombre d’erreurs de classification et le nombre d’étiquettes de classes demandées. Les méthodes existantes d’apprentissage actif à partir de flux de données, sont initialisées avec quelques données étiquetées qui couvrent toutes les classes possibles. Cependant, dans de nombreuses applications, la nature évolutive du flux fait que de nouvelles classes peuvent apparaître à tout moment. Nous proposons une méthode efficace de détection active de nouvelles classes dans un flux de données multi-classes. Cette méthode détermine de façon incrémentale une zone couverte par les classes connues, et détecte les données qui sont extérieures à cette zone et proches entre elles, comme étant de nouvelles classes. Enfin, il est souvent difficile d’obtenir un étiquetage totalement fiable car l’opérateur humain est sujet à des erreurs d’étiquetage qui réduisent les performances du classifieur appris. Cette problématique a été résolue par l’introduction d’une mesure qui reflète le degré de désaccord entre la classe donnée manuellement et la classe prédite et une nouvelle mesure d’"informativité" permettant d’exprimer la nécessité pour une donnée mal étiquetée d’être réétiquetée par un opérateur alternatif
This thesis focuses on machine learning for data classification. To reduce the labelling cost, active learning allows to query the class label of only some important instances from a human labeller.We propose a new uncertainty measure that characterizes the importance of data and improves the performance of active learning compared to the existing uncertainty measures. This measure determines the smallest instance weight to associate with new data, so that the classifier changes its prediction concerning this data. We then consider a setting where the data arrives continuously from an infinite length stream. We propose an adaptive uncertainty threshold that is suitable for active learning in the streaming setting and achieves a compromise between the number of classification errors and the number of required labels. The existing stream-based active learning methods are initialized with some labelled instances that cover all possible classes. However, in many applications, the evolving nature of the stream implies that new classes can appear at any time. We propose an effective method of active detection of novel classes in a multi-class data stream. This method incrementally maintains a feature space area which is covered by the known classes, and detects those instances that are self-similar and external to that area as novel classes. Finally, it is often difficult to get a completely reliable labelling because the human labeller is subject to labelling errors that reduce the performance of the learned classifier. This problem was solved by introducing a measure that reflects the degree of disagreement between the manually given class and the predicted class, and a new informativeness measure that expresses the necessity for a mislabelled instance to be re-labeled by an alternative labeller
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Diou, Odile. "Synthèse de nanocapsules polymères pour la détection de tumeurs solides par échographie et IRM du Fluor : vers un outil théranostique." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00907145.

Повний текст джерела
Анотація:
Le cancer est un problème de santé publique dans le monde entier et d'importantes ressources en soins de santé sont dépensées pour le diagnostic. Plus précoce sera le dépistage des tumeurs, meilleures sont les chances de rémission sans rechute. Les techniques d'imagerie permettent de suivre l'évolution du traitement et de réorienter la stratégie en cas d'échec. En combinaison avec des agents de contraste ciblés, les modalités d'imagerie permettent même de sonder les structures à l'échelle moléculaires ce qui pourrait laisser envisager un traitement personnalisé du cancer [1, 2]. L'imagerie par résonance magnétique (IRM) et l'échographie sont deux techniques complémentaires et non invasives qui permettent la détection de plusieurs cancers (sein, colon, cerveau ...). L'échographie est rentable, portable et fournit, en temps reel, des informations anatomiques. L'IRM profite d'une pénétration profonde dans les tissus mous, d'un contraste élevé et d'une meilleure sensibilité que l'échographie [3]. Néanmoins, l'utilisation de ces techniques en combinaison avec des agents de contraste est difficile, surtout parce que la concentration locale atteint dans la tumeur est souvent inférieure à la plage de sensibilité de détection [4]. Au cours des 20 dernières années, les agents de contraste multifonctionnels ont été construits sur mesure pour atteindre une accumulation préférentielle dans les tissus malades [5]. Dans cette étude, des stratégies de ciblage passif et actif de la tumeur ont été envisagées pour renforcer la concentration locale de nanocapsules polymère, contenant un noyau liquide de bromure de perfluorooctyle (PFOB). L'approche de ciblage passif est basée sur l'effet de pénétration et la rétention accrue (EPR). Les nanocapsules doivent avoir un diamètre inférieur à 400nm une demi-vie plasmatique prolongée. L'approche de ciblage actif est basée sur la reconnaissance spécifique d'un ligand pour une cible biologique surexprimée par la tumeur ou la néovascularisation. Pour le ciblage passif, les nanocapsules ont été préparées avec PLGA-b-PEG par un procédé d'émulsion-évaporation. La morphologie cœur-couronne a été confirmée par RMN du Fluor et cryo microscopie électronique. La surface des nanocapsules est densément couverte par des chaînes de PEG qui adoptent une conformation en brosse, telle qu'évaluée par XPS et diffusion des neutrons aux petits angles. La furtivité des nanocapsules a été démontrée in vitro par des mesures d'activation du complément et in vivo par une étude cinétique de la capture hépatique, réalisée après l'administration intraveineuse de nanocapsules chez la souris nude. L'imagerie des tumeurs, par IRM du Fluor, a révélé que seulement 1% de la dose injectée a été accumulée dans le tissu malade. Par échographie aucun réhaussement du contraste n'a été observé. Ainsi, une autre approche de ciblage a été nécessaire afin d'augmenter l'accumulation des nanocapsules au sein de la tumeur. Les nanocapsules ont été fonctionnalisées avec un peptide RGD (Arginine-Glycine-Acide aspartique afin de cibler les intégrines avß3, qui sont des protéines transmembranaires surexprimées par les néovaisseaux. Deux stratégies, appelées bottom-up et top-down, ont été élaborées pour mener à une décoration satisfaisante du peptide à la surface des nanocapsules. L'efficacité du couplage a été mesurée par RMN du proton. La morphologie des nanocapsules a été étudiée par CryoTEM.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Bendris, Meriem. "Indexation audio-visuelle des personnes dans un contexte de télévision." Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00661662.

Повний текст джерела
Анотація:
Le développement et l'amélioration du réseau Internet a permis de mettre un grand nombre de contenus télévisuels à disposition des utilisateurs. Afin de faciliter la navigation parmi ces vidéos, il est intéressant de développer des technologies pour indexer les personnes automatiquement. Les solutions actuelles proposent de construire l'index audio-visuel des personnes par combinaison des index audio et visuel obtenus de manière indépendante. Malheureusement, pour les émissions de télévision, il est difficile de détecter et de regrouper les personnes automatiquement à cause des nombreuses ambiguïtés dans l'audio, le visuel et leur association (interactivité des dialogues, variations de pose du visage, asynchronie entre la parole et l'apparence, etc). Les approches basées sur la fusion des index audio et visuel combinent les erreurs d'indexation issues de chaque modalité. Les travaux présentés dans ce rapport exploitent la complémentarité entre les informations audio et visuelle afin de palier aux faiblesses de chaque modalité. Ainsi, une modalité peut appuyer l'indexation d'une personne lorsque l'autre est jugée peu fiable. Nous proposons une procédure de correction mutuelle des erreurs d'indexation de chaque modalité. D'abord, les erreurs sont détectées automatiquement à l'aide d'indicateurs de présence de visage parlant. Puis, la modalité qui a échoué est corrigée grâce à un schéma automatique. Nous avons proposé en premier lieu un système initial d'indexation de visages parlants basé sur la détection et le regroupement du locuteur et du costume. Nous proposons une méthode de combinaison d'index basée sur la maximisation de la couverture globale des groupes de personnes. Ce système, évalué sur des émissions de plateaux, obtient une grande précision (90%), mais un faible rappel (seulement 55% des visages parlants sont détectés). Afin de détecter automatiquement la présence d'un visage parlant dans le processus de correction mutuelle, nous avons développé une nouvelle méthode de détection de mouvement des lèvres basée sur la mesure du degré de désordre de la direction des pixels autour de la région des lèvres. L'évaluation, réalisée sur le corpus de d'émission de plateaux, montre une amélioration significative de la détection des visages parlants comparé à l'état de l'art dans ce contexte. En particulier, notre méthode s'avère être plus robuste à un mouvement global du visage. Enfin, nous avons proposé deux schémas de correction. Le premier est basé sur une modification systématique de la modalité considérée a priori la moins fiable. Le second compare des scores de vérification de l'identité non supervisée afin de déterminer quelle modalité a échoué et la corriger. Les modèles non supervisés des personnes sont appris à partir des ensembles homogènes de visages parlants obtenus automatiquement par le système initial. Les deux méthodes de correction conduisent à une amélioration significative des performances (+2 à 5% de la F-mesure). Nous nous sommes également intéressés aux systèmes biométriques audio-visuels et particulièrement sur les techniques de fusion tardives pour la vérification d'identité. Nous avons proposé une méthode de fusion dépendante de la qualité du signal dans chaque modalité
With increasing internet use, the amount of multimedia content multiplies, making it necessary to develop technologies in order to enable users to browse through the multimedia data. One key element for browsing is the presence of people. However, structuring TV-Content in terms of people is a hard problem due to many difficulties in audio and visual modalities as well as in their association (short speaker turns, variations in facial expressions and pose, no synchronization between sequences of a person's appearance and sequences of his/her speech). The goal underlying this dissertation is to structure TV-Content by person in order to allow users to navigate through sequences in which a particular individual appears. To this end, most methods propose indexing people separately by the audio and visual information and then associating the results of each in order to obtain a talking-face index. Unfortunately, this type of approach combines clustering errors present in each modality. Our work seeks to capitalise on interactions between the audio and visual modalities rather than treating them separately. We propose a mutual correction scheme for audio and visual clustering errors. First, the clustering errors are detected using indicators that suspect a talking-face presence (Step 1). Then, the incorrect label is corrected according to an automatic modification scheme (Step 2). In more detail, first we proposed a Baseline system of talking faces indexing in which audio and visual indexes of people are generated independently by speaker and clothes clustering. Then, we proposed a fusion method based on maximizing global coverage of detected clusters. Results on a TV-show database show a high precision (90%), but with a significant missed-detection rate (only 55% of talking faces sequences are detected). In order to automatically detect a talking face presence (in the step 1), we exploited the fact that the lip-activity is strongly related to speech activity. We developed a new method for lip-activity detection in TV-Context based on the disorder of the directions of pixels. An evaluation is performed on manually annotated TV-Shows and significant improvement is observed compared to the state-of-the-art in TV-Contexts. Next, the modification method is based on the paradigm that one modality (either audio or visual) is more reliable than the other. We proposed two modification schemes: one based on systematic correction of the supposedly less reliable modality a priori while the second proposes comparing unsupervised audio-visual model scores to determine which modality failed. The unsupervised models are trained from the homogeneous sets of talking faces obtained automatically by the Baseline system. Experiments conducted on a TV-show database show that the proposed correction schemes yield significant improvement in performance, mainly due to an important reduction of missed talking-faces. We have investigated also on late fusion techniques for identity verification in biometric systems. We have proposed a fusion method based on the signal quality in each modality
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Peng, Kun. "Compression et vérification de visages pour les cartes d'identité à puce." Caen, 2009. http://www.theses.fr/2009CAEN2060.

Повний текст джерела
Анотація:
Les cartes d’identité à puce remplaceront assurément celles en papier et deviennent la prochaine génération des cartes d’identité. Ce manuscrit de thèse présente et propose un système de carte d’identité à puce utilisant l’information biométrique faciale pour l’authentification d’identité, en suivant une stratégie de vérification d’identité contenant trois niveaux de sécurité : vérification manuelle hors ligne, vérification manuelle en ligne et vérification automatique. La tâche principale de vérification manuelle de visage en ligne est de trouver une façon compacte et sécuritaire de stocker une photographie du porteur de carte d’identité dans la puce. Nous proposons une méthode basée sur la décomposition de l’image faciale en deux parts qui sont stockés respectivement dans la carte et dans la base de données du système. La partie de vérification automatique de visage consiste principalement à élaborer un algorithme fiable de vérification de visage au contexte. Un nouveau schéma basé sur les modèles classe-spécifiques de visage est donc proposé. Et la technique Modèle Actif d’Apparence (AAM) est appliquée pour la modélisation et la représentation de visage. Afin d’améliorer la performance du système, nous avons développé un algorithme pour détecter les positions des yeux dans les images faciales, qui permet d’offrir une meilleure initialisation pour la mise en correspondance du modèle AAM, et une technique de génération de visages virtuels, qui permet d’enrichir la variété des modèles AAM classe-spécifiques. En vue de l’évaluation de la performance du système, la base de données XM2VTS et son protocole, Protocole Lausanne, sont choisis pour faire les expérimentations
Smart identification cards will undoubtedly replace the current paper-based ones and become the next generation of identification cards. This Ph. D. Thesis presents and proposes a smart identification card system using facial biometric information for identity authentification on following a strategy containing three security levels: manual verification offline, manual verification online and automatic verification. The principal task of manual face verification online is to find out a compact and secure way to stock a photograph of the identification card holder into the chip on the smart card. We bring out an idea based on decomposing the face image into two parts which are stocked into the card and the database of system respectively. An algorithm based on Singular Value Decomposition of 2D matrix is proposed to realize this idea. The work on automatic face verification faces mainly to establish a reliable face verification algorithm adapting to the context. A novel face verification scheme based on class-specific face models is proposed in this thesis. And the technique Active Appearance Model (AAM) is applied for face modeling and representation. To improve the performance of the system, we developed an algorithm of eye position detection, which can offer a better initialization for AAM matching, and a technique of virtual faces generation, which can enrich the variety of class-specific AAM models. In the sight of the performance evaluation of the proposed method, the database XM2VTS and the accompanied protocol, Lausanne Protocol, are selected to make the experiments
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Bendris, Meriem. "Indexation audio-visuelle des personnes dans un contexte de télévision." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00661662.

Повний текст джерела
Анотація:
Le développement et l'amélioration du réseau Internet a permis de mettre un grand nombre de contenus télévisuels à disposition des utilisateurs. Afin de faciliter la navigation parmi ces vidéos, il est intéressant de développer des technologies pour indexer les personnes automatiquement. Les solutions actuelles proposent de construire l'index audio-visuel des personnes par combinaison des index audio et visuel obtenus de manière indépendante. Malheureusement, pour les émissions de télévision, il est difficile de détecter et de regrouper les personnes automatiquement à cause des nombreuses ambiguïtés dans l'audio, le visuel et leur association (interactivité des dialogues, variations de pose du visage, asynchronie entre la parole et l'apparence, etc). Les approches basées sur la fusion des index audio et visuel combinent les erreurs d'indexation issues de chaque modalité. Les travaux présentés dans ce rapport exploitent la complémentarité entre les informations audio et visuelle afin de palier aux faiblesses de chaque modalité. Ainsi, une modalité peut appuyer l'indexation d'une personne lorsque l'autre est jugée peu fiable. Nous proposons une procédure de correction mutuelle des erreurs d'indexation de chaque modalité. D'abord, les erreurs sont détectées automatiquement à l'aide d'indicateurs de présence de visage parlant. Puis, la modalité qui a échoué est corrigée grâce à un schéma automatique. Nous avons proposé en premier lieu un système initial d'indexation de visages parlants basé sur la détection et le regroupement du locuteur et du costume. Nous proposons une méthode de combinaison d'index basée sur la maximisation de la couverture globale des groupes de personnes. Ce système, évalué sur des émissions de plateaux, obtient une grande précision (90%), mais un faible rappel (seulement 55% des visages parlants sont détectés). Afin de détecter automatiquement la présence d'un visage parlant dans le processus de correction mutuelle, nous avons développé une nouvelle méthode de détection de mouvement des lèvres basée sur la mesure du degré de désordre de la direction des pixels autour de la région des lèvres. L'évaluation, réalisée sur le corpus de d'émission de plateaux, montre une amélioration significative de la détection des visages parlants comparé à l'état de l'art dans ce contexte. En particulier, notre méthode s'avère être plus robuste à un mouvement global du visage. Enfin, nous avons proposé deux schémas de correction. Le premier est basé sur une modification systématique de la modalité considérée a priori la moins fiable. Le second compare des scores de vérification de l'identité non supervisée afin de déterminer quelle modalité a échoué et la corriger. Les modèles non supervisés des personnes sont appris à partir des ensembles homogènes de visages parlants obtenus automatiquement par le système initial. Les deux méthodes de correction conduisent à une amélioration significative des performances (+2 à 5% de la F-mesure). Nous nous sommes également intéressé aux systèmes biométriques audio-visuels et particulièrement sur les techniques de fusion tardives pour la vérification d'identité. Nous avons proposé une méthode de fusion dépendante de la qualité du signal dans chaque modalité.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Daloy, Patrick. "RU 47213, cholinomimétique : étude bibliographique du parachlorophénol libéré au cours de la biotransformation du RU 47213 en son métabolite actif, le RU 35963. Validation d'une méthode de dosage du RU 35963 par HPLC et détection UV." Paris 5, 1995. http://www.theses.fr/1995PA05P242.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Beaugnon, Anaël. "Expert-in-the-loop supervised learning for computer security detection systems." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE049/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse est de faciliter l’utilisation de l’apprentissage supervisé dans les systèmes de détection pour renforcer la détection. Dans ce but, nous considérons toute la chaîne de traitement de l’apprentissage supervisé (annotation, extraction d’attributs, apprentissage, et évaluation) en impliquant les experts en sécurité. Tout d’abord, nous donnons des conseils méthodologiques pour les aider à construire des modèles de détection supervisés qui répondent à leurs contraintes opérationnelles. De plus, nous concevons et nous implémentons DIADEM, un outil de visualisation interactif qui aide les experts en sécurité à appliquer la méthodologie présentée. DIADEM s’occupe des rouages de l’apprentissage supervisé pour laisser les experts en sécurité se concentrer principalement sur la détection. Par ailleurs, nous proposons une solution pour réduire le coût des projets d’annotations en sécurité informatique. Nous concevons et implémentons un système d’apprentissage actif complet, ILAB, adapté aux besoins des experts en sécurité. Nos expériences utilisateur montrent qu’ils peuvent annoter un jeu de données avec une charge de travail réduite grâce à ILAB. Enfin, nous considérons la génération automatique d’attributs pour faciliter l’utilisation de l’apprentissage supervisé dans les systèmes de détection. Nous définissons les contraintes que de telles méthodes doivent remplir pour être utilisées dans le cadre de la détection de menaces. Nous comparons trois méthodes de l’état de l’art en suivant ces critères, et nous mettons en avant des pistes de recherche pour mieux adapter ces techniques aux besoins des experts en sécurité
The overall objective of this thesis is to foster the deployment of supervised learning in detection systems to strengthen detection. To that end, we consider the whole machine learning pipeline (data annotation, feature extraction, training, and evaluation) with security experts as its core since it is crucial to pursue real-world impact. First, we provide methodological guidance to help security experts build supervised detection models that suit their operational constraints. Moreover, we design and implement DIADEM, an interactive visualization tool that helps security experts apply the methodology set out. DIADEM deals with the machine learning machinery to let security experts focus mainly on detection. Besides, we propose a solution to effectively reduce the labeling cost in computer security annotation projects. We design and implement an end-to-end active learning system, ILAB, tailored to security experts needs. Our user experiments on a real-world annotation project demonstrate that they can annotate a dataset with a low workload thanks to ILAB. Finally, we consider automatic feature generation as a means to ease, and thus foster, the use of machine learning in detection systems. We define the constraints that such methods should meet to be effective in building detection models. We compare three state-of-the-art methods based on these criteria, and we point out some avenues of research to better tailor automatic feature generation to computer security experts needs
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Guigou, Fabio. "The artificial immune ecosystem : a scalable immune-inspired active classifier, an application to streaming time series analysis for network monitoring." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD007/document.

Повний текст джерела
Анотація:
Introduits au début des années 1990, les systèmes immunitaires artificiels visent à adapter les propriétés du système immunitaire biologique, telles que sa scalabilité et son adaptivité, à des problèmes informatiques : sécurité, mais également optimisation et classification. Cette thèse explore une nouvelle direction en se concentrant non sur les processus biologiques et les cellules elles-mêmes, mais sur les interactions entre les sous-systèmes. Ces modes d’interaction engendrent les propriétés reconnues du système immunitaire : détection d’anomalies, reconnaissance des pathogènes connus, réaction rapide après une exposition secondaire et tolérance à des organismes symbiotiques étrangers. Un ensemble de systèmes en interaction formant un écosystème, cette nouvelle approche porte le nom d’Écosystème Immunitaire Artificiel. Ce modèle est mis à l’épreuve dans un contexte particulièrement sensible à la scalabilité et à la performance : la supervision de réseaux, qui nécessite l’analyse de séries temporelles en temps réel avec un expert dans la boucle, c’est-à-dire en utilisant un apprentissage actif plutôt que supervisé
Since the early 1990s, immune-inspired algorithms have tried to adapt the properties of the biological immune system to various computer science problems, not only in computer security but also in optimization and classification. This work explores a different direction for artificial immune systems, focussing on the interaction between subsystems rather than the biological processes involved in each one. These patterns of interaction in turn create the properties expected from immune systems, namely their ability to detect anomalies, memorize their signature to react quickly upon secondary exposure, and remain tolerant to symbiotic foreign organisms such as the intestinal fauna. We refer to a set of interacting systems as an ecosystem, thus this new approach has called the Artificial Immune Ecosystem. We demonstrate this model in the context of a real-world problem where scalability and performance are essential: network monitoring. This entails time series analysis in real time with an expert in the loop, i.e. active learning instead of supervised learning
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Bayoudh, Mehdi. "Active Diagnosis of Hybrid Systems Guided by Diagnosability Properties - Application to Autonomous Satellites." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT069H.

Повний текст джерела
Анотація:
Motivée par les besoins du domaine spatial en termes de diagnostic embarqué et d’autonomie, cette thèse s’intéresse aux problèmes de diagnostic, de diagnosticabilité et de diagnostic actif des systèmes hybrides. Un formalisme hybride est proposé pour représenter les deux dynamiques, continues et discrètes, du système. En s’appuyant sur ce modèle, une approche de diagnostic passif est proposée en mariant les techniques des systèmes à événements discrets et des systèmes continus. Un cadre formel pour la diagnosticabilité des systèmes hybrides a également été établi proposant des définitions et des critères pour la diagnosticabilité hybride. Suite à un diagnostic passif ambigu, le diagnostic actif est nécessaire afin de désambiguïser l’état du système. Cette thèse propose donc une approche de diagnostic actif, qui partant d’un état de croyance incertain, fait appel aux propriétés de diagnosticabilité du système pour déterminer la configuration où les fautes peuvent être discriminées. Une nouvelle machine à états finis appelée diagnostiqueur actif est introduite permettant de formaliser le diagnostic actif comme un problème de planification conditionnelle. Un algorithme d’exploration de graphes ET-OU est proposé pour calculer les plans de diagnostic actif. Finalement, l’approche de diagnostic a été testée sur le Système de Contrôle d’Attitude (SCA) d’un satellite de Thales Alenia Space. Le module de diagnostic a été intégré dans la boucle fermée de commande. Des scénarios de faute ont été testés donnant des résultats très satisfaisants
Motivated by the requirements of the space domain in terms of on-board diagnosis and autonomy, this thesis addresses the problems of diagnosis, diagnosability and active diagnosis of hybrid systems. Supported by a hybrid modeling framework, a passive approach for model-based diagnosis mixing discrete-event and continuous techniques is proposed. The same hybrid model is used to define the diagnosability property for hybrid systems and diagnosability criteria are derived. When the diagnosis provided by the passive diagnosis approach is ambiguous, active diagnosis is needed. This work provides a method for performing such active diagnosis. Starting with an ambiguous belief state, the method calls for diagnosability analysis results to determine a new system configuration in which fault candidates can be discriminated. Based on a new finite state machine called the diagnoser, the active diagnosis is formulated as a conditional planning problem and an AND-OR graph exploration algorithm is proposed to determine active diagnosis plans. Finally, the diagnosis approach is tested on the Attitude Control System (ACS) of a satellite simulator provided by Thales Alenia Space. The diagnosis module is successfully tested on several fault scenarios and the obtained results are reported
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Xu, Yanli. "Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0090/document.

Повний текст джерела
Анотація:
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes
The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Dehaes, Mathieu. "Représentations analytiques des objets géométriques et contours actifs en imagerie." Thèse, 2004. http://hdl.handle.net/1866/14589.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії