Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Traitement des signaux physiologiques.

Dissertationen zum Thema „Traitement des signaux physiologiques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Traitement des signaux physiologiques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Chantaf, Samer. „Biométrie par signaux physiologiques“. Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1009/document.

Der volle Inhalt der Quelle
Annotation:
D'une manière générale, la biométrie a pour objectif d'identifier des individus, notamment à partir de leurs caractéristiques biologiques. Cette pratique tend à remplacer les méthodes traditionnelles de vérification d'identité des individus ; entre autres, les mots de passe et les codes de sécurité. Au quotidien, la biométrie trouve de vastes applications et la recherche de nouvelles méthodes biométriques est d'actualité. L'objectif de notre thèse consiste à développer et d'évaluer de nouvelles modalités biométriques basées sur des caractéristiques infalsifiables, ne pouvant être modifiées volontairement. Dans ce contexte, les signaux physiologiques sont pris en considération. Ainsi, nous avons proposé trois méthodes d'identification biométriques. La première méthode utilise l'électrocardiogramme (ECG) comme signature individuelle, alors que la deuxième est basée sur l'utilisation des signaux électromyographiques (EMG) de surface en réponse à une force d'intensité fixe. Enfin, la dernière technique explorée, utilise les réponses motrices obtenues suite à une stimulation électrique. Ces méthodes consistent d'abord à acquérir les signaux physiologiques chez des personnes saines. Ces signaux sont modélisés par des réseaux d'ondelettes afin d'en extraire des caractéristiques pertinentes. La phase d'identification automatique est effectuée par des réseaux de neurones. D'après les résultats obtenus suite à des expériences effectuées, les méthodes proposées conduisent à des performances d'identification intéressantes. La première méthode, utilisant le signal électro- cardiographique, permet d'obtenir un taux de reconnaissance de 92%, alors que l'identification par les signaux EMG, en réponse à une force d'une intensité fixe, permet une identification correcte à 80%. Enfin, une performance de 95% est obtenue par l'identification par réponse motrice. Pour ces trois techniques explorées, la robustesse par rapport au bruit à été étudiée
In general, biometrics aims to identify individuals from their biological characteristics. This practice tends to replace the traditional methods of identity verification of individuals, among others, passwords and security codes. Nowadays, biometrics found wide application and research of new biometric methods is topical. The objective of this thesis is to develop and evaluate new biometric methods based on tamper-proof characteristics that can not be changed voluntarily. In this context, the physiological signals are considered. Thus, we proposed three methods of biometric identification. The first method uses the electrocardiogram (ECG) as individual signature, while the second is based on the use of surface electromyography signals (EMG) in response to a force of fixed intensity. The final technique explored, uses the motor responses obtained after electrical stimulation. These methods consist first to acquire the physiological signals in healthy people. These signals are modeled by wavelets networks to extract relevant features. The identification phase is performed automatically by neural networks. According to the results obtained from experiments performed, the proposed methods lead to interesting performance identification. The first method, using the electro-cardiographic signal, achieves a recognition rate of 92%, while the identification by EMG signals, in response to a force of a fixed intensity, allows a correct identification of 80 %. Finally, a performance of 95% is obtained by identification by motor response. For these three techniques explored, the robustness to noise ratio was studied
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ranta, Radu. „Traitement et analyse de signaux sonores physiologiques : application à la phonoentérographie“. Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2003. http://tel.archives-ouvertes.fr/tel-00005906.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail de recherche est le développement d'un système d'étude de sons, plus particulièrement dédié à la phonoentérographie, qui devrait aboutir à plus long terme à un outil d'aide au diagnostic. La première étape présente une chaîne d'instrumentation multi-voies spécifique. Elle est suivie par le pré-traitement: la détection, la segmentation et le débruitage par ondelettes sont réalisés avec un algorithme original optimisé par une méthode de point-fixe. Une deuxième phase introduit des connaissances a priori sur les sons abdominaux et étudie leur localisation spatiale. Les caractéristiques physiques (fréquence, intensité, durée) décrivent les sons individuellement. L'étude globale des phonoentérogrammes est réalisée à partir d'indices d'activité (nombre d'événements, énergie moyenne, etc.). Les caractéristiques physiques et les indices sont utilisés dans l'analyse statistique des signaux, par analyse en composantes principales et classification non supervisée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Louis-Dorr, Valérie. „Contribution au traitement et à l'analyse de signaux issus de processus physiologiques“. Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00345985.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire concernent le traitement et l'analyse des signaux issus de processus physiologiques. La difficulté de traiter ces signaux réside dans la connaissance du processus lui même. En effet, ces systèmes sont souvent modélisés sous l'aspect fonctionnel. Or, il s'avère que les processus vivants requièrent une représentation organisationnelle, structurale, fonctionnelle, mais aussi géométrique et topologique. L'étape de modélisation est d'un enjeu majeur pour définir la méthodologie de traitement des signaux recueillis. Etant donné les nombreuses interactions que présentent ces systèmes, les étapes de prétraitement et de mises en relations multidimensionnelles des signaux disponibles sont généralement incontournables. Les principales contributions présentées visent la détection précoce du glaucome, la phonotentérographie dans le cadre de l'analyse fonctionnelle digestive et enfin l'épilepsie via la caractérisation des crises au travers des signaux EEG. Les perspectives de ce travail se situent dans la continuité des travaux menés en neurophysiologie. De ce contexte, deux axes principaux sont dégagés : l'étude des mécanismes physiopathologiques qui sous-tendent les crises d'épilepsie portant sur l'identification des réseaux épileptiques et leurs relations avec les réseaux cognitifs normaux et l'identification des réseaux neuronaux qui sont mis en jeu au cours des processus mnésiques physiologiques (encodage, stockage, restitution).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Buard, Benjamin. „Contribution à la compréhension des signaux de fluxmétrie laser Doppler : traitement des signaux et interprétations physiologiques“. Phd thesis, Université d'Angers, 2010. http://tel.archives-ouvertes.fr/tel-00584166.

Der volle Inhalt der Quelle
Annotation:
La compréhension du système cardiovasculaire périphérique est une clé indispensable pour le diagnostic précoce de nombreuses pathologies. Les signaux de fluxmétrie laser Doppler donnent des informations sur la microcirculation sanguine et permettent ainsi d'avoir une vue périphérique du système cardiovasculaire. Ce travail de thèse s'inscrit dans l'étude des propriétés de ces signaux physiologiques. Dans un premier temps nous présentons la technique de fluxmétrie laser Doppler et son utilité en recherche clinique. Nous détaillons ensuite l'analyse que nous avons menée afin d'obtenir des informations sur l'origine des fluctuations observées sur les signaux. L'implémentation de différents outils de traitement du signal dans les domaines temporel et fréquentiel a permis de montrer que ces fluctuations pourraient provenir, en partie, des propriétés physiologiques et/ou anatomiques de la zone étudiée. Afin d'étudier plus en détails ces fluctuations, nous avons ensuite mis en place une analyse multifractale des signaux de fluxmétrie laser Doppler. Les différents résultats obtenus ont permis de faire ressortir la possible implication des propriétés physiologiques de la zone étudiée dans la complexité des signaux de fluxmétrie laser Doppler.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Aassif, El Houcein. „Analyse de signaux physiologiques. Evaluation et implementation de methodes de traitement automatique de signaux de manometrie digestive“. Rennes 1, 1990. http://www.theses.fr/1990REN10142.

Der volle Inhalt der Quelle
Annotation:
Ce travail est une contribution aux etudes menees dans le domaine des explorations fonctionnelles et porte sur la saisie et l'interpretation des signaux de manometrie colique. Le memoire est organise en deux parties. La premiere, apres une breve introduction sur la physiopathologie du colon, s'attache a preciser le mecanisme de generation du signal, decrire les activites electrique et contractile, leur correlation, passer en revue les principales anomalies de la motricite colique. Apres une presentation des techniques manometriques et des capteurs utilisables pour mesurer les variations de pression intra-colique, un bilan des resultats obtenus a l'aide de l'analyse traditionnelle des traces termine la premiere partie. La seconde, qui represente l'essentiel de l'etude, est consacree a la description de la carte d'acquisition realisee, a la presentation des algorithmes etablis et a leur application au signal de manometrie colique. L'analyse automatisee developpee assure l'elimination du bruit, l'alignement du signal, la detection, la linearisation et la separation des ondes en groupes distincts. Elle se termine par le calcul de parametres significatifs et l'edition des resultats. L'etude de la propagation de l'activite colique d'une voie a l'autre (estimation de retard) et la separation des ondes en differents types a l'aide de l'analyse en composantes principales completent ce travail
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bruno, Stéphane. „Modélisation de signaux physiologiques en vue d'une classification automatique du sommeil“. Rennes 1, 2006. http://www.theses.fr/2006REN1S002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de l'étude d'un système de classification automatique du sommeil basé sur un bracelet multicapteur permettant, entre autre, l'acquisition du signal de variation de pression de l'artère radiale. Ce signal est segmenté en époques, caractérisées par un vecteur de paramètres, parmi lesquels figurent les fréquences cardiaque et respiratoire dont l'importance est connue pour l'analyse du sommeil. C'est pourquoi nous développons, dans un premier temps, plusieurs estimateurs de ces fréquences s'appliquant au signal acquis par le bracelet. Deux méthodes sont ensuite étudiées pour réaliser l'opération de classification de ce vecteur dans l'un des six états de vigilance : la règle bayésienne, s'appuyant sur une modélisation monogaussienne, et un réseau de neurones. Nous proposons également deux méthodes de rescorage permettant de corriger les erreurs de classification, et évaluons leurs performances.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Bruno, Stéphane Scalart Pascal. „Modélisation de signaux physiologiques en vue d'une classification automatique du sommeil“. [S.l.] : [s.n.], 2006. ftp://ftp.irisa.fr/techreports/theses/2006/bruno.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Truong, Charles. „Détection de ruptures multiples – application aux signaux physiologiques“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN030/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail s’intéresse au problème de détection de ruptures multiples dans des signaux physiologiques (univariés ou multivariés). Ce type de signaux comprend par exemple les électrocardiogrammes (ECG), électroencéphalogrammes (EEG), les mesures inertielles (accélérations, vitesses de rotation, etc.). L’objectif de cette thèse est de fournir des algorithmes de détection de ruptures capables (i) de gérer de long signaux, (ii) d’être appliqués dans de nombreux scénarios réels, et (iii) d’intégrer la connaissance d’experts médicaux. Par ailleurs, les méthodes totalement automatiques, qui peuvent être utilisées dans un cadre clinique, font l’objet d’une attention particulière. Dans cette optique, des procédures robustes de détection et des stratégies supervisées de calibration sont décrites, et une librairie Python open-source et documentée, est mise en ligne.La première contribution de cette thèse est un algorithme sous-optimal de détection de ruptures, capable de s’adapter à des contraintes sur temps de calcul, tout en conservant la robustesse des procédures optimales. Cet algorithme est séquentiel et alterne entre les deux étapes suivantes : une rupture est détectée, puis retranchée du signal grâce à une projection. Dans le cadre de sauts de moyenne, la consistance asymptotique des instants estimés de ruptures est démontrée. Nous prouvons également que cette stratégie gloutonne peut facilement être étendue à d’autres types de ruptures, à l’aide d’espaces de Hilbert à noyau reproduisant. Grâce à cette approche, des hypothèses fortes sur le modèle génératif des données ne sont pas nécessaires pour gérer des signaux physiologiques. Les expériences numériques effectuées sur des séries temporelles réelles montrent que ces méthodes gloutonnes sont plus précises que les méthodes sous-optimales standards et plus rapides que les algorithmes optimaux.La seconde contribution de cette thèse comprend deux algorithmes supervisés de calibration automatique. Ils utilisent tous les deux des exemples annotés, ce qui dans notre contexte correspond à des signaux segmentés. La première approche apprend le paramètre de lissage pour la détection pénalisée d’un nombre inconnu de ruptures. La seconde procédure apprend une transformation non-paramétrique de l’espace de représentation, qui améliore les performances de détection. Ces deux approches supervisées produisent des algorithmes finement calibrés, capables de reproduire la stratégie de segmentation d’un expert. Des résultats numériques montrent que les algorithmes supervisés surpassent les algorithmes non-supervisés, particulièrement dans le cas des signaux physiologiques, où la notion de rupture dépend fortement du phénomène physiologique d’intérêt.Toutes les contributions algorithmiques de cette thèse sont dans "ruptures", une librairie Python open-source, disponible en ligne. Entièrement documentée, "ruptures" dispose également une interface consistante pour toutes les méthodes
This work addresses the problem of detecting multiple change points in (univariate or multivariate) physiological signals. Well-known examples of such signals include electrocardiogram (ECG), electroencephalogram (EEG), inertial measurements (acceleration, angular velocities, etc.). The objective of this thesis is to provide change point detection algorithms that (i) can handle long signals, (ii) can be applied on a wide range of real-world scenarios, and (iii) can incorporate the knowledge of medical experts. In particular, a greater emphasis is placed on fully automatic procedures which can be used in daily clinical practice. To that end, robust detection methods as well as supervised calibration strategies are described, and a documented open-source Python package is released.The first contribution of this thesis is a sub-optimal change point detection algorithm that can accommodate time complexity constraints while retaining most of the robustness of optimal procedures. This algorithm is sequential and alternates between the two following steps: a change point is estimated then its contribution to the signal is projected out. In the context of mean-shifts, asymptotic consistency of estimated change points is obtained. We prove that this greedy strategy can easily be extended to other types of changes, by using reproducing kernel Hilbert spaces. Thanks this novel approach, physiological signals can be handled without making assumption of the generative model of the data. Experiments on real-world signals show that those approaches are more accurate than standard sub-optimal algorithms and faster than optimal algorithms.The second contribution of this thesis consists in two supervised algorithms for automatic calibration. Both rely on labeled examples, which in our context, consist in segmented signals. The first approach learns the smoothing parameter for the penalized detection of an unknown number of changes. The second procedure learns a non-parametric transformation of the representation space, that improves detection performance. Both supervised procedures yield finely tuned detection algorithms that are able to replicate the segmentation strategy of an expert. Results show that those supervised algorithms outperform unsupervised algorithms, especially in the case of physiological signals, where the notion of change heavily depends on the physiological phenomenon of interest.All algorithmic contributions of this thesis can be found in ``ruptures'', an open-source Python library, available online. Thoroughly documented, ``ruptures'' also comes with a consistent interface for all methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Escola, Henri. „Analyse et traitement de signaux physiologiques pour la mesure de l'action de substances pharmacologiques“. Compiègne, 1993. http://www.theses.fr/1993COMPD593.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est de proposer des méthodes d'analyse de de traitement des signaux physiologiques (EEG, EMG, EOG) tant diurnes (Chap. II) que nocturnes (Chap. III, IV, V). Nous présentons dans un premier temps une méthode d'analyse qualitative basée sur la notion de distance dans un espace multidimensionnel qui peut venir compléter la cartographie cérébrale classique (Chap. II). Pour l'étude du sommeil, nous proposons de décrire l'activité EEG par plusieurs types de paramètres continus. Nous montrons également comment des variables capables de mettre en évidence les effets de substances pharmacologiques peuvent être extraites de ces différents paramètres (Chap. III). Pour caractériser le signal EOG, Nous avons développé une méthode de détection automatique des mouvements oculaires permettant de mesurer l'action de deux substances sur cette activité (Chap. IV). Pour finir, nous tentons de faire une synthèse des résultats obtenus dans les chapitres précédents en jetant les bases d'une analyse ou les différents signaux sont pris simultanément en considération. Plusieurs techniques (corrélation, indice de dispersion, prédiction non-linéaire) sont évaluées toujours dans le cadre d'une étude pharmacologique (Chap. V)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Moreau, Thomas. „Représentations Convolutives Parcimonieuses -- application aux signaux physiologiques et interpétabilité de l'apprentissage profond“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN054/document.

Der volle Inhalt der Quelle
Annotation:
Les représentations convolutives extraient des motifs récurrents qui aident à comprendre la structure locale dans un jeu de signaux. Elles sont adaptées pour l’analyse des signaux physiologiques, qui nécessite des visualisations mettant en avant les informations pertinentes. Ces représentations sont aussi liées aux modèles d’apprentissage profond. Dans ce manuscrit, nous décrivons des avancées algorithmiques et théoriques autour de ces modèles. Nous montrons d’abord que l’Analyse du Spectre Singulier permet de calculer efficacement une représentation convolutive. Cette représentation est dense et nous décrivons une procédure automatisée pour la rendre plus interprétable. Nous proposons ensuite un algorithme asynchrone, pour accélérer le codage parcimonieux convolutif. Notre algorithme présente une accélération super-linéaire. Dans une seconde partie, nous analysons les liens entre représentations et réseaux de neurones. Nous proposons une étape d’apprentissage supplémentaire, appelée post-entraînement, qui permet d’améliorer les performances du réseau entraîné, en s’assurant que la dernière couche soit optimale. Puis nous étudions les mécanismes qui rendent possible l’accélération du codage parcimonieux avec des réseaux de neurones. Nous montrons que cela est lié à une factorisation de la matrice de Gram du dictionnaire. Finalement, nous illustrons l’intérêt de l’utilisation des représentations convolutives pour les signaux physiologiques. L’apprentissage de dictionnaire convolutif est utilisé pour résumer des signaux de marche et le mouvement du regard est soustrait de signaux oculométriques avec l’Analyse du Spectre Singulier
Convolutional representations extract recurrent patterns which lead to the discovery of local structures in a set of signals. They are well suited to analyze physiological signals which requires interpretable representations in order to understand the relevant information. Moreover, these representations can be linked to deep learning models, as a way to bring interpretability intheir internal representations. In this disserta tion, we describe recent advances on both computational and theoretical aspects of these models.First, we show that the Singular Spectrum Analysis can be used to compute convolutional representations. This representation is dense and we describe an automatized procedure to improve its interpretability. Also, we propose an asynchronous algorithm, called DICOD, based on greedy coordinate descent, to solve convolutional sparse coding for long signals. Our algorithm has super-linear acceleration.In a second part, we focus on the link between representations and neural networks. An extra training step for deep learning, called post-training, is introduced to boost the performances of the trained network by making sure the last layer is optimal. Then, we study the mechanisms which allow to accelerate sparse coding algorithms with neural networks. We show that it is linked to afactorization of the Gram matrix of the dictionary.Finally, we illustrate the relevance of convolutional representations for physiological signals. Convolutional dictionary learning is used to summarize human walk signals and Singular Spectrum Analysis is used to remove the gaze movement in young infant’s oculometric recordings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Blonde, Jean-Philippe. „Conception d'un système automatisé d'acquisition et de traitement de signaux physiologiques : application à la rééducation des handicapés moteurs“. Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10082.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Maingourd, Yves. „Traitement informatique de signaux physiologiques : application chez l'enfant à l'étude de la fonction ventriculaire par cinéangiographie et échographie“. Compiègne, 1986. http://www.theses.fr/1986COMPS139.

Der volle Inhalt der Quelle
Annotation:
Le but de ce travail est de valider un système semi-automatique de traitement de signaux. Pour ce faire, nous l'utilisons pour calculer des volumes ventriculaires par des algorithmes utilisant des données uni ou bidimensionnelles, angiographiques et échographiques. Pour l'angiographie, la correction polynomiale informatisée des déformations de l'image induites par le système s'avère parfaite ; elle est validée par le calcul (formule de l'ellipsoïde) de volumes d'ellipsoïdes en aluminium. L'erreur moyenne est inférieure à 4% soit proche de l'erreur minimum imputable à la numérisation. La validation globale de la méthode, effectuée expérimentalement par calcul de volumes de moulages ventriculaires ; les résultats sont excellents, surtout pour le ventricule gauche. Cette méthode angiographique ainsi validée, sert de référence in vivo (quinze enfants) à la comparaison de volumes ventriculaires calculés à partir de l'angiographie et de l'échographie. Les corrélations sont bonnes, et là encore, meilleures pour le ventricule gauche. L'exploitation clinique de ce système fiable et simple d'utilisation pourrait être envisagée
The aim of this work is to validate a semi-automatic signal processing system. In order to do so, we use it to compute ventricular volumes by the means of algorithms which use mono or bi-dimensional angiographic and echographic data. For angiography, the computerized polynomial conversion of the image distortion caused by the system turns out to be perfect ; it is validated by the computation (formula of the ellipsoid) of ellipsoidal castings made of aluminium. The average error is less than 4%, that is close to the minimum error due to digitizing. The overall validation of the method is performed experimentally by processing ventricular castings. The results are excellent, especially for the left ventricule. This angiographic method having so been validated, serves as an “in vivo” reference (15 children) for comparing ventricular volumes computed from angiography or from echography. The correlations are good and again better for the left ventricule. The clinical use of this reliable and easy to use system seems to be possibly implemented
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Maingourd, Yves. „Traitement informatique de signaux physiologiques application chez l'enfant à l'étude de la fonction ventriculaire par cinéangiographie et échographie“. Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375993649.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Blonde, Jean-Philippe. „Conception d'un système automatisé d'acquisition et de traitement de signaux physiologiques applications à la rééducation des handicapés moteurs /“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37611991f.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Lafoucrière, Michel. „Saisie et traitement automatique des signaux physiologiques (internes) pour la conception d'un stimulateur cardiaque implanté à fréquence asservie“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376148671.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Lamotte, Thibault. „Segmentation et exploitation de signaux physiologiques et cinématiques pour l'étude du confort postural de l'appui-tête“. Compiègne, 1996. http://www.theses.fr/1996COMPD957.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour objet l'étude objective du confort postural apporté par un appui-tête à l'aide de l'analyse de l'électromyographie (EMG) de surface. Tout d'abord, la difficile définition du terme confort a été énoncée. Cette notion de confort maximal est uniquement étudiable par des analyses dites subjectives (interview d'utilisateurs). Avec des mesures dites objectives, il est plus facile de considérer les inconforts. Plusieurs techniques permettent de quantifier ces inconforts : les mesures mécaniques et physiologiques. Les travaux sont plutôt focalisés sur ce dernier point. Des résultats préliminaires ont déjà montré la possibilité d'évaluer l'appui-tête par mesure d'EMG. Une variabilité non expliquée limite cependant les résultats expérimentaux. La première partie des travaux du mémoire présente le développement de méthodes novatrices d'analyse des signaux EMG. Une segmentation automatique du signal EMG en deux étapes est présentée. La première étape consiste à découper le signal en zones statistiquement homogènes. Ensuite, un mode de fonctionnement précis est associé à chaque segment. Les modes de fonctionnement sont de trois types : soit artefactuel, soit EMG tonique ou tonus musculaire, soit EMG phasique ou bouffée d'activité musculaire. Les évolutions temporelles des modes de fonctionnement lies à un phénomène musculaire sont ensuite considérées. Concernant les EMG phasiques, une méthode d'analyse multidimensionnelle utilisant les signaux cinématiques mesurés sur le plancher du véhicule et la tête du sujet est présentée. Six liens possibles sont étudiés. Le contrôle de l'existence réelle du lien est réalisé par des courbes COR. Le lien aux vibrations n'est jamais accepté. Il n'est pas possible non plus d'associer directement les accélérations de forte amplitude du véhicule aux bouffées EMG. Par contre, le lien est observé avec les accélérations longitudinales et transverses de la tête. Ce résultat a permis de typer les bouffées selon leurs conséquences en accélération. Les résultats fondés sur l'EMG tonique confirment ceux observés avec l'EMG Root Mean Square. La variabilité interindividuelle subsiste donc. Les résultats avec l'EMG phasique sont basés sur des comptages. Au départ, ce comptage est réalisé sans l'analyse multidimensionnelle. Le phénomène est très rarement évolutif. Les différences entre les appuis-tête ne sont pas observées avec tous les sujets. Les résultats multidimensionnels confirment l'étape précédente et ne permettent pas de mieux expliquer les différences interindividuelles observées. En conclusion, classer différents appuie-tête à l'aide de l'EMG de surface est donc très difficile. Ce moyen de mesure ne permet pas de mettre facilement en évidence un appui-tête à inconfort physiologique minimal.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Sahki, Nassim. „Méthodologie data-driven de détection séquentielle de ruptures pour des signaux physiologiques“. Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0185.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de la problématique de la détection de rupture dans le cadre séquentiel où le signal est supposé être observé en temps réel et le phénomène passe de son état de départ "normal" à un état post-changement "anormal". Le défi de la détection séquentielle est de minimiser le délai de détection, soumis à une limite tolérable de fausse alarme. L'idée est de tester séquentiellement l'existence d'une rupture par l'écriture récursive de la statistique de détection en fonction du score, qui remplace le Log-Likelihood Ratio lorsque la distribution des données est inconnue. La procédure de détection repose ainsi sur une statistique récursive, un seuil de détection et une règle d'arrêt. Dans un premier travail, nous considérons la statistique score-CUSUM et proposons d'évaluer la performance de détection de certains seuils de détection. Deux seuils sont issus de la littérature, et trois nouveaux seuils sont construits par une méthode basée sur la simulation: le premier est constant, le second instantané et le troisième est une version dynamique "data-driven" du précédent. Nous définissons rigoureusement chacun des seuils en mettant en évidence les différentes notions du risque de fausse alarme contrôlé suivant le seuil. Par ailleurs, nous proposons une nouvelle règle d'arrêt corrigée pour réduire le taux de fausse alarme. Nous effectuons ensuite une étude de simulation pour comparer les différents seuils et évaluer la règle d'arrêt corrigée. Nous constatons que le seuil empirique conditionnel est le meilleur pour minimiser le délai de détection tout en maintenant le risque toléré de fausse alarme. Cependant, sur des données réelles, nous recommandons d'utiliser le seuil data-driven car c'est le plus simple à construire et à utiliser pour une implémentation pratique. Dans la seconde partie, nous appliquons notre méthodologie de détection data-driven sur des signaux physiologiques, à savoir des signaux temporels enregistrés au niveau du faisceau supérieur du trapèze de 30 sujets effectuant différentes activités bureautiques. La méthodologie est sujet-activité dépendante; elle inclut l'estimation on-line des paramètres du signal et la construction du seuil data-driven sur le début du signal de chaque activité de chaque sujet. L'objectif était d'identifier des changements de régimes au cours d'une activité afin d'évaluer le niveau de sollicitation du muscle et la variabilité du signal EMG, qui sont liés à la fatigue musculaire. Les résultats obtenus ont confirmé l'aisance de notre méthodologie et la performance et praticité du seuil data-driven proposé. Par la suite, les résultats ont permis la caractérisation de chaque type d'activité en utilisant des modèles mixtes
This thesis deals the problem of change-point detection in the sequential framework where the signal is assumed to be observed in real time and the phenomenon changes from its "normal" starting state to an "abnormal" post-change state. The challenge of sequential detection is to minimize the detection delay, subject to a tolerable false alarm limit. The idea is to sequentially test for the existence of a change-point by recursively writing the detection statistic as a function of the score, which replaces the Log-Likelihood Ratio when the data distribution is unknown. The detection procedure is thus based on a recursive statistic, a detection threshold and a stopping rule. In a first work, we consider the score-CUSUM statistic and propose to evaluate the detection performance of some detection thresholds. Two thresholds come from the literature, and three new thresholds are constructed by a method based on simulation: the first is constant, the second instantaneous and the third is a dynamic "data-driven" version of the previous one. We rigorously define each of the thresholds by highlighting the different notions of the controlled false alarm risk according to the threshold. Moreover, we propose a new corrected stopping rule to reduce the false alarm rate. We then perform a simulation study to compare the different thresholds and evaluate the corrected stopping rule. We find that the conditional empirical threshold is the best to minimize the detection delay while maintaining the tolerated risk of false alarms. However, on real data, we recommend using the data-driven threshold as it is the easiest to build and use for practical implementation. In the second part, we apply our data-driven detection methodology to physiological signals, namely temporal signals recorded at the level of the upper trapezium beam of 30 subjects performing different office activities. The methodology is subject-activity dependent; it includes the on-line estimation of the signal parameters and the construction of the data-driven threshold on the start of the signal of each activity of each subject. The objective was to identify regime changes during an activity in order to assess the level of muscle solicitation and EMG signal variability, which are associated with muscle fatigue. The results obtained confirmed the ease of our methodology and the performance and practicality of the proposed data-driven threshold. Subsequently, the results allowed the characterization of each type of activity using mixed models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Sharabaty, Hassan. „Diagnostic de la somnolence d'un opérateur : analyse automatique de signaux physiologiques“. Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00197161.

Der volle Inhalt der Quelle
Annotation:
Depuis plusieurs années le LAAS-CNRS travaille sur la problématique de la détection de la baisse de vigilance d'un conducteur d'automobile à partir de l'analyse du mode de conduite, afin de réduire le grand nombre des accidents routiers. Dans ce contexte, nous nous sommes intéressés de dégager une mesure référante de l'hypovigilance qui permettrait, par comparaison, de valider le système de mesure embarqué associant des mesures comportementales. Cette thèse a porté sur l'analyse automatique des signaux physiologiques (EEG, EOG) permettant de caractériser la somnolence; et s'est inscrit dans le cadre du projet européen SENSATION. Ce travail s'articule en 2 parties. La première est dédiée à l'analyse des EEG et commence par une présentation de la forme d'onde des signaux à analyser et des phénomènes représentatifs de la somnolence, puis des techniques d'analyse susceptibles de répondre au problème posé : transformé de Fourier, décomposition en Ondelettes, transformation de Hilbert Huang; Pour la suite de l'étude, nous avons sélectionnée la transformation de Hilbert-Huang. La précision de cette méthode sera étudier qualitativement, avant de présenter l'algorithme développé et les premiers résultats obtenus sur des signaux réels. Les conclusions de l'analyse de la précision nous ont amené à modifier l'algorithme proposé par Huang en normalisant les composantes fournies par la transformation de Huang sur l'ensemble de la fenêtre d'analyse avant application de la transformation de Hilbert. La deuxième partie de la thèse est donc consacrée à la localisation et la caractérisation des clignements des yeux dans l'EOG. Avant de présenter l'algorithme développé, nous décrivons le signal étudié et le modèle de clignement proposé. Nous comparons ensuite, sur une base de données constituée durant des expériences menées sur un simulateur de conduite, les résultats obtenus par notre algorithme à une analyse semi-automatique. Une fois la détection des clignements validée, nous com parons le degré de somnolence déterminé après mise en place des règles utilisées par les experts à l'analyse visuelle des signaux. Le bilan du travail réalisé et les perspectives d'amélioration des résultats concluront ce travail.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Meyer, Christophe. „Adaptation temps réel de l'acquisition en imagerie par résonance magnétique en fonction de signaux physiologiques“. Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0272.

Der volle Inhalt der Quelle
Annotation:
L'Imagerie par Résonance Magnétique de la cinématique de la contraction cardiaque est une technique d'imagerie relativement lente. En comparaison, les mouvements du patient, en particulier cardiaque et respiratoire, sont rapides et peuvent provoquer des artéfacts sur les images. La vitesse de contraction cardiaque apporte justement des informations cliniquement utiles. Premièrement, nous avons montré qu'il était possible d'effectuer cette mesure en IRM Cine à contraste de phase, et d'obtenir des valeurs similaires à celles obtenues de façon clinique en échographie cardiaque. La condition est d'obtenir une haute résolution temporelle, or, pour ce faire, la durée d'acquisition doit être plus longue qu'une apnée. La gestion du mouvement respiratoire en respiration libre a été réalisée de deux façons : avec moyennage puis avec correction de mouvement à l'aide de Cine-GRICS. Deuxièmement, pour atteindre une bonne reconstruction de la résolution temporelle en Cine, nous avons proposé une gestion temps réel de la variation du rythme cardiaque pendant l'acquisition IRM Cine, avec la construction d'un modèle cardiaque adapté au patient à l'aide de l'IRM à contraste de phase temps réel. Enfin, la gestion du mouvement cardio-respiratoire en IRM Cine est appliquée chez le petit animal à l'aide d'écho navigateurs IntraGate
Cine MRI of cardiac contraction is a relatively slow imaging technique. Comparatively, patient motion, especially cardiac beating and breathing, are fast and can lead to imaging artefacts. Cardiac contraction velocity provides clinically useful information. Firstly, we have shown that making this measurement was possible using phase contrast Cine MRI, and that getting similar values as those obtained in clinical routine using cardiac echography. The condition is to reach high temporal resolution, but to do so, the acquisition duration must be longer than a breathhold. Free-breathing motion management was done by two approaches: by averaging then by motion compensation using Cine-GRICS. Secondly, in order to achieve high temporal resolution Cine reconstruction, we proposed a way to deal with changing heart rate during Cine MRI acquisition, by the construction of a patient adapted cardiac model using realtime phase contrast MRI. Finally, cardio-respiratory motion management was adapted to small animal Cine MRI thanks to IntraGate echo navigators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Meyer, Christophe. „Adaptation temps réel de l'acquisition en imagerie par résonance magnétique en fonction de signaux physiologiques“. Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0272/document.

Der volle Inhalt der Quelle
Annotation:
L'Imagerie par Résonance Magnétique de la cinématique de la contraction cardiaque est une technique d'imagerie relativement lente. En comparaison, les mouvements du patient, en particulier cardiaque et respiratoire, sont rapides et peuvent provoquer des artéfacts sur les images. La vitesse de contraction cardiaque apporte justement des informations cliniquement utiles. Premièrement, nous avons montré qu'il était possible d'effectuer cette mesure en IRM Cine à contraste de phase, et d'obtenir des valeurs similaires à celles obtenues de façon clinique en échographie cardiaque. La condition est d'obtenir une haute résolution temporelle, or, pour ce faire, la durée d'acquisition doit être plus longue qu'une apnée. La gestion du mouvement respiratoire en respiration libre a été réalisée de deux façons : avec moyennage puis avec correction de mouvement à l'aide de Cine-GRICS. Deuxièmement, pour atteindre une bonne reconstruction de la résolution temporelle en Cine, nous avons proposé une gestion temps réel de la variation du rythme cardiaque pendant l'acquisition IRM Cine, avec la construction d'un modèle cardiaque adapté au patient à l'aide de l'IRM à contraste de phase temps réel. Enfin, la gestion du mouvement cardio-respiratoire en IRM Cine est appliquée chez le petit animal à l'aide d'écho navigateurs IntraGate
Cine MRI of cardiac contraction is a relatively slow imaging technique. Comparatively, patient motion, especially cardiac beating and breathing, are fast and can lead to imaging artefacts. Cardiac contraction velocity provides clinically useful information. Firstly, we have shown that making this measurement was possible using phase contrast Cine MRI, and that getting similar values as those obtained in clinical routine using cardiac echography. The condition is to reach high temporal resolution, but to do so, the acquisition duration must be longer than a breathhold. Free-breathing motion management was done by two approaches: by averaging then by motion compensation using Cine-GRICS. Secondly, in order to achieve high temporal resolution Cine reconstruction, we proposed a way to deal with changing heart rate during Cine MRI acquisition, by the construction of a patient adapted cardiac model using realtime phase contrast MRI. Finally, cardio-respiratory motion management was adapted to small animal Cine MRI thanks to IntraGate echo navigators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Bousefsaf, Frédéric. „Mesure sans contact de l'activité cardiaque par analyse du flux vidéo issu d'une caméra numérique : extraction de paramètres physiologiques et application à l'estimation du stress“. Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0192.

Der volle Inhalt der Quelle
Annotation:
Le sujet des travaux de recherche présenté dans cette thèse de doctorat concerne la conception et le développement d’une approche basée sur le traitement du signal et des images permettant de mesurer des signaux physiologiques d’une personne située à distance du capteur. Les différents procédés proposés dans ce travail cherchent à répondre à des besoins particuliers du domaine de l’e-santé, de la télémédecine et de l’informatique affective. Les mesures sans contact de paramètres physiologiques sont utilisables dans de nombreux champs d’application, allant des services d’urgence jusqu’aux sciences du sport, où le rythme cardiaque est surveillé pendant un effort physique intense. L’approche développée est basée sur le calcul des signaux photopléthysmographiques (PPG) obtenus sur des visages humains et enregistrés par une webcam. Ces derniers sont ensuite analysés par une transformée en ondelettes continue afin d’en extraire le rythme cardiaque et la fréquence respiratoire ainsi que la variabilité cardiaque. Des opérations de traitement du signal et des images ont été développées pour améliorer la robustesse du système en le rendant moins sensible aux mouvements et aux fluctuations de l’éclairage. La fréquence respiratoire est estimée à partir de la variabilité cardiaque par le phénomène d’arythmie sinusale respiratoire, la variation naturelle de la fréquence cardiaque entrainée par la respiration. Les phénomènes de vasoconstriction et vasodilatation qui modifient les amplitudes du signal PPG sont aussi détectées par la méthode que nous proposons dans ces travaux de thèse. Les performances du système ont été évaluées à partir d’un ensemble de capteurs standards en contact sur 12 individus en bonne santé qui ont participé aux expériences. Les résultats montrent que les mesures dérivées de la webcam et des capteurs en contact sont en étroite concordance. Le second volet de ces travaux de recherche concerne la reconnaissance du stress basée sur les données physiologiques quantifiées précédemment. La webcam est ici utilisée pour mesurer et estimer l’état de tension mentale d’une personne. Les amplitudes du signal PPG et la variabilité de la fréquence cardiaque reflètent l’état du système nerveux autonome et ont été utilisées pour calculer une courbe de stress. L’activité électrodermale a concurremment été mesurée par un capteur en contact pour évaluer la méthode que nous proposons. Une application a spécifiquement été développée en laboratoire pour successivement induire du stress et relaxer les participants. Les résultats indiquent que les mesures calculées à partir des données de la webcam sont en étroite corrélation avec l’activité électrodermale. La méthode présentée dans ces travaux permet de mesurer un ensemble de données physiologiques et estimer l’état de stress d’une personne à l’aide d’une webcam, fournissant ainsi une bonne alternative aux dispositifs conventionnels en contact
Photoplethysmographic (PPG) signals obtained from a webcam are analyzed through a continuous wavelet transform to assess the instantaneous pulse rate. The measurements are performed on human faces. Robust image and signal processing are introduced to collect only pixels that contain photoplethysmographic information and to remove major artifacts and trends on raw webcam PPG signals. The interbeat intervals are computed using a standard peak detection to form the instantaneous pulse rate. In addition, the respiration is recovered using the pulse rate series by respiratory sinus arrhythmia, the natural variation in pulse rate driven by the respiration. The amplitudes of the photoplethysmographic signal, which reflect relative changes in the vascular bed due to peripheral vasoconstriction or vasodilatation, are also measured. The presented algorithms are implemented on a mid-range computer and the overall method works in real-time. The performance of the proposed pulse and breathing rates assessment method was evaluated using approved contact probes on a set of 12 healthy subjects. Results show high degrees of correlation between physiological measurements even in the presence of motion. This work provides a motion-tolerant method that remotely measures the instantaneous pulse and breathing rates. Monitoring physiological signals via non-contact means presents a greater challenge in personal health care, telemedicine and affective computing. The second part of this thesis consists in assessing mental workload changes using the parameters assessed previously, i.e. the photoplethysmographic amplitude fluctuation and the pulse rate variability. These particular signals provide an estimation of the autonomic nervous system state. In order to validate the proposed method we have recorded, concurrently to the webcam curves, electrodermal activity during an interactive game that was developed to successively stress and relax the subject. We have specifically employed a computerized and interactive version of the STROOP color word test. The results exhibit a strong correlation between the webcam and contact skin conductance level traces and offer further support for the applicability of mental stress detection by remote and low-cost means, providing an alternative to conventional contact techniques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Bousefsaf, Frédéric. „Mesure sans contact de l'activité cardiaque par analyse du flux vidéo issu d'une caméra numérique : extraction de paramètres physiologiques et application à l'estimation du stress“. Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0192/document.

Der volle Inhalt der Quelle
Annotation:
Le sujet des travaux de recherche présenté dans cette thèse de doctorat concerne la conception et le développement d’une approche basée sur le traitement du signal et des images permettant de mesurer des signaux physiologiques d’une personne située à distance du capteur. Les différents procédés proposés dans ce travail cherchent à répondre à des besoins particuliers du domaine de l’e-santé, de la télémédecine et de l’informatique affective. Les mesures sans contact de paramètres physiologiques sont utilisables dans de nombreux champs d’application, allant des services d’urgence jusqu’aux sciences du sport, où le rythme cardiaque est surveillé pendant un effort physique intense. L’approche développée est basée sur le calcul des signaux photopléthysmographiques (PPG) obtenus sur des visages humains et enregistrés par une webcam. Ces derniers sont ensuite analysés par une transformée en ondelettes continue afin d’en extraire le rythme cardiaque et la fréquence respiratoire ainsi que la variabilité cardiaque. Des opérations de traitement du signal et des images ont été développées pour améliorer la robustesse du système en le rendant moins sensible aux mouvements et aux fluctuations de l’éclairage. La fréquence respiratoire est estimée à partir de la variabilité cardiaque par le phénomène d’arythmie sinusale respiratoire, la variation naturelle de la fréquence cardiaque entrainée par la respiration. Les phénomènes de vasoconstriction et vasodilatation qui modifient les amplitudes du signal PPG sont aussi détectées par la méthode que nous proposons dans ces travaux de thèse. Les performances du système ont été évaluées à partir d’un ensemble de capteurs standards en contact sur 12 individus en bonne santé qui ont participé aux expériences. Les résultats montrent que les mesures dérivées de la webcam et des capteurs en contact sont en étroite concordance. Le second volet de ces travaux de recherche concerne la reconnaissance du stress basée sur les données physiologiques quantifiées précédemment. La webcam est ici utilisée pour mesurer et estimer l’état de tension mentale d’une personne. Les amplitudes du signal PPG et la variabilité de la fréquence cardiaque reflètent l’état du système nerveux autonome et ont été utilisées pour calculer une courbe de stress. L’activité électrodermale a concurremment été mesurée par un capteur en contact pour évaluer la méthode que nous proposons. Une application a spécifiquement été développée en laboratoire pour successivement induire du stress et relaxer les participants. Les résultats indiquent que les mesures calculées à partir des données de la webcam sont en étroite corrélation avec l’activité électrodermale. La méthode présentée dans ces travaux permet de mesurer un ensemble de données physiologiques et estimer l’état de stress d’une personne à l’aide d’une webcam, fournissant ainsi une bonne alternative aux dispositifs conventionnels en contact
Photoplethysmographic (PPG) signals obtained from a webcam are analyzed through a continuous wavelet transform to assess the instantaneous pulse rate. The measurements are performed on human faces. Robust image and signal processing are introduced to collect only pixels that contain photoplethysmographic information and to remove major artifacts and trends on raw webcam PPG signals. The interbeat intervals are computed using a standard peak detection to form the instantaneous pulse rate. In addition, the respiration is recovered using the pulse rate series by respiratory sinus arrhythmia, the natural variation in pulse rate driven by the respiration. The amplitudes of the photoplethysmographic signal, which reflect relative changes in the vascular bed due to peripheral vasoconstriction or vasodilatation, are also measured. The presented algorithms are implemented on a mid-range computer and the overall method works in real-time. The performance of the proposed pulse and breathing rates assessment method was evaluated using approved contact probes on a set of 12 healthy subjects. Results show high degrees of correlation between physiological measurements even in the presence of motion. This work provides a motion-tolerant method that remotely measures the instantaneous pulse and breathing rates. Monitoring physiological signals via non-contact means presents a greater challenge in personal health care, telemedicine and affective computing. The second part of this thesis consists in assessing mental workload changes using the parameters assessed previously, i.e. the photoplethysmographic amplitude fluctuation and the pulse rate variability. These particular signals provide an estimation of the autonomic nervous system state. In order to validate the proposed method we have recorded, concurrently to the webcam curves, electrodermal activity during an interactive game that was developed to successively stress and relax the subject. We have specifically employed a computerized and interactive version of the STROOP color word test. The results exhibit a strong correlation between the webcam and contact skin conductance level traces and offer further support for the applicability of mental stress detection by remote and low-cost means, providing an alternative to conventional contact techniques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Picot, Antoine. „Détection d'hypovigilance chez le conducteur par fusion d'informations physiologiques et vidéo“. Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0087.

Der volle Inhalt der Quelle
Annotation:
L'hypovigilance correspond à la transition entre la veille et le sommeil durant laquelle l'organisme voit ses facultés d'observation et d'analyse fortement réduites. Elle est responsable de nombreux accidents sur la route. Le but de cette thèse est de proposer un système de détection de cette phase accidentogène à partir de l'analyse conjointe de l'activité cérébrale (électroencéphalogramme ou EEG) et d'une vidéo du conducteur. Dans un premier temps, une méthode non-supervisée de détection d'hypovigilance fonctionnant à l'aide d'un unique canal EEG a été proposée. Cette méthode, qui met en oeuvre différentes techniques de traitement du signal et de diagnostic, obtient de bonnes performances sur un ensemble de conducteurs, sans qu'il soit nécessaire de régler de paramètres. Dans un deuxième temps, nous nous sommes intéressés à la caractérisation des signes visuels de l'hypovigilance par une analyse vidéo des clignements. Une comparaison entre l'approche vidéo développée et l'approche traditionnelle par électro-oculogramme (EOG) a permis d'étudier dans quelle mesure la vidéo peut remplacer l'EOG pour la caractérisation des clignements. Elle a également permis de souligner la nécessité d'utiliser d'une caméra rapide (pouvant aller jusqu'à 200fps) pour caractériser les clignements. Un algorithme de détection d'hypovigilance à partir de la caractérisation vidéo des clignements a ainsi été développé. Pour finir, un algorithme de détection d'hypovigilance fusionnant, à l'aide de logique floue, les informations obtenues par les approches physiologique et vidéo est présenté. Toutes ces méthodes ont été testées et validées sur une base de données conséquente de conduite en état d'hypovigilance, la base de données ayant été expertisée par un spécialiste
Drowsiness is the transition between the awake state and sleep where one's abilities to observe and analyse are strongly reduced. So, drowsiness is responsible for a huge number of road accidents. A drowsiness detection system is presented in this PhD. This system uses both driver's brain activity (through electroencephalogram or EEG) and driver's video analysis to detect drowsiness. A non-supervised method using a single EEG channel is first proposed. Several techniques of diagnostic and signal processing are used in this method. The method obtains good results on a large number of different drivers without tuning any parameters. Drowsiness visual indicatiors have also been studied thanks to a video analysis. The proposed video analysis has been compared to the traditional electro-oculogram (EOG) approach to study the relevance of the video analysis. This comparison highlights the need of a high frame rate camera (which frame rate can reach 200fps) for blinks characterisation. This study leads to drowsiness detection system based on blinks video characterisation. Both EEG and video methods are at last been merged using fuzzy logic to obtain a 2-levels drowsiness detection system. All these methods have been tested and validated on a consistent database of twenty different drivers which was evaluated by a specialist doctor
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Picot, Antoine. „Détection d'hypovigilance chez le conducteur par fusion d'informations physiologiques et vidéo“. Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00440959.

Der volle Inhalt der Quelle
Annotation:
L'hypovigilance correspond à la transition entre la veille et le sommeil durant laquelle l'organisme voit ses facultés d'observation et d'analyse fortement réduites. Elle est responsable de nombreux accidents sur la route. Le but de cette thèse est de proposer un système de détection de cette phase accidentogène à partir de l'analyse conjointe de l'activité cérébrale (électroencéphalogramme ou EEG) et d'une vidéo du conducteur. Dans un premier temps, une méthode non-supervisée de détection d'hypovigilance fonctionnant à l'aide d'un unique canal EEG a été proposée. Cette méthode, qui met en oeuvre différentes techniques de traitement du signal et de diagnostic, obtient de bonnes performances sur un ensemble de conducteurs, sans qu'il soit nécessaire de régler de paramètres. Dans un deuxième temps, nous nous sommes intéressés à la caractérisation des signes visuels de l'hypovigilance par une analyse vidéo des clignements. Une comparaison entre l'approche vidéo développée et l'approche traditionnelle par électro-oculogramme (EOG) a permis d'étudier dans quelle mesure la vidéo peut remplacer l'EOG pour la caractérisation des clignements. Elle a également permis de souligner la nécessité d'utiliser d'une caméra rapide (pouvant aller jusqu'à 200fps) pour caractériser les clignements. Un algorithme de détection d'hypovigilance à partir de la caractérisation vidéo des clignements a ainsi été développé. Pour finir, un algorithme de détection d'hypovigilance fusionnant, à l'aide de logique floue, les informations obtenues par les approches physiologique et vidéo est présenté. Toutes ces méthodes ont été testées et validées sur une base de données conséquente de conduite en état d'hypovigilance, la base de données ayant été expertisée par un spécialiste.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Mekkaoui, Choukri. „Les signaux cardiaques et vasculaires caractéristiques de l'écoulement sanguin in vivo chez le porc : acquisition, modélisation mathématique et signification physique des conséquences physiologiques des thérapeutiques interventionnelles“. Aix-Marseille 3, 2003. http://www.theses.fr/2003AIX30030.

Der volle Inhalt der Quelle
Annotation:
Les signaux physiologiques cardiaques et vasculaires que sont la pression, le débit sanguins et la déformation artérielle ainsi que la contrainte et la contractilité myocardique témoignent de l'état fonctionnel de la circulation systémique et vont être les fondements de notre étude chez le Porc. L'objectif de cette thèse était de reconsidérer l'acquisition des signaux par des techniques adaptés au caractère invasif de nos investigations. La méthode de conditionnement utilisée nous a conduit à l'extraction d'un cycle cardiaque moyen, caractéristique de la situation physiologique étudiée. L'étape suivante a consisté à la conception d'un modèle d'identification mathématique octroyant une forme analytique dans le domaine temporel, avec pour objectif de ne plus travailler sur des valeurs discrètes. Parallèlement, nous avons définis les paramètres hémodynamiques et mécaniques qui rendent effectivement compte de la situation physiologique du système cardiovasculaire de l'animal, ainsi que des effets thérapeutiques. Ceci nous a conduit à analyser les significations physique et physiologique de ces signaux, ainsi qu'à l'interprétation des altérations ou des dysfonctionnements fonctionnels induits, afin d'évaluer les effets des thérapeutiques endovasculaires ou chirurgicales dans l'optique finale de les optimiser
The cardiac and vascular signals characteristics of blood flowing that blood pressure and flow and arterial and cardiac bending are, testify the functional systemic circulatory statement. They are the basic materials of the present study in the Swine. The aims of the thesis was to reconsider signal collections by using physical means, fitting the requirements of our interventional studies. Conditionings the signals, as we did, implied signals extractions along an averaged cardiac cycle, characteristics of the physiological circumstances. The next step dealt with the development of an identification mathematical model providing with the analytical forms in the time domain, and no longer working with discrete values. In parallel, we defined hemodynamical and mechanical parameters efficiently describing the physiological statement of the animal, and the consequences of applied therapeutics as well. We therefrom have analyzed physical and physiological meanings of cardiac and vascular signals, and rendered of pathological changes, as well as of the consequences of interventional therapeutics, whether they were endovascularly and surgically performed, as attempts of optimizing the methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Lemaire, Jean-Jacques. „Analyse des ondes lentes de pression intracranienne chez l'homme : approche dans le domaine frequentiel : traitement du signal, aspects biophysiques, physiologiques, et physiopathologiques“. Clermont-Ferrand 1, 1994. http://www.theses.fr/1994CLF1MM12.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Chantaf, Samer, und Samer Chantaf. „Biométrie par signaux physiologiques“. Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00778089.

Der volle Inhalt der Quelle
Annotation:
D'une manière générale, la biométrie a pour objectif d'identifier des individus, notamment à partir de leurs caractéristiques biologiques. Cette pratique tend à remplacer les méthodes traditionnelles de vérification d'identité des individus ; entre autres, les mots de passe et les codes de sécurité. Au quotidien, la biométrie trouve de vastes applications et la recherche de nouvelles méthodes biométriques est d'actualité. L'objectif de notre thèse consiste à développer et d'évaluer de nouvelles modalités biométriques basées sur des caractéristiques infalsifiables, ne pouvant être modifiées volontairement. Dans ce contexte, les signaux physiologiques sont pris en considération. Ainsi, nous avons proposé trois méthodes d'identification biométriques. La première méthode utilise l'électrocardiogramme (ECG) comme signature individuelle, alors que la deuxième est basée sur l'utilisation des signaux électromyographiques (EMG) de surface en réponse à une force d'intensité fixe. Enfin, la dernière technique explorée, utilise les réponses motrices obtenues suite à une stimulation électrique. Ces méthodes consistent d'abord à acquérir les signaux physiologiques chez des personnes saines. Ces signaux sont modélisés par des réseaux d'ondelettes afin d'en extraire des caractéristiques pertinentes. La phase d'identification automatique est effectuée par des réseaux de neurones. D'après les résultats obtenus suite à des expériences effectuées, les méthodes proposées conduisent à des performances d'identification intéressantes. La première méthode, utilisant le signal électro- cardiographique, permet d'obtenir un taux de reconnaissance de 92%, alors que l'identification par les signaux EMG, en réponse à une force d'une intensité fixe, permet une identification correcte à 80%. Enfin, une performance de 95% est obtenue par l'identification par réponse motrice. Pour ces trois techniques explorées, la robustesse par rapport au bruit à été étudiée
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Alata, Olivier. „Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique“. Habilitation à diriger des recherches, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00573224.

Der volle Inhalt der Quelle
Annotation:
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Rivera, Florence. „Microstructures pour l'acquisition et l'interprétation de signaux physiologiques“. Université Joseph Fourier (Grenoble), 2002. http://www.theses.fr/2002GRE19017.

Der volle Inhalt der Quelle
Annotation:
Une des approches thérapeutiques du contrôle de la glycémie chez les patients diabètiques, est le couplage d'un capteur de glucose à une pompe à insuline afin d'assurer une régulation continue de la concentration sanguine de glucose. A ce jour, de nombreux algorithmes permettent un tel couplage, cependant peu de capteurs assurent un suivi précis de la glycémie. Les îlots de Langerhans assurent ce rôle de glucomètre in vivo. Ces micro-organes générent une activité électrique fonction de la concentration de glucose avoisinante. Dans le but de concevoir un glucomètre précis et continu, nous avons évalué la possibilité de créer un "biocapteur cellulaire" dans lequel les îlots pancréatiques feraient office de capteur. Ce travail pluridisciplinaire a posé les bases de cette instrumentation, grâce à la mise au point de microstructures 3D permettant le recueil de l'activité électrique extracellulaire des îlots de Langerhans
Diabetes is a consequence of the lack of glycemia regulation. One way to control this physiological data, is to implant an insulin pump coupled with a blood glucose sensor. Many algorithms provide such a coupling, however poor precision of glucose sensing can be observed in most of glucometers. Pancreatic islets act as glucose sensor in vivo, and generate electrical activity function of glucose concentration. In the order to make an on-line sensitive glucometer, we evaluate the feasibility of creating a "cell biosensor". In this purpose, we concieved 3D microelectrodes to record extracellular electrical activity of pancreatic islets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

BATAILLOU, ERIC. „Analyse de signaux transitoires bruites : traitement sequentiel et traitement vectoriel. application aux signaux biomedicaux“. Nice, 1994. http://www.theses.fr/1994NICE4767.

Der volle Inhalt der Quelle
Annotation:
Le travail que nous presentons se situe dans le cadre de l'etude des signaux multiples. Par signaux multiples, on entend non seulement des signaux provenant de plusieurs capteurs enregistres simultanement, mais aussi des sequences resynchronisees de signaux repetitifs enregistres par un capteur unique. Les methodes presentees utilisent la propriete de multiplicite des signaux pour ameliorer les performances des methodes existantes et pour developper de nouvelles methodes specifiques pouvant traiter de maniere simultanee l'information contenue dans l'ensemble des signaux. Nous proposons tout d'abord une amelioration de la methode de sommation synchrone ponderee qui permet de prendre en compte les non stationnarites du bruit, en faisant evoluer la valeur des poids en fonction de la variation du niveau de bruit de chaque realisation. Nous montrons que la valeur des poids peut etre obtenue a l'aide d'un processus adaptatif impliquant la resolution d'un probleme d'estimation sous contrainte. Nous presentons plusieurs approches pour estimer la valeur optimale de la ponderation. Nous proposons ensuite une application originale a la soustraction de bruit directement derivee des methodes d'estimation presentees precedemment. Ensuite pour estimer les liens qui existent entre les differents signaux, nous etudions la fonction de coherence qui est une mesure classique du lien spectral entre deux signaux. Nous proposons une approche permettant d'estimer le module de la fonction de coherence dans le cas non stationnaire a l'aide d'une modelisation parametrique evolutive. Dans une derniere partie, nous nous interessons aux problemes d'estimation des differences de temps d'arrivee entre plusieurs signaux. Nous proposons une methode basee sur l'estimation sous contrainte des fonctions d'intercorrelation, la contrainte imposant le respect des relations entre les differents decalages entre signaux. Toutes les etudes realisees, ont ete alors mises en uvre pour l'analyse de differents signaux biomedicaux: electrocardiogramme, potentiel d'action cardiaque, electroencephalogramme et potentiel evoque
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Chen, Meng. „Massive data processing and explainable machine learning in neonatal intensive care units“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS063.

Der volle Inhalt der Quelle
Annotation:
Les nouveaux-nés prématurés sont vulnérables à des complications comme l’hyperbilirubinémie néonatale et le sepsis tardif (LOS), posant des défis importants dans les unités de soins intensifs néonatals (USIN). Malgré les avancées en matière de soins, la détection précoce et la gestion efficace de ces affections restent complexes. Cette thèse, basée sur l’étude CARESS-Premi (NCT01611740), vise à développer des techniques avancées de traitement des données et des modèles interprétables d’apprentissage automatique afin d’améliorer la prise de décision en USIN, via des systèmes de surveillance non invasifs, continus et en temps réel. Les principales contributions comprennent : (i) une chaîne optimisée de traitement des signaux pour l’analyse ECG en conditions réelles, adaptée aux USIN; (ii) un modèle mathématique patient-spécifique pour la caractérisation de la dynamique postnatale de la bilirubine, avec des paramètres comme biomarqueurs potentiels pour détecter les comorbidités associées ; (iii) une estimation non invasive de la bilirubine utilisant des modèles d’apprentissage automatique à effets mixtes intégrant l’analyse de la variabilité de la fréquence cardiaque (HRV) et des informations physiologiques ; (iv) des modèles pour la détection précoce du LOS via l’analyse de la HRV ; (v) la conception, le déploiement et l’évaluation préliminaire d’un système d’aide à la décision clinique (CDSS) on-the-edge, intégrant du traitement des signaux en quasi-temps réel et des modèles d’inférence dans un contexte USIN. Ces résultats démontrent le potentiel du traitement avancé des signaux physiologiques combiné à l’apprentissage automatique pour optimiser les soins néonatals
Preterm infants are highly vulnerable to complications such as neonatal hyperbilirubinemia and late-onset sepsis (LOS), which pose significant challenges in Neonatal Intensive Care Units (NICU). Despite advancements in neonatal care, early detection and effective management of these conditions remain difficult. Based on the CARESS-Premi project (NCT01611740), the dissertation aims to develop advanced data processing techniques and interpretable machine learning (ML) models to enhance NICU decision-making and neonatal outcomes, by leveraging non-invasive, continuous and real-time monitoring systems. The main contributions include: (i) an optimized automatic signal processing pipeline for real-life ECG analysis tailored to NICU; (ii) a patient-specific mathematical model for postnatal bilirubin dynamics characterization in preterm infants, with model parameters serving as potential biomarkers for detecting associated comorbidities; (iii) the knowledge-based non-invasive bilirubin estimation using mixed-effects ML integrating heart rate variability (HRV) analysis and physiological insights; (iv) ML models for LOS early detection using HRV analysis, proving timely alerts before clinical suspicion; (v) the design, deployment and preliminary evaluation of an on-the-edge clinical decision support system (CDSS) integrating quasi-real-time signal processing and ML models in a NICU setting. These results demonstrate the potential of combining advanced physiological signal processing with ML to optimize neonatal care
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Kachenoura, Amar. „Traitement Aveugle de Signaux Biomédicaux“. Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00359155.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire aborde l'analyse et le traitement de données biomédicales. L'objectif est d'extraire des informations nécessaires au diagnostic de certaines pathologies. Plus précisément, ce rapport de thèse peut être scindé en deux parties. La première concerne l'élaboration d'un système ambulatoire multi-varié qui permette d'explorer les fonctions neurologiques nécessaires au diagnostic de différents troubles du sommeil. Des méthodes de séparation aveugle de sources, développées pour des mélanges instantanés, ont été étudiées et appliquées pour répondre à ce problème. La seconde partie porte sur l'étude du système nerveux autonome. Le but est de caractériser le profile sympathique et parasympathique des patients. Face aux différents problèmes mathématiques rencontrés, nous avons élaboré de nouvelles méthodes d'estimation de phase. Ces dernières ont fait l'objet d'une étude comparative au travers de simulations numériques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Chollet, Paul. „Traitement parcimonieux de signaux biologiques“. Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0024/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs corporels représentent un enjeu sociétal important en permettant des soins de meilleure qualité avec un coût réduit. Ces derniers sont utilisés pour détecter des anomalies dès leur apparition et ainsi intervenir au plus vite. Les capteurs sont soumis à de nombreuses contraintes de fiabilité, robustesse, taille et consommation. Dans cette thèse, les différentes opérations réalisées par les réseaux de capteurs corporels sont analysées. La consommation de chacune d'elles est évaluée afin de guider les axes de recherche pour améliorer l'autonomie énergétique des capteurs. Un capteur pour la détection d'arythmie sur des signaux cardiaques est proposé. Il intègre un traitement du signal via l'utilisation d'un réseau de neurone à cliques. Le système proposé est simulé et offre une exactitude de classification de 95 % pour la détection de trois types d'arythmie. Le prototypage du système via la fabrication d'un circuit mixte analogique/numérique en CMOS 65 nm montre une consommation du capteur de l'ordre de 1,4 μJ. Pour réduire encore plus l'énergie, une nouvelle méthode d'acquisition est utilisée. Une architecture de convertisseur est proposée pour l'acquisition et le traitement de signaux cardiaques. Cette dernière laisse espérer une consommation de l'ordre de 1,18 nJ pour acquérir les paramètres tout en offrant une exactitude de classification proche de 98 %. Cette étude permet d'ouvrir la voie vers la mise en place de capteurs très basse consommation pouvant durer toute une vie avec une simple pile
Body area sensor networks gained great focused through the promiseof better quality and cheaper medical care system. They are used todetect anomalies and treat them as soon as they arise. Sensors are under heavy constraints such as reliability, sturdiness, size and power consumption. This thesis analyzes the operations perform by a body area sensor network. The different energy requirements are evaluated in order to choose the focus of the research to improve the battery life of the sensors. A sensor for arrhythmia detection is proposed. It includes some signal processing through a clique-based neural network. The system simulations allow a classification between three types of arrhythmia with 95 % accuracy. The prototype, based on a 65 nm CMOS mixed signal circuit, requires only 1.4 μJ. To further reduce energy consumption, a new sensing method is used. A converter architecture is proposed for heart beat acquisition. Simulations and estimation show a 1.18 nJ energy requirement for parameter acquisition while offering 98 % classification accuracy. This work leads the way to the development of low energy sensor with a lifetime battery life
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Fares, Fares. „Traitement des signaux Argos 4“. Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0024/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est dédié à l’étude de la problématique des interférences multi utilisateurs dans le système Argos et à la proposition des diverses techniques pour réduire les effets de ces interférences. Le système Argos est un système mondial de localisation et de collecte de données géo positionnées par satellite. Il permet à l’échelle mondiale de collecter et de traiter les données émises par des émetteurs installés sur la surface de terre. Ces émetteurs sont connus sous le nom de balises. Ces balises sont installées sur des voiliers, des stations météo, des bouées, ainsi que sur quelques animaux (phoques, penguins, etc.…). Le système Argos a été créé en 1978 par le Centre National des Études spatiales (CNES), l’agence spatiale américaine (NASA) et l’agence américaine d’étude de l’atmosphère et de l’océan (NOAA). Depuis sa création, le nombre de balises Argos n’a cessé d’augmenter afin de couvrir au mieux la couverture mondiale. Nous sommes orientés ainsi à la saturation de la bande d’émission et à la présence des interférences multi utilisateurs (MUI) provenant de la réception simultanée de plusieurs signaux émis par les balises. Cette MUI limite la capacité du système Argos et dégrade les performances en termes de Taux Erreur Bit (TEB). Actuellement, le système Argos n’est capable de traiter qu’un seul signal reçu à un instant donné. D’où, l’intérêt d’implanter des techniques au niveau du récepteur capable de réduire les effets des interférences et de traiter les signaux émis par toutes les balises. Plusieurs techniques de détection multi utilisateurs (MUD) ont été développées dans le cadre de cette problématique. Ces techniques sont principalement implantées dans les systèmes CDMA où des codes d’étalement sont utilisés afin de différencier entre les différents signaux. Ceci n’est pas le cas du système Argos où les signaux ne présentent pas des séquences d’étalement et que les bandes de fréquences pour ces différents signaux ne sont pas disjointes à cause de l’effet Doppler et donc, un recouvrement spectral au niveau du récepteur est très probable. Dans ce contexte, l’objectif du travail présenté dans cette thèse est d’étudier différentes techniques MUD appliquées au système Argos et d’évaluer ces techniques au niveau des performances en termes de TEB et de complexité d’implantation. Dans ce travail, nous présentons les différentes composantes du système Argos ainsi que son mode de fonctionnement. Ensuite, nous présentons la problématique dans le système Argos ainsi que les différentes solutions proposées. Parmi ces solutions, nous montrons celle basant sur l’implantation des techniques MUD au niveau du récepteur. Ces différentes techniques MUD sont alors présentées ainsi que les avantages et les inconvénients de chacune d’elles. Parmi les techniques possédant un bon compromis entre les performances d’une part et la complexité d’autre part, nous notons la technique d’annulation par série d’interférence (SIC). Dans cette technique, les signaux sont démodulés successivement suivant l’ordre décroissant des puissances. Cette technique nécessite une étape d’estimation des paramètres des signaux à chaque étape. L’impact d’une estimation imparfaite des différents paramètres est aussi étudié. Après l’étude des impacts des erreurs d’estimation, nous proposons des estimateurs adaptables au système Argos. Les performances de ces estimateurs sont obtenues en comparant les variances de leurs erreurs aux bornes de Cramer Rao (CRB). Enfin, nous terminons le travail par une conclusion générale des résultats obtenus et nous envisageons les perspectives des prochains travaux
In our thesis, we investigate the application of multi user detection techniques to a Low Polar Orbit (LPO) satellite used in the Argos system. Argos is a global satellite-based location and data collection system dedicated for studying and protecting the environment. User platforms, each equipped with a Platform Transmitter Terminal (PTT), transmit data messages to a 850 km LPO satellite. An ARGOS satellite receives, decodes, and forwards the signals to ground stations. All PTTs transmit at random times in a 100 kHz bandwidth using different carrier frequencies. The central carrier frequency f0 is 401.65 MHz. Due to the relative motion between the satellite and the platforms, signals transmitted by PTTs are affected by both a different Doppler shift and a different propagation delay. Thus, the Argos satellite receives overlapping signals in both frequency and time domains inducing Multiple Access Interference (MAI). One common approach to mitigate the MAI problem is to implement Multi User Detection (MUD) techniques at the receiver. To tackle this problem, several MUD techniques have been proposed for the reception of synchronous and asynchronous users. In particular, the Successive Interference Cancelation (SIC) detector has been shown to offer a good optimality-complexity trade-off compared to other common approaches such as the Maximum Likelihood (ML) receiver. In an Argos SIC receiver, users are decoded in a successive manner, and the signals of successfully decoded users are subtracted from the waveform before decoding the next user. This procedure involves a parameter estimation step and the impact of erroneous parameter estimates on the performance of Argos SIC receiver has been studied. Argos SIC receiver has been shown to be both robust to imperfect amplitude and phase estimation and sensitive to imperfect time delay estimation. The last part of our work focuses on the implementation of digital estimators for the Argos system. In particular, we propose a time delay estimator, a frequency estimator, a phase estimator and an amplitude estimator. These estimators are derived from the ML principle and they have been already derived for the single user transmission. In our work, we adapt successfully these estimators for the multi user detector case. These estimators use the Non Data Aided (NDA) cases in which no a priori information for the transmitted bits is required. The performance of these different estimators are compared to the Cramer Rao Bound (CRB) values. Finally, we conclude in our work by showing the different results obtained during this dissertation. Also, we give some perspectives for future work on Argos system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Bencheikh, Kamel. „Traitement non destructif des signaux optiques“. Paris 13, 1996. http://www.theses.fr/1996PA132046.

Der volle Inhalt der Quelle
Annotation:
L'exploitation d'une interaction non linéaire du second ordre: l'amplification paramétrique dépendante de la phase, a permis de surpasser la limite quantique standard lors du traitement et de la détection des signaux optiques. Le rendement quantique de détection est ainsi considérablement amélioré lorsque le signal est préamplifié par un amplificateur paramétrique dépendant de la phase, qui ne dégrade pas le rapport signal sur bruit. L'ensemble, amplificateur sans bruit et détecteur, peut être considéré comme un nouveau dispositif dont le rendement quantique de détection est idéal lorsque le gain de l'amplificateur est élevé. Par ailleurs, la réalisation de deux mesures quantiques non destructives (qnd) successives d'une quadrature d'un signal, nous a permis d'apporter la première démonstration complète du principe de la mesure qnd. Chaque mesure introduit une perturbation qui est rejetée sur la quadrature conjuguée, préservant de la contamination la quadrature mesurée. A l'aide des critères qnd nous avons démontré le caractère non destructif de notre double mesure ainsi que l'existence de corrélations quantiques (en dessous de la limite quantique standard) entre les mesures et avec le signal. Du point de vue des communications optiques, nous avons réalisé deux prises optiques en ligne, ayant des performances quantiques. L'étude théorique a néanmoins révélé la sensibilité de telles prises vis à vis des pertes optiques lorsque leur nombre augmente. Nous avons contourne ce problème en développant deux prises optiques quantiques amplificatrices basées sur l'amplification optique sans bruit et la séparation des photons jumeaux générés par l'amplificateur paramétrique dépendant de la phase. L'un des photons est considéré comme le signal, l'autre constitue la mesure. Les performances de cette double prise sont non classiques et montrent une grande robustesse à l'encontre de pertes optiques. L'étude théorique a révélé que les performances non classiques se conservent lorsque le nombre de prises optiques augmente
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Moulessehoul-Ounnas, Malika. „Conception et mise en oeuvre de l'interface d'acquisition et de transmission d'un réseau de capteurs sans fil : application à la mesure de signaux électrophysiologiques“. Thesis, Tours, 2009. http://www.theses.fr/2009TOUR4043.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse consiste en une étude théorique et expérimentale d'un système detransmission à application universelle. Un système de capteurs ou multi-capteurs sans filsdédié à des différentes applications ayant comme point commun, une basse amplitude. Ils'inspire donc des plates forme des réseaux sans fils existant dans le monde technologique.Nous présentons dans ce mémoire les différentes raisons qui expliquent l'intérêt majeursuscité par un tel système, nous aborderons plus profondément une des applications dusystème, à savoir le domaine neurophysiologique. A partir des choix d'architecture et dessimulations expérimentales correspondantes nous relayons étape par étape les différentesphases qui nous ont mené à réaliser les prototypes en tenant en compte les résultats desuns et des autres, pour finir ensuite par une étude comparative des différents prototypesréalisés et des perspectives envisagées
This thesis work is a theoretical and experimental study of a universal applicationtransmission system. A wireless sensor or multi-sensor system dedicated to different low-magnitudeapplications. It is inspired from wireless networks platforms of the moderntechnological world.In this dissertation, the different reasons for the interest aroused by such a system, arepresented, we will more deeply study one of the applications of this system, namely theneurophysiological area. From the choice of the architecture and corresponding experimentalsimulations we will explain, step by step, the different phases which led us to realize theprototypes taking into account the results of each phase, then finally a comparative studyof different prototypes realized and the prospects envisaged
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Kammoun, Imen. „Modélisation et détection de ruptures des signaux physiologiques issus de compétitions d'endurance“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2007. http://tel.archives-ouvertes.fr/tel-00200441.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse porte sur la modélisation et l'estimation de paramètres pertinents pour les signaux de fréquences cardiaques (FC) instantanées. Nous nous intéressons à un paramètre (appelé grossièrement "fractal"), qui témoigne de la régularité locale de la trajectoire et de la dépendance entre les données. Les propriétés asymptotiques de la fonction DFA (Detrended Fluctuation Analysis) et de l'estimateur de H sont étudiées pour le bruit gaussien fractionnaire (FGN) et plus généralement pour une classe semi-paramétrique de processus stationnaires à longue mémoire avec ou sans tendance. On montre que cette méthode n'est pas robuste. On propose la modélisation des séries de FC par une généralisation du FGN, appelée bruit gaussien localement fractionnaire. Un tel processus stationnaire est construit à partir du paramètre dit de fractalité locale (une sorte de paramètre de Hurst avec des valeurs dans IR) sur une bande de fréquences. L'estimation du paramètre est faite par une analyse par ondelettes, tout comme le test d'adéquation. On montre la pertinence du modèle et une évolution du paramètre pendant la course. Une détection des changements de ce paramètre pourrait être extrêmement appropriée. On propose alors une méthode de détection de multiples ruptures du paramètre de longue mémoire (respectivement d'autosimilarité, de fractalité locale). Un estimateur des points de changements est construit, il vérifie un théorème limite. Un théorème de la limite centrale est établi pour l'estimateur des paramètres et un test d'ajustement est mis en place dans chaque zone où le paramètre est inchangé. Enfin, on montre la même évolution du paramètre de fractalité locale sur les FC.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Herrmann, Théodore. „Centrales de mesures numériques, longue durée, portables pour l'acquisition de signaux physiologiques“. Saint-Etienne, 1988. http://www.theses.fr/1988STET4011.

Der volle Inhalt der Quelle
Annotation:
Le premier appareil est un ensemble de détection portable pour la médecine nucléaire. Il permet de compter des rayons gamma, sur deux voies suivant une période d'échantillonnage variable et durant plus de 24 heures. Le second appareil mesure 4 paramètres (fréquence cardiaque, activité, températures ambiante et cutanée) durant plus de 15 jours
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Herrmann, Théodore. „Centrales de mesures numériques, longue durée, portables pour l'acquisition de signaux physiologiques“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37614286n.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Dhif, Imen. „Compression, analyse et visualisation des signaux physiologiques (EEG) appliqués à la télémédecine“. Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066393.

Der volle Inhalt der Quelle
Annotation:
En raison de la grande quantité d’EEG acquise sur plusieurs journées, une technique de compression efficace est nécessaire. Le manque des experts et la courte durée des crises encouragent la détection automatique des convulsions. Un affichage uniforme est obligatoire pour assurer l’interopérabilité et la lecture des examens EEG transmis. Le codeur certifié médical WAAVES fournit des CR élevés et assure une qualité de diagnostic d’image. Durant nos travaux, trois défis sont révélés : adapter WAAVES à la compression des signaux, détecter automatiquement les crises épileptiques et assurer l’interopérabilité des afficheurs EEG. L’étude du codeur montre qu’il est incapable de supprimer la corrélation spatiale et de compresser des signaux monodimensionnels. Par conséquent, nous avons appliqué l’ICA pour décorréler les signaux, la mise en échelle pour redimensionner les valeurs décimales et la construction d’image. Pour garder une qualité de diagnostic avec un PDR inférieur à 7%, nous avons codé le résidu. L’algorithme de compression EEGWaaves proposé a atteint des CR de l’ordre de 56. Ensuite, nous avons proposé une méthode d’extraction des caractéristiques des signaux EEG basée sur un nouveau modèle de calcul de la prédiction énergétique (EAM) des signaux. Ensuite, des paramètres statistiques ont été calculés et les Réseaux de Neurones ont été appliqués pour détecter les crises épileptiques. Cette méthode nous a permis d’atteindre de meilleure sensibilité allant jusqu’à 100% et une précision de 99.44%. Le dernier chapitre détaille le déploiement de notre afficheur multi-plateforme des signaux physiologiques. Il assure l’interopérabilité des examens EEG entre les hôpitaux
Due to the large amount of EEG acquired over several days, an efficient compression technique is necessary. The lack of experts and the short duration of epileptic seizures require the automatic detection of these seizures. Furthermore, a uniform viewer is mandatory to ensure interoperability and a correct reading of transmitted EEG exams. The certified medical image WAAVES coder provides high compression ratios CR while ensuring image quality. During our thesis, three challenges are revealed : adapting WAAVES coder to the compression of the EEG signals, detecting automatically epileptic seizures in an EEG signal and ensure the interoperability of the displays of EEG exams. The study of WAAVES shows that this coder is unable to remove spatial correlation and to compress directly monodimensional signals. Therefore, we applied ICA to decorrelate signals, a scaling to resize decimal values, and image construction. To keep a diagnostic quality with a PDR less than 7%, we coded the residue. The proposed compression algorithm EEGWaaves has achieved CR equal to 56. Subsequently, we proposed a new method of EEG feature extraction based on a new calculation model of the energy expected measurement (EAM) of EEG signals. Then, statistical parameters were calculated and Neural Networks were applied to classify and detect epileptic seizures. Our method allowed to achieve a better sensitivity up to 100% and an accuracy of 99.44%. The last chapter details the deployment of our multiplatform display of physiological signals by meeting the specifications established by doctors. The main role of this software is to ensure the interoperability of EEG exams between healthcare centers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bouras, Bouhafs. „Traitement du signal adapté aux signaux GPS“. Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/357ad253-2be4-452d-ad4e-eb2a9e8ef7b6.

Der volle Inhalt der Quelle
Annotation:
Parmi les systèmes de radionavigation existants, GPS est sans doute le plus complet et le plus précis. Il est conçu pour fournir des mesures précises des trois coordonnées d'un navigateur partout dans le monde, et de corriger son horloge dans un repère référentiel. Compare aux autres systèmes de navigation, il fait appel à des traitements du signal plus sophistiques, et qui font des récepteurs GPS plus complexes que d'autres. Notre objectif est de rendre ces récepteurs compétitifs en termes de cout et d'utilisation sans compromettre leurs hautes performances. Dans notre travail sur une unité de traitement GPS, prototype réalisé dans notre laboratoire, de très bonnes performances étaient obtenues sur un signal GPS simule. Des signaux fortement noyés dans le bruit (avec un rapport signal a bruit inferieur a 23 dB) et affectes par le doppler, étaient traites avec succès et la reconnaissance des codes correspondants était établie. Parmi les aspects les plus importants du système réalisé, la haute immunité au bruit des signaux d'asservissement, permettait une opération stable en présence d'un bruit intense, permettant l'acquisition des données de navigation dans de bonnes conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Stienne, Georges. „Traitement des signaux circulaires appliqués à l'altimétrie par la phase des signaux GNSS“. Phd thesis, Université du Littoral Côte d'Opale, 2013. http://tel.archives-ouvertes.fr/tel-00980907.

Der volle Inhalt der Quelle
Annotation:
Lorsqu'une grandeur est observée par une série temporelle de mesures périodiques, telles que des mesures d'angles, les outils statistiques du domaine linéaire ne sont plus adaptés à l'estimation des paramètres statistiques de cette série. Nous proposons des filtres et un opérateur de fusion adaptés aux grandeurs aléatoires circulaires. Ils sont développés dans un cadre bayésien avec la distribution circulaire normale de von Mises. De plus, on propose un estimateur circulaire GLR (Global Likehood Ratio) de ruptures dans un signal angulaire s'appuyant sur un filtre particulaire défini dans le domaine circulaire. Le traitement des signaux GNSS repose traditionnellement sur l'estimation récursive, en boucles fermées, de trois paramètres : le délai de code, la phase et la fréquence porteuse du signal reçu. On montre dans cette thèse que l'estimation de la phase et de la fréquence en boucle fermée est à l'origine d'imprécisions et de perturbations additionnelles. On propose une nouvelle approche pour l'estimation de ces paramètres en boule ouverte. Dans ce cas, les mesures de phase sont des angles, définis entre ‒π et π. Statistiquement, elles peuvent être modélisées par la distribution circulaire de von Mises et l'on utilise donc les outils d'estimation circulaire développés dans cette thèse pour les traiter. On montre l'intérêt de l'approche proposée pour le positionnement et pour l'altimétrie par réflectométrie des signaux GNSS. La précision obtenue est de l'ordre du centimètre, pour des durées d'intégrationd'une milliseconde. On propose également une technique de résolution de l'ambiguïté de phase, utilisable dans une approche mono-récepteur et mono-fréquence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Prieto, Guerrero Alfonso. „Compression de signaux biomédicaux“. Toulouse, INPT, 1999. http://www.theses.fr/1999INPT032H.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail de thèse est de proposer des méthodes de compression de signaux biomédicaux, [. . . ] Les signaux étudiés sont de trois catégories : les ElectroMyoGrammes (EMG), les ElectroCardiogrammes (ECG), les ElectroEncéphaloGrammes (EEG). Le choix de ces signaux a été basé sur leur ample utilisation dans le diagnostic et la surveillance des patients, en milieu hospitalier ou en ambulatoire. Cette étude est divisée en quatre chapitres. Le chapitre 1 présente les signaux qui font partie de l'étude en décrivant leur principales caractéristiques. Dans le chapitre 2, une étude comparative entre diverses méthodes de compression est menée. Cette comparaison est faite en divisant les techniques utilisées en deux grandes classes : les méthodes prédictives (le DPCM, la Modélisation Multi-Impulsionnelle et le codeur CELP) et les méthodes par transformées (la Transformée en Cosinus Discrète (TCD) et la Transformée en Ondelette Discrète (TOD)). Les performances de ces deux classes de méthodes sont comparées à celles spécifiquement développées pour les signaux biomédicaux. Nous montrons que les techniques de compression par transformées permettent nettement d'obtenir les meilleurs résultats en termes de rapport signal à bruit et de taux de compression [. . . ]. Le chapitre 3 s'intéresse plus particulièrement à la compression de l'ECG mais les résultats présentés peuvent s'étendre à toute une classe de signaux proches de l'ECG, présentant une structure de motifs périodisés. Ce chapitre présente une nouvelle méthode de compression, basée sur la modélisation de l'ECG à l'aide d'une ondelette ù̀tilisateur'' créée à partir de données réelles. Les résultats [. . . ] ouvrent un champ d'applications, non seulement en compression de données mais aussi en aide au diagnostic. Enfin, le chapitre 4 aborde le problème de la compression d'un point de vue multi-dimensionnel, prenant en compte l'enregistrement en parallèle de plusieurs signaux biomédicaux, comme, par exemple, les différentes dérivations de l'ECG. Deux des techniques présentées sont l'extension au cas multi-dimensionnel des méthodes présentées dans le chapitre 2 (le DPCM et la TCD). Une nouvelle technique de compression est aussi présentée ; celle-ci exploite le lien physique entre les signaux qui forment l'ensemble de l'enregistrement simultané. Cette méthode est basée sur l'identification de filtres RIF liant les différents signaux enregistrés [. . . ]. La méthode originale basée sur l'identification de filtres fournit des résultats très prometteurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Meste, Olivier. „Contribution à l'analyse de signaux non-stationnaires : application à l'étude de signaux biomédicaux“. Nice, 1992. http://www.theses.fr/1992NICE4585.

Der volle Inhalt der Quelle
Annotation:
Les signaux non-stationnaires qui font l'objet de la thèse sont d'abord envisagés d'un point de vue général et traités par une approche temps-fréquence ; on étudie ensuite des signaux non-stationnaires répétitifs en faisant intervenir la sommation synchrone. L'étude des signaux non-stationnaires par des représentations temps-fréquence permet le suivi de l'évolution spectrale du signal au cours du temps. Nous avons étudié et amélioré certaines méthodes appartenant à la classe de Cohen en les identifiant à des lissages de la transformée de Wigner-Ville et en étudiant leurs propriétés dans le plan fréquence-fréquence. Nous avons opposé à ces lissages linéaires, d'autres dont les paramètres varient soit en fonction du contenu spectral du signal en chaque point du plan temps-fréquence, soit en suivant une loi de variation définie à priori. La transformée en ondelette de Morlet, qui appartient à cette dernière classe, a été étudiée et une modification a été proposée. Le caractère répétitif de certains signaux d'application tels que les potentiels évoqués ou les signaux cardiaques, nous a amené à concevoir de nouvelles méthodes d'estimation de retards entre les réalisations du signal. La qualité des estimateurs proposés permet tout d'abord d'améliorer le signal moyen. De plus une estimation suffisamment précise de l'écart-type du jitter permet d'envisager un réhaussement du signal moyen par déconvolution. Une analyse temps-fréquence sur les signaux moyens permet alors de façon plus précise de déceler les détails permanents d'une réalisation à l'autre. L'amélioration des techniques de sommation synchrone rend possible, en réduisant le nombre de signaux sommés, de suivre des variations dynamiques réellement observées. Un algorithme adaptatif LMS a été proposé et son équivalence avec le moyennage à pondération exponentielle a été établie
The non stationary signals wich are the subject of the thesis are first considered from a general point of view and processed through a time-frequency approach ; further, repetitive non stationary signals are studied by means of signal averaging. Studying non stationary signals using time-frequency representations makes it possible to observe signal spectral variations in function of time. Some methods belonging to Cohen's class have been studied and improved ; for this, they have been identified to smoothings of the Wigner-Ville transform and their properties observed in a frequency-frequency representation. In opposition to these linear smoothings other ones have been proposed whose parameters vary either in function of signal spectral information at each point of the time-frequency domain, or following and a priori law of variation. Morlet's wavelet transform, wich belongs the the later class, has been studied and a modification has been proposed. The repetitive nature of certain signals like evoked potentials of cardiac signals, lead us to set up new methods for estimating time delay between two signals realizations. The performance of the proposed estimates first allows to improve averaging. Moreover, a sufficiently precise estimation of the jitter standard deviation lets hope averaged signals makes it possible to detect, in a more precise maner, permanent details from one realization to another. The improvement of signal averaging techniques, makes it possible to follow some real dynamic variations by reducing the number of averaged signals. A LMS adaptive algorithm has been proposed and its equivalence with exponentially weighted averaging has been proven
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Lançon, Fabienne. „Extraction de signaux radar“. Rennes 1, 1996. http://www.theses.fr/1996REN10163.

Der volle Inhalt der Quelle
Annotation:
Cette these concerne l'application de techniques de traitement du signal et traitement de l'information sur les emissions radar interceptees par un equipement de contre-mesures. Les themes principaux abordes lors de cette etude traitent de l'amelioration de sensibilite du recepteur, la classification et la representation des signaux radar. Apres une rapide presentation du domaine des contre-mesures, le second chapitre s'interesse a l'evaluation des performances du recepteur en termes de rapport signal-a-bruit, probabilite de detection et precision des mesures. Une etude plus precise a ete menee pour analyser statistiquement le processus aleatoire issu d'une detection quadratique apres filtrage video. Ensuite, l'introduction de traitements de post-detection, bases sur le principe de correlation, tire profit de l'integration temporelle pour ameliorer la detection de signaux a haut facteur de forme. Le quatrieme et dernier chapitre se concentre sur l'etape d'extraction des signaux radar afin de traiter les superpositions d'impulsions et les imbrications de trains d'impulsions, phenomenes de plus en plus presents dans un environnement electromagnetique plus dense et integrant des radars de complexite grandissante. C'est pourquoi definir l'impulsion comme un ou des paquets d'echantillons modifie le principe de l'extracteur. De plus, l'analyse des enchainements temporels des parametres radar aboutit a une nouvelle modelisation des signaux. Au sein d'une architecture d'extraction, nous proposons un modele base sur la representation structurelle des donnees dans le but de favoriser la separation des emissions dites complexes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Cherrid, Nada. „Application des métaheuristiques à l'estimation des signaux physiologiques non stationnaires et fortement bruités“. Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002521990204611&vid=upec.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse porte sur le problème de l'estimation des signaux physiologiques et temporellement non stationnaires. Nous étions intéressés particulièrement aux potentiels évoqués auditifs précoces (PEAPs). Ces signaux sont des réponses à des stimulations sonores. Ils reflètent l'activité du système auditif tout en permettant un diagnostic plus précoce du neurinome acoustique. Dans un premier temps, nous proposons une nouvelle approche destinée à l'estimation des signaux non stationnaires, enregistrés dans des conditions extrêmement défavorables. Cette approche est fondée sur l'utilisation de l'algorithme du recuit simulé, en association avec la technique du moyennage et sans intégration de l'information a priopri sur les signaux à estimer. Nous étudierons ensuite deux variantes de cette technique. La première utilise un modèle de forme qui offre une meilleure qualité du signal. La deuxième variante intègre une information a priori sur la dynamique des PEAPs qui s'avère efficace notamment dans le cas où les signaux ne sont pas fortement non stationnaires, on démontre ainsi que la convergence de l'algorithme d'optimisation est accélérée. Ces approches sont testées sur des sujets sains et pathologiques et testées par la suite sur des signaux du type électrocardiogramme (ECG)
This work of thesis carries on the problem of evaluating the physiological and temporally non stationary signals. We were especially interested in the brainstems Auditory Evoked Potentials (BAEPs). These signals are responses to acoustical stimulations. They reflect the activity of the auditory system while permitting a more precocious diagnosis of the acoustic neuroma. In the first step, we propose a new approach to evaluate the non stationary signals, recorded in extremely unfavourable conditions. This approach is based on the use of a stimulated annealing algorithm, in association with the technique of averaging without integration of information a priori on the signals to estimate. Then we will study two variants of this technique. The first uses a model of shape that offers a better quality of the signal. The second one integrates an information a priori on the dynamics of the BAEPs that proves to be notably efficient in the case where the signals are not greatly stationary, one demonstrates as well as the convergence of the optimisation algorithm is accelerated. These approaches are tested on healthy and pathological subjects and thereafter on a type of electrocardiogram (ECG) signals
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Cherrid, Nada Siarry Patrick. „Application des métaheuristiques à l'estimation des signaux physiologiques non stationnaires et fortement bruités“. Créteil : Université de Paris-Val-de-Marne, 2005. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0252199.pdf.

Der volle Inhalt der Quelle
Annotation:
Thèse de doctorat : Génie biologique et médical : Paris 12 : 2005.
Version électronique uniquement consultable au sein de l'Université Paris 12 (Intranet). Titre provenant de l'écran-titre. Bibliogr. : 75 réf.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Abdat, Faiza. „Reconnaissance automatique des émotions par données multimodales : expressions faciales et des signaux physiologiques“. Thesis, Metz, 2010. http://www.theses.fr/2010METZ035S/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente une méthode générique de reconnaissance automatique des émotions à partir d’un système bimodal basé sur les expressions faciales et les signaux physiologiques. Cette approche de traitement des données conduit à une extraction d’information de meilleure qualité et plus fiable que celle obtenue à partir d’une seule modalité. L’algorithme de reconnaissance des expressions faciales qui est proposé, s’appuie sur la variation de distances des muscles faciaux par rapport à l’état neutre et sur une classification par les séparateurs à vastes marges (SVM). La reconnaissance des émotions à partir des signaux physiologiques est, quant à elle, basée sur la classification des paramètres statistiques par le même classifieur. Afin d’avoir un système de reconnaissance plus fiable, nous avons combiné les expressions faciales et les signaux physiologiques. La combinaison directe de telles informations n’est pas triviale étant donné les différences de caractéristiques (fréquence, amplitude de variation, dimensionnalité). Pour y remédier, nous avons fusionné les informations selon différents niveaux d’application. Au niveau de la fusion des caractéristiques, nous avons testé l’approche par l’information mutuelle pour la sélection des plus pertinentes et l’analyse en composantes principales pour la réduction de leur dimensionnalité. Au niveau de la fusion de décisions, nous avons implémenté une méthode basée sur le processus de vote et une autre basée sur les réseaux Bayésien dynamiques. Les meilleurs résultats ont été obtenus avec la fusion des caractéristiques en se basant sur l’Analyse en Composantes Principales. Ces méthodes ont été testées sur une base de données conçue dans notre laboratoire à partir de sujets sains et de l’inducteur par images IAPS. Une étape d’auto évaluation a été demandée à tous les sujets dans le but d’améliorer l’annotation des images d’induction utilisées. Les résultats ainsi obtenus mettent en lumière leurs bonnes performances et notamment la variabilité entre les individus et la variabilité de l’état émotionnel durant plusieurs jours
This thesis presents a generic method for automatic recognition of emotions from a bimodal system based on facial expressions and physiological signals. This data processing approach leads to better extraction of information and is more reliable than single modality. The proposed algorithm for facial expression recognition is based on the distance variation of facial muscles from the neutral state and on the classification by means of Support Vector Machines (SVM). And the emotion recognition from physiological signals is based on the classification of statistical parameters by the same classifier. In order to have a more reliable recognition system, we have combined the facial expressions and physiological signals. The direct combination of such information is not trivial giving the differences of characteristics (such as frequency, amplitude, variation, and dimensionality). To remedy this, we have merged the information at different levels of implementation. At feature-level fusion, we have tested the mutual information approach for selecting the most relevant and principal component analysis to reduce their dimensionality. For decision-level fusion we have implemented two methods; the first based on voting process and another based on dynamic Bayesian networks. The optimal results were obtained with the fusion of features based on Principal Component Analysis. These methods have been tested on a database developed in our laboratory from healthy subjects and inducing with IAPS pictures. A self-assessment step has been applied to all subjects in order to improve the annotation of images used for induction. The obtained results have shown good performance even in presence of variability among individuals and the emotional state variability for several days
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Abdat, Faiza. „Reconnaissance automatique des émotions par données multimodales : expressions faciales et des signaux physiologiques“. Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ035S.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente une méthode générique de reconnaissance automatique des émotions à partir d’un système bimodal basé sur les expressions faciales et les signaux physiologiques. Cette approche de traitement des données conduit à une extraction d’information de meilleure qualité et plus fiable que celle obtenue à partir d’une seule modalité. L’algorithme de reconnaissance des expressions faciales qui est proposé, s’appuie sur la variation de distances des muscles faciaux par rapport à l’état neutre et sur une classification par les séparateurs à vastes marges (SVM). La reconnaissance des émotions à partir des signaux physiologiques est, quant à elle, basée sur la classification des paramètres statistiques par le même classifieur. Afin d’avoir un système de reconnaissance plus fiable, nous avons combiné les expressions faciales et les signaux physiologiques. La combinaison directe de telles informations n’est pas triviale étant donné les différences de caractéristiques (fréquence, amplitude de variation, dimensionnalité). Pour y remédier, nous avons fusionné les informations selon différents niveaux d’application. Au niveau de la fusion des caractéristiques, nous avons testé l’approche par l’information mutuelle pour la sélection des plus pertinentes et l’analyse en composantes principales pour la réduction de leur dimensionnalité. Au niveau de la fusion de décisions, nous avons implémenté une méthode basée sur le processus de vote et une autre basée sur les réseaux Bayésien dynamiques. Les meilleurs résultats ont été obtenus avec la fusion des caractéristiques en se basant sur l’Analyse en Composantes Principales. Ces méthodes ont été testées sur une base de données conçue dans notre laboratoire à partir de sujets sains et de l’inducteur par images IAPS. Une étape d’auto évaluation a été demandée à tous les sujets dans le but d’améliorer l’annotation des images d’induction utilisées. Les résultats ainsi obtenus mettent en lumière leurs bonnes performances et notamment la variabilité entre les individus et la variabilité de l’état émotionnel durant plusieurs jours
This thesis presents a generic method for automatic recognition of emotions from a bimodal system based on facial expressions and physiological signals. This data processing approach leads to better extraction of information and is more reliable than single modality. The proposed algorithm for facial expression recognition is based on the distance variation of facial muscles from the neutral state and on the classification by means of Support Vector Machines (SVM). And the emotion recognition from physiological signals is based on the classification of statistical parameters by the same classifier. In order to have a more reliable recognition system, we have combined the facial expressions and physiological signals. The direct combination of such information is not trivial giving the differences of characteristics (such as frequency, amplitude, variation, and dimensionality). To remedy this, we have merged the information at different levels of implementation. At feature-level fusion, we have tested the mutual information approach for selecting the most relevant and principal component analysis to reduce their dimensionality. For decision-level fusion we have implemented two methods; the first based on voting process and another based on dynamic Bayesian networks. The optimal results were obtained with the fusion of features based on Principal Component Analysis. These methods have been tested on a database developed in our laboratory from healthy subjects and inducing with IAPS pictures. A self-assessment step has been applied to all subjects in order to improve the annotation of images used for induction. The obtained results have shown good performance even in presence of variability among individuals and the emotional state variability for several days
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Cont, Arshia. „Traitement et programmation temps-réel des signaux musicaux“. Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00829771.

Der volle Inhalt der Quelle
Annotation:
Mes activités de recherche et d'encadrement, depuis ma soutenance de thèse en octobre 2008, gravitent à la confluence de deux problématiques souvent considérées comme distinctes dont le couplage est plus qu'évident en informatique musicale : l'écoute artificielle et la programmation synchrone des signaux musicaux en temps réel. Le but est d'enrichir chaque domaine respectivement et de fournir des outils nécessaires aux artistes pour étendre leurs capacités de création musicale sur ordinateur (à celui de leurs homologues humains). Le premier aspect de tout système de musique interactive est l'acte de l'écoute ou formellement parlant, l'extraction d'informations musicaux en temps réel. J'ai concentré mes efforts sur les approches axées sur les applications telles que la détection de pitch polyphonique et les techniques d'alignement en temps réel d'une part. Puis, d'autre part, j'ai abordé des problèmes fondamentaux liés à la représentation des signaux. Pour le premier volet, nous avons proposé deux approches reconnues comme l'état de l'art et renommées par leur utilisation par la communauté artistique et leur reconnaissance au sein de la communauté MIR. Le deuxième volet théorique porte sur le problème fondamental de la quantification et la qualification du contenu de l'information arrivant progressivement dans un système en utilisant des méthodes de la géométrie de l'information. Le deuxième et plus récent aspect de mon travail se concentre sur la programmation synchrone réactive de la musique, couplée à des systèmes d'écoute (ou la formalisation de réactions dans les systèmes interactifs aux perceptions artificielles en temps réel). Notre approche est motivée par les pratiques actuelles en art numérique et les exigences d'évaluation en temps réel qu'elles demandent. L'incarnation majeure de cette approche est le système Antescofo doté d'une machine d'écoute et d'un langage dynamique et qui s'est imposé dans le monde entier dans le répertoire de la musique mixte, reconnu du public depuis 2009. L'écriture du temps, l'interaction et la tentative d'assurer leur exécution correcte en temps réel posent des problèmes difficiles pour l'informatique et les concepteurs de systèmes. Ce couplage fort fera l'objet de mon travail dans les années à venir sous la bannière des systèmes de musique Cyber-physique. Le couplage entre la machine d'écoute et des langages temps réel nécessite d'augmenter les approches actuelles avec des modèles formels de temps, dépassant les approches fonctionnelles qui dominent pour développer une formalisation des exigences de réaction et d'exécution. Il faudra en conséquence repenser nos méthodes usuelles de traitement audio multiforme et leurs modèles de calculs sous-jacents en ce qui concerne le temps.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie