Dissertations / Theses on the topic 'Traitement de l'image et du signal'

To see the other types of publications on this topic, follow the link: Traitement de l'image et du signal.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Traitement de l'image et du signal.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Coussy, Philippe. "Synthèse d'architectures pour les applications de traitement du signal et de l'image." Habilitation à diriger des recherches, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00663253.

Full text
Abstract:
Ce document est organisé en trois parties : - Partie 1, Synthèse des travaux : Cette première partie présente de façon complète l'ensemble de mon parcours en mettant en avant toutes ses contributions et originalités. - Partie 2, Sélection des publications significatives : Cette deuxième partie illustre les contributions menées en présentant plusieurs articles scientifiques. Partie 3 : Travaux de recherche détaillés et perspectives (document séparé) Cette troisième partie présente de façon approfondie les différents travaux que j'ai menés depuis l'obtention de mon doctorat. Elle propose tout d'abord une introduction afin de positionner les différentes contributions et les trois axes de recherche autour desquels s'articulent mes travaux. Chaque axe est ensuite détaillé et une sélection de certains travaux est proposée afin d'illustrer l'activité menée. Enfin, une conclusion et des perspectives sont proposées afin de préciser les actions envisagées dans l'avenir.
APA, Harvard, Vancouver, ISO, and other styles
2

DOGET, THIERRY. "Determination automatisee de certains parametres ionospheriques par traitement du signal et de l'image." Poitiers, 1992. http://www.theses.fr/1992POIT2278.

Full text
Abstract:
Basee sur le traitement du signal et des images, la procedure de traitement automatique des ionogrammes, mise au point et en uvre au laboratoire, a l'avantage de permettre une determination rapide et tres precise, de certains parametres ionospheriques. Elle consiste notamment a eliminer les differents bruits qui affectent les ionogrammes tout en conservant le signal utile
APA, Harvard, Vancouver, ISO, and other styles
3

Niang, Oumar Lemoine Jacques Niane Mary Teuw. "Décomposition modale empirique contribution à la modélisation mathématique et application en traitement du signal et de l'image /." Créteil : Université de Paris-Val-de-Marne, 2007. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0393468.pdf.

Full text
Abstract:
Thèse de doctorat : Sciences de l'ingénieur. Mathématiques et informatique appliquées au traitement du signal et de l'image : Paris 12 : 2007.
Titre provenant de l'écran-titre. Pagination : 210 p. Bibliogr. : 122 réf.
APA, Harvard, Vancouver, ISO, and other styles
4

Wu, Jiasong. "Algorithmes rapides pour transformées orthogonales discrètes et leurs applications en traitement du signal et de l'image." Rennes 1, 2011. http://www.theses.fr/2011REN1S153.

Full text
Abstract:
The thesis mainly concentrates on the fast algorithms’ research of some recently proposed transforms (MDCT, MCLT, DHT, SCHT, CS-SCHT). We reduce their computational complexity to achieve the practical requirement, compare their performance with other ones and also explore the potential applications in the signal and image processing domain. The main research achievements and contributions are summarized as follows: 1. Fast algorithms for the lapped orthogonal transforms (1) For one-dimensional (1-D) MDCT, we proposed a unified framework for mixed-radix MDCT algorithm, which is composed of a radix-2 decimation-in-frequency (DIF) algorithm and radix-q algorithms, for q = 3, 5, 7, 9,…, including radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm and radix-q DIT algorithm. (2) For two-dimensional (2-D) MDCT, we proposed a fast algorithm based on 2-D DCT-II. (3) For 1-D MCLT, we proposed an indirect algorithm based on GDHT-II. 2. Fast algorithms for discrete Hartley transform (DHT) and applications (1) For 1-D DHT, considering a long length-N sequence is composed of three adjacent short length-N/3 ones, if we know the DHT coefficients of three short ones, we proposed a fast algorithm to compute the DHT coefficients of the length-N sequence efficiently. (2) For 2-D DHT, we proposed two fast algorithms. The first one is odd-factor split vector radix-(2×2)/(8×8) DIF algorithm and the second one is vector radix-(3×3) DIF algorithm. We also applied the first algorithm to medical image encoding and decoding. (3) For three-dimensional (3-D) GDHT, we proposed a vector radix-(2×2×2) DIF GDHT-III algorithm and applied it to the computation of 3-D skew convolution. 3. Fast algorithms for sliding complex Hadamard transforms and applications (1) For 1-D SCHT, we proposed two sliding fast algorithms such as the radix-2 decimation-in-sequency (DIS) algorithm and the radix-4 DIS algorithm. (2) For 1-D CS-SCHT, we proposed three sliding fast algorithms, including a radix-2 DIS algorithm, a radix-4 DIS algorithm, and a gray code kernel (GCK) algorithm. (3) We applied the proposed sliding SCHT and sliding CS-SCHT algorithm to signal spectrum analysis and transform domain adaptive filtering
Cette thèse se focalise principalement sur les algorithmes rapides dédiés à certaines transformations trigonométriques (MDCT, MCLT, DHT) et à des transformations de Hadamard (SCHT et CS-SCHT). Nous proposons des approches algorithmiques qui permettent de réduire leur complexité numérique et nous comparons leur performance à d’autres algorithmes de la littérature. Nous explorons aussi leurs applications potentielles en traitement du signal et de l’image. Les principaux résultats et contributions de cette thèse peuvent être résumés ainsi : 1. Algorithmes rapides pour les transformations orthogonales à recouvrement (1) Pour la MDCT monodimensionnelle, nous avons proposé une approche unifiée pour des algorithmes de MDCT combinant plusieurs subdivisions du nombre de points du signal à transformer. Il s’agit de méthodes agrégeant des algorithmes de décimation en fréquence et ou en temps pour un nombre de points composite en puissance de 2 et en puissance d’un nombre impair q (radix-2 decimation-in-frequency (DIF), radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm et radix-q DIT algorithm). (2) Pour la MDCT en 2D, nous avons proposé un algorithme rapide basé sur la DCT de type II. (3) En ce qui concerne la MCLT monodimensionnelle, nous avons proposé une approche de mise en œuvre à partir de la transformée de Hartley généralisée de type II (GDHT-II). 2. Algorithmes rapides pour la transformée de Hartley discrète (GHT) (1) Pour la DHT monodimensionnelle, en considérant une séquence de longueur N subdivisée en trois sous séquences adjacentes de longueur N/3 dont on connaît les DHT, nous avons proposé un algorithme rapide et efficace de calcul de la DHT de la séquence. (2) Nous avons proposé deux algorithmes rapides pour la DHT en 2D. Le premier est un algorithme de type DIF où le nombre de points est composite et multiple impair d’une puissance de 2. Nous avons mis en œuvre cet algorithme pour la compression d’image notamment médicale. Le second, se fond sur une approche DIF pour un nombre de points qui est une puissance de trois. (3) Une extension en 3D a aussi été entreprise pour la GDHT, nous avons proposé un algorithme pour cette transformation en prenant comme point de départ l’algorithme DIF et en considérant un nombre de points en puissance de deux. Cette approche a été mise en œuvre pour le calcul de convolutions circulaires en 3D. 3. Algorithmes rapides pour la transformée complexe de Hadamard sur fenêtre glissante (SCHT). (1) Dans le cas monodimensionnel, nous avons proposé deux algorithmes, l’un du type « radix-2 DIS » et l’autre du type « radix-4 DIS » pour le calcul de la SCHT. (2) Pour le calcul de la transformation CS-SCHT, nous avons proposé trois approches rapides, incluant les méthodes « radix-2 DIS » et « radix-4 DIS » et le codage de gray (GCK). (3) Nous avons mis en œuvre les transformations SCHT et CS-SCHT dans le contexte de l’estimation spectrale et du filtrage adaptatif
APA, Harvard, Vancouver, ISO, and other styles
5

Andriamisaina, Choukataly Caaliph. "Synthèse d'architecture multi-modes pour les applications du traitement du signal et de l'image." Lorient, 2008. http://www.theses.fr/2008LORIS127.

Full text
Abstract:
Le marché des télécommunications et du multimédia ne cesse de s’accroître avec une demande de plus en plus forte en fonctionnalité, performance, durée d’autonomie, compacité et faible coût de conception. Ces besoins ont ainsi conduit à des recherches de dispositifs performants, flexibles, compacts et faible consommation. Ainsi, pour avoir un compromis entre la flexibilité et la performance, l’ajout de flexibilité aux architectures matérielles et/ou l’amélioration des performances des architectures logicielles peuvent être envisagés. Cet ajout de flexibilité donne lieu à ce qui est appelé dans la littérature, des architectures multi-modes. Ce type d’architectures est spécialement conçu pour implémenter un ensemble d’applications mutuellement exclusives dans le temps. Les architectures multi-modes sont aussi utilisées pour réduire le surcoût du temps de reconfiguration dans les FPGAs et pour implémenter des accélérateurs de nids de boucles utilisés comme accélérateurs matériels (co-processeurs) ou accélérateurs d’instructions (ASIP). Nous proposons dans cette thèse une méthodologie de conception, basée sur la synthèse de haut niveau (HLS), automatisant la génération d’architectures multi-modes. La synthèse de haut niveau est une technique qui permet une augmentation considérable de la productivité par l’élévation du niveau d’abstraction de la spécification et par l’automatisation de la conception. Dans le contexte de la HLS, nous proposons de modifier les étapes d’allocation, d’ordonnancement et d’assignation dans le but de réduire le coût en surface de l’architecture générée tout en gardant un surcoût en performance et en consommation faible. Pour obtenir une surface totale minimale, nous proposons de diminuer le coût en surface du chemin de données et aussi du contrôleur. La réduction du coût du contrôleur s’obtient grâce à l’augmentation de la similarité des ressources présentes entre les étapes de contrôle des modes. Alors que, la réduction du coût du chemin de données est obtenue grâce essentiellement au partage de ressources entre les modes et à la prise en compte du coût des interconnections lors de ce partage. L'approche que nous proposons a été implémentée dans un environnement de conception dédié à la génération d’architecture multi-modes. Cette suite logicielle s’articule autour des outils : GAUT « Multi-modes », et STARGene « Multi-modes » et permet, en partant d'une description fonctionnelle spécifiée en langage C/C++, d'obtenir automatiquement une architecture multi-modes de niveau transfert de registres décrite en VHDL. Un ensemble d’expériences ont été menés pour mettre en avant l’efficacité de notre approche et les outils associés. De ces expériences, nous avons pu constater qu’avec notre approche, nous arrivions à réduire fortement (jusqu'à 60%) la surface occupée par les différents modes à implémenter tout en ayant un surcoût en performance (en moyenne de 5%) et en consommation (en moyenne de 16%) raisonnable
Emerging standards lead an increasing demand for high performance, flexibility and low power of embedded systems. These requirements had led to the research on efficient devices to respect these constraints. To have a good trade-off between flexibility and performance, adding flexibility to dedicated architectures and/or improving software performances can be considered. In the literature, the architectures, which result from the addition of flexibility in dedicated architectures, are named multi-modes architectures. The multi-modes or multi-configurations architectures are specifically designed for a set of time-wise mutually exclusive applications (multi-standard applications). They are also used to reduce the reconfiguration time overhead in FPGAs and to implement loop accelerators. We propose a design methodology, based on the High-Level Synthesis (HLS) technique, dedicated to the multi-modes architectures generation. The high-level synthesis is a technique, which considerably increase the productivity by raising the level of abstraction of the input specification and by automating the design. In the context of HLS, we propose to modify the allocation, scheduling and binding steps in order to reduce the area cost of the generated architecture by limiting the performance and power consumption overhead. In order to obtain an area efficient multi-modes architecture, we propose to reduce the area cost of the datapath and the controller. The controller complexity reduction is obtained by increasing the resources similarity between the control steps of the different modes. Whereas, the datapath complexity reduction is obtained by the resources sharing between the modes, and by the consideration of the interconnections cost during this sharing. This approach was integrated in a design environment, dedicated to the multi-modes architectures generation. This environment is based on different tools: GAUT “Multi-modes”, CDFG2UCOM and STARGene “Multi-modes”. It takes as input a functional description specified in C/C++ language in order to obtain automatically a multi-modes architecture at register transfer level described in VHDL. A set of experiment has been done to show the effectiveness of our approach and its associated high-level synthesis tools. From these experiments, we notice that with our approach, we can greatly reduce (up to 60%) the area occupied by the different modes to implement. With this important area reduction, we also obtain a low performance (average of 5%) and power consumption (average of 16%) overhead
APA, Harvard, Vancouver, ISO, and other styles
6

Dewalle, Anne-Sophie. "Nouvelles approches de traitement du signal et de l'image en IRM fonctionnelle d'activation cérébrale." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/c3ff9e5f-e824-4cc2-a6ea-a22cb4383bc2.

Full text
Abstract:
L'IRM fonctionnelle d'activation cérébrale a pour but d'étudier et d'identifier les régions du cerveau impliquées dans des activités stimulées, ceci à des fins cliniques ou de recherche fondamentale. Le sujet est soumis à un enchaînement de phases d'activation et de repos, tandis que l'on effectue simultanément l'acquisition rapide d'un très grand nombre d'images IRM. La problématique consiste à trouver un modèle explicatif des variations observées dans les images, à en estimer les paramètres et à déterminer les régions activées. Dans la théorie des systèmes, l'une des nombreuses méthodes proposées, le cerveau est représenté comme une "boîte noire" dont on cherche à estimer la réponse impulsionnelle. Comme le système est mal conditionné, les solutions sont instables et des connaissances a priori sont introduites afin de régulariser la solution. Nous avons reconsidéré le problème sans introduire d'a priori. Le modèle choisi est dynamique, à temps discret, non paramétrique, multi-variable, stochastique, linéaire et à coefficients invariants. Des méthodes de déconvolution et de réalisation ont été appliquées afin d'estimer la réponse impulsionnelle en chacun des voxels. Nous avons étudié l'influence de la nature du bruit et de sa modélisation. Nous avons considéré le bruit comme la somme d'un bruit blanc, de moyenne nulle et de variance inconnue, et d'un bruit physiologique, modélisé par une combinaison linéaire de fonctions sinusoïdales basses fréquences. Le problème, toujours mal conditionné, mène à une infinité de solutions et nous avons retenu la réponse impulsionnelle de plus petite norme correspondant à une hypothèse de consommation minimum d'énergie. D'autres développements ont également été effectués dans le prétraitement des images et dans l'amélioration de techniques standard d'analyse statistique
APA, Harvard, Vancouver, ISO, and other styles
7

Niang, Oumar. "Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image." Phd thesis, Université Paris XII Val de Marne, 2007. http://tel.archives-ouvertes.fr/tel-00878354.

Full text
Abstract:
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.
APA, Harvard, Vancouver, ISO, and other styles
8

Mansouri, Farouk. "Modèles de programmation des applications de traitement du signal et de l'image sur cluster parallèle et hétérogène." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT063/document.

Full text
Abstract:
Depuis une dizaine d'année, l'évolution des machines de calcul tend vers des architectures parallèles et hétérogènes. Composées de plusieurs nœuds connectés via un réseau incluant chacun des unités de traitement hétérogènes, ces grilles offrent de grandes performances. Pour programmer ces architectures, l'utilisateur doit s'appuyer sur des modèles de programmation comme MPI, OpenMP, CUDA. Toutefois, il est toujours difficile d'obtenir à la fois une bonne productivité du programmeur, qui passe par une abstraction des spécificités de l'architecture et performances. Dans cette thèse, nous proposons d'exploiter l'idée qu'un modèle de programmation spécifique à un domaine applicatif particulier permet de concilier ces deux objectifs antagonistes. En effet, en caractérisant une famille d'applications, il est possible d'identifier des abstractions de haut niveau permettant de les modéliser. Nous proposons deux modèles spécifiques au traitement du signal et de l'image sur cluster hétérogène. Le premier modèle est statique. Nous lui apportons une fonctionnalité de migration de tâches. Le second est dynamique, basé sur le support exécutif StarPU. Les deux modèles offrent d'une part un haut niveau d'abstraction en modélisant les applications de traitement du signal et de l'image sous forme de graphe de flot de données et d'autre part, ils permettent d'exploiter efficacement les différents niveaux de parallélisme tâche, données, graphe. Ces deux modèles sont validés par plusieurs implémentations et comparaisons incluant deux applications de traitement de l'image du monde réel sur cluster CPU-GPU
Since a decade, computing systems evolved to parallel and heterogeneous architectures. Composed of several nodes connected via a network and including heterogeneous processing units, clusters achieve high performances. To program these architectures, the user must rely on programming models such as MPI, OpenMP or CUDA. However, it is still difficult to conciliate productivity provided by abstracting the architectural specificities, and performances. In this thesis, we exploit the idea that a programming model specific to a particular domain of application can achieve these antagonist goals. In fact, by characterizing a family of application, it is possible to identify high level abstractions to efficiently model them. We propose two models specific to the implementation of signal and image processing applications on heterogeneous clusters. The first model is static. We enrich it with a task migration feature. The second model is dynamic, based on the StarPU runtime. Both models offer firstly a high level of abstraction by modeling image and signal applications as a data flow graph and secondly they efficiently exploit task, data and graph parallelisms. We validate these models with different implementations and comparisons including two real-world applications of images processing on a CPU-GPU cluster
APA, Harvard, Vancouver, ISO, and other styles
9

Carré, Philippe. "Construction et analyse de transformées discrètes en ondelettes : spécificité de l'image et de la couleur." Habilitation à diriger des recherches, Université de Poitiers, 2011. http://tel.archives-ouvertes.fr/tel-00652608.

Full text
Abstract:
La problématique centrale de mes travaux est l'étude de méthodes de décomposition discrète Temps-échelle. Ils s'inscrivent pleinement dans l'équipe projet ICONES, dont j'assure l'animation. Dans ce cadre, je me suis concentré, dès mon intégration dans le laboratoire sur les décompositions atomiques discrètes reconstructibles définies dans le domaine général des ondelettes. Toutes ces méthodes possèdent maintenant un cadre général et notamment la transformée en ondelettes standard. Cependant, il existe encore certaines limites : construction d'une représentation efficace d'éléments géométriques 2-D de l'image, généralisation de ces transformées à des signaux à valeurs vectorielles reste. L'objectif recherché est donc une représentation liée à une structure de données sous forme de primitives, facilement calculable par un algorithme, telle que l'ensemble de ces primitives permettent la reconstruction de la donnée d'origine. Il faut par ailleurs que l'on puisse ordonner ces primitives et que l'on puisse donner un sens à ces primitives. Dans ce cadre, mon travail va se découper suivant trois axes de recherche et un axe applicatif fort. Approche géométrique. Nous avons étudié un outil qui permet la représentation d'images d'une manière optimale (au sens des ruptures linéaires) : la transformée Ridgelet. Grâce à une collaboration avec les chercheurs en géométrie discrète du département XLIM-SIC nous avons proposé une transformée Ridgelet/Curvelets paramétrable, rapide et inversible, obtenant des résultats en termes de restauration de données 2-D très satisfaisants, notamment en vidéo. De plus, la simplicité et la rigueur dans la définition apportée par la géométrie discrète nous a permis d'étendre ce travail à toute dimension. Suivant ce même but, à savoir capter la géométrie pour adapter la transformée, nous avons proposé dans le cadre d'un partenariat avec OrangeLab une représentation en ondelettes géodésiques qui se propose d'introduire une modélisation de la topologie dans un schéma numérique de calcul du type Lifting Scheme. Il s'appuie sur la construction d'un graphe qui doit capter l'organisation structurelle de l'image à traiter. De ce graphe, une distance entre chaque pixel de l'image est estimée et introduite dans l'algorithme de décomposition. Couleur et MultiCanaux. L'objet de ce second axe a été d'examiner des approches plus globales pour l'extension des briques élémentaires issues du signal dans le cadre des images couleur. Suivant cette idée, j'ai débuté dès 2001 une étude concernant l'utilisation des quaternions. Cette recherche a concerné la redéfinition des traitements classiques couleur en termes quaternionique, comme le filtrage, la modification des caractéristiques couleur ... Ceci a fait l'objet d'une thèse, notamment à travers la redéfinition des manipulations couleur avec un formalisme lié à l'algèbre géométrique. Approche orientée. Le simple découpage horizontal, vertical et selon les deux diagonales, lié à l'approche classique, n'est pas suffisant à la fois en termes de description du signal mais aussi par rapport à ce que l'on connait du système visuel humain. L'objectif est de définir une représentation associée à des directions d'analyse plus adaptatives, invariante soit à la translation soit à la rotation. La transformée en ondelettes complexes suivant l'arbre dual constitue une réponse possible. A partir de ces travaux, nous étudions une approche alternative reposant sur les travaux de Bulow et al. et Choi et al. sur le signal analytique 2-D à partir des nombres quaternioniques. Ce travail permet de mettre en place une transformée en ondelettes quaternioniques pour la compression et la classification introduisant une nouvelle information : une notion de phase. La généralisation de ce travail nous mène à la définition d'ondelettes monogéniques qui peuvent être considérées en termes signalistique, comme les décompositions les plus abouties. Cependant de nombreuses questions restent ouvertes, et la première d'entre-elles étant la définition d'un schéma numérique stable. Sécurité. Depuis plusieurs années maintenant, j'ai développé un travail sur la protection électronique des images et vidéo, qui a donné lieu à 2 brevets sur le tatouage basé ondelettes, et intégrant des données psychovisuelles de perception des couleurs. Ces travaux se sont maintenant poursuivis dans le cadre d'une collaboration avec le département DMI de XLIM. L'objectif visé est l'intégration des différentes familles de codes correcteurs d'erreur afin d'améliorer la robustesse d'une stratégie de tatouage. Les résultats montrent effectivement une amélioration de la robustesse de l'algorithme breveté. Nous poursuivons ce travail sous un angle un peu différent à travers la définition d'algorithme de stétaganalyse en utilisant les compétences de l'équipe Icones autour des métriques de qualité.
APA, Harvard, Vancouver, ISO, and other styles
10

Pietquin, Olivier. "De l'Apprentissage Statistique pour le Contrôle Optimal et le Traitement du Signal." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00652777.

Full text
Abstract:
Les travaux présentés dans ce manuscrit ont pour but le développement de méthodes de prise de décisions optimales (statiques ou séquentielles) ou de traitement de signaux par des méthodes d'appren- tissage automatique. Ils répondent cependant à un certain nombre de contraintes qui ont été imposées par l'objectif de prendre en compte la présence de l'humain dans la boucle de décision ou de traitement ou même comme générateur des signaux que l'on analyse. La présence de l'humain rend la nature des données que l'on traite assez imprévisible et, à une même situation en apparence, des décisions diffé- rentes peuvent être prises. Dans les domaines de l'apprentissage statistique, du contrôle optimal ou du traitement du signal ceci se traduit par la nécessité de gérer l'incertain, de traiter le caractère stochastique du système ainsi que la non-stationnarité de celui-ci. Ainsi, les décisions que l'on considère optimales peuvent dépendre de manière aléatoire de la situation mais de plus, cette dépendance peut varier avec le temps. Des méthodes d'optimisation convergeant vers une solution globale ne sont donc pas adaptées mais des méthodes permettant d'apprendre au fil de l'eau et de poursuivre l'évolution de la solution optimale seront préférées. Par ailleurs, dans le cas où les décisions résultent en une action sur le monde extérieur, il est né- cessaire de quantifier le risque pris en accomplissant ces actions, particulièrement si ces actions doivent avoir un impact sur l'humain. Ceci passe par une estimation de l'incertitude sur le résultat des actions possibles et la sélection en conséquence de ces actions. Une autre implication est qu'il ne sera pas tou- jours envisageable de tester toutes les actions possibles pour en estimer les effets puisque ces actions peuvent ne pas être acceptables pour l'humain. Ainsi, il faudra apprendre à partir d'exemples de situa- tions imposées ce qui se traduit par une phase d'inférence utilisant les informations observables pour en déduire des conséquences sur des situations que l'on ne peut observer. Les travaux exposés dans ce manuscrit apportent des contributions théoriques permettant de tenir compte de ces contraintes et des applications à des problèmes concrets imposant ces contraintes seront exposées.
APA, Harvard, Vancouver, ISO, and other styles
11

Boulos, Vincent. "Adéquation Algorithme Architecture et modèle de programmation pour l'implémentation d'algorithmes de traitement du signal et de l'image sur cluster multi-GPU." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00876668.

Full text
Abstract:
Initialement con¸cu pour d'echarger le CPU des tˆaches de rendu graphique, le GPU estdevenu une architecture massivement parall'ele adapt'ee au traitement de donn'ees volumineuses.Alors qu'il occupe une part de march'e importante dans le Calcul Haute Performance, uned'emarche d'Ad'equation Algorithme Architecture est n'eanmoins requise pour impl'ementerefficacement un algorithme sur GPU.La contribution de cette th'ese est double. Dans un premier temps, nous pr'esentons legain significatif apport'e par l'impl'ementation optimis'ee d'un algorithme de granulom'etrie(l'ordre de grandeur passe de l'heure 'a la minute pour un volume de 10243 voxels). Un mod'eleanalytique permettant d''etablir les variations de performance de l'application de granulom'etriesur GPU a 'egalement 'et'e d'efini et pourrait ˆetre 'etendu 'a d'autres algorithmes r'eguliers.Dans un second temps, un outil facilitant le d'eploiement d'applications de Traitementdu Signal et de l'Image sur cluster multi-GPU a 'et'e d'evelopp'e. Pour cela, le champ d'actiondu programmeur est r'eduit au d'ecoupage du programme en tˆaches et 'a leur mapping sur les'el'ements de calcul (GPP ou GPU). L'am'elioration notable du d'ebit sortant d'une applicationstreaming de calcul de carte de saillence visuelle a d'emontr'e l'efficacit'e de notre outil pourl'impl'ementation d'une solution sur cluster multi-GPU. Afin de permettre un 'equilibrage decharge dynamique, une m'ethode de migration de tˆaches a 'egalement 'et'e incorpor'ee 'a l'outil.
APA, Harvard, Vancouver, ISO, and other styles
12

Liuni, Marco. "Adaptation Automatique de la Résolution pour l'Analyse et la Synthèse du Signal Audio." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00773550.

Full text
Abstract:
Dans cette thèse, on s'intéresse à des méthodes qui permettent de varier localement la résolution temps-fréquence pour l'analyse et la re-synthèse du son. En Analyse Temps-Fréquence, l'adaptativité est la possibilité de concevoir de représentations et opérateurs avec des caractéristiques qui peuvent être modifiées en fonction des objets à analyser: le premier objectif de ce travail est la définition formelle d'un cadre mathématique qui puisse engendrer des méthodes adaptatives pour l'analyse du son. Le deuxième est de rendre l'adaptation automatique; on établit des critères pour définir localement la meilleure résolution temps-fréquence, en optimisant des mesures de parcimonie appropriées. Afin d'exploiter l'adaptativité dans le traitement spectral du son, on introduit des méthodes de reconstruction efficaces, basées sur des analyses à résolution variable, conçues pour préserver et améliorer les techniques actuelles de manipulation du son. L'idée principale est que les algorithmes adaptatifs puissent contribuer à la simplification de l'utilisation de méthodes de traitement du son qui nécessitent aujourd'hui un haut niveau d'expertise. En particulier, la nécessité d'une configuration manuelle détaillée constitue une limitation majeure dans les applications grand public de traitement du son de haute qualité (par exemple: transposition, compression/dilatation temporelle). Nous montrons des exemples où la gestion automatique de la résolution temps-fréquence permet non seulement de réduire significativement les paramètres à régler, mais aussi d'améliorer la qualité des traitements.
APA, Harvard, Vancouver, ISO, and other styles
13

Reboul, Serge. "Estimation et détection conjointe pour la fusion d'informations." Habilitation à diriger des recherches, Université du Littoral Côte d'Opale, 2014. http://tel.archives-ouvertes.fr/tel-01067478.

Full text
Abstract:
La détection des changements ou ruptures dans les paramètres de la distribution statistique d'une série temporelle est un problème de recherche en traitement du signal qui trouve des applications dans de nombreux domaines comme le traitement des signaux GNSS. Le projet scientifique développé dans mon mémoire d'habilitation à diriger des recherches concerne l'étude des méthodes d'estimation et de détection conjointe de ruptures pour la fusion d'informations. Les approches proposées dans ce cadre sont utilisées dans différentes applications comme l'estimation des paramètres du vecteur vent, le traitement des signaux GNSS et le filtrage des mesures fournies par les capteurs inertiels. L'objectif de la fusion est d'utiliser les informations ou mesures fournies par différents capteurs pour avoir une meilleure connaissance du paramètre à estimer. Nous avons donc proposé dans ce travail plusieurs méthodes d'estimation et de détection conjointe de rupture qui fusionnent les informations fournies par des capteurs. Le but étant d'améliorer les performances des opérateurs en termes de détection, de localisation et d'estimation de la dynamique des ruptures. Les approches proposées dans un cadre bayésien s'appuient sur la définition de la distribution a posteriori des paramètres à estimer sachant les mesures multi-capteurs. Un des apports de nos travaux dans ce domaine est de proposer un ensemble de filtres définis dans le domaine circulaire avec la distribution de von Mises. Un autre apport est de proposer une loi a priori qui modélise le comportement mutuel entre plusieurs processus dans le cas de la segmentation multi-ruptures hors ligne de signaux multi-capteurs. Ce travail a principalement été appliqué au géo positionnement et plus particulièrement au traitement de la phase et du code des signaux GNSS multi-porteuses. Nous avons montré par des expérimentations sur signaux réels que les méthodes proposées permettent d'obtenir une localisation centimétrique à la milliseconde d'un récepteur ayant un mouvement de forte dynamique. Aujourd'hui les perspectives de ce travail sont dans le traitement des signaux de réflectométrie GNSS et de géolocalisation sous-marine. En effet pour ces applications les signaux sont fortement atténués et déformés par le milieu de propagation, ce qui constitue un nouvel enjeu pour les méthodes de fusion d'informations en traitement du signal.
APA, Harvard, Vancouver, ISO, and other styles
14

Adam, Sébastien. "Documents, Graphes et Optimisation Multi-Objectifs." Habilitation à diriger des recherches, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00671168.

Full text
Abstract:
Les travaux qui sont abordés dans cette habilitation sont à la confluence de plusieurs de ces domaines de recherche. Ils concernent deux aspects principaux. Le premier est relatif à la reconnaissance structurelle de formes, en proposant deux contributions liées respectivement à la classification supervisée de graphes et à la recherche d'isomorphismes de sous-graphes. Le second concerne la prise en compte d'objectifs multiples en analyse d'images de documents, tant pour l'évaluation des performances des systèmes que pour leur optimisation. Dans les deux cas, les travaux sont appliqués à des problèmes d'analyse de documents, pour la reconnaissance et la localisation de symboles et pour la reconnaissance de courriers manuscrits. Nous proposons dans ce mémoire de faire une synthèse de ces contributions et de nos perspectives dans ces domaines, en positionnant celles-ci par rapport à l'état de l'art des différentes problématiques abordées.
APA, Harvard, Vancouver, ISO, and other styles
15

Chaumette, Eric. "Caractérisation des problèmes conjoints de détection et d'estimation." Habilitation à diriger des recherches, École normale supérieure de Cachan - ENS Cachan, 2014. http://tel.archives-ouvertes.fr/tel-01010450.

Full text
Abstract:
Le thème général de ma recherche est la caractérisation des problèmes conjoints détection-estimation les plus fréquemment rencontrés en écoute active ou passive (radar, télécoms, sonar, ...) : l'estimation des paramètres déterministes (non aléatoires) d'un signal d'intérêt intermittent en présence d'un environnement permanent. Ce problème peut être modélisé par un test d'hypothèses binaires : H0 (environnement seul) et H1 (environnement et signal d'intérêt). L'intérêt premier pour l'estimation des paramètres déterministes provient de mon domaine d'application professionnel : le radar actif où l'approche à paramètres déterministe est privilégiée. Dans le cadre de paramètres déterministes, cette recherche peut s'aborder graduellement (en terme de difficulté théorique et calculatoire) sous deux axes : * l'étude des performances en estimation non conditionnelle (sans test de détection préalable) par le biais des bornes de performance en estimation. Dans ce cas il n'y a qu'un seul modèle d'observation H1. * l'étude des performances en estimation conditionnelle (avec test de détection préalable), c'est à dire la caractérisation des problèmes conjoints détection-estimation. Cette étude est réalisée par le biais des bornes de performance conditionnelle appliquées à deux modèles d'observation particuliers (l'antenne monopulse et le modèle d'observation gaussien déterministe) pour lesquels certains calculs analytiques sont accessibles.
APA, Harvard, Vancouver, ISO, and other styles
16

ZHANG, Yuxiang. "Contrôle de santé des matériaux et structures par analyse de la coda ultrasonore." Phd thesis, Université du Maine, 2013. http://tel.archives-ouvertes.fr/tel-00971691.

Full text
Abstract:
La coda ultrasonore est constituée d'ondes ultrasonores ayant subi des diffusions multiples lors de leur propagation dans un milieu complexe (milieu hétérogène/milieu homogène ayant une géométrie complexe). La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda ultrasonore par la méthode dite d’interférométrie de la coda (CWI pour Coda Wave Interferometry) permet d'évaluer la variation de la vitesse de propagation dans un milieu à partir des signaux de coda ultrasonores avec une grande précision (0,001 % en relatif). Une telle variation de la vitesse de propagation peut être utilisée pour l'évaluation et le contrôle non destructif (ECND) d’un matériau ou d'une structure. Un essai expérimental est présenté au début de la thèse comme exemple d’utilisation de la CWI pour l’ECND du béton. Face aux problèmes expérimentaux inhérents au degré de précision de cet essai, nous présentons un protocole expérimental conçu pour améliorer la fiabilité des résultats CWI. Ce protocole a été validé expérimentalement dans une étude d’acousto-élasticité du béton. Les résultats vérifient que ce protocole peut 1) réduire les biais provenant non seulement des fluctuations de température ambiante, mais aussi des procédures expérimentales et 2) améliorer la répétabilité de l’essai. Avec ce protocole de contrôle des biais, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l’effet acoustoélastique) et anélastique (l’effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Β) qui décrit le niveau de la non-linéarité élastique du béton a été déterminé et utilisé pour la détection d’un endommagement léger du béton. La CWI est ensuite utilisée pour la détection globale de défauts (fissures) dans un milieu initialement linéaire (verre). Un chargement acoustique (l’onde de pompe) est utilisé pour mettre en jeu les non-linéarités des défauts. L’onde de coda qui se propage simultanément dans le milieu sert comme onde de sonde est modulée non linéairement par l’onde de pompe. L’apparition de la modulation non linéaire est due à la présence des défauts et peut être détectée par la variation des résultats CWI en fonction de l’amplitude de l’onde de pompe. En utilisant une onde de pompe large bande, nous montrons expérimentalement que cette méthode permet la détection des défauts et d’évaluation du niveau d’endommagement (via le niveau effectif de la non-linéarité) d’une manière globale sans zone aveugle.
APA, Harvard, Vancouver, ISO, and other styles
17

Bourrier, Anthony. "Compressed sensing and dimensionality reduction for unsupervised learning." Phd thesis, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-01023030.

Full text
Abstract:
Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé afin de réduire le coût de tâches d'apprentissage. Après avoir rappelé les bases de l'échantillonnage compressé et mentionné quelques techniques d'analyse de données s'appuyant sur des idées similaires, nous proposons un cadre de travail pour l'estimation de paramètres de mélange de densités de probabilité dans lequel les données d'entraînement sont compressées en une représentation de taille fixe. Nous instancions ce cadre sur un modèle de mélange de Gaussiennes isotropes. Cette preuve de concept suggère l'existence de garanties théoriques de reconstruction d'un signal pour des modèles allant au-delà du modèle parcimonieux usuel de vecteurs. Nous étudions ainsi dans un second temps la généralisation de résultats de stabilité de problèmes inverses linéaires à des modèles tout à fait généraux de signaux. Nous proposons des conditions sous lesquelles des garanties de reconstruction peuvent être données dans un cadre général. Enfin, nous nous penchons sur un problème de recherche approchée de plus proche voisin avec calcul de signature des vecteurs afin de réduire la complexité. Dans le cadre où la distance d'intérêt dérive d'un noyau de Mercer, nous proposons de combiner un plongement explicite des données suivi d'un calcul de signatures, ce qui aboutit notamment à une recherche approchée plus précise.
APA, Harvard, Vancouver, ISO, and other styles
18

Diller, Marie-Luce. "Détection, traitement du signal et modélisation de l'image de fluorescence in vitro et sur tissus biologiques : application au diagnostic des tumeurs cancéreuses par thérapie photodynamique, métrologie associée." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL084N.

Full text
Abstract:
L’aspect diagnostic en thérapie photodynamique repose sur la détection des cellules cancéreuses par l'utilisation d'un fluorophore. Le fluorophore le plus couramment utilisé est l'hématoporphyrine dérivée (HpD) ; il possède deux propriétés intéressantes: il se fixe préférentiellement sur les cellules cancéreuses et il émet une fluorescence rouge lorsqu'il est irradié par un rayonnement violet. La détection de cette fluorescence doit permettre la localisation de la tumeur. La présence d'une autofluorescence naturelle qui se superpose à la fluorescence induite et la mauvaise sélectivité du photosensibilisant rendent difficile cette détection. L’étude spectroscopique de l'HpD en solution a permis la détermination de ses caractéristiques d'absorption, de diffusion et de fluorescence. Différents paramètres d'influence tels que la concentration en HpD, la longueur d'onde, la nature du solvant, la température et l'adjonction de lipoprotéines ont été mis en évidence. Cette caractérisation a permis de mieux décrire le comportement du photosensibilisant et nous a guidé pour la conception de fantômes simulant les phénomènes combinés d'autofluorescence et de fluorescence induite dans les tissus. Le principe de détection mis en œuvre utilise un laser krypton pour l'excitation, un système optique de discrimination spectrale et une camera intensificatrice. Une modélisation des phénomènes de fluorescence nous a conduits à l'élaboration d'algorithmes de traitements d'images associées à ce montage. Ils permettent de s'affranchir de l'autofluorescence et de la mauvaise sélectivité de l'HpD à partir de l'analyse de signaux recueillis sur des tissus sains. Une première campagne de mesures sur fantômes a permis la validation des programmes de traitements d'images. Des essais complémentaires in vivo indiquent la faisabilité du principe utilisé
APA, Harvard, Vancouver, ISO, and other styles
19

Istrate, Dan. "Contribution à l'analyse de l'environnement sonore et à la fusion multimodale pour l'identification d'activités dans le cadre de la télévigilance médicale." Habilitation à diriger des recherches, Université d'Evry-Val d'Essonne, 2011. http://tel.archives-ouvertes.fr/tel-00790339.

Full text
Abstract:
La télévigilance médicale représente un enjeu de la société d'aujourd'hui. En effet l'espérance de vie augmente dans tous les pays industrialisés et les prévisions statistiques annoncent un nombre important de personnes âgées (17% de 60-74 ans en 2030) ou très âgées (12% de plus 75 ans en 2030). Grâce à la progression de la médecine ces personnes peuvent être maintenues plus longtemps à leur domicile mais demeurent plus fragiles et nécessitent donc des solutions techniques permettant d'améliorer leur confort et de faciliter la tâche des aidants. Ce mémoire donne une synthèse des activités de recherche menées par l'auteur dans le domaine de la télévigilance médicale. Cette recherche est structurée en deux axes : l'analyse de l'environnement sonore et la fusion de données multimodales. L'environnement sonore est très riche en informations utilisables, directement ou à travers l'analyse des activités de la personne pour détecter ou prévoir une situation de détresse. L'analyse sonore est soumise aux contraintes de l'acquisition sonore distante, à la présence des bruits provenant de l'extérieur et à la grande variabilité des sons à reconnaître. Le manuscrit décrit différentes solutions adoptées, leur mise en oeuvre et leur évaluation dans le cadre de plusieurs projets de recherche nationaux et européens. Le deuxième axe porte sur la fusion de la sortie de l'analyse sonore avec d'autres capteurs en vue d'améliorer la robustesse du système. La fusion de données doit traiter des signaux de natures différentes (signaux binaires ou continus), avec des périodicités différentes et de différentes temporalités (périodiques ou asynchrones). Deux techniques (logique floue et réseaux d'évidence) sont étudiées, adaptées et évaluées dans plusieurs projets de recherche. Le mémoire se termine avec les perspectives de recherche de l'auteur. Six publications scientifiques sont finalement annexées.
APA, Harvard, Vancouver, ISO, and other styles
20

Cabral, farias Rodrigo. "Estimation sous contraintes de communication : algorithmes et performances asymptotiques." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00877073.

Full text
Abstract:
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation.
APA, Harvard, Vancouver, ISO, and other styles
21

Rodet, Thomas. "Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiques." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00819179.

Full text
Abstract:
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.
APA, Harvard, Vancouver, ISO, and other styles
22

LIU, Baisi. "An Efficient Approach for Diagnosability and Diagnosis of DES Based on Labeled Petri Nets, Untimed and Timed Contexts." Phd thesis, Ecole Centrale de Lille, 2014. http://tel.archives-ouvertes.fr/tel-01064597.

Full text
Abstract:
Cette thèse s'intéresse à l'étude des problèmes de diagnostic des fautes sur les systèmes à événements discrets dans des contextes atemporel et temporel sur la base de modèles réseau de Petri. Des techniques d'exploration incrémentale et à-la-volée sont développées pour combattre le problème de l'explosion de l'espace d'état. Dans le contexte atemporel, une représentation algébrique pour les réseaux de Petri labellisés (RdP-L) a été développée pour caractériser le comportement du système. La diagnosticabilité de modèles RdP-L est ensuite abordée par l'analyse d'une série de problèmes d'analyse de K -diagnosticabilité, où K peut être augmenté progressivement. Concrètement, l'analyse de la diagnosticabilité est effectuée sur la base de deux modèles nommés respectivement FM-graph et FM-set tree qui sont développés à-la-volée et qui contiennent les informations relatives aux fautes. Un diagnostiqueur peut facilement être dérivé à partir du FM-set tree pour le diagnostic en ligne. Dans le contexte temporel, une technique de fractionnement des intervalles de temps a été élaborée pour développer une représentation de l'espace d'état des réseaux de Petri labellisés et temporels (RdP-LT) pour laquelle des techniques d'analyse de la diagnosticabilité du contexte atemporel, peuvent être exploitées. Sur cette base, les conditions nécessaires et suffisantes pour la diagnosticabilité de RdP-LT ont été déterminées, et nous présentons la solution pour le délai minimum qui assure la diagnosticabilité. En pratique, l'analyse de la diagnosticabilité est effectuée sur la base de la construction à-la-volée d'une structure que l'on appelle ASG et qui contient des informations relatives à l'occurrence de fautes sur les états du RdP-LT. D'une manière générale, l'analyse effectuée sur la base des techniques à-la-volée et incrémentale permet de construire et explorer seulement une partie de l'espace d'état. Les résultats des analyses effectuées sur certains benchmarks montrent l'efficacité des techniques que nous avons développées en termes de temps et de mémoire par rapport aux approches traditionnelles basées sur l'énumération des états.
APA, Harvard, Vancouver, ISO, and other styles
23

Le, Quyet Tien. "Vers une analyse et une compréhension de la qualité d'image." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT060.

Full text
Abstract:
Dans cette thèse, les principales contributions sont d'étudier 2 aspects principaux de la qualité d'image, y compris l'esthétique de l'image, le naturel de l'image et les relations entre les 2 concepts. Plus précisément, l'esthétique de l'image est la mesure de la façon dont une photo répond esthétiquement aux attentes de l'observateur, tandis que la définition du naturel de l'image est à la fois liée aux artefacts induits par certains algorithmes de traitement d'image et au sentiment individuel sur la façon dont une image correspond à la mémoire d'image. Du côté de l'esthétique de l'image, la thèse aborde le problème de l'évaluation des rôles des opérations de prétraitement dans l'évaluation esthétique de l'image. Des modèles d'évaluation esthétique d'image basés sur une segmentation d'image préalable (extraction de la région d'intérêt) et une classification d'image antérieure (classification d'image grand champ / gros plan) ont été développés et comparés à des modèles d'évaluation esthétique d'image sans étapes de pré-traitement. Dans le même temps, différents modèles basés soit sur des caractéristiques artisanales, soit sur des caractéristiques apprises ont été étudiés aux fins d'estimation esthétique de l'image. Sur la base des résultats obtenus, un modèle d'évaluation esthétique d'image basé sur la classification d'image et la segmentation de région a été introduit et évalué. Du côté du naturel de l'image, le naturel de l'image des images à plage dynamique standard, en particulier des images à tonalité, a été étudié avec des méthodologies à la fois subjectives et objectives. Une expérience subjective a été organisée pour recueillir d'abord des évaluations humaines sur la naturalité de l'image. Ensuite, divers algorithmes objectifs ont été validés sur les données subjectives collectées pour la tâche d'évaluation de la naturalité de l'image. Ce travail se concentre sur le problème du développement d'un modèle dans un premier temps pour estimer si une image semble naturelle ou non aux humains et le second objectif est d'essayer de comprendre comment le sentiment de contre-nature est induit par une photo: "Y a-t-il des indices spécifiques de contre-nature ou de contre-nature un sentiment général en regardant une photo? ". Enfin, les relations entre les 2 aspects: esthétique de l'image et naturalité de l'image ont été évaluées et discutées
In this thesis, the main contributions are to study 2 main aspects of image quality including image aesthetic, image naturalness and the relations between the 2 concepts. More specifically, image aesthetic is the measure of how aesthetically a photo fulfills the observer’s expectation while the image naturalness definition is both related to artifacts induced by some image processing algorithms and to the individual feeling about how a picture matches with image memory. On the side of image aesthetic, the thesis deals with the problem of evaluating the roles of pre-processing operations in image aesthetic assessment. Image aesthetic assessment models based on prior image segmentation (region of interest extraction) and prior image classification (large field / close-up image classification) have been developed and compared with image aesthetic assessment models without pre-processing stages. At the same time different models base either on handcrafted features or learned features have been studied for the purpose of image aesthetic estimation. Based on the obtained results, an image aesthetic assessment model based on image classification and region segmentation has been introduced and evaluated. On the side of image naturalness, image naturalness of standard dynamic range images, especially tone-mapped images have been studied with both subjective and objective methodologies. A subjective experiment has been organized to collect human evaluations about image naturalness first. Then, various objective algorithms have been validated on the collected subjective data for the image naturalness assessment task. This work focuses on the problem of developing a model firstly to estimate if an image looks natural or not to humans and the second purpose is to try to understand how the unnaturalness feeling is induced by a photo: "Are there specific unnaturalness clues or is unnaturalness a general feeling when looking at a photo?". Finally, the relations between the 2 aspects: image aesthetic and image naturalness have been evaluated and discussed
APA, Harvard, Vancouver, ISO, and other styles
24

Bombrun, Lionel. "Développement d'outils et de méthodes de télédétection spatiale optique et radar nécessaires à la haute résolution spatiale." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0152.

Full text
Abstract:
Le travail de recherche présenté dans ce mémoire de thèse est dédié au développement des méthodes en télédétection radar polarimétrique et interférométrique. L'interférométrie radar à synthèse d'ouverture renseigne sur la topographie de la zone étudiée ou sur ses déformations. Nous mettons en place des traitements interférométriques pour obtenir un champ de déplacement au sol. La polarimétrie radar étudie les interactions de l'onde électromagnétique avec le milieu étudié et nous informe sur les propriétés physiques des rétrodiffuseurs. Nous examinons en détail les deux modèles de paramétrisation des vecteurs de rétrodiffusion : le modèle alpha/beta et le modèle TSVM. Nous proposons ensuite d'utiliser la distribution de Fisher pour modéliser la texture dans les images polarimétriques. En utilisant le modèle multiplicatif scalaire, nous dérivons l'expression littérale de la distribution de la matrice de cohérence et nous proposons d'implémenter cette nouvelle distribution dans un algorithme de segmentation hiérarchique. Les différentes méthodes proposées durant cette thèse ont été appliquées sur des données interférométriques en bande C sur les glaciers et sur des données polarimétriques en bande L dans le milieu urbain
This Ph. D. Thesis research work is dedicated to the development of polarimetric and interferometric remote sensing methods. Synthetic aperture radar interferometry estimates the topography of the observed scene or his deformations. Interferometric processings are implemented to derive displacement field. SAR Polarimetry study the interactions between the electromagnetic wave and the scene to characterize the scatterers. Two parametrization model of the target scattering vector are analyzed : the alpha/beta model and the TSVM. Next, we propose to model the texture parameter by a Fisher distribution. Under the scalar product model assumption, we mathematically establish the covariance matrix distribution and we propose to implement this new distribution in a hierarchical segmentation algorithm. All the proposed methods are applied on C-band interferometric SAR data over glaciers and on L-band polarimetric SAR data over urban areas
APA, Harvard, Vancouver, ISO, and other styles
25

Badeau, Roland. "Analyse spectrale à haute résolution et décompositions non-négatives appliquées au traitement des signaux de musique." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00945245.

Full text
Abstract:
Mes travaux de recherche portent sur le traitement des sons et de la musique, dont ils visent à extraire une représentation révélant leurs structures temporelles et spectrales. Diverses applications musicales ont été abordées, allant de la transcription automatique de musique à la séparation de sources, en passant par le codage audio. Une partie importante de ces recherches a été menée dans le cadre du projet ANR DESAM (Décompositions en Éléments Sonores et Applications Musicales), que j'ai coordonné de novembre 2006 à février 2010. Analyse spectrale à haute résolution. La première partie de mes travaux a été initiée dans le cadre de ma thèse, démarrée en septembre 2001 et soutenue en avril 2005, dont la finalité a été l'application des méthodes d'analyse spectrale à haute résolution au traitement des signaux audio et musicaux. Nous avons d'abord généralisé le modèle de signal sous-jacent et la méthode d'estimation et proposé une nouvelle technique de sélection de l'ordre du modèle. Par ailleurs, le nombre élevé de composantes fréquentielles et la forte dynamique spectrale des signaux audio ont nécessité de mettre en oeuvre des prétraitements adéquats et leur non-stationnarité a exigé de développer des méthodes adaptatives permettant de suivre les variations temporelles de chaque composante, en utilisant des algorithmes de poursuite de sous-espace. Ces outils ont été intégrés à la boîte à outils Matlab du projet DESAM et appliqués à la représentation temps-fréquence à haute résolution de signaux audio, à la séparation des composantes tonales et bruitées et à la synthèse avec effets sonores. A la suite de ma thèse, diverses applications musicales de ces méthodes ont été réalisées dans le cadre de collaborations avec des chercheurs et doctorants de laboratoires français ou étrangers : estimation de hauteur de notes de piano (thèse de Valentin Emiya à Télécom ParisTech), estimation de tempo musical (thèse de Miguel Alonso à Télécom ParisTech), analyse des modes couplés d'une harpe de concert (thèse de Jean-Loïc Le Carrou au LAUM, Le Mans) et codage audio (projet DESAM, collaboration avec le LMA, Marseille). D'autres applications ont également été réalisées, comme l'estimation de canal dans le domaine des communications numériques (collaboration avec l'université de Mondragón en Espagne) ou la factorisation de tenseurs structurés (collaboration avec le LSS, Gif-sur-Yvette). Décompositions non-négatives. La deuxième partie de mes travaux constitue une thématique nouvelle de- puis ma thèse, dont les différents aspects ont notamment été abordés avec les cinq doctorants que j'ai co-encadrés (Valentin Emiya, Nancy Bertin, Romain Hennequin, Benoît Fuentes et Antoine Liutkus). Elle s'intéresse à la décomposition de signaux audio à partir d'une représentation spectrale ou d'une représentation temps-fréquence, dans le but d'en extraire des éléments sonores possédant un sens musical, comme des notes de musique ou des accords. Ces décompositions prennent en compte différents critères : non-négativité de la représentation et des éléments sonores, critères psycho-acoustiques, harmonicité du spectre, régularité de l'enveloppe spectrale, régularité de l'enveloppe temporelle, variations temporelles de l'enveloppe spectrale, variations temporelles de la fréquence fondamentale. Elles s'appuient sur des extensions de la factorisation en matrices non-négatives, exprimées dans le formalisme de l'estimation bayésienne, qui permet de contraindre la décomposition en introduisant des modèles paramétriques appropriés ou des distributions a priori des paramètres. Les décompositions sont calculées à l'aide d'algorithmes multiplicatifs, dont nous avons étudié et amélioré les propriétés de convergence, ou d'algorithmes de type espérance-maximisation. Ces outils ont été appliqués à l'estimation de fréquences fondamentales multiples et à la transcription automatique de la musique. Ils ont également été intégrés à la boîte à outils Matlab du projet DESAM et leur évaluation a conduit au développement de la base de données MAPS (MIDI aligned piano sounds). Ils ont enfin été appliqués à la séparation informée des différentes sources sonores mixées dans un enregistrement stéréophonique.
APA, Harvard, Vancouver, ISO, and other styles
26

Li, Zhong-Yang. "Modélisation de signaux longs multicomposantes modulés non linéairement en fréquence et en amplitude Suivi de ces composantes dans le plan temps-fréquence." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00848347.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulation d'amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulation. L'originalité de l'approche réside dans la définition d'une matrice de convergence totale intégrant simultanément les valeurs d'amplitude et de fréquence et utilisé pour l'association d'un pic à une composante selon un critère d'acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulation par enchainement des étapes de segmentation, modélisation et fusion. Les fonctions de modulation estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l'estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l'adaptabilité de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
27

Hage, Ré-Mi. "Estimation du temps de parcours d’un réseau urbain par fusion de données de boucles magnétiques et de véhicules traceurs : Une approche stochastique avec mise en oeuvre d’un filtre de Kalman sans parfum." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00919589.

Full text
Abstract:
La notion de temps de parcours est une information simple à intégrer par les usagers des transports et a le potentiel, via des systèmes d’assistance, de réduire la congestion aussi bien de manière temporelle que spatiale. Cette thèse porte sur la problématique de l’estimation du temps de parcours en ville, où la circulation se caractérise par un débit variable et un flux significatif de/vers des voies transversales non équipées de capteurs de trafic, flux qui agit comme perturbation de l’équation de conservation des véhicules. La bibliographie présente des approches déterministes et stochastiques, utilisant, selon les situations expérimentales, soit des boucles inductives, soit des véhicules traceurs, soit les deux. Nous proposons une méthode stochastique du type filtrage de Kalman sans parfum. Son modèle dynamique est basé sur la méthode analytique classique des stocks qui considère le décalage temporel entre les cumuls de véhicules entrants et sortants dans chaque tronçon du réseau. La formulation de ce modèle n’est pas explicite, ce qui justifie l’utilisation d’un filtre sans parfum. Les observations utilisées sont à la fois les boucles magnétiques à la sortie des tronçons et les véhicules traceurs après map-matching sur le réseau. L’algorithme est applicable en temps réel, sans connaissance a priori des affectations aux carrefours, et sous conditions éventuelles de perturbation. En sortie de filtre, on dispose des variances d’estimation, ce qui mesure la confiance dans le temps de parcours estimé et permet de rejeter des mesures aberrantes. La validation a été montrée sur la base de simulations sur un réseau simple à trois intersections, avec des flux variables et des perturbations, et pour quelques pourcents de véhicules traceurs.
APA, Harvard, Vancouver, ISO, and other styles
28

Aziz, Babar. "Frequency synchronization for carrier allocation in uplink OFDMA systems." Phd thesis, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00767906.

Full text
Abstract:
La mise en oeuvre de systèmes basés OFDMA nécessite une synchronisation de la fréquence très fine en raison de l'extrème sensibilité de l'OFDMA aux décalages en fréquence porteuse (CFO). La synchronisation en fréquence devient plus difficile dans les systèmes OFDMA en liaison montante. Nos objectifs comprennent l'étude et l'analyse des problèmes résultant de décalages de fréquence et la proposition de solutions pour lutter contre ces problèmes. Nous examinons d'abord les interférences résultant de décalages de fréquence porteuse présents dans l'oscillateur du terminal utilisateur. Nous démontrons que l'on doit prendre en compte le préfixe cyclique tout en analysant les interférences résultant du CFO. Ensuite, nous montrons qu'il existe une contradiction entre la diversité de fréquence de canal et la robustesse contre le CFO. Nous proposons un compromis sous la forme d'une taille de bloc de seuil, afin de permettre un bon compromis entre la diversité des canaux et de robustesse pour les CFO pour le cas où aucune connaissances du canal n'est disponible. Quand le canal est connu, nous proposons une allocation optimale par bloc grâce à laquelle la robustesse aux CFO et à la diversité de fréquence de canal peut être réalisée en utilisant une petite taille de bloc petit pour des CFO de petite valeur. Nous proposons également une valeur CFO critique, en dessous de laquelle l'allocation optimal par bloc est très performant. Ensuite, nous proposons des solutions pour deux problèmes importants rencontrés dans un système OFDMA en liaison montante. Premièrement, nous proposons une méthode efficace pour l'estimation conjointe des réponses impulsionnelles des canaux et fréquences porteuses basée sur l'approximation polynomiale. Notre méthode d'estimation conjointe est plus simple que les méthodes existantes, sans aucune dégradation de performance. Ensuite, nous proposons une méthode de compensation de CFO basée sur l'annulation des interférences successives (SIC). La méthode d'annulation proposée réduit la complexité de mise en oeuvre quand le nombre de porteuses est important.
APA, Harvard, Vancouver, ISO, and other styles
29

Bagayoko, Abdoulaye. "Partage de spectre sous contraintes d'interférences." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00767930.

Full text
Abstract:
Le spectre électromagnétique est une ressource naturelle dont l'usage doit être optimisé. Un grand nombre de travaux actuels visent à améliorer l'utilisation des fréquences radio en y introduisant un degré de flexibilité rendu possible par l'agilité en forme d'onde et en fréquence permise par la radio logicielle (SDR), ainsi que par les méthodes de traitement intelligent du signal (radio cognitive). Cette thèse se place dans ce contexte. Concrètement, nous considérons le problème de partage du spectre électromagnétique entre plusieurs utilisateurs sous contraintes d'interférence mutuelle. Notre objectif est de contribuer à l'évaluation du gain de partage de cette ressource rare qu'est le spectre électromagnétique. En étudiant le canal gaussien d'interférence avec l'interférence traitée comme du bruit additif gaussien aux différents récepteurs, nous avons trouvé une description géométrique et plusieurs caractérisations de la région des débits atteignables. Ensuite, considérant un cas plus réaliste où chaque utilisateur a une certaine qualité de service, nous avons trouvé une condition nécessaire et suffisante pour permettre la communication simultanée à travers le canal gaussien d'interférence pour deux utilisateurs. Dans un scénario de partage entre un utilisateur primaire ayant une plus grande priorité d'accès au spectre et un utilisateur secondaire, après avoir déterminé des bornes minimales pour le débit du primaire en fonction du schéma d'allocation de puissance de l'utilisateur secondaire, nous avons proposé une technique originale d'allocation de puissance pour l'utilisateur secondaire accédant de manière opportuniste au spectre sous contraintes de performance de coupure pour tous les utilisateurs. En particulier, cette technique d'allocation de puissance n'utilise que l'information sur l'état des canaux des liens directs allant de l'émetteur secondaire vers les autres points du réseau. Finalement, considérant des modèles de canaux plus réalistes; après avoir montré l'existence d'une zone d'exclusion autour du récepteur primaire (zone où il n'y a aucun transmetteur secondaire, dans le but de protéger l'utilisateur primaire contre les fortes interférences), nous avons caractérisé l'effet du shadowing et du path-loss sur la zone d'exclusion du primaire.
APA, Harvard, Vancouver, ISO, and other styles
30

Le, Bihan Nicolas. "Contributions au traitement des signaux à valeurs sur des structures algébriques non-commutatives." Habilitation à diriger des recherches, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00606665.

Full text
Abstract:
Les travaux présentés s'intéressent au traitement des signaux à valeurs sur des espaces non-commutatifs, en particulier sur le groupe des rotations et les quaternions. Principalement, ce sont les signaux et processus aléatoires qui sont au centre de nos préoccupations, et nous présentons quelques résultats illustrant leur intérêt en physique des ondes polarisées. Nous montrons par exemple comment les processus aléatoires sur le groupe des rotations permettent d'étudier la diffusion multiple des ondes dans les milieux aléatoires et l'apparition de la phase géométrique pour les ondes polarisées dans ces milieux. Les résultats obtenus sont basés sur des notions empruntées à la théorie des groupes et de la représentation, la théorie des processus aléatoires et de l'estimation ainsi qu'à la géométrie différentielle. L'application majeure des résultats présentés est l'étude des ondes élastiques dans les milieux aléatoires.
APA, Harvard, Vancouver, ISO, and other styles
31

Wang, Hongzhi. "Architectures reconfigurables à base d'opérateur CORDIC pour le traitement du signal: Applications aux récepteurs MIMO." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00446156.

Full text
Abstract:
Cette thèse porte sur la mise en œuvre des architectures reconfigurables pour répondre aux besoins des systèmes de communication : des débits élevés et une grande flexibilité supportant les évolutivités des futurs systèmes. Nous nous intéressons particulièrement aux systèmes MIMO. Les architectures proposées utilisent l'opérateur CORDIC (COordinate Rotation DIgital Computing) comme opérateur commun, ainsi que les techniques de reconfiguration statique et partielle de FPGA en vue d'une optimisation et d'une adaptation dynamique des ressources matérielles aux caractéristiques de la communication. Le nombre d'opérateurs CORDIC peut donc être modifié par la reconfiguration statique pour s'adapter aux différents récepteurs MIMO et aux différents débits demandés. Les interconnexions entre les opérateurs CORDIC peuvent être modifiées par la reconfiguration partielle et dynamique de FPGA afin d'optimiser les ressources matérielles. L'impact du nombre d'étage de l'opérateur CORDIC sur le TEB et EQM du décodeur a été étudié. Trois exemples de récepteurs MIMO ont été réalisés à l'aide cette architecture reconfigurable: V-BLAST Square Root, MMSE et CMA. L'utilisation de cette architecture permet de diminuer les ressources matérielles sans dégrader les performances du décodeur MIMO en terme de TEB et EQM.
APA, Harvard, Vancouver, ISO, and other styles
32

Sauer, Stefan. "Télédétection SAR interférométrique de zones urbaines en bande L à partir de l'utilisation des techniques d'analyse spectrale polarimétriques et multi-bases." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00372059.

Full text
Abstract:
Dans cette thése, des techniques d'analyse spectrale sont généralisées afin de traiter des données polarimétriques SAR interférométriques multi-bases. Ces algorithmes polarimétriques de traitement multi-capteurs sont décrits d'une manièere mathématique rigoureuse et appliqués aux zones urbaines. Ils permettent d'estimer la hauteur des diffuseurs, le mécanisme de rétrodiffusion et la réflectivité polarimétrique. A partir des observations mono-base POLInSAR, un modèle numérique d'élévation d'une zone urbaine est généré en déterminant les mécanismes de rétrodiffusion. L'utilisation des données bi-base POL-InSAR permet de résoudre le problème de déversement et de réaliser des images SAR en trois dimensions en indiquant les types de réflexion.
APA, Harvard, Vancouver, ISO, and other styles
33

Halimi, Abderrahim. "De l'altimétrie conventionnelle à l'altimétrie SAR/Doppler." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2013. http://tel.archives-ouvertes.fr/tel-00951973.

Full text
Abstract:
Depuis plus de vingt ans, les altimètres classiques comme Topex, Poseidon-2 ou Poséidon-3, ont fourni des formes d'onde qui sont utilisées pour estimer de nombreux paramètres tels que la distance entre le satellite et la scène observée, la hauteur des vagues et la vitesse du vent. L'amélioration de la qualité des paramètres altimétriques a nécessité le développement de plusieurs modèles d'échos et d'algorithmes d'estimation paramétrique. Par ailleurs, un grand effort est récemment dédié au traitement des échos côtiers afin d'analyser les mesures altimétriques le plus près possible des côtes. Cette thèse s'intéresse à la résolution de ces deux problèmes, à savoir, le traitement des formes d'onde côtières et l'amélioration de la qualité des paramètres océaniques estimés. La première partie de l'étude traite le problème des formes d'onde côtières en proposant un nouveau modèle altimétrique tenant compte de la présence éventuelle d'un pic sur l'écho altimétrique. Dans la seconde partie de notre travail, nous nous sommes intéressés à l'étude de l'altimétrie SAR/Doppler. Cette nouvelle technologie vise à réduire le bruit de mesure et à augmenter la résolution le long de la trace par rapport à l'altimétrie conventionnelle. Deux modèles altimétriques ont été développés afin d'estimer les paramètres associés aux échos SAR/Doppler. Ces modèles montrent une nette amélioration de la qualité des paramètres estimés par rapport à l'altimétrie conventionnelle.
APA, Harvard, Vancouver, ISO, and other styles
34

Formont, P. "Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturées." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-01020050.

Full text
Abstract:
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
APA, Harvard, Vancouver, ISO, and other styles
35

Georges, Stienne. "Traitements des signaux circulaires appliqués à l'altimétrie par la phase des signaux GNSS." Phd thesis, Université du Littoral Côte d'Opale, 2013. http://tel.archives-ouvertes.fr/tel-00950869.

Full text
Abstract:
Lorsqu'une grandeur est observée par une série temporelle de mesures périodiques, telles que des mesures d'angles, les outils statistiques du domaine linéaire ne sont plus adaptés à l'estimation des paramètres statistiques de cette série. Nous proposons des filtres et un opérateur de fusion adaptés aux grandeurs aléatoires circulaires. Ils sont développés dans un cadre bayésien avec la distribution circulaire normale de von Mises. De plus, on propose un estimateur circulaire GLR (Global Likelihood Ratio) de ruptures dans un signal angulaire s'appuyant sur un filtre particulaire défini dans le domaine circulaire. Le traitement des signaux GNSS repose traditionnellement sur l'estimation récursive, en boucles fermées, de trois paramètres : le délai de code, la phase et la fréquence de la porteuse du signal reçu. On montre dans cette thèse que l'estimation de la phase et de la fréquence en boucle fermée est à l'origine d'imprécisions et de perturbations additionnelles. On propose une nouvelle approche pour l'estimation de ces paramètres en boucle ouverte. Dans ce cas, les mesures de phase sont des angles, définis entre −pi et pi . Statistiquement, elles peuvent être modélisées par la distribution circulaire de von Mises et l'on utilise donc les outils d'estimation circulaire développés dans cette thèse pour les traiter. On montre l'intérêt de l'approche proposée pour le positionnement et pour l'altimétrie par réflectométrie des signaux GNSS. La précision obtenue est de l'ordre du centimètre, pour des durées d'intégration d'une milliseconde. On propose également une technique de résolution de l'ambiguïté de phase, utilisable dans une approche mono-récepteur et mono-fréquence.
APA, Harvard, Vancouver, ISO, and other styles
36

Pous, Nicolas. "Analyse de signaux analogiques/radiofréquences à l'aide de ressources digitales en vue du test." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2011. http://tel.archives-ouvertes.fr/tel-00667202.

Full text
Abstract:
Les travaux présentés dans ce mémoire entrent dans le cadre de la réduction des coûts de production des circuits RF. En effet, la démocratisation de ces appareils pousse les industriels à chercher de nouvelles solutions afin de produire, à bas prix, ces circuits RF. Le test représentant une large partie du coût de ces produits, l'objectif de cette thèse a donc été de proposer une stratégie originale permettant d'effectuer l'analyse de signaux modulés à l'aide d'un équipement de test numérique faible coût. Tout d'abord, le manuscrit dresse un tableau général du test industriel et présente un éventail des solutions proposées dans la littérature pour réduire le coût du test des circuits RF, ainsi que des exemples d'utilisation du concept de " level-crossing ", méthode choisie pour effectuer la capture puis la reconstruction des signaux analogiques et RF. Les principes de base utilisés pour la reconstruction de signaux analogiques à partir d'informations temporelles sont ensuite abordés. L'élément clé des algorithmes de reconstruction est la détermination des instants de passage du signal par un seuil de tension prédéterminé. De cette information, il est ensuite possible de déterminer la phase, la fréquence et l'amplitude du signal observé. La suite est consacrée à l'analyse de signaux modulés. Dans un premier temps sur des modulations élémentaires, puis sur des schémas de modulations plus complexes, basés sur des cas d'étude concrets. Le travail se termine en abordant la prise en compte des non-idéalités de la chaîne d'acquisition. Il s'agit en particulier d'étudier l'impact de ces non-idéalités pour élaborer des algorithmes visant à compenser les erreurs résultantes.
APA, Harvard, Vancouver, ISO, and other styles
37

Mansouri, Majdi. "Traitement du signal collaboratif dans les réseaux de capteurs sans fils." Phd thesis, Université de Technologie de Troyes, 2011. http://tel.archives-ouvertes.fr/tel-00675803.

Full text
Abstract:
L'objectif principal de la thèse est d'étudier le problème d'inférence bayésienne dans les réseaux de capteurs distribués avec un accent particulier sur le compromis entre la précision de l'estimation et la consommation de l'énergie. Nous avons proposé des algorithmes de traitement distribué du signal avec des mesures de capteurs quantifiées. En particulier, cette thèse porte sur l'application des méthodes variationnelles pour résoudre les problèmes de suivi de cibles sous les contraintes d'énergie dans les RCSFs. Le travail a abouti à la résolution de trois problèmes en RCSFs: la quantification intelligente des données des capteurs, la gestion des clusters et l'application de l'optimisation multi-objectifs pour s'accommoder des contraintes énergétiques d'un réseau de capteurs. Les contributions de cette thèse concernent les points suivant: -Estimation des positions de cibles basée sur des mesures quantifiées utilisant des méthodes variationnelles. -Estimation de canal entre les capteurs candidats et le chef de cluster. -Un régime de quantification adaptative sous contraintes de puissance de transmission constante et variable. -Sélection de meilleurs capteurs qui peuvent participer à la collecte de données. -Agrégation sécurisée de données dans le RCSF. -Sélection de chemins de communication optimaux entre les capteurs. -Méthode d'optimisation multi-objectifs dans le RCSF. -Application de la méthode d'agrégation multicritères des données basée sur le systéme multi-agents pour la gestion de crise dans le RCSF.
APA, Harvard, Vancouver, ISO, and other styles
38

Thierry, Guillemot. "Méthodes et structures non locales pour la restauration d'images et de surfaces 3D." Phd thesis, Telecom ParisTech, 2014. http://tel.archives-ouvertes.fr/tel-01022843.

Full text
Abstract:
Les technologies d'acquisition numériques n'ont cessé de se perfectionner, permettant d'obtenir des données d'une qualité toujours plus fine. Néanmoins, le signal acquis est corrompu par des défauts qui ne peuvent être corrigés matériellement et nécessitent des méthodes de restauration adaptées. A l'origine, ces approches s'appuyaient uniquement sur un traitement local du signal. Récemment, le support du filtre a pu être étendu à l'ensemble des données acquises en exploitant leur caractère autosimilaire. Ces approches non locales ont principalement été utilisées pour restaurer des données régulières et structurées telles que des images. Mais dans le cas extrême de données irrégulières et non structurées comme les nuages de points 3D, leur adaptation est peu étudiée à l'heure actuelle. Avec l'augmentation de la quantité de données échangées, de nouvelles méthodes non locales ont récemment été proposées. Elles utilisent un modèle a priori extrait à partir de grands ensembles d'échantillons pour améliorer la qualité de la restauration. Néanmoins, ce type de méthode reste actuellement trop coûteux en temps et en mémoire. Dans cette thèse, nous proposons d'étendre les méthodes non locales aux nuages de points 3D, en définissant une surface de points exploitant leur caractère autosimilaire. Nous introduisons ensuite une nouvelle structure de données, le CovTree, flexible et générique, capable d'apprendre les distributions d'ensemble d'échantillons avec une capacité de mémoire limitée. Finalement, nous généralisons les méthodes de restauration collaboratives, en utilisant notre CovTree pour apprendre un modèle statistique a priori à partir d'un ensemble de données.
APA, Harvard, Vancouver, ISO, and other styles
39

Le, Bastard Cédric. "Apport de techniques de traitement du signal super et haute résolution à l'amélioration des performances du radar-chaussée." Phd thesis, UNIVERSITE DE NANTES, 2007. http://tel.archives-ouvertes.fr/tel-00969109.

Full text
Abstract:
Dans le domaine du génie civil, l'auscultation de couches minces de chaussée (de l'ordre de 2 cm d'épaisseur) est mal résolue par les techniques radar de Contrôle Non Destructif. Dans ce contexte, cette thèse a pour objectif d'améliorer, d'un facteur 3 à 6, la résolution temporelle des radars actuels par des techniques de traitement du signal dites super et haute résolution. Dans un premier temps, les méthodes super et haute résolution les plus connues de la littérature (LSMYW, MUSIC, ESPRIT, Min-Norm) sont évaluées à partir de signaux simulés. Les résultats montrent les variations de l'erreur quadratique moyenne sur l'épaisseur estimée de chaussée, en fonction du rapport signal sur bruit et du retard différentiel entre échos. Un critère de précision sur la mesure d'épaisseur permet de déduire la limite de résolution temporelle de chacun des algorithmes. Pour des échos fortement ou totalement corrélés, on propose une optimisation du paramétrage de la technique de moyennage en sous-bande de fréquences. Quel que soit le niveau de corrélation, la limite de résolution temporelle obtenue permet de montrer la faisabilité de l'application. Dans un second temps, le document se focalise sur l'amélioration de techniques haute résolution de complexité calculatoire plus réduite. Tout d'abord, une version généralisée de l'algorithme ESPRIT (G-ESPRIT) est proposée, pour tenir compte de la forme de l'impulsion radar et des caractéristiques d'un bruit quelconque. Ensuite, deux méthodes linéaires à sous-espaces (OPM et SWEDE) sont introduites. Une version polynomiale d'OPM (root-OPM) permettant d'accélérer la recherche des retards de propagation est proposée. La méthode SWEDE est transposée à l'estimation de retards ; une nouvelle procédure de blanchiment permettant d'améliorer ses performances est également suggérée (FBD-SWEDE). Puis, de nouveaux algorithmes sont développés, combinant les avantages calculatoires des algorithmes SWEDE et ESPRIT (ESPRITWED, AV-ESPRITWED, G-ESPRITWED). Enfin, les méthodes de traitement présentées dans ce document sont expérimentées sur des signaux d'un radar impulsionnel et à sauts de fréquence, mesurés sur un 'milieu-modèle' monocouche et bicouche. La mise en oeuvre des algorithmes est détaillée. Les résultats permettent d'une part de valider les résultats théoriques et de montrer la faisabilité de la mesure de couches minces de chaussée à l'aide d'un radar de 2 GHz de largeur de bande.
APA, Harvard, Vancouver, ISO, and other styles
40

Aïssa-El-Bey, Abdeldjalil. "Représentations parcimonieuse et applications en communication numérique." Habilitation à diriger des recherches, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-01063287.

Full text
Abstract:
L'objet de ce document est de rapporter une partie des travaux de recherche auxquels j'ai contribué durant les cinq dernières années. Le but visé n'est pas de faire une synthèse exhaustive des travaux réalisés sur cette période mais d'en sélectionner certains d'entre eux pour leur pertinence et leur cohérence. Les travaux rapportés dans ce manuscrit concernent l'exploitation des représentations parcimonieuses dans les applications en télécommunication. Depuis mes travaux de thèse, où j'ai abordé le problème de la séparation aveugle de sources en exploitant le caractère parcimonieux des signaux audio, mes travaux gravitent autour des représentations parcimonieuses et leurs applications en communication numérique. En effet, après avoir exploité la propriété de parcimonie des signaux audio dans le domaine temps-fréquence d'un point de vue structurel, je me suis intéressé aux mesures de parcimonie et aux problèmes inverses régularisés. Cette réflexion m'a poussé à entreprendre l'étude sur l'exploitation de la parcimonie pour l'estimation aveugle de canaux de communication. En particulier, l'identification aveugle de canaux parcimonieux dans les systèmes Single-Input Multiple-Output (SIMO). Une extension de ces techniques a été développée pour les systèmes Multiple-Input Multiple-Output MIMO OFDM où le cas semi-aveugle a été traité. L'identification de canaux pour les communications étant étroitement liée aux signaux à alphabet fini. Je me suis par conséquent intéressé à l'exploitation de cette caractéristique des signaux de communication (signaux à alphabet fini) par le biais des représentations parcimonieuses afin de résoudre certains problèmes inverses difficiles. Enfin, j'ai abordé le problème de détection de signaux en utilisant des méthodes de tests statistiques basées sur l'hypothèse de parcimonie des signaux observés. Ces méthodes ont trouvés un cadre applicatif dans les communications sans fil, la guerre électronique et la séparation aveugle de sources.
APA, Harvard, Vancouver, ISO, and other styles
41

Fadlallah, Yasser. "Réduction d'interférence dans les systèmes de transmission sans fil." Phd thesis, Université Européenne de Bretagne, 2013. http://tel.archives-ouvertes.fr/tel-01064897.

Full text
Abstract:
Les communications mobiles sans fil ont connu un progrès très rapide pendant les dernières décennies. Ca a commencé avec les services vocaux offerts par les systèmes de la première génération en 1980, arrivant jusqu'aux systèmes de la quatrième génération avec des services internet haut débit et un nombre important d'utilisateurs, et dans quelques années les systèmes de la cinquième génération avec encore plus de débit et d'utilisateurs. En effet, les caractéristiques essentielles qui définissent les services et les qualités des services dans les systèmes de communication sans fil sont: le débit, la fiabilité de transmission et le nombre d'utilisateurs. Ces caractéristiques sont fortement dépendantes et liées entre elles, et sont soumises à la gestion des interférences entre les différents utilisateurs. Les interférences entre-utilisateurs arrivent quand plusieurs émetteurs, dans une même zone, envoient simultanément à leurs propres destinataires en partageant la même bande de fréquence. Dans cette thèse, nous nous intéressons à la gestion d'interférence entre utilisateurs, méthodes classiques et avancées, de deux côtés émission et réception. Ensuite, nous proposons des nouvelles contributions dans des différents contextes afin d'améliorer les performances. Cette thèse est divisée en plusieurs parties. Dans la première partie, une présentation concise de l'état de l'art sur des techniques de gestion et de réduction d'interférences entre utilisateurs. Ensuite, nous introduisons le concept d'une méthode dite d'Alignement d'Interférence, où nous proposons des améliorations algorithmiques dans les canaux mono-antenne afin d'augmenter le débit. Enfin, nous supposons les deux cas suivants: l'application et l'absence du schéma d'IA à l'émission, et nous proposons d'utiliser des méthodes existantes ou bien nouvelles pour la détection du côté récepteur.
APA, Harvard, Vancouver, ISO, and other styles
42

Moussu, Guy. "Définition d'une méthodologie de détection de phénomènes dynamiques dans une chronique d'images et son application à quelques études." Phd thesis, Nice, 1988. http://pastel.archives-ouvertes.fr/pastel-00956228.

Full text
Abstract:
Des chroniques d'images sont utilisées pour la mise en évidence de phénomènes dynamiques. Trois applications ont été abordées dans un cadre opérationnel et ont permis de définir une méthodologie générale dont les étapes sont : 1) une mise en coïncidence géométrique des images, 2) un traitement des images pour l'obtention de luminances normalisées, 3) un filtrage spécifique prenant en compte le caractère spatial ou temporel du processus étudié. La comparaison et le traitement automatique d'images représentant une même scène nécessitent d'une part la mise en coïncidence géométrique des images. Pour cela, différentes méthodes de corrélation entre images sont établies puis comparées. D'autre part, les luminances doivent être normalisées afin de corriger leurs variations au cours du temps. La normalisation est effectuée soit par un ajustement du codage sur la dynamique des valeurs, soit par une modélisation de l'évolution temporelle de la luminance en chaque point. La première étude concerne la détection et le suivi de phénomènes météorologiques sur des images de la Terre, fournies par des satellites météorologiques, et affichées sur un écran couleur. On a développé une méthode d'animation de ces images en vue d'une aide à la prévision météorologique. Si l'objet de la première étude résidait dans le suivi des nuages, le but de la seconde est la construction d'une image sans nuage grâce à un filtrage adaptatif et itératif, afin d'obtenir une image du sol vu par ciel clair. La troisième étude concerne la détection précoce de fumées d'incendie de forêt. Quelques expériences ont permis de définir des caractéristiques spatiales et temporelles des fumées qui ont fourni les critères de détection.
APA, Harvard, Vancouver, ISO, and other styles
43

Villard, Pierre-Frédéric. "Simulation du Mouvement Pulmonaire pour un Traitement Oncologique." Phd thesis, Université Claude Bernard - Lyon I, 2006. http://tel.archives-ouvertes.fr/tel-00858260.

Full text
Abstract:
L'objectif de cette thèse est d'améliorer le traitement curatif du cancer du poumon par radiothérapie conformationnelle et hadronthérapie. Il s'agit de simuler, dans un cas concret, le mouvement et les déformations des poumons d'un patient. Issu de plusieurs colaborations médicales, nous avons défini des conditions initiales et des conditions limites pour obtenir un modèle biomécanique suivant les lois de la mécanique des milieux continus et personnalisé à un patient. Le calcul mécanique est réalisé sur un poumon fixé au niveau du médiastin et soumis à une dépression homogène tout autour avec prise en compte les grandes déformations. Une contrainte supplémentaire de gestion du contact de la surface du poumon autorisant le glissement est ajoutée pour reproduire le comportement réel des organes et plus spécialement celui de l'enveloppe des poumon : la plèvre. Une étude a par ailleurs été menée sur la conversion des données prédites du modèle en scanner 4D afin de préparer la dosimétrie.
APA, Harvard, Vancouver, ISO, and other styles
44

Nezan, Jean François. "Prototypage rapide d'applications de traitement des images sur systèmes embarqués." Habilitation à diriger des recherches, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00564516.

Full text
Abstract:
les travaux de recherche de Jean-François Nezan s'inscrivent dans le cadre général des méthodes et outils d'aide à la conception de systèmes embarqués. Plus particulièrement, les travaux présentés visent les systèmes électroniques constitués de plusieurs processeurs (MPSoC) et dédiés aux applications de compression/décompression vidéo. L'approche choisie se situe dans le cadre AAA (Adéquation Algorithme Architecture) qui utilise des modèles de descriptions haut-niveau des algorithmes et des architectures parallèles pour automatiser les processus de placement/ordonnancement et pour générer un code optimisé. La présentation montrera les apports à cette problématique issus des travaux encadrés par Jean-François Nezan, précisera également la manière dont ces travaux distincts s'intègrent dans un processus de développement cohérent et évolutif, et enfin donnera les perspectives attendues dans les années à venir.
APA, Harvard, Vancouver, ISO, and other styles
45

Doré, Jean-Baptiste. "Optimisation conjointe de codes LDPC et de leurs architectures de décodage et mise en œuvre sur FPGA." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00191155.

Full text
Abstract:
La découverte dans les années 90 des Turbo-codes et, plus généralement du principe itératif appliqué au traitement du signal, a révolutionné la manière d'appréhender un système de communications numériques. Cette avancée notable a permis la re-découverte des codes correcteurs d'erreurs inventés par R. Gallager en 1963, appelés codes Low Density Parity Check (LDPC). L'intégration des techniques de codage dites avancées, telles que les Turbo-codes et les codes LDPC, se généralise dans les standards de communications. Dans ce contexte, l'objectif de cette thèse est d'étudier de nouvelles structures de codage de type LDPC associées à des architectures de décodeurs alliant performances et flexibilité.
Dans un premier temps, une large présentation des codes LDPC est proposée incluant les notations et les outils algorithmiques indispensables à la compréhension. Cette introduction des codes LDPC souligne l'intérêt qu'il existe à concevoir conjointement le système de codage/décodage et les architectures matérielles. Dans cette optique, une famille de codes LDPC particulièrement intéressante est décrite. En particulier nous proposons des règles de construction de codes pour en contraindre le spectre des distances de Hamming. Ces contraintes sont intégrées dans la définition d'un nouvel algorithme de définition de codes travaillant sur une représentation compressée du code par un graphe.
Les propriétés structurelles du code sont ensuite exploitées pour définir l'algorithme de décodage. Cet algorithme, caractérisé par le fait qu'il considère une partie du code comme un code convolutif, converge plus rapidement que les algorithmes habituellement rencontrés tout en permettant une grande flexibilité en termes de rendements de codage. Différentes architectures de décodeurs sont alors décrites et discutées. Des contraintes sur les codes sont ensuite exposées pour exploiter pleinement les propriétés des architectures.
Dans un dernier temps, une des architectures proposées est évaluée par l'intégration d'un décodeur sur un composant programmable. Dans différents contextes, des mesures de performances et de complexité montrent l'intérêt de l'architecture proposée.
APA, Harvard, Vancouver, ISO, and other styles
46

Baudais, Jean-Yves. "Une contribution à l'allocation des ressources des systèmes précodés à porteuses multiples." Habilitation à diriger des recherches, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-01064975.

Full text
Abstract:
L'allocation des ressources dans les systèmes OFDM, ou DMT, a été l'objet de nombreuses publications depuis la fin des années 1980. Avec le développement des communications par courant porteur, aussi bien pour les réseaux d'accès, les réseaux domestiques que les réseaux embarqués, ce thème de l'allocation des ressources dans les systèmes OFDM est toujours d'actualité. La forme d'onde résultant de l'ajout d'un précodage linéaire aux systèmes OFDM, bien connue en radiomobile sous le sigle MC-CDMA, n'était ni exploitée ni étudiée dans le cadre des communications filaires. En radiomobile, le précodage offre une flexibilité supplémentaire. Est-ce que ce précodage peut apporter un gain dans les systèmes filaires ? J'ai cherché à répondre à cette question en faisant de ce thème de l'allocation des ressources dans les systèmes à transmission orthogonale et linéairement précodés l'axe central de mes travaux de recherche.
APA, Harvard, Vancouver, ISO, and other styles
47

Assemlal, Haz-Edine. "Traitement et analyse d'images IRM de diffusion pour l'estimation de l'architecture locale des tissus." Phd thesis, Université de Caen, 2010. http://tel.archives-ouvertes.fr/tel-00554969.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode qui tente de répondre à la problématique de l'estimation de caractéristiques variées du tissu cérébral à partir de l'acquisition d'un nombre réduit d'échantillons de signaux IRM de diffusion in vivo. Ces caractéristiques doivent permettre l'étude de la structure locale du tissu cérébral, notamment dans la substance blanche. L'approche proposée est flexible quant à la caractéristique calculée et au nombre d'échantillons disponibles. Elle définit un formalisme générique qui d'une part, unifie de nombreux travaux précédents liés à l'estimation des fonctions de densité probabilité (PDF) de déplacement en IRM de diffusion, dont l'Imagerie du Tenseur de Diffusion (DTI) et le Q-Ball Imaging (QBI). D'autre part, elle permet aussi de définir et d'estimer de nouvelles caractéristiques originales: "vraie" ODF, probabilité de non diffusion, taille moyenne des cellules, etc. Nous proposons deux formalismes: un rapide et un autre robuste au bruit des images IRM. Nous validons notre approche par des comparaisons de résultats avec des méthodes de la littérature, sur des données synthétiques ainsi que des données d'un cerveau humain acquises in vivo dans un intervalle de temps modéré.
APA, Harvard, Vancouver, ISO, and other styles
48

Moulon, Pierre. "Positionnement robuste et précis de réseaux d’images." Phd thesis, Université Paris-Est, 2014. http://tel.archives-ouvertes.fr/tel-00996935.

Full text
Abstract:
Calculer une représentation 3D d'une scène rigide à partir d'une collection d'images est aujourd'hui possible grâce aux progrès réalisés par les méthodes de stéréo-vision multi-vues, et ce avec un simple appareil photographique. Le principe de reconstruction, découlant de travaux de photogrammétrie, consiste à recouper les informations provenant de plusieurs images, prises de points de vue différents, pour identifier les positions et orientations relatives de chaque cliché. Une fois les positions et orientations de caméras déterminées (calibration externe), la structure de la scène peut être reconstruite. Afin de résoudre le problème de calcul de la structure à partir du mouvement des caméras (Structure-from-Motion), des méthodes séquentielles et globales ont été proposées. Par nature, les méthodes séquentielles ont tendance à accumuler les erreurs. Cela donne lieu le plus souvent à des trajectoires de caméras qui dérivent et, lorsque les photos sont acquises autour d'un objet, à des reconstructions où les boucles ne se referment pas. Au contraire, les méthodes globales considèrent le réseau de caméras dans son ensemble. La configuration de caméras est recherchée et optimisée pour conserver au mieux l'ensemble des contraintes de cyclicité du réseau. Des reconstructions de meilleure qualité peuvent être obtenues, au détriment toutefois du temps de calcul. Cette thèse propose d'analyser des problèmes critiques au cœur de ces méthodes de calibration externe et de fournir des solutions pour améliorer leur performance (précision, robustesse, vitesse) et leur facilité d'utilisation (paramétrisation restreinte). Nous proposons tout d'abord un algorithme de suivi de points rapide et efficace. Nous montrons ensuite que l'utilisation généralisée de l'estimation robuste de modèles paramétriques a contrario permet de libérer l'utilisateur du réglage de seuils de détection, et d'obtenir une chaine de reconstruction qui s'adapte automatiquement aux données. Dans un second temps, nous utilisons ces estimations robustes adaptatives et une formulation du problème qui permet des optimisations convexes pour construire une chaine de calibration globale capable de passer à l'échelle. Nos expériences démontrent que les estimations identifiées a contrario améliorent de manière notable la qualité d'estimation de la position et de l'orientation des clichés, tout en étant automatiques et sans paramètres, et ce même sur des réseaux de caméras complexes. Nous proposons enfin d'améliorer le rendu visuel des reconstructions en proposant une optimisation convexe de la consistance colorée entre images.
APA, Harvard, Vancouver, ISO, and other styles
49

Hofmanis, Janis. "Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsie." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00919480.

Full text
Abstract:
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
APA, Harvard, Vancouver, ISO, and other styles
50

Motsch, Jean. "Archivage Sécurisé d'Images." Phd thesis, INSA de Rennes, 2008. http://tel.archives-ouvertes.fr/tel-00642974.

Full text
Abstract:
La multiplication des dispositifs de prise de vues, classiques comme les appareils photographiques, nouveaux comme les imageurs IRM et les analyseurs multispectraux, amène à prendre en charge des volumes de données croissants exponentiellement. En corollaire, la nécessité d'archiver de telles quantités de données introduit des questions nouvelles. Comment gérer des images de très grande taille ? Comment garantir l'intégrité des données enregistrées ? Quel mécanisme utiliser pour lier une image à des données ? Pendant longtemps, l'accent a été mis sur les performances de compression des schémas de codage, avec pour instruments de mesure les courbes débit-distorsion et quelques évaluations subjectives. Des propriétés de scalabilité, de gestion du débit, de résistance aux erreurs sont apparus pour prendre en compte les évolutions des techniques relatives aux media de communication. Cependant, la prise en compte des impératifs liés à l'archivage amène à considérer de nouveaux services, comme la gestion de la copie, l'ajout de métadonnées et la sécurité des images. Dans la plupart des cas, ces services sont fournis en dehors des schémas de compression, à l'exception notable de JPSEC, effort lié à JPEG-2000. L'approche retenue dans cette étude est l'intégration dans un codeur d'images fixes performant, le codeur LAR, des primitives de chiffrement et d'insertion de données permettant d'assurer l'essentiel des services liés à l'archivage des images. Le codeur LAR est hiérarchique, scalable en résolution et qualité, et permet d'aller du codage avec perte vers du codage sans perte. Ses performances sont au-delà de l'état de l'art, particulièrement en très bas débit et en compression sans perte. Le point clef des performances de ce codeur est un partitionnement quadtree adapté au contenu sémantique de l'image. Dans le contexte de l'archivage sécurisé d'images, ce document présente donc le tryptique suivant : compression efficace, chiffrement partiel et insertion de données. Pour la compression, l'utilisation d'une transformée de Hadamard réversible alliée à des filtres non linéaires permet d'obtenir de bonnes performances, avec ou sans pertes. Pour le chiffrement, l'utilisation de la structure hiérarchique du codeur LAR permet de mettre en place un schéma de chiffrement partiel. Il autorise une gestion fine des droits et des clefs, ainsi que le choix dans les niveaux de résolution et qualité possibles. Des éléments permettant une protection à coût nul sont également présentés. Pour l'insertion de données, le parallèle existant entre le LAR-Interleaved S+P et l'extension de la différence permet de mettre en œuvre un schéma efficace.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography