Literatura académica sobre el tema "Traitement de l'image et du signal"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Traitement de l'image et du signal".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Traitement de l'image et du signal"

1

-Le Chevalier, F. "Traitement physique du signal et de l'image". Revue de l'Electricité et de l'Electronique -, n.º 02 (2001): 23. http://dx.doi.org/10.3845/ree.2001.015.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Demoment, G. "Problèmes inverses en traitement du signal et de l'image". Journal de Physique IV (Proceedings) 12, n.º 1 (marzo de 2002): 3–34. http://dx.doi.org/10.1051/jp42002001.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Giremus, A., R. Mégret, E. Grivel, O. Lavialle y Y. Berthoumieu. "Découvrir le traitement du signal et de l'image grâce à des projets personnalisés : du traitement de la parole à la télécommande virtuelle". J3eA 7 (2008): 1024. http://dx.doi.org/10.1051/j3ea:2008023.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Jacobs, Bidhan. "Traitement du signal et abstraction". Vertigo 48, n.º 1 (2015): 61. http://dx.doi.org/10.3917/ver.048.0061.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Pelsser, Robert. "Gisela Pankow ou la possible rencontre avec le psychotique". Santé mentale au Québec 9, n.º 1 (8 de junio de 2006): 80–96. http://dx.doi.org/10.7202/030212ar.

Texto completo
Resumen
Résumé L'auteur présente une synthèse des travaux théoriques et cliniques de Gisela Pankow concernant la psychose. La lecture des travaux de cette psychanalyste a un caractère fascinant pour diverses raisons : elle fournit de nombreux cas cliniques détaillés et vivants, elle prend en analyse des patients pour lesquels d'autres méthodes de traitement ont échoué. Mais cet aspect spectaculaire risque de faire passer le lecteur à côté de l'essentiel de l'oeuvre qui est une théorisation et une approche, pratique originales concernant la psychose. Le résumé des thèses de Pankow s'avère d'autant plus nécessaire que cette dernière ne prend pas toujours le temps de présenter ses travaux de façon claire et organisée. Les principaux apports de Pankow sont les suivants : l'utilisation de techniques non traditionnelles (face à face, dessins, modelages, contacts avec la famille) dans le traitement du psychotique, la redéfinition de l'image du corps avec une double fonction de forme et de contenu, le développement de la technique des greffes de transfert, par opposition au transfert classique, la redéfinition du concept de forclusion (Lacan) en tant que mécanisme de défense impliquant directement l'image du corps. Le présent texte peut servir d'introduction à la lecture des travaux de Pankow en mettant quelque peu les idées en ordre.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Vingerhoeds, R. A. "Modelisation et identification en traitement du signal". Automatica 26, n.º 1 (enero de 1990): 185–86. http://dx.doi.org/10.1016/0005-1098(90)90171-d.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Meyer, Yves. "Le traitement du signal et l'analyse mathématique". Annales de l’institut Fourier 50, n.º 2 (2000): 593–632. http://dx.doi.org/10.5802/aif.1766.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Rochard, J., R. Wang, A. Alary, Y. Lecuona y P. Philippe. "Ingénierie écologique appliquée aux effuents vinicoles : exemple du dispositif de BlueSET Phytostation® dans la cave « Les Vignerons de Buzet »". BIO Web of Conferences 12 (2019): 02002. http://dx.doi.org/10.1051/bioconf/20191202002.

Texto completo
Resumen
Le traitement des effuents vinicoles est très souvent réalisé par des systèmes aérobies avec des bassins ouverts. Au-delà de la consommation d'énergie, ces dispositifs génèrent souvent des nuisances sonores, olfactives et visuelles, ce qui impose le plus souvent d'éloigner le dispositif de la cave. La coopérative « Les Vignerons de de Buzet », située dans le sud-ouest de la France, qui a déjà développé une démarche durable pour le vignoble et la cave, a souhaité intégrer une zone humide associée au traitement des effuents de cave avec le procédé breveté de la société BlueSET spécialisée dans le génie écologique. Après une première étape de traitement en aérobie, le dispositif se compose d'un ensemble de bassins dans lesquels sont implantés majoritairement de plantes locales non invasives. Il a pour objectif de favoriser la biodiversité et de permettre aux visiteurs de profiter de manière didactique d'une zone de promenade écologique qui valorise l'image environnementale de la cave. Les résultats de la première année démontrent que les performances sont compatibles avec les normes de rejet locales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Malissard, Pierrick. "Les cercles des jeunes naturalistes, ampleur et nature du mouvement, 1931-1971". Revue d'histoire de l'Amérique française 50, n.º 1 (26 de agosto de 2008): 3–27. http://dx.doi.org/10.7202/305487ar.

Texto completo
Resumen
RÉSUMÉ Cet article présente une analyse détaillée du mouvement des Cercles des jeunes naturalistes (CJN), de sa naissance jusqu'au début des années 1970. S'appuyant sur le traitement informatique d'une partie des archives des Cercles, cette analyse précise l'image des CJN, notamment en montrant l'importance considérable des congrégations religieuses féminines dans le mouvement. Cette étude tend également à nuancer le rapport entre les milieux scientifiques canadiens français et les Cercles : les membres des CJN, entre autres parce qu'ils sont trop jeunes, ne peuvent vraisemblablement pas être assimilés au mouvement scientifique qui commence à s'affirmer au Québec dans les années 1920-1930.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Tricot, C., D. Wehbi y C. Roques-Carmes. "Perturbations et propriétés holdériennes en traitement de signal". Revue de Physique Appliquée 25, n.º 6 (1990): 509–16. http://dx.doi.org/10.1051/rphysap:01990002506050900.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Traitement de l'image et du signal"

1

Coussy, Philippe. "Synthèse d'architectures pour les applications de traitement du signal et de l'image". Habilitation à diriger des recherches, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00663253.

Texto completo
Resumen
Ce document est organisé en trois parties : - Partie 1, Synthèse des travaux : Cette première partie présente de façon complète l'ensemble de mon parcours en mettant en avant toutes ses contributions et originalités. - Partie 2, Sélection des publications significatives : Cette deuxième partie illustre les contributions menées en présentant plusieurs articles scientifiques. Partie 3 : Travaux de recherche détaillés et perspectives (document séparé) Cette troisième partie présente de façon approfondie les différents travaux que j'ai menés depuis l'obtention de mon doctorat. Elle propose tout d'abord une introduction afin de positionner les différentes contributions et les trois axes de recherche autour desquels s'articulent mes travaux. Chaque axe est ensuite détaillé et une sélection de certains travaux est proposée afin d'illustrer l'activité menée. Enfin, une conclusion et des perspectives sont proposées afin de préciser les actions envisagées dans l'avenir.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

DOGET, THIERRY. "Determination automatisee de certains parametres ionospheriques par traitement du signal et de l'image". Poitiers, 1992. http://www.theses.fr/1992POIT2278.

Texto completo
Resumen
Basee sur le traitement du signal et des images, la procedure de traitement automatique des ionogrammes, mise au point et en uvre au laboratoire, a l'avantage de permettre une determination rapide et tres precise, de certains parametres ionospheriques. Elle consiste notamment a eliminer les differents bruits qui affectent les ionogrammes tout en conservant le signal utile
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Niang, Oumar Lemoine Jacques Niane Mary Teuw. "Décomposition modale empirique contribution à la modélisation mathématique et application en traitement du signal et de l'image /". Créteil : Université de Paris-Val-de-Marne, 2007. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0393468.pdf.

Texto completo
Resumen
Thèse de doctorat : Sciences de l'ingénieur. Mathématiques et informatique appliquées au traitement du signal et de l'image : Paris 12 : 2007.
Titre provenant de l'écran-titre. Pagination : 210 p. Bibliogr. : 122 réf.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Wu, Jiasong. "Algorithmes rapides pour transformées orthogonales discrètes et leurs applications en traitement du signal et de l'image". Rennes 1, 2011. http://www.theses.fr/2011REN1S153.

Texto completo
Resumen
The thesis mainly concentrates on the fast algorithms’ research of some recently proposed transforms (MDCT, MCLT, DHT, SCHT, CS-SCHT). We reduce their computational complexity to achieve the practical requirement, compare their performance with other ones and also explore the potential applications in the signal and image processing domain. The main research achievements and contributions are summarized as follows: 1. Fast algorithms for the lapped orthogonal transforms (1) For one-dimensional (1-D) MDCT, we proposed a unified framework for mixed-radix MDCT algorithm, which is composed of a radix-2 decimation-in-frequency (DIF) algorithm and radix-q algorithms, for q = 3, 5, 7, 9,…, including radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm and radix-q DIT algorithm. (2) For two-dimensional (2-D) MDCT, we proposed a fast algorithm based on 2-D DCT-II. (3) For 1-D MCLT, we proposed an indirect algorithm based on GDHT-II. 2. Fast algorithms for discrete Hartley transform (DHT) and applications (1) For 1-D DHT, considering a long length-N sequence is composed of three adjacent short length-N/3 ones, if we know the DHT coefficients of three short ones, we proposed a fast algorithm to compute the DHT coefficients of the length-N sequence efficiently. (2) For 2-D DHT, we proposed two fast algorithms. The first one is odd-factor split vector radix-(2×2)/(8×8) DIF algorithm and the second one is vector radix-(3×3) DIF algorithm. We also applied the first algorithm to medical image encoding and decoding. (3) For three-dimensional (3-D) GDHT, we proposed a vector radix-(2×2×2) DIF GDHT-III algorithm and applied it to the computation of 3-D skew convolution. 3. Fast algorithms for sliding complex Hadamard transforms and applications (1) For 1-D SCHT, we proposed two sliding fast algorithms such as the radix-2 decimation-in-sequency (DIS) algorithm and the radix-4 DIS algorithm. (2) For 1-D CS-SCHT, we proposed three sliding fast algorithms, including a radix-2 DIS algorithm, a radix-4 DIS algorithm, and a gray code kernel (GCK) algorithm. (3) We applied the proposed sliding SCHT and sliding CS-SCHT algorithm to signal spectrum analysis and transform domain adaptive filtering
Cette thèse se focalise principalement sur les algorithmes rapides dédiés à certaines transformations trigonométriques (MDCT, MCLT, DHT) et à des transformations de Hadamard (SCHT et CS-SCHT). Nous proposons des approches algorithmiques qui permettent de réduire leur complexité numérique et nous comparons leur performance à d’autres algorithmes de la littérature. Nous explorons aussi leurs applications potentielles en traitement du signal et de l’image. Les principaux résultats et contributions de cette thèse peuvent être résumés ainsi : 1. Algorithmes rapides pour les transformations orthogonales à recouvrement (1) Pour la MDCT monodimensionnelle, nous avons proposé une approche unifiée pour des algorithmes de MDCT combinant plusieurs subdivisions du nombre de points du signal à transformer. Il s’agit de méthodes agrégeant des algorithmes de décimation en fréquence et ou en temps pour un nombre de points composite en puissance de 2 et en puissance d’un nombre impair q (radix-2 decimation-in-frequency (DIF), radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm et radix-q DIT algorithm). (2) Pour la MDCT en 2D, nous avons proposé un algorithme rapide basé sur la DCT de type II. (3) En ce qui concerne la MCLT monodimensionnelle, nous avons proposé une approche de mise en œuvre à partir de la transformée de Hartley généralisée de type II (GDHT-II). 2. Algorithmes rapides pour la transformée de Hartley discrète (GHT) (1) Pour la DHT monodimensionnelle, en considérant une séquence de longueur N subdivisée en trois sous séquences adjacentes de longueur N/3 dont on connaît les DHT, nous avons proposé un algorithme rapide et efficace de calcul de la DHT de la séquence. (2) Nous avons proposé deux algorithmes rapides pour la DHT en 2D. Le premier est un algorithme de type DIF où le nombre de points est composite et multiple impair d’une puissance de 2. Nous avons mis en œuvre cet algorithme pour la compression d’image notamment médicale. Le second, se fond sur une approche DIF pour un nombre de points qui est une puissance de trois. (3) Une extension en 3D a aussi été entreprise pour la GDHT, nous avons proposé un algorithme pour cette transformation en prenant comme point de départ l’algorithme DIF et en considérant un nombre de points en puissance de deux. Cette approche a été mise en œuvre pour le calcul de convolutions circulaires en 3D. 3. Algorithmes rapides pour la transformée complexe de Hadamard sur fenêtre glissante (SCHT). (1) Dans le cas monodimensionnel, nous avons proposé deux algorithmes, l’un du type « radix-2 DIS » et l’autre du type « radix-4 DIS » pour le calcul de la SCHT. (2) Pour le calcul de la transformation CS-SCHT, nous avons proposé trois approches rapides, incluant les méthodes « radix-2 DIS » et « radix-4 DIS » et le codage de gray (GCK). (3) Nous avons mis en œuvre les transformations SCHT et CS-SCHT dans le contexte de l’estimation spectrale et du filtrage adaptatif
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Andriamisaina, Choukataly Caaliph. "Synthèse d'architecture multi-modes pour les applications du traitement du signal et de l'image". Lorient, 2008. http://www.theses.fr/2008LORIS127.

Texto completo
Resumen
Le marché des télécommunications et du multimédia ne cesse de s’accroître avec une demande de plus en plus forte en fonctionnalité, performance, durée d’autonomie, compacité et faible coût de conception. Ces besoins ont ainsi conduit à des recherches de dispositifs performants, flexibles, compacts et faible consommation. Ainsi, pour avoir un compromis entre la flexibilité et la performance, l’ajout de flexibilité aux architectures matérielles et/ou l’amélioration des performances des architectures logicielles peuvent être envisagés. Cet ajout de flexibilité donne lieu à ce qui est appelé dans la littérature, des architectures multi-modes. Ce type d’architectures est spécialement conçu pour implémenter un ensemble d’applications mutuellement exclusives dans le temps. Les architectures multi-modes sont aussi utilisées pour réduire le surcoût du temps de reconfiguration dans les FPGAs et pour implémenter des accélérateurs de nids de boucles utilisés comme accélérateurs matériels (co-processeurs) ou accélérateurs d’instructions (ASIP). Nous proposons dans cette thèse une méthodologie de conception, basée sur la synthèse de haut niveau (HLS), automatisant la génération d’architectures multi-modes. La synthèse de haut niveau est une technique qui permet une augmentation considérable de la productivité par l’élévation du niveau d’abstraction de la spécification et par l’automatisation de la conception. Dans le contexte de la HLS, nous proposons de modifier les étapes d’allocation, d’ordonnancement et d’assignation dans le but de réduire le coût en surface de l’architecture générée tout en gardant un surcoût en performance et en consommation faible. Pour obtenir une surface totale minimale, nous proposons de diminuer le coût en surface du chemin de données et aussi du contrôleur. La réduction du coût du contrôleur s’obtient grâce à l’augmentation de la similarité des ressources présentes entre les étapes de contrôle des modes. Alors que, la réduction du coût du chemin de données est obtenue grâce essentiellement au partage de ressources entre les modes et à la prise en compte du coût des interconnections lors de ce partage. L'approche que nous proposons a été implémentée dans un environnement de conception dédié à la génération d’architecture multi-modes. Cette suite logicielle s’articule autour des outils : GAUT « Multi-modes », et STARGene « Multi-modes » et permet, en partant d'une description fonctionnelle spécifiée en langage C/C++, d'obtenir automatiquement une architecture multi-modes de niveau transfert de registres décrite en VHDL. Un ensemble d’expériences ont été menés pour mettre en avant l’efficacité de notre approche et les outils associés. De ces expériences, nous avons pu constater qu’avec notre approche, nous arrivions à réduire fortement (jusqu'à 60%) la surface occupée par les différents modes à implémenter tout en ayant un surcoût en performance (en moyenne de 5%) et en consommation (en moyenne de 16%) raisonnable
Emerging standards lead an increasing demand for high performance, flexibility and low power of embedded systems. These requirements had led to the research on efficient devices to respect these constraints. To have a good trade-off between flexibility and performance, adding flexibility to dedicated architectures and/or improving software performances can be considered. In the literature, the architectures, which result from the addition of flexibility in dedicated architectures, are named multi-modes architectures. The multi-modes or multi-configurations architectures are specifically designed for a set of time-wise mutually exclusive applications (multi-standard applications). They are also used to reduce the reconfiguration time overhead in FPGAs and to implement loop accelerators. We propose a design methodology, based on the High-Level Synthesis (HLS) technique, dedicated to the multi-modes architectures generation. The high-level synthesis is a technique, which considerably increase the productivity by raising the level of abstraction of the input specification and by automating the design. In the context of HLS, we propose to modify the allocation, scheduling and binding steps in order to reduce the area cost of the generated architecture by limiting the performance and power consumption overhead. In order to obtain an area efficient multi-modes architecture, we propose to reduce the area cost of the datapath and the controller. The controller complexity reduction is obtained by increasing the resources similarity between the control steps of the different modes. Whereas, the datapath complexity reduction is obtained by the resources sharing between the modes, and by the consideration of the interconnections cost during this sharing. This approach was integrated in a design environment, dedicated to the multi-modes architectures generation. This environment is based on different tools: GAUT “Multi-modes”, CDFG2UCOM and STARGene “Multi-modes”. It takes as input a functional description specified in C/C++ language in order to obtain automatically a multi-modes architecture at register transfer level described in VHDL. A set of experiment has been done to show the effectiveness of our approach and its associated high-level synthesis tools. From these experiments, we notice that with our approach, we can greatly reduce (up to 60%) the area occupied by the different modes to implement. With this important area reduction, we also obtain a low performance (average of 5%) and power consumption (average of 16%) overhead
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Dewalle, Anne-Sophie. "Nouvelles approches de traitement du signal et de l'image en IRM fonctionnelle d'activation cérébrale". Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/c3ff9e5f-e824-4cc2-a6ea-a22cb4383bc2.

Texto completo
Resumen
L'IRM fonctionnelle d'activation cérébrale a pour but d'étudier et d'identifier les régions du cerveau impliquées dans des activités stimulées, ceci à des fins cliniques ou de recherche fondamentale. Le sujet est soumis à un enchaînement de phases d'activation et de repos, tandis que l'on effectue simultanément l'acquisition rapide d'un très grand nombre d'images IRM. La problématique consiste à trouver un modèle explicatif des variations observées dans les images, à en estimer les paramètres et à déterminer les régions activées. Dans la théorie des systèmes, l'une des nombreuses méthodes proposées, le cerveau est représenté comme une "boîte noire" dont on cherche à estimer la réponse impulsionnelle. Comme le système est mal conditionné, les solutions sont instables et des connaissances a priori sont introduites afin de régulariser la solution. Nous avons reconsidéré le problème sans introduire d'a priori. Le modèle choisi est dynamique, à temps discret, non paramétrique, multi-variable, stochastique, linéaire et à coefficients invariants. Des méthodes de déconvolution et de réalisation ont été appliquées afin d'estimer la réponse impulsionnelle en chacun des voxels. Nous avons étudié l'influence de la nature du bruit et de sa modélisation. Nous avons considéré le bruit comme la somme d'un bruit blanc, de moyenne nulle et de variance inconnue, et d'un bruit physiologique, modélisé par une combinaison linéaire de fonctions sinusoïdales basses fréquences. Le problème, toujours mal conditionné, mène à une infinité de solutions et nous avons retenu la réponse impulsionnelle de plus petite norme correspondant à une hypothèse de consommation minimum d'énergie. D'autres développements ont également été effectués dans le prétraitement des images et dans l'amélioration de techniques standard d'analyse statistique
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Niang, Oumar. "Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image". Phd thesis, Université Paris XII Val de Marne, 2007. http://tel.archives-ouvertes.fr/tel-00878354.

Texto completo
Resumen
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Mansouri, Farouk. "Modèles de programmation des applications de traitement du signal et de l'image sur cluster parallèle et hétérogène". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT063/document.

Texto completo
Resumen
Depuis une dizaine d'année, l'évolution des machines de calcul tend vers des architectures parallèles et hétérogènes. Composées de plusieurs nœuds connectés via un réseau incluant chacun des unités de traitement hétérogènes, ces grilles offrent de grandes performances. Pour programmer ces architectures, l'utilisateur doit s'appuyer sur des modèles de programmation comme MPI, OpenMP, CUDA. Toutefois, il est toujours difficile d'obtenir à la fois une bonne productivité du programmeur, qui passe par une abstraction des spécificités de l'architecture et performances. Dans cette thèse, nous proposons d'exploiter l'idée qu'un modèle de programmation spécifique à un domaine applicatif particulier permet de concilier ces deux objectifs antagonistes. En effet, en caractérisant une famille d'applications, il est possible d'identifier des abstractions de haut niveau permettant de les modéliser. Nous proposons deux modèles spécifiques au traitement du signal et de l'image sur cluster hétérogène. Le premier modèle est statique. Nous lui apportons une fonctionnalité de migration de tâches. Le second est dynamique, basé sur le support exécutif StarPU. Les deux modèles offrent d'une part un haut niveau d'abstraction en modélisant les applications de traitement du signal et de l'image sous forme de graphe de flot de données et d'autre part, ils permettent d'exploiter efficacement les différents niveaux de parallélisme tâche, données, graphe. Ces deux modèles sont validés par plusieurs implémentations et comparaisons incluant deux applications de traitement de l'image du monde réel sur cluster CPU-GPU
Since a decade, computing systems evolved to parallel and heterogeneous architectures. Composed of several nodes connected via a network and including heterogeneous processing units, clusters achieve high performances. To program these architectures, the user must rely on programming models such as MPI, OpenMP or CUDA. However, it is still difficult to conciliate productivity provided by abstracting the architectural specificities, and performances. In this thesis, we exploit the idea that a programming model specific to a particular domain of application can achieve these antagonist goals. In fact, by characterizing a family of application, it is possible to identify high level abstractions to efficiently model them. We propose two models specific to the implementation of signal and image processing applications on heterogeneous clusters. The first model is static. We enrich it with a task migration feature. The second model is dynamic, based on the StarPU runtime. Both models offer firstly a high level of abstraction by modeling image and signal applications as a data flow graph and secondly they efficiently exploit task, data and graph parallelisms. We validate these models with different implementations and comparisons including two real-world applications of images processing on a CPU-GPU cluster
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Carré, Philippe. "Construction et analyse de transformées discrètes en ondelettes : spécificité de l'image et de la couleur". Habilitation à diriger des recherches, Université de Poitiers, 2011. http://tel.archives-ouvertes.fr/tel-00652608.

Texto completo
Resumen
La problématique centrale de mes travaux est l'étude de méthodes de décomposition discrète Temps-échelle. Ils s'inscrivent pleinement dans l'équipe projet ICONES, dont j'assure l'animation. Dans ce cadre, je me suis concentré, dès mon intégration dans le laboratoire sur les décompositions atomiques discrètes reconstructibles définies dans le domaine général des ondelettes. Toutes ces méthodes possèdent maintenant un cadre général et notamment la transformée en ondelettes standard. Cependant, il existe encore certaines limites : construction d'une représentation efficace d'éléments géométriques 2-D de l'image, généralisation de ces transformées à des signaux à valeurs vectorielles reste. L'objectif recherché est donc une représentation liée à une structure de données sous forme de primitives, facilement calculable par un algorithme, telle que l'ensemble de ces primitives permettent la reconstruction de la donnée d'origine. Il faut par ailleurs que l'on puisse ordonner ces primitives et que l'on puisse donner un sens à ces primitives. Dans ce cadre, mon travail va se découper suivant trois axes de recherche et un axe applicatif fort. Approche géométrique. Nous avons étudié un outil qui permet la représentation d'images d'une manière optimale (au sens des ruptures linéaires) : la transformée Ridgelet. Grâce à une collaboration avec les chercheurs en géométrie discrète du département XLIM-SIC nous avons proposé une transformée Ridgelet/Curvelets paramétrable, rapide et inversible, obtenant des résultats en termes de restauration de données 2-D très satisfaisants, notamment en vidéo. De plus, la simplicité et la rigueur dans la définition apportée par la géométrie discrète nous a permis d'étendre ce travail à toute dimension. Suivant ce même but, à savoir capter la géométrie pour adapter la transformée, nous avons proposé dans le cadre d'un partenariat avec OrangeLab une représentation en ondelettes géodésiques qui se propose d'introduire une modélisation de la topologie dans un schéma numérique de calcul du type Lifting Scheme. Il s'appuie sur la construction d'un graphe qui doit capter l'organisation structurelle de l'image à traiter. De ce graphe, une distance entre chaque pixel de l'image est estimée et introduite dans l'algorithme de décomposition. Couleur et MultiCanaux. L'objet de ce second axe a été d'examiner des approches plus globales pour l'extension des briques élémentaires issues du signal dans le cadre des images couleur. Suivant cette idée, j'ai débuté dès 2001 une étude concernant l'utilisation des quaternions. Cette recherche a concerné la redéfinition des traitements classiques couleur en termes quaternionique, comme le filtrage, la modification des caractéristiques couleur ... Ceci a fait l'objet d'une thèse, notamment à travers la redéfinition des manipulations couleur avec un formalisme lié à l'algèbre géométrique. Approche orientée. Le simple découpage horizontal, vertical et selon les deux diagonales, lié à l'approche classique, n'est pas suffisant à la fois en termes de description du signal mais aussi par rapport à ce que l'on connait du système visuel humain. L'objectif est de définir une représentation associée à des directions d'analyse plus adaptatives, invariante soit à la translation soit à la rotation. La transformée en ondelettes complexes suivant l'arbre dual constitue une réponse possible. A partir de ces travaux, nous étudions une approche alternative reposant sur les travaux de Bulow et al. et Choi et al. sur le signal analytique 2-D à partir des nombres quaternioniques. Ce travail permet de mettre en place une transformée en ondelettes quaternioniques pour la compression et la classification introduisant une nouvelle information : une notion de phase. La généralisation de ce travail nous mène à la définition d'ondelettes monogéniques qui peuvent être considérées en termes signalistique, comme les décompositions les plus abouties. Cependant de nombreuses questions restent ouvertes, et la première d'entre-elles étant la définition d'un schéma numérique stable. Sécurité. Depuis plusieurs années maintenant, j'ai développé un travail sur la protection électronique des images et vidéo, qui a donné lieu à 2 brevets sur le tatouage basé ondelettes, et intégrant des données psychovisuelles de perception des couleurs. Ces travaux se sont maintenant poursuivis dans le cadre d'une collaboration avec le département DMI de XLIM. L'objectif visé est l'intégration des différentes familles de codes correcteurs d'erreur afin d'améliorer la robustesse d'une stratégie de tatouage. Les résultats montrent effectivement une amélioration de la robustesse de l'algorithme breveté. Nous poursuivons ce travail sous un angle un peu différent à travers la définition d'algorithme de stétaganalyse en utilisant les compétences de l'équipe Icones autour des métriques de qualité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Pietquin, Olivier. "De l'Apprentissage Statistique pour le Contrôle Optimal et le Traitement du Signal". Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00652777.

Texto completo
Resumen
Les travaux présentés dans ce manuscrit ont pour but le développement de méthodes de prise de décisions optimales (statiques ou séquentielles) ou de traitement de signaux par des méthodes d'appren- tissage automatique. Ils répondent cependant à un certain nombre de contraintes qui ont été imposées par l'objectif de prendre en compte la présence de l'humain dans la boucle de décision ou de traitement ou même comme générateur des signaux que l'on analyse. La présence de l'humain rend la nature des données que l'on traite assez imprévisible et, à une même situation en apparence, des décisions diffé- rentes peuvent être prises. Dans les domaines de l'apprentissage statistique, du contrôle optimal ou du traitement du signal ceci se traduit par la nécessité de gérer l'incertain, de traiter le caractère stochastique du système ainsi que la non-stationnarité de celui-ci. Ainsi, les décisions que l'on considère optimales peuvent dépendre de manière aléatoire de la situation mais de plus, cette dépendance peut varier avec le temps. Des méthodes d'optimisation convergeant vers une solution globale ne sont donc pas adaptées mais des méthodes permettant d'apprendre au fil de l'eau et de poursuivre l'évolution de la solution optimale seront préférées. Par ailleurs, dans le cas où les décisions résultent en une action sur le monde extérieur, il est né- cessaire de quantifier le risque pris en accomplissant ces actions, particulièrement si ces actions doivent avoir un impact sur l'humain. Ceci passe par une estimation de l'incertitude sur le résultat des actions possibles et la sélection en conséquence de ces actions. Une autre implication est qu'il ne sera pas tou- jours envisageable de tester toutes les actions possibles pour en estimer les effets puisque ces actions peuvent ne pas être acceptables pour l'humain. Ainsi, il faudra apprendre à partir d'exemples de situa- tions imposées ce qui se traduit par une phase d'inférence utilisant les informations observables pour en déduire des conséquences sur des situations que l'on ne peut observer. Les travaux exposés dans ce manuscrit apportent des contributions théoriques permettant de tenir compte de ces contraintes et des applications à des problèmes concrets imposant ces contraintes seront exposées.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Traitement de l'image et du signal"

1

Coulon, Frédéric de. Théorie et traitement des signaux. Lausanne: Presses Polytechniques Romandes, 1990.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Bellanger, Maurice. Traitement numérique du signal: Théorie et pratique. 8a ed. Paris: Dunod, 2006.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

L, Mari J., Glangeaud F y Coppens Françoise, eds. Traitement du signal pour géologues et géophysiciens. Paris: Editions Technip, 2001.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Bellanger, Maurice. Traitement numérique du signal: Théorie et pratique. 3a ed. Paris: Masson, 1987.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Mari, J. L. Traitement du signal pour géologues et géophysiciens. Paris: Editions Technip, 1997.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Coulon, Fre de ric de. The orie et traitement des signaux. 4a ed. Lausanne: Presses polytechniques et universitaires romandes, 1998.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Jean-François, Pautex y Schweitzer Patrick, eds. Analyse et traitement des signaux: Méthodes et applications au son et à l'image : cours et exercices corrigés. 2a ed. Paris: Dunod, 2008.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Max, Jacques. Méthodes et techniques de traitement du signal et applications aux mesures physiques. 4a ed. Paris: Masson, 1985.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

M, Verhoeckx N. A., ed. Traitement numérique du signal: Une introduction : cours et exercices corrigés. 3a ed. Paris: Dunod, 2003.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Brémaud, Pierre. Signaux aléatoires: Pour le traitement du signal et les communications. Paris: Editions Marketing, 1993.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Traitement de l'image et du signal"

1

Del Moral, Pierre y Christelle Vergé. "Traitement du signal". En Mathématiques et Applications, 347–86. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_12.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Martaj, Dr Nadia y Dr Mohand Mokhtari. "Traitement du signal". En MATLAB R2009, SIMULINK et STATEFLOW pour Ingénieurs, Chercheurs et Etudiants, 587–672. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11764-0_14.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Martaj, Nadia y Mohand Mokhtari. "Traitement du signal déterministe". En Apprendre et maîtriser LabVIEW par ses applications, 785–834. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-45335-9_21.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Meyer, Yves. "Ondelettes, filtres miroirs en quadrature et traitement numerique de l'image". En Les Ondelettes en 1989, 14–25. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/bfb0083512.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Flandrin, Patrick. "Quelques methodes temps-frequence et temps-echelle en traitement du signal". En Les Ondelettes en 1989, 81–88. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/bfb0083516.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Chabriais, J. y B. Gibaud. "Systèmes de communication et d’archivage d’images et leur intégration dans les systèmes de gestion de dossiers patient". En Traitement De L'image, 151–96. Elsevier, 2013. http://dx.doi.org/10.1016/b978-2-294-73685-8.00004-1.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

"Traitement du signal". En Fiabilité, maintenance prédictive et vibration des machines, 259–302. Presses de l'Université du Québec, 2012. http://dx.doi.org/10.2307/j.ctv18ph9kr.16.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

"Traitement du signal". En Fiabilité, maintenance prédictive et vibration des machines, 259–302. Presses de l'Université du Québec, 2012. http://dx.doi.org/10.1515/9782760533585-014.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

"Traitement avancé du signal". En Fiabilité, maintenance prédictive et vibration des machines, 457–72. Presses de l'Université du Québec, 2012. http://dx.doi.org/10.2307/j.ctv18ph9kr.24.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

"Traitement avancé du signal". En Fiabilité, maintenance prédictive et vibration des machines, 457–72. Presses de l'Université du Québec, 2012. http://dx.doi.org/10.1515/9782760533585-022.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Traitement de l'image et du signal"

1

Lefort, Claire, Mathieu Chalvidal, Alexis Parenté, Véronique BLANQUET, Henri Massias, Laetitia MAGNOL y Emilie Chouzenoux. "Imagerie 3D par microscopie multiphotonique appliquée aux sciences du vivant : la chaine instrumentale et computationnelle FAMOUS". En Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.221.

Texto completo
Resumen
Nous présentons une nouvelle stratégie instrumentale et computationnelle appelée FAMOUS (pour fast algorithm for three-dimensional (3D) multiphoton microscopy of biomedical structures) basée sur une approche de microscopie multiphotonique assistée par calcul. Le but est l’amélioration visuelle des images d'échantillons biologiques épais offrant ainsi un nouveau point de vue sur les structures biologiques. L'approche de post-traitement repose sur un algorithme de restauration d'image régularisé, alimenté par une estimation 3D précise de la fonction d'étalement du point (Point Spread Function en anglais, PSF) de l'instrument sur toute la profondeur des structures. Cette dernière étape revient à mesurer, grâce à un algorithme d'ajustement de modèle avancé, les distorsions variant en profondeur de l'image résultant de la combinaison entre la contribution instrumentale et les hétérogénéités du milieu. Les performances du pipeline FAMOUS sont évaluées pour un milieu hétérogène constitué d’un muscle entier de souris. La génération de seconde harmonique (SHG), émise par l'assemblage des chaines de myosine du muscle est enregistrée. Les artefacts optiques issus de la chaîne d'acquisition incluant des hétérogénéités dans les 3 dimensions sont estimés avec les spécificités propres à l’échantillon puis retirées numériquement. Des images brutes et restaurées sur 5 µm de l’ultrastructure fine du muscle illustrent la robustesse du pipeline FAMOUS.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Pocholle, J. P. "Propriétés optiques des matériaux semiconducteurs à puits quantiques et applications dans le domaine du traitement du signal". En Optoélectronique (Volume 1). Les Ulis, France: EDP Sciences, 1990. http://dx.doi.org/10.1051/sfo/1990006.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía