Littérature scientifique sur le sujet « Traitement statistique et numérique du signal »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Traitement statistique et numérique du signal ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Traitement statistique et numérique du signal"

1

Malti, Rachid, et Martial Leyney. « Do Ré Mi Fa Sol La S T M 32 ». J3eA 22 (2023) : 1037. http://dx.doi.org/10.1051/j3ea/20231037.

Texte intégral
Résumé :
Cette communication présente une expérience pédagogique ludique menée à l’IUT de Bordeaux dans le cadre de la formation du BUT. Elle permet aux étudiants de 2e année du parcours Électronique et Systèmes Embarqués du BUT GEII de réaliser un projet de traitement numérique du signal, sur cible microcontrôleur de type STM32, à partir des signaux audios transmis depuis leur téléphone portable. Le traitement réalisé consiste à générer de l’écho ayant un gain de retour et une profondeur ajustables ou encore à réaliser un filtrage numérique dont la pulsation de coupure varie logarithmiquement.
Styles APA, Harvard, Vancouver, ISO, etc.
2

LOGETTE, P., P. GOUTIN, J. M. ROUVAEN et E. BRIDOUX. « PROCESSEUR HYBRIDE PROGRAMMABLE POUR LE TRAITEMENT NUMÉRIQUE RÉCURSIF ET ITÉRATIF DU SIGNAL ». Le Journal de Physique IV 02, no C1 (avril 1992) : C1–1137—C1–1140. http://dx.doi.org/10.1051/jp4:19921251.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Gerber, Roland, et Gilles Privat. « Architecture parallèle et circuits VLSI pour le traitement numérique du signal et des images ». Annales des Télécommunications 46, no 1-2 (janvier 1991) : 3–4. http://dx.doi.org/10.1007/bf02995430.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Aymen Labiod, Mohamed, Noureddine Doghmane, Amira Boulmaiz et Mouhamadou Mansour Gueye. « Initiation aux systèmes embarqués à travers la mise en oeuvre de Réseaux de Capteurs Sans Fil (RCSF) ». J3eA 21 (2022) : 2054. http://dx.doi.org/10.1051/j3ea/20222054.

Texte intégral
Résumé :
Dans ce travail, une initiation aux systèmes embarqués est proposée à des étudiants de Master 1 en « Télé-communication » de l’Université d’Annaba, cela entre également dans le cadre d’une opération de vulgarisation de la recherche. Dans ce travail formulé sous forme d’un TP, nous proposons aux étudiants une partie applicative d’un projet de recherche-formation universitaire (PRFU) portant sur la surveillance d’un écosystème par des réseaux de capteurs sans fil (RCSF). Ces RCSF sont destinés à une application d’identification et de reconnaissance des oiseaux migrateurs dans leurs habitats naturels en l’occurrence des zones humides. A travers ce travail, les étudiants sont amenés à utiliser différents types de modules de captage, des modules de traitement numérique, que sont les microcontrôleurs, ainsi que des modules de transmissions. Une partie traitement numérique du signal et de programmation est également nécessaire dans le traitement appliqué sur des échantillons de sons de oiseaux (cris et/ou chants). Ce travail qui arrive à la fin de la première année de Master permet aux étudiants de revoir différents aspects abordés durant leur cursus et les initiés à un travail de recherche.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Gharbi, Mohamed, et Mohamed Aymen Labiod. « Une application comparative pour l’enseignement des méthodes de compression d’images par transformées orthogonales ». J3eA 21 (2022) : 2039. http://dx.doi.org/10.1051/j3ea/20222039.

Texte intégral
Résumé :
Nous proposons dans cette contribution une interface graphique comme outil pédagogique pour l’enseignement des méthodes de compression par transformées orthogonales utilisées dans l’encodage d’images. Cet outil est utilisé dans l’enseignement proposé aux étudiants en MASTER du département Développement, Recherche, Enseignement en Audiovisuel et Multimédia (DREAM) de l’Université Polytechnique Hauts-de-France (Valenciennes – France). Les offres de formation s’appuient notamment sur un enseignement du traitement de signal, des images ainsi que la compression des images et de la vidéo. Les deux aspects analogique et numérique du traitement du signal sont enseignés. Cet interface graphique a été développé pour permettre aux étudiants de mieux appréhender l’influence des différents paramètres intervenant dans une chaîne de compression numérique des images. A travers cet outil, nous proposons aux étudiants une nouvelle approche à la compréhension des transformées matricielles utilisées dans l’encodage des images et de la quantification sur la qualité des images compressées par plusieurs transformées. En effet, cet outil, par le biais de l’ajustement des différents paramètres intervenant dans le chaîne de compression, permet aux étudiants d’étudier et de comparer plusieurs transformées orthogonales à savoir la Transformée en Cosinus Discrète (DCT), la Transformée de Karhunen-Loève (KLT) sous les deux versions séparable ou non, la Transformation de Fourier Discrète (TFD) ainsi que la Transformée d’Hadamard. Ainsi, visuellement par le biais de l’image reconstruite et par le rapport signal à bruit cet outil permet aux étudiants d’apprécier le choix des paramètres qu’ils ont fixés pour l’obtention de leurs résultats.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Cascioli, Fiammetta, et Cécile Dejoux. « L’apprentissage du management en entreprise avec un MOOC : l’importance du profil managérial dans la définition des attentes ». Question(s) de management 46, no 5 (11 septembre 2023) : 111–21. http://dx.doi.org/10.3917/qdm.226.0111.

Texte intégral
Résumé :
Cette étude mobilise une posture socio-constructiviste qui met en évidence les différentes interactions entre le MOOC et l’apprenant. Dans ce contexte, l’apprenant est considéré comme un organisme qui crée sa propre signification à travers les échanges qu’il a avec son environnement. Les travaux de recherche de Cascioli (2020) ont montré que les apprenants utilisent leurs formes de représentations pour agir de manière symbolique sur le monde conceptuel, en générant ainsi de nouvelles. Le parcours MOOC est donc considéré comme un outil numérique qui permet d’optimiser et d’élargir le processus d’apprentissage en termes de traitement, analyse et problématisation de l’information ainsi que de création de nouvelles représentations (Cox, 2013). Deux questions sont posées dans cette publication : Quelles sont les attentes d’apprentissage des apprenants qui suivent un MOOC ? Peut-on les catégoriser en fonction du profil managérial de l’apprenant ? Un traitement statistique sur 3 760 observations en relation avec le MOOC managérial le plus suivi de France, le MOOCLead de Cécile Dejoux au CNAM, permet par un cluster two steps d’identifier trois catégories d’apprenants : les « les novices », managers débutants, « les éveillés », managers intermédiaires, et « les avertis », managers confirmés. Chacune de ces catégorie fait état d’attentes distinctes, allant d’un apprentissage général des compétences numériques du manager de demain, à un approfondissement, voir, à une mise en perspective.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Thior, Mamadou. « Géomatique appliquée à la géomorphologie littorale : Contribution à la connaissance théorique des techniques d’analyse spatiale de l’évolution du linéaire côtier ». European Scientific Journal, ESJ 17, no 28 (31 août 2021) : 101. http://dx.doi.org/10.19044/esj.2021.v17n28p101.

Texte intégral
Résumé :
L’analyse de l’évolution du trait de côte en cinématique du littoral exige tout d’abord le choix d’un indicateur linéaire. En effet, il existe plus d’une douzaine de lignes de référence matérialisant la position du trait de côte. Cette diversité d’indicateurs induit la recherche et la mise au point de nombreuses méthodes pour détecter, extraire et suivre la mobilité du trait de côte. Ces approches méthodologiques reposent sur la compilation et la comparaison de données acquises, soit sur le terrain par des instruments de topométrie (niveau de chantier, théodolite, tachéomètre électronique, lidar, récepteur DGPS, etc.), soit en laboratoire par le traitement numérique d’images satellites ou aériennes. Le but de ce travail est de contribuer à une meilleure connaissance de l’approche cartographique et statistique qui permet de calculer les taux de variation historique du trait de côte à travers les outils la géomatique: Télédétéction et Système d’Information Géographique (SIG). La technique faisant l’objet d’étude dans cette approche est une méthode statistique d’extrapolation et de calcul de tendances basée sur le traitement des images géospatiales. Dans un cadre théorique, le sujet discute la définition de la ligne de référence, du protocole méthodologique de son extraction et de la cartographie de l’évolution du trait de côte du littoral. The analysis of coastline evolution in coastal kinematics requires first of all the choice of a linear indicator. Indeed, there are more than a dozen reference lines materializing the position of the coastline. This diversity of indicators leads to the research and development of numerous methods to detect, extract and monitor coastline mobility. These methodological approaches are based on the compilation and comparison of data acquired either in the field by topometry instruments (site level, theodolite, electronic tacheometer, lidar, DGPS receiver, etc.) or in the laboratory by digital processing of satellite or aerial images. The aim of this work is to contribute to a better knowledge of the cartographic and statistical approach that allows the calculation of historical coastline variation rates through geomatics tools: Remote sensing and GIS. The technique studied in this approach is a statistical method of extrapolation and calculation of trends based on the processing of geospatial images. In a theoretical framework, the subject discusses the definition of the reference line, the methodological protocol of its extraction and the mapping of the coastline evolution.
Styles APA, Harvard, Vancouver, ISO, etc.
8

El Kartouti, Salah Eddine, et Sarah Juidette. « L’impact de l’usage des TIC en éducation sur l’amélioration de l’apprentissage des élèves scolarisés, et les conséquences sur l’environnement ». SHS Web of Conferences 175 (2023) : 01015. http://dx.doi.org/10.1051/shsconf/202317501015.

Texte intégral
Résumé :
L’éducation est un droit pour tous, garantir ce droit relève de la responsabilité de toutes les parties concernées. De même, les technologies de l’information et de la communication pour l’enseignement (TICE) sont désormais une pierre angulaire du secteur de l’éducation. En ce sens, face aux mutations et à la croissance du nombre des crises, le développement du système éducatif et l’utilisation des TICE pour améliorer la qualité des apprentissages des élèves a fait l’objet de plusieurs recherches. Pour cette fin, le but de cet article est d’examiner l’impact de l’intégration des TICE sur l’amélioration de l’apprentissages des élèves au Maroc, tout en prenant en compte les conséquences sur l’environnement résultant de cette intégration comme un aspect essentiel pour assurer tout développement durable. Pour cela, cette étude s’appuie sur une méthodologie rigoureuse, qui s’est traduit par une analyse statistique tout en utilisant des logiciels spécialisés dédie au traitement statistiques et un questionnaire destiné aux directeurs des établissements scolaires. Les résultats de cette étude ont montré l’importance d’intégrer les TICE pour améliorer l’apprentissage, cela est apparu à travers plusieurs aspects notamment en ce qui concerne les résultats des élèves, l’accès aux informations et l’acquisition des connaissances enseignées, et les effets sur l’environnement. Néanmoins cela n’empêche l’importance de promouvoir plus de mesure à savoir la mise à disposition des ressources technologiques aux écoles et la formation des enseignants, pour garantir la transition vers un enseignement numérique permettent de développer l’apprentissage ce qui retentit par la suite sur l’environnement.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Dufeu, Frédéric, Peter Manning et Michael Clarke. « Des outils interactifs pour l’étude des méthodes de composition des musiques électroacoustiques : les logiciels TaCEM comme ressources pédagogiques ». Revue Francophone Informatique et Musique 1, no 1 (2022). http://dx.doi.org/10.56698/rfim.479.

Texte intégral
Résumé :
Introduction L’enseignement et l’apprentissage de la musique liée aux technologies, et plus particulièrement au traitement numérique de signal, peuvent dans une large mesure bénéficier de la recherche sur la production des musiques électroacoustiques. En effet, ce répertoire repose par définition sur un usage substantiel des nouvelles technologies, et l’étude d’une situation compositionnelle donnée offre un point de vue privilégié sur, d’une part, un processus créatif singulier et, d’autre part, un ensemble de techniques pour la génération et la transformation du son et des matériaux musicaux. Une approche par études de cas peut ainsi compléter l’apprentissage in abstracto des méthodes de composition musicale et des algorithmes de traitement de signal. Le projet TaCEM, conduit par les trois auteurs de cet article de 2012 à 2017, s’est donné pour objectif l’investigation des musiques électroacoustiques et une orientation particulière sur la relation entre innovations technologiques et processus compositionnels1. Bien que le projet relève principalement de la recherche musicologique, avec des questionnements à la fois d’ordre historique et analytique, une part significative de sa mise en œuvre s’appuie sur le développement de logiciels innovants qui peuvent également servir d’outils dans un contexte pédagogique. De fait, une partie de la recherche intégrant une importante dimension logicielle, entreprise par Michael Clarke à l’Université de Huddersfield avant le projet TaCEM, é
Styles APA, Harvard, Vancouver, ISO, etc.
10

Gräf, Albert. « Leçons tirées de l’enseignement de l’informatique musicale à des musicologues ». Revue Francophone Informatique et Musique 1, no 1 (2022). http://dx.doi.org/10.56698/rfim.530.

Texte intégral
Résumé :
Nous présentons des expériences d’enseignement de la musique-informatique à des étudiants en musicologie et de diverses disciplines (informatique, mathématiques, sciences médiatiques) à l’université pluridisciplinaire JGU, dans le groupe de recherche Music-Informatics (Institut d’histoire de l’art et de musicologie). Nos cours couvrent un large éventail de sujets, allant des théories sous-jacentes (acoustique, traitement du signal numérique, théorie mathématique de la musique et certains domaines de l’informatique) à des sujets pratiques en technologie musicale et en programmation informatique. Réfléchir à qui et pourquoi nous enseignons est aussi important que de demander quoi enseigner et comment. Dans ce texte, nous réfléchissons à certaines de ces questions et à leurs interdépendances, et nous discutons également des outils logiciels et des langages de programmation utilisés.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Traitement statistique et numérique du signal"

1

YE, Zi. « Traitement statistique de l'information et du signal pour l'internet des objets sous-marins ». Thesis, Institut polytechnique de Paris, 2021. https://tel.archives-ouvertes.fr/tel-03179373.

Texte intégral
Résumé :
On assiste au développement des activités humaines liées au monde océanique, mais aucune norme n'a encore émergé pour l'Internet des objets appliqué aux objets autonomes marins. Bien qu'elle possède une bande passante limitée, l'onde acoustique est le seul moyen de communiquer sur des distances importantes et elle est donc utilisée par de nombreux systèmes sous-marins pour communiquer, naviguer ou déduire des informations sur l'environnement. Cela a conduit à une forte demande de réseaux sans fil qui nécessitent à la fois une bonne efficacité spectrale et énergétique avec la faible complexité des algorithmes associés. Par conséquent, au cours de ce doctorat, nous avons proposé plusieurs solutions originales pour relever le défi de développer des techniques numériques, capables de faire face au canal acoustique.En raison d’une diversité inhérente d'espace du signal (SSD), les constellations tournées permettent de meilleures performances théoriques que les constellations conventionnelles et ce, sans détérioration spectrale. Nous passons en revue les propriétés structurelles des constellations tournées M-QAM uniformément projetées, afin de proposer une technique de demapping souple à faible complexité pour les canaux à fading. Puis, nous proposons une technique originale de réduction du PAPR pour les systèmes OFDM utilisant les constellations tournées. Afin de réduire la complexité du décodage aveugle, nous nous appuyons sur les propriétés des constellations tournées M-QAM uniformément projetées, pour concevoir un estimateur de faible complexité. De plus, pour faire face à la sélectivité du canal acoustique, nous avons proposé un turbo-détecteur parcimonieux adaptatif avec seulement quelques coefficients à mettre à jour afin de réduire la complexité. Enfin, nous avons proposé un algorithme original auto-optimisé pour lequel les tailles de pas de l'égaliseur sont mises à jour de manière adaptative et assistées par des informations souples de manière itérative, afin de répondre à l'exigence de convergence rapide et de faible erreur quadratique sur des canaux variant rapidement dans le temps
There has been recently a large development of human activities associated to the ocean world, where no standard has emerged for the Internet of Things (IoT) linked to marine autonomous objects. Though it has a limited bandwidth, the acoustic wave is the only way to communicate over average to large distances and it is thus used by many underwater systems to communicate, navigate, or infer information about the environment. This led to a high demand for wireless networks that require both spectral efficiency and energy efficiency with the associated low-complexity algorithms. Therefore, in this Ph.D. thesis, we proposed several original solutions to face this challenge.Indeed, due to the inherent Signal Space Diversity (SSD), rotated constellations allow better theoretical performance than conventional constellations with no spectral spoilage. We review the structural properties of uniformly projected rotated M-QAM constellations, so as to propose a low complexity soft demapping technique for fading channels. Then, we present an original blind technique for the reduction of the PAPR for OFDM systems using the rotated constellations with SSD. In order to reduce the complexity of blind decoding for this technique, we again rely on the properties of uniformly projected M-QAM rotated constellations to design a low-complexity estimator. Moreover, to face the selectivity of the acoustic channel, we suggest a sparse adaptive turbo detector with only a few taps to be updated in order to lower down the complexity burden. Finally, we have proposed an original self-optimized algorithm for which the step-sizes of both the equalizer and the phase estimator are updated adaptively and assisted by soft-information in an iterative manner, so as to meet the requirement of fast convergence and low MSE over time-varying channels
Styles APA, Harvard, Vancouver, ISO, etc.
2

Coulange, Baptiste. « Détection et correction de l’aliasing par extension du signal analytique aux images numériques ». Paris 5, 2011. http://www.theses.fr/2011PA05S008.

Texte intégral
Résumé :
Cette these porte sur la detection et la correction d'un artefact inherent a toute acquisition numerique, l'aliasing. Nous etudions tout d'abord son effet sur des modeles simples d'images, en particulier les motifs periodiques, qui y sont tres sensibles. Ceci nous amene a definir la relation d'aliasing spectrale, qui caracterise les couples de frequences (ou de zones frequentielles) lies par l'aliasing. Parallelement, en etendant le "signal analytique" aux images, nous obtenons des "parties analytiques", images complexes dont le module est peu impacte par un mauvais echantillonnage. Cette definition permet de localiser spatialement le "domaine d'action" d'une zone spectrale donnee. Remarquant alors qu'une image mal echantillonnee est constituee de beaucoup de couples frequentiels en relation d'aliasing spectrale dont les domaines d'action sont fortement correles, nous pouvons ainsi elaborer deux modeles de detection d'aliasing, selon la methodologie dite a contrario. Les images classiquement utilisees en traitement d'image s'averant peu adaptees, nous construisons une base de test propice a l'etude de l'aliasing afin de valider les algorithmes proposes. Nous utilisons egalement ces algorithmes pour comparer les differents systemes d'acquisition satellitaires existants du point de vue de la creation d'aliasing, grace aux donnees fournies par le CNES. Enfin, partant des resultats des algorithmes de detection, nous proposons une premiere methode de correction de l'aliasing dans les images, et montrons au moyen d'un oracle qu'une hypothese de non-repliement de spectre local pourrait s'averer tres prometteuse
This thesis focuses on the detection and correction of an artifact inherent to all digital acquisition : aliasing. First we study its effects on simples image modelisations. Particularly periodical structures on which aliasing occurs frequently. Then we can define a spectral aliasing link which characterize frequencies (or frequency domains) pairs linked by aliasing relation. In the same time, with an extention of analytic signal, we obtain analytic parts. The modulus of these complex images isn't much impacted by poor sampling. With this definition, we are able to locate on what place of the image occurs a given frequency domain. Bad sampled images contain a lot of frequency pairs in an spectral aliasing link which occurs on the same image domain, we are so able to build two aliasing detection methods with the a contrario framework. The images often used for image processing tests are not suited to the study of aliasing. We build a test database appropriate for the aliasing in order to validate our algorithm. We also use these algorithms to compare some existing earth observation systems, thanks to datas from CNES, with the aliasing point of view. With the results of the detection algorithms, we show with an oracle that a local no-aliasing hypothesis may be very useful for image interpolation
Styles APA, Harvard, Vancouver, ISO, etc.
3

Salmon, Joseph. « Agrégation d'estimateurs et méthodes à patchs pour le débruitage d'images numériques ». Paris 7, 2010. http://www.theses.fr/2010PA077195.

Texte intégral
Résumé :
Le problème étudié dans cette thèse est celui du débruitage d'images numériques corrompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une limite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations
The problem studied in this thesis is denoising images corrupted by additive Gaussian white noise. The methods we use to get a better picture from a noisy one, are based on patches and are variations of the well known Non-Local Means. The contributions of this thesis are both practical and theoretical. First, we study precisely the influence of various parameters of the method. We highlight a limit observed on the treatment of edges by the usual patches based methods. Then, we give a better method to get pixel estimates by combining information from patches estimates. From a theoretical point of view we provide a non-asymptotic control of our estimators. The results proved are oracle inequalities, holding for a restrictive class of estimators, close to the form of the Non-Local Means estimetes. The techniques we use are based on aggregation of estimators, and more precisely on exponentially weighed aggregates. Typically, the last method requires a measure of the risk, that is obtained through a unbiased estimator of the risk. A common way to get such a mesure is to use the Stein Unbiased Risk Estimate (SURE). The denoising methods studied are analyzed numerically by simulations
Styles APA, Harvard, Vancouver, ISO, etc.
4

Thai, Thanh Hai. « Modélisation et détection statistiques pour la criminalistique numérique des images ». Phd thesis, Université de Technologie de Troyes, 2014. http://tel.archives-ouvertes.fr/tel-01072541.

Texte intégral
Résumé :
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d'images se sont démocratisés et permettent aujourd'hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu'il s'agit de savoir si ce que l'on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et roposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La éthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les aramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les erformances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Trottier, Eric. « Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapides ». Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30256.

Texte intégral
Résumé :
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre.
For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bornard, Raphaël. « Approches probabilistes appliquées à la restauration numérique d'archives télévisées ». Phd thesis, Ecole Centrale Paris, 2002. http://tel.archives-ouvertes.fr/tel-00657636.

Texte intégral
Résumé :
Dans le contexte de la restauration d'archives, nous abordons dans cette thèse la suppression des défauts impulsifs (taches, "dropouts" vidéo). Les méthodes de détection et correction existantes sont limitées par les défaillances de l'estimation de mouvement dues à la présence de phénomènes naturels complexes. Nous cherchons à prendre en compte ces phénomènes que nous qualifions de mouvement pathologique. Pour les deux étapes de détection et de correction, une approche probabiliste est privilégiée et nos algorithmes sont exprimés à l'aide de champs de Markov paramétriques ou non-paramétriques. La méthode de détection que nous proposons s'inscrit dans le cadre de la théorie bayesienne de l'estimation. Nous considérons une fenêtre temporelle plus large que les trois images utilisées habituellement afin de mieux distinguer les défauts des mouvements pathologiques et éviter ainsi les fausses alarmes. Nous proposons également une méthode de correction dans les zones d'information manquante inspirée de travaux sur la synthèse de texture. Après généralisation aux images naturelles, nous intégrons ces approches dans un contexte spatio-temporel qui permet un repli implicite sur une correction spatiale lorsque le mouvement est trop complexe. Les méthodes proposées sont validées séparément puis intégrées dans un prototype complet de suppression des défauts impulsifs.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Zarzoso, Vicente. « Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical ». Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00486872.

Texte intégral
Résumé :
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Cheruy, Pascale. « Étude de modèles de potentiels évoqués visuels en vue de la détection et de la classification des réponses en temps réel ». Compiègne, 1990. http://www.theses.fr/1990COMPD256.

Texte intégral
Résumé :
Les potentiels évoqués visuels ont été étudiés avec pour objectif, de mettre au point une méthode permettant de discriminer les signaux élémentaires en termes de signal et de bruit, afin d'améliorer le rapport signal à bruit de la réponse moyenne et de diminuer la durée d'enregistrement. Une analyse bibliographique nous a permis de définir précisément les différents protocoles d'enregistrement. Nous avons également décrit les différentes méthodes classiques de traitement (moyennage, filtrage de WIENER, Latency Corrected Averaging et filtrage adapté). La partie essentielle de ce travail a consisté à tester et développer différentes méthodes de traitement du signal et de reconnaissance des formes (modèles autorégressifs, filtrage de Kalman, modèle basé à partir de courbes gaussiennes). Une analyse factorielle discriminante a été effectuée à partir de coefficients extraits des différents modèles pour séparer une classe de signaux de référence d'une classe de bruit (EEG). L'axe discriminant ainsi déterminé, permet d'effectuer la classification en temps réel et en termes de signal et de bruit, de signaux élémentaires pour différents sujets et ce, de façon indépendante du sujet. Le rapport signal à bruit de la réponse moyenne est considérablement augmenté pour tous les sujets que nous avons testés essentiellement pour la méthode basée sur les courbes gaussiennes
A method is presented for single sweep analysis. It aims at increasing the average signal to noise ratio. A bibliographic study first describes different experimental protocols and classical signal processing including averaging, Wiener filter, and latency corrected averaging and adaptative filter. Three different models are tested : autoregressive model, kalman filtering and an original model based on Gaussian curves. A discriminant factor analysis is achieved using parameters derived from the three different models in order to separate a class of synthetic signals from a class of noise (EEG). A discriminant vector is calculated and used to classify single sweeps from different subjects. The selected averaging shows an increasing of the signal to noise ratio for every tested subject specially for the method based on Gaussian curves
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ceamanos, Garcia Xavier. « Evaluation des performances de l'analyse statistique et physique d'images hyperspectrales de Mars. Application au capteur multi-angulaire CRISM ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENU033/document.

Texte intégral
Résumé :
Une nouvelle génération de spectromètres imageurs émerge dans le domaine de l'exploration spatiale par l'ajout d'une dimension supplémentaire de mesure, la dimension angulaire. L'imagerie spectroscopique multi-angulaire est conçue pour fournir une caractérisation plus précise des matériaux planétaires et permet une meilleure séparation des signaux provenant de l'atmosphère et la surface. Le capteur Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) à bord de la sonde Mars Reconnaissance Orbiter est une caméra hyperspectrale qui fonctionne systématiquement dans le mode multi-angulaire depuis l'orbite. Néanmoins, les images multi-angulaires hyperspectrales posent certains problèmes de manipulation, de visualisation et d'analyse en raison de leur taille et de leur complexité. Dans ce cadre, cette thèse propose des algorithmes statistiques et physiques pour analyser les images acquises par l'instrument CRISM de manière efficace et robuste. Premièrement, je propose une chaîne de post-traitement visant à améliorer la qualité radiométrique des données CRISM et à générer des produits améliorés, ces dernières données étant conçues pour permettre une analyse fine de la planète Mars. Deuxièmement, je m'intéresse à la correction atmosphérique des images CRISM en exploitant les capacités multi-angulaires de cet instrument. Un algorithme innovant, à base physique est mis en oeuvre pour compenser les effets atmosphériques afin d'estimer la reflectance de surface. Cette approche est particulièrement utilisée dans cette thèse pour déduire les propriétés photométriques des matériaux qui coexistent dans un site spécifique de Mars, le cratère de Gusev. Troisièmement, j'effectue une comparaison d'une sélection des meilleurs techniques existantes, visant à réaliser une déconvolution spectrale des données acquises par l'instrument CRISM. Ces techniques statistiques se sont avérées utiles lors de l'analyse d'images hyperspectrales de manière non supervisé, c'est a dire, sans aucun a priori sur la scène. Une stratégie originale est proposée pour discriminer les techniques les plus appropriées pour l'exploration de Mars, à partir de données indépendantes provenant d'autres capteurs d'imagerie haute résolution afin de construire une vérité de terrain
New generation of imaging spectrometers are emerging in the field of space exploration by adding an additional view of measurement, the angular dimension. Multi-angle imaging spectroscopy is conceived to provide a more accurate characterization of planetary materials and a higher success in separating the signals coming from the atmosphere and the surface. The Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) aboard the Mars Reconnaissance Orbiter is a hyperspectral camera that operates systematically in multi-angle mode from space. Nonetheless, multi-angle hyperspectral images are related to problems of manipulation, visualization and analysis because of their size and complexity. In this framework, this PhD thesis proposes robust statistical and physical algorithms to analyze images acquired by the CRISM instrument in an efficient manner. First, I propose a tailor-made data pipeline aimed at improving the radiometric quality of CRISM data and generating advanced products, the latter data being devised to perform fine analysis of the planet Mars. Second, I address the atmospheric correction of CRISM imagery by exploiting the multi-angle capabilities of this instrument. An innovative physically-based algorithm compensating for atmospheric effects is put forward in order to retrieve surface reflectance. This approach is particularly used in this thesis to infer the photometric properties of the materials coexisting in a specific site of Mars, the Gusev crater. Third, I perform an intercomparison of a selection of state-of-the-art techniques aimed at performing spectral unmixing of hyperspectral data acquired by the CRISM instrument. These statistical techniques are proved to be useful when analyzing hyperspectral images in an unsupervised manner, that is, without any a priori on the scene. An original strategy is proposed to discriminate the most suitable techniques for the exploration of Mars based on ground truth data built from independent high resolution imagery
Styles APA, Harvard, Vancouver, ISO, etc.
10

Dessein, Arnaud. « Méthodes Computationnelles en Géométrie de l'Information et Applications Temps Réel au Traitement du Signal Audio ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00768524.

Texte intégral
Résumé :
Cette thèse propose des méthodes computationnelles nouvelles en géométrie de l'information, avec des applications temps réel au traitement du signal audio. Dans ce contexte, nous traitons en parallèle les problèmes applicatifs de la segmentation audio en temps réel, et de la transcription de musique polyphonique en temps réel. Nous abordons ces applications par le développement respectif de cadres théoriques pour la détection séquentielle de ruptures dans les familles exponentielles, et pour la factorisation en matrices non négatives avec des divergences convexes-concaves. D'une part, la détection séquentielle de ruptures est étudiée par l'intermédiaire de la géométrie de l'information dualement plate liée aux familles exponentielles. Nous développons notamment un cadre statistique générique et unificateur, reposant sur des tests d'hypothèses multiples à l'aide de rapports de vraisemblance généralisés exacts. Nous appliquons ce cadre à la conception d'un système modulaire pour la segmentation audio temps réel avec des types de signaux et de critères d'homogénéité arbitraires. Le système proposé contrôle le flux d'information audio au fur et à mesure qu'il se déroule dans le temps pour détecter des changements. D'autre part, nous étudions la factorisation en matrices non négatives avec des divergences convexes-concaves sur l'espace des mesures discrètes positives. En particulier, nous formulons un cadre d'optimisation générique et unificateur pour la factorisation en matrices non négatives, utilisant des bornes variationnelles par le biais de fonctions auxiliaires. Nous mettons ce cadre à profit en concevant un système temps réel de transcription de musique polyphonique avec un contrôle explicite du compromis fréquentiel pendant l'analyse. Le système développé décompose le signal musical arrivant au cours du temps sur un dictionnaire de modèles spectraux de notes. Ces contributions apportent des pistes de réflexion et des perspectives de recherche intéressantes dans le domaine du traitement du signal audio, et plus généralement de l'apprentissage automatique et du traitement du signal, dans le champ relativement jeune mais néanmoins fécond de la géométrie de l'information computationnelle.
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Traitement statistique et numérique du signal"

1

Duflos, Emmanuel. Estimation prédiction : Éléments de cours et exercices résolus. Paris : Éditions Technip, 2000.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bellanger, Maurice. Traitement numérique du signal : Théorie et pratique. 8e éd. Paris : Dunod, 2006.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bellanger, Maurice. Traitement numérique du signal : Théorie et pratique. 3e éd. Paris : Masson, 1987.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

M, Verhoeckx N. A., dir. Traitement numérique du signal : Une introduction : cours et exercices corrigés. 3e éd. Paris : Dunod, 2003.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Deluzurieux, Alain. Cours d'électronique numérique et échantillonnée : BTS, IUT, Écoles d'ingénieurs. Paris : Eyrolles, 1991.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

V, Madisetti, dir. Video, speech, and audio signal processing and associated standards. Boca Raton, FL : CRC Press, 2009.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

V, Madisetti, dir. Video, speech, and audio signal processing and associated standards. Boca Raton, FL : CRC Press, 2009.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Bellanger, Maurice. Traitement numérique du signal : Théorie et pratique. Dunod, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Traitement statistique et numérique du signal"

1

Bellanger, Maurice. « Chapitre 13. Analyse et modélisation ». Dans Traitement numérique du signal, 359–74. Dunod, 2012. http://dx.doi.org/10.3917/dunod.bella.2012.01.0359.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bellanger, Maurice. « Chapitre 11. Filtres QMF et ondelettes ». Dans Traitement numérique du signal, 328–40. Dunod, 2012. http://dx.doi.org/10.3917/dunod.bella.2012.01.0328.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bellanger, Maurice. « Chapitre 1. La numérisation du signal. Échantillonnage et codage. » Dans Traitement numérique du signal, 7–49. Dunod, 2012. http://dx.doi.org/10.3917/dunod.bella.2012.01.0007.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie