Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Conditionnement et le traitement du signal.

Dissertationen zum Thema „Conditionnement et le traitement du signal“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Conditionnement et le traitement du signal" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Yu, Xiaoyang. „Dynamic acoustic emission for the characterization of the nonlinear behavior of complex materials“. Thesis, Le Mans, 2020. http://www.theses.fr/2020LEMA1019.

Der volle Inhalt der Quelle
Annotation:
L’émission acoustique (EA) est reconnue pour être une technique efficace de surveillance de la santé des structures permettant de détecter la création et la propagation de microfissures dans les matériaux structuraux tels que le béton ou les composites lorsqu'ils sont soumis à des contraintes quasi-statiques. Sur la base de méthodes de traitement de signaux adéquates, différentes études ont établi des liens entre les salves d’EA et les micro-dommages créés. D'autres travaux ont montré qu'il est possible de corréler le temps de relaxation des composites et l'énergie des mécanismes d'endommagement mesurée durant la charge quasi-statique en utilisant les salves d’EA enregistrées. Cette thèse propose d'utiliser un protocole expérimental original pour détecter la relaxation non-linéaire d'échantillons de bétons à l'état intact et endommagés. Ce protocole est basé sur l'utilisation de l’EA pour capter passivement la relaxation non-linéaire d'échantillons de bétons au lieu du signal de faible amplitude habituellement utilisé dans les expériences de dynamique lente. Les résultats montrent que les méthodes de détection passives et actives conduisent à des temps de relaxation équivalents. De plus, le capteur d’EA révèle l’existence d’une ‘période de silence’ pendant les premières minutes de la relaxation non-linéaire après laquelle les salves d’EA commencent à être détectées. De plus, les caractéristiques des salves d’EA enregistrées pendant la relaxation passive ont montré une nette ressemblance avec celles obtenues lors de l'endommagement des mêmes échantillons, où des mécanismes de cisaillement et de compression sont impliqués. Enfin, nous notons qu’en plus de l'utilisation d'une approche de reconnaissance des formes non- supervisée pour la classification des salves d’EA, ce travail propose une nouvelle approche de classification des signaux d’EA basé sur l’image de la représentation en ondelettes continue (CWT) et le réseau de neurones convolutifs (CNN). Les résultats liés aux données d’EA dynamiques non-linéaires et quasi-statiques montrent que les deux approches de traitement du signal ont une grande précision de classification, ce qui représente un intérêt certain pour le développement de méthodes d’EA dynamiques en présence de microfissures
Acoustic emission (AE) is well known to be an efficient structural health monitoring technique to detect the creation and propagation of micro-cracks within structural materials such as concrete or composites when submitted to quasi-static stresses. Based on adequate signal processing methods, different research studies have established links between the detected AE hits and the created micro-damages. Other works have shown that it is possible to correlate the relaxation time in composites and the energy of the damage mechanisms measured during the quasi-static loading using the recorded AE hits. This thesis proposes to use an original experimental protocol to probe the nonlinear relaxation of concrete samples at the intact and damaged states. This protocol is based on the use of AE to passively probe the nonlinear relaxation of concrete samples instead of the weak amplitude signal usually used in slow dynamics experiments. Results show that passive and active probing methods lead to equivalent relaxation times. Furthermore, AE probing reveals the existence of a ‘silence period’ during the first minutes of the nonlinear relaxation after which AE hits start to be detected. In addition, the characteristics of AE hits recorded during the passive relaxation showed a clear resemblance to those obtained during the damaging of the same samples, where shear and compression mechanisms are involved. For the clustering of the AE hits, in addition to use of an unsupervised pattern recognition approach to cluster the detected AE hits, this work proposes a novel ‘image- based AE classification’ approach based on continuous wavelet transform (CWT) and convolutional neural network (CNN). Results related to the nonlinear dynamic and quasi-static AE data show that both signal processing approaches have high classification accuracy, which represents a great interest in the development of dynamic AE methods in the presence of micro-cracks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Guigue, Lisa. „Evaluation clinique de la pression artérielle centrale à partir de la mesure par cathétérisme radial en utilisant la modélisation de l'arbre artériel, de la liaison hydraulique et du capteur. Intégration de la fonction dans un dispositif de surveillance de la qualité de la mesure de la pression artérielle“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS036.

Der volle Inhalt der Quelle
Annotation:
La pression centrale est le reflet de l'état hémodynamique du patient et son estimation se fait par l'acquisition de la pression artérielle radiale plus facilement accessible chez la majorité des patients en anesthésie-réanimation et soins intensifs. Cette thèse tente de résoudre les difficultés de l’évaluation de la pression centrale à partir du cathétérisme radial associé à un capteur de pression via une liaison hydraulique. Ces freins à l'évaluation sont :1.les altérations liées à la liaison hydraulique entre le cathéter radial et le capteur;2.les distorsions liées à l’arbre artériel entre le cœur et la périphérie (artère radiale). Il existe des cas cliniques où les propriétés de l’arbre artériel sont modifiées de telle sorte que la pression périphérique n’est plus le reflet de la pression centrale et donc ne peut plus l'estimer correctement. L'un de ces phénomènes est connu sous le terme de découplage entre pressions artérielles centrale et périphérique.Pour la première difficulté, le dispositif médical CAThétérisme Artériel Radial en Soins Intensifs (CATARSI) développé par AII Biomédical apporte une solution à ce problème en fournissant un indice de la qualité de la mesure par cathéter et liaison hydraulique.Dans les cas physiopathologiques entraînant une mauvaise estimation de la PA central, la possibilité d’alerter le personnel soignant sur l’apparition de ces situations serait optimale. Cette fonction pourrait être intégrée au dispositif CATARSI. Au préalable, il faut comprendre, évaluer et modéliser de manière précoce, les mécanismes mis en jeu dans ces situations cliniques particulières.Le travail de thèse s'articule donc selon 3 axes :1.Evaluation expérimentale, par oscillométrie et cathétérisme, de la mesure de la vitesse de propagation de l’onde de pouls le long de l’arbre artériel chez l’homme (Pression artérielle centrale, radiale, fémorale) en situation de découplage entre pression centrale/pression périphérique. Cette évaluation sera faite chez des patients en CEC (Circulation Extra-Corporelle) car ils peuvent présenter des découplages. Plusieurs phases de mesures sont prévues avant, pendant et après la CEC.2.Recherche et optimisation d’une méthode de détection automatique du découplage entre pression artérielle centrale et périphérique à partir de l’analyse du signal de pression radiale en continu et d’une mesure complémentaire effectuée par le clinicien avec un autre capteur sur proposition du dispositif CATARSI.3.Proposition d’un ou plusieurs modèles du segment central-radial de l’arbre artériel afin d’obtenir une meilleure évaluation de la pression artérielle centrale à partir de la mesure de pression radiale par cathéter pour ensuite intégrer de nouvelles fonctionnalités dans le dispositif CATARSI
Aortic pressure is generally recognized as a good index of the hemodynamic state of a patient. In intensive care units, aortic pressure is indirectly estimated via a radial catheter-tansducer system. The present study aims to remove the obstacles to a reliable evaluation of central pressure via the radial catheter-transducer system commonly used in clinics. These obstacles can be due to :1.technical problems occurring between the radial catheter and the sensor;}2.pathophysiological problems affecting the arterial tree between the heart and peripheral arteries. Several clinical situations have been identified in which alterations of the physical properties of the vasculature do not allow a reliable estimation of central arterial pressure using the common radial setting. One of these phenomena is the so called central-to-radial arterial pressure gradient.CATARSI, a medical device developped by AII SAS, affords a solution to the first group of problems by providing an index of the quality of the signal provided by the radial catheter-transducer system.Under pathophysiological conditions affecting the arterial vascualture of the patient, early detection of a mismatch between peripheral and central arterial pressure would also be of great clinical value. In this view, a new functionality could be develop to implement CATARSI. However, to achieve this goal, it is first necessary to understand, evaluate and modelize the precise pathophysiological mechanisms involved in these particular situations.The study contains three steps :1.Experimental evaluation, by oscillometry and catheterization, of AP propagation-time on the human arterial tree (aortic, radial, femoral arterial pressure) during a central-to-radial arterial pressure gradient. This evaluation has been carried out on patients undergoing Cardio Pulmonary Bypass (CPB). Several measurements have been performed: before, during and after CPB.2.Development and optimization of a method allowing the detection of an uncoupling between central and peripheral arterial pressure thanks to AP signal analysis in real time and a potential complementary measurement performed with CATARSI.3.Several central to radial arterial modelling propositions in order to present a better evaluation of central arterial pressure estimated by radial arterial pressure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Alasri, Anouar. „Procédures microbiologiques de fabrication et de conditionnement des membranes d'ultrafiltration“. Toulouse, INPT, 1992. http://www.theses.fr/1992INPT007G.

Der volle Inhalt der Quelle
Annotation:
Les activites bactericides et sporicides de quatre desinfectants (acide peracetique, peroxyde d'hydrogene, chlore et formol) ont ete determinees vis-a-vis d'escherichia coli, pseudomonas aeruginosa, staphylococcus aureus et les spores de bacillus subtilis en suspension ou en biofilm polymicrobien. L'acide peracetique et le chlore ont montre de bonnes activites bactericides. Le peroxyde d'hydrogene et le chlore se sont revele detachants vis-a-vis des bacteries fixees. Le formol n'a pas donne satisfaction dans nos conditions experimentales. L'association de deux biocides a permis l'etablissement d'une procedure microbiologique de fabrication et de conditionnement des membranes d'ultrafiltration
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Minaoui, Khalid. „Séquences binaires et traitements du signal“. Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0142.

Der volle Inhalt der Quelle
Annotation:
Le développement des radars ("RAdio Detection and Ranging"), dispositifs dont les principales tâches sont la détection de cibles et la détermination de leur distance au radar émetteur, est un sujet qui fait l'objet de nombreux développements académiques et industriels. Ces développements concernent en particulier les radars embarqués dont la diffusion touche maintenant les applications grand publique. Cette diffusion a été rendue possible par les progrès de l'électronique, de l'informatique et du traitement des signaux. Cette thèse vise à contribuer au traitement du signal radar, en particulier pour des applications relatives à l'aide à la conduite automobile et s'est développée selon deux axes principaux. D'une part, nous avons contribué ici à l'étude des formes d'onde radar constituées par des séquences pseudo-aléatoires. Dans ce contexte, nous avons étudié les séquences présentées dans la littérature en rappelant leurs performances en termes de facteur de mérite, défini comme le rapport entre l'énergie du pic principal de corrélation et celle des lobes secondaire de la fonction d'autocorrélation. Compte tenu de la difficulté de construire des formes d'onde constituées de séquences contigües de symboles modulées en phase performantes, nous avons proposé l'utilisation de paires, et plus généralement d'ensembles de Golay, qui possèdent un facteur de mérite infini lorsqu'ils sont séparés par des intervalles de garde. Plus généralement, on a mis en évidence les bonnes propriétés de leur fonction d'ambiguïté. En particulier, nous avons vérifié que l'émission multipulse de séquences de Golay permet une bonne réjection de ses lobes secondaires, ainsi qu'une très bonne estimation des paramètres de distance et de vitesse des autres véhicules. Le deuxième axe développé dans la thèse concerne le calcul rapide de la fonction d'inter-ambiguïté entre une onde émise et les échos renvoyés au radar; ce calcul permet en effet de localiser simultanément un ensemble de cibles dans le plan temps-fréquence. Dans ce contexte, nous nous sommes intéressés aux techniques d'intégration numérique de type Gauss-Legendre et Clenshaw-Curtis, pour lesquelles nous avons étudié analytiquement les perturbations sur la quadrature introduites par le fait qu'on ne dispose que de versions échantillonnées des signaux mis en jeux. Afin de réduire la complexité du calcul des fonctions d'ambiguïté, nous avons ensuite envisagé l'utilisation des transformées en nombres entiers et en particulier les transformées en nombres de Fermat pour lesquelles les multiplications deviennent de simples décalages de bits, permettant ainsi des gains importants du coût de calcul
The main task of radars (Radio Detection and Ranging) is to detect targets and to determine their distance from the radar transmitter. They have been studied in numerous academic and industrial developments. These developments concern in particular onboard radars that are now being developed for several applications in consumer electronic devices. Recent developments in radar systems have been made possible thanks to advances in electronics, computing and signals processing. This thesis aims to contribute to the radar signal processing and particularly for applications related to collision avoidance systems. This work was developed along two main axes. On one hand, we have contributed to the study of radar waveforms constituted by pseudo-random sequences. In this context, we first examined the sequences presented in the literature by recalling their performance in terms of the merit factor, defined as the ratio between the energy of the main peak and the correlation of secondary lobes of the autocorrelation function. Given the difficulty of building very efficient waveforms constituted by sequences of contiguous symbols, we have considered then the use of Golay pairs, and more generally Golay sets, which have an infinite merit factor when they are separated by guard intervals. More generally, we have highlighted the good properties of their ambiguity functions. In particular, we have checked that the multipulse emission of Golay sequences allows good rejection of the ambiguity function side lobes, and very good estimation of the parameters of distance and relative speed of other vehicles. The second theme developed in this thesis concerns the rapid calculation of the cross-ambiguity function between a sent wave and the received echoes. This calculation makes it possible to simultaneously locate a set of targets in the time-frequency plane. In this context, we have studied Gauss-Legendre and Clenshaw-Curtis quadrature techniques, for which we have studied analytically the disturbances on the quadrature introduced by the fact that they must be calculated from sampled signals. In addition, with a view to reduce the computational complexity of the calculation of ambiguity functions, we have considered number theoretic transforms, and in particular Fermat number transforms, for which multiplications simply amount to bit shifts, leading thus to significant computational burden reduction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

De, Fraene Dominique. „Politiques publiques et pratiques de traitement de la délinquance juvénile: une relation de conditionnement réciproque“. Doctoral thesis, Universite Libre de Bruxelles, 2002. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211421.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Tremblay, Nicolas. „Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux“. Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0938/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique
This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Abouda, Mehdi. „Singularités et analyse deux microlocale des mesures et distributions fractales“. Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090057.

Der volle Inhalt der Quelle
Annotation:
L'analyse multi fractale joue aujourd'hui un rôle important en traitement du signal et de l'image. Le spectre de singularité, calculé à l'aide des exposants de Holder ponctuels, est un outil de classification beaucoup plus efficace que la dimension de Hausdorff (globale) du graphe. Dans beaucoup d'exemples, ce spectre de singularités est obtenu à l'aide du formalisme multi fractal (U. Frisch et G. Parisi). Aujourd'hui nous savons distinguer l'exposant de Holder ponctuel h(f, x#0) de l'exposant de Holder faible (f, x#0). Pour une singularité de type cusp, ces exposants coincident et se calculent en restreignant la transformée en ondelettes au cône de singularités de x#0. Le propos de cette thèse est d'établir le résultat suivant : théorème : si la règle formelle de construction d'une mesure ou d'une distribution est basée sur une itération, alors tous les points du support de cette mesure ou de cette distribution sont des singularités de type cusp. En fait nous limiterons la preuve de cette conjecture à l'étude d'un certain nombre d'exemples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Vallet, Pascal. „Matrices aléatoires et applications au traitement statistique du signal“. Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00674747.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous considérons le problème de la localisation de source dans les grands réseaux de capteurs, quand le nombre d'antennes du réseau et le nombre d'échantillons du signal observé sont grands et du même ordre de grandeur. Nous considérons le cas où les signaux source émis sont déterministes, et nous développons un algorithme de localisation amélioré, basé sur la méthode MUSIC. Pour ce faire, nous montrons de nouveaux résultats concernant la localisation des valeurs propres des grandes matrices aléatoires gaussiennes complexes de type information plus bruit
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hamie, Ali. „Traitement statistique du signal : applications en biologie et économie“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS012/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à développer des outils mathématiques, afin de traiter une gamme des signaux biologiques et économiques. En premier lieu, nous proposons la transformée Dynalet, considérée comme une alternative, pour des signaux de relaxation sans symétrie interne, à la transformée de Fourier et à la transformée ondelette. L'applicabilité de cette nouvelle approximation est illustrée sur des données réelles. Ensuite, nous corrigeons la ligne de base des signaux biologiques spectrométriques, à l'aide d'une régression expectile pénalisée, qui, sur les applications proposées, est plus performante qu'une régression quantile. Puis, afin d'éliminer le bruit blanc, nous adaptons aux signaux spectrométriques une nouvelle approche combinant ondelette, seuillage doux et composants PLS. Pour terminer, comme les signaux peuvent être considérés comme des données fonctionnelles, d'une part, nous développons une vraisemblance locale fonctionnelle dont le but est d'effectuer une classification supervisée des courbes, et, d'autre part, nous estimons l'opérateur de régression pour une réponse scalaire positive non nulle, par minimisation de l'erreur quadratique moyenne relative. De plus, les lois asymptotiques de notre estimateur sont établies et son efficacité est illustrée sur des données simulées et sur des données spectroscopiques et économiques
In this thesis, we focus on developing mathematical tools to treat a range of biological and economic signals. First, we propose the Dynalet transform for non-symmetrical biological relaxation signals. This transform is considered as an alternative to the Fourier transform and the wavelet transform. The applicability of the new approximation approach is illustrated on real data. Then, for spectrometric biological signals, we correct the baseline using a penalized expectile regression. Thus, the proposed applications show that our proposed regression is more efficient than the quantile regression. Then to remove random noise, we adapt to spectrometric data a new denoising method that combine wavelets, soft thresholding rule and PLS components. Finally, note that the biological signals may be often regarded as functional data. On one hand, we develop a functional local likelihood aiming to perform a supervised classification of curves. On the other hand, we estimate the regression operator with positive responses, by minimizing the mean squared relative error. Moreover, The asymptotic distributions of our estimator are established and their efficiency is illustrated on a simulation study and on a spectroscopic and economic data set
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Liu, Xuefeng. „Traitement du signal multidimensionnel par décomposition tensorielle et application“. Ecole centrale de Marseille, 2012. http://www.theses.fr/2012ECDM0002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

BONDON, PASCAL. „Statistiques d'ordre superieur et modelisation en traitement du signal“. Paris 11, 1991. http://www.theses.fr/1991PA112349.

Der volle Inhalt der Quelle
Annotation:
Cette these traite de differentes questions liees a l'utilisation des statistiques d'ordre superieur en traitement du signal. Des resultats concernant les moments et les cumulants d'un vecteur aleatoire sont proposes. En particulier, on etablit des formules reliant ces deux grandeurs, on introduit une methode d'estimation des cumulants, et on donne une propriete des polyspectres d'une fonction aleatoire generee a partir d'un filtre lineaire a bande etroite. D'autre part, on etend le concept de bruit blanc jusqu'alors limite a l'ordre deux et on montre qu'il est impossible de blanchir a un ordre superieur a deux une fonction aleatoire par filtrage lineaire. On etablit des conditions de conservation de la blancheur par filtrage lineaire ou quadratique ou par une transformation non lineaire instantanee. Par ailleurs, on aborde le probleme de la modelisation parametrique polyspectrale. On donne des proprietes des polyspectres de la sortie d'un filtre lineaire ou quadratique, on etudie les filtres generant une fonction cumulant a support fini, et on propose des techniques non aveugles et aveugles permettant d'identifier la reponse impulsionnelle d'un filtre quadratique. Enfin, on resout des problemes d'optimisation faisant intervenir des matrices de moments. En particulier, on caracterise l'inversibilite de la matrice de correlation d'un vecteur aleatoire a composantes polynomiales, et on propose une methode d'estimation non lineaire de l'amplitude d'un signal perturbe par un bruit additif
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Cohen, Albert. „Ondelettes, analyses multi résolutions et traitement numérique du signal“. Paris 9, 1990. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1990PA090018.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est de clarifier les liens existants entre les techniques de codage en sous-bandes des signaux numériques et la théorie des ondelettes et de l'analyse multi résolution. Les principaux résultats fournissent une caractérisation exacte des filtres miroirs en quadrature associés à des analyses multi résolutions et une estimation de la régularité des ondelettes correspondantes. Ce point de vue est repris par la suite en considérant une classe de filtres plus vaste. Nous généralisons ainsi les bases orthonormées d'ondelettes en construisant des familles bi orthogonales multi échelles qui permettent d'analyser de nombreux espaces fonctionnels. Enfin, une application est présentée dans le cadre de la compression des images digitales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Chlaily, Saloua. „Modèle d'interaction et performances du traitement du signal multimodal“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT026/document.

Der volle Inhalt der Quelle
Annotation:
Bien que le traitement conjoint des mesures multimodales soit supposé conduire à de meilleures performances que celles obtenues en exploitant une seule modalité ou plusieurs modalités indépendamment, il existe des exemples en littérature qui prouvent que c'est pas toujours vrai. Dans cette thèse, nous analysons rigoureusement, en termes d'information mutuelle et d'erreur d'estimation, les différentes situations de l'analyse multimodale afin de déterminer les conditions conduisant à des performances optimales.Dans la première partie, nous considérons le cas simple de deux ou trois modalités, chacune étant associée à la mesure bruitée d'un signal, avec des liens entre modalités matérialisés par les corrélations entre les parties utiles du signal et par les corrélations les bruits. Nous montrons comment les performances obtenues sont améliorées avec l'exploitation des liens entre les modalités. Dans la seconde partie, nous étudions l'impact sur les performances d'erreurs sur les liens entre modalités. Nous montrons que ces fausses hypothèses dégradent les performances, qui peuvent alors devenir inférieure à celles atteintes avec une seule modalité.Dans le cas général, nous modélisons les multiples modalités comme un canal gaussien bruité. Nous étendons alors des résultats de la littérature en considérant l'impact d'erreurs sur les densités de probabilité du signal et du bruit sur l'information transmise par le canal. Nous analysons ensuite cette relation dans la cas d'un modèle simple de deux modalités. Nos résultats montrent en particulier le fait inattendu qu'une double inadéquation du bruit et du signal peuvent parfois se compenser et ainsi conduire à de très bonnes performances
The joint processing of multimodal measurements is supposed to lead to better performances than those obtained using a single modality or several modalities independently. However, in literature, there are examples that show that is not always true. In this thesis, we analyze, in terms of mutual information and estimation error, the different situations of multimodal analysis in order to determine the conditions to achieve the optimal performances.In the first part, we consider the simple case of two or three modalities, each associated with noisy measurement of a signal. These modalities are linked through the correlations between the useful parts of the signal and the correlations between the noises. We show that the performances are improved if the links between the modalities are exploited. In the second part, we study the impact on performance of wrong links between modalities. We show that these false assumptions decline the performance, which can become lower than the performance achieved using a single modality.In the general case, we model the multiple modalities as a noisy Gaussian channel. We then extend literature results by considering the impact of the errors on signal and noise probability densities on the information transmitted by the channel. We then analyze this relationship in the case of a simple model of two modalities. Our results show in particular the unexpected fact that a double mismatch of the noise and the signal can sometimes compensate for each other, and thus lead to very good performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Duchateau, Josselin. „Traitement et analyse du signal pour les arythmies ventriculaires“. Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0465/document.

Der volle Inhalt der Quelle
Annotation:
Les techniques de traitement du signal numérique prennent une place grandissante en rythmologie clinique. Ces outils offrent de nouvelles perspectives d'amélioration de la détection d'anomalies rythmiques subtiles et d'interprétation des arythmies complexes. Notre travail se focalise sur l'apport des techniques de traitement du signal pour les arythmies ventri­culaires. Il s'intéresse à trois champs complémentaires: les signaux unidimensionnels (ECG et EGM), la cartographie non-invasive, et la cartographie invasive. Concernant les signaux unidimensionnels, nous proposons tout d'abord une méthodologie d'amélio­ration du rapport signal sur bruit des enregistrements ECG par des méthodes de moyennage et de gating respiratoire. Cette méthodologie offre des perspectives intéressantes pour [a détection de si­gnaux anormaux de faible amplitude et pour la mesure non-invasive de l'intervalle HV. Nous détaillons ensuite les liens entre signaux endocardiques et ECG en fibrillation ventriculaire (FV), en montrant notamment que les fréquences dominantes sont fortement corrélées et qu'une fragmentation endocardique se traduit sur l'ECG de surface par une chute de l'amplitude. Enfin, nous démontrons par une analyse fréquentielle de 63épisodes de FV le lien entre les caractéristiques de ces épisodes et les caractéristiques cliniques des patients qui en sont victimes. Notamment, la fréquence dominante est très corrélée à la cardiopathie sous jacente. Le mode et le site d'induc tion ont également un impact important sur l'arythmie, aussi bien sur les fréquences que le degré de fragmentation et la phase de l'ECG de surface. Concernant la cartographie non-invasive, nous présentons une comparaison de différentes méthodes de résolution en potentiel du problème inverse. Cette comparaison démontre que la méthodologie ECGi fait partie des meilleures approches évaluées. Nous proposons ensuite une étude de validation des cartes d'activation ventriculaires par ECGi dans un contexte clinique sur 55 patients. Cette étude retrouve une corrélation médiocre entre les cartes non-invasives et les cartes de référence. Les résultats sont hétérogènes, avec une bonne corrélation sur les rythmes avec QRS larges. Nous proposons ensuite quelques pistes d'amélioration de ces cartes d'activation, par une analyse nouvelle de la solution fondamentale ECGi qui s'intéresse au gradient et au laplacien du potentiel et par un post-traitement des potentiels reconstruits, en combinant une évaluation des délais entre points voisin avec une mesure locale de temps d'activation. Ces deux techniques permettent une amélioration significative de la qualité des cartes reconstruites. Concernant la cartographie invasive, nous nous intéressons aux domaines et aux techniques d'inter­ polation de mesures ponctuelles. Nous montrons l'importance de ces techniques sur le rendu final d'une carte d'activation. Nous utilisons ensuite une de ces méthodologies pour produire des cartes améliorées chez les pa­tients porteurs d'un syndrome de Brugada. Nous montrons qu'il existe chez ces patients des arguments cliniques en faveur d'un bloc partiel de conduction endo-épicardique prédominant au niveau de l'infundibulum et de la partie latérobasale du ventricule droit. Enfin, nous montrons à l'aide d'un modèle in silico les conséquences arythmogènes d'une telle dis­ sociation, qui se traduit par une inductibilité accrue lorsque le nombre de connexions fonctionnelles résiduelles diminue. Au TOTAL, notre travail utilise les techniques de traitement du signal pour différentes applications autour des arythmies ventriculaires. Nous proposons plusieurs innovations méthodologiques per­mettant d'extraire et de traiter de manière nouvelle le signal électrique cardiaque. Les techniques de cartographie non-invasives doivent encore être améliorées pour tenir toutes leurs promesses. L'élec­trocardiographie et la cartographie de contact pourront voir leur champ d'utilisation étendu par ces innovations
Signal processing tools are increasingly present in the electrophysiologist' s daily practice. These tools have the potential to enhance the detection of small electrical anomalies, and to enable the analysis of complex arrhythmia. Our work focuses on ventricular arrhythmia, and more specifically on how signal processing tech­ niques can help usbetter understand these diseases. lt is made up of three parts,focusing on different topics: uni-dimensional signal analysis (ECG and endocardial electrograms), non-invasive mapping, and invasive contact mapping. Concerning uni-dimensional signal analysis, we first propose a method to enhance the signal to noise ratio of ECG recordings. We use a combination of signal averaging and respiration gating to achieve this goal, and offer interesting perspectives for the detection of abnormal low amplitude potentials and non-invasive measurement of the HV interval. We then analyze the relationship between endocardial and ECG signais during ventricular fibrilla­ tion (VF) episodes. We demonstrate that endocardial and ECG dominant frequencies are similar,and that higher endocardial fragmentation results in a drop of the waveform amplitude on the surface ECG. Finally, we demonstrate through frequency domain analysis of 63 VF episodes a clear correlation between VF characteristics and clinical factors. Dominant frequency is particularly useful to dis­ criminate between different underlying causal substrates. We also demonstrate that VF characteris­ tics depend on the induction mode and induction site, in terms of dominant frequency, amount of fragmentation and ECG phase. Concerning non-invasive mapping, we compare different potential-based inverse problem resolution techniques. ECGi appears as one of the most reliable techniques. A clinical validation study of non-invasive ventricular activation mapping using ECGi isthen carried­ out. Fifty-five patients were included for whom non-invasive maps are compared to contact maps. We show a very poor overall correlation between non-invasive and invasive maps. Results are het­ erogeneous, with good correlation in patients with wide QRS activation patterns. Wethen propose different techniques to improve non-invasive activation mapping. A first study uses the surface laplacian and the gradient of the inverse-computed potential as inputs to activation map­ ping. A second study combines estimated delays between neighboring points and local activation time estimates to create a more globally coherent solution. Both studies demonstrate a significant improvement of activation maps. Concerning contact mapping, we first give an overview of interpolation domains and techniques that can be used to provide dense activation maps from sparse measures. We illustrate the influence of these techniques on the clinician's ability to make a correct diagnosis. We then use one of these interpolation techniques to create epicardial activation maps in Brugada patients. We show that these patients harbor epicardial electrical activity compatible with partial endo-epicardial conduction block. This phenomenon predominates in the right ventricular lateral wall and outflow tract. Finally,using an in silico model, we demonstrate the arrhythmogenic potential of such a dissociation. lnducibility peaks as the number of residual functional connections between endo and epicardium falls. ÜVERALL, our work uses signal processing techniques for different applications conceming ven­ tricular arrhythmia. We propose different methodological innovations that allow us to record and process cardiac electrical activity with increasing precision. Further progress is still required before non-invasive mapping can live up to its promises. The proposed methodological innovations can extend the use of electrocardiography and invasive mapping
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Caillet, Julien. „Diagnostic et modélisation du bruit et des chemins de bruit en cabine d'hélicoptère“. Paris, ENSAM, 2006. http://www.theses.fr/2006ENAM0004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Massoni, Nicolas. „Etude de faisabilité de la céramisation du carbone 14 et caractérisation de matériaux spécifiques en lien avec le traitement de déchets nucléaires“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI030/document.

Der volle Inhalt der Quelle
Annotation:
En France, le cycle actuel de traitement du combustible usé génère un rejet de carbone 14 (déchet à vie longue, période  5730 ans) dans la géosphère. Ce document apporte des premiers éléments scientifiques et techniques pour évaluer la faisabilité d’un conditionnement du carbone, en tant qu’alternative aux rejets. Un matériau de type céramique a été choisi en raison d’un volume spécifique de 2 à 4 L.kg-1 de carbone, contre 12 à 17 L.kg-1 de carbone pour la cimentation actuellement mise en œuvre industriellement à l’étranger, afin de limiter les volumes produits en prévision d’un stockage géologique potentiel. La phase barytocalcite BaCa(CO3)2 a été étudiée en termes de (i) mode de synthèse compatible avec la forme existante du carbone 14 dans le cycle (ii) solidification par traitement thermique et (iii) résistance à la lixiviation. La barytocalcite a pu être obtenue par précipitation et densifiée à plus de 95% avec un frittage SPS de 30 min à 450°C sous 70 MPa typiquement, et ce, sans perte de carbone. Toutefois, le matériau présente une durabilité chimique limitée en eau pure à 30°C mais le carbone relâché précipite sous la forme de BaCO3 et CaCO3. Malgré cela, la potentialité de la barytocalcite en tant que matériau de conditionnement du carbone 14 reste réelle en raison des propriétés de rétention du site de stockage potentiel. Dans une seconde partie, ce document présente des résultats de caractérisation par diffusion et diffraction de rayons X appliqués à des matériaux liés à la R&D sur le traitement de déchets nucléaires
In France, the current recycling process of the spent nuclear fuel produces a carbon-14 release in the geosphere (long life radionuclide, half-life  5730 y). This document provides scientific and technical data to evaluate the feasibility of carbon conditioning as an alternative to its release. A ceramic type material was chosen because of a specific volume of 2-4 L/kg of carbon, against 12-17 L/kg of carbon for the cementation process currently implemented industrially abroad, to limit the volumes in the case of a potential geological storage. The barytocalcite phase BaCa(CO3)2 has been studied in terms of (i) synthesis process compatible with the existing form of carbon-14 in the cycle (ii) solidification by heat treatment and (iii) leach resistance. The barytocalcite has been obtained by precipitation and densified to more than 95% with SPS sintering for 30 min at 450°C under 70 MPa, without any loss of carbon. This phase has a limited chemical durability in pure water at 30°C but the released carbon ions precipitate as BaCO3 and CaCO3. However the potentiality of barytocalcite as a carbon 14 conditioning matrix remains interesting because of the retention properties of the potential storage site. In a second part, this document provides the results of characterizations made by X-rays scattering and diffraction on different phases in relation with the nuclear waste conditioning R&D
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Jdaini, Jihane. „Potentialités des ciments brushitiques pour le traitement et le conditionnement de déchets radioactifs contaminés par du strontium“. Electronic Thesis or Diss., Montpellier, Ecole nationale supérieure de chimie, 2022. http://www.theses.fr/2022ENCM0024.

Der volle Inhalt der Quelle
Annotation:
Les opérations d'assainissement d'anciennes installations nucléaires peuvent générer des solutions acides contaminées par du strontium et du césium. Un des moyens de traitement de ces effluents consiste à les faire circuler sur des adsorbants en colonne. S'il existe des matériaux inorganiques permettant le piégeage du césium en milieu acide, aucun adsorbant efficace n'est actuellement disponible dans le cas du strontium. L'enjeu de cette thèse est donc d'élaborer un adsorbant minéral du strontium fonctionnant en milieu acide, mais également compatible avec l'environnement alcalin d'un stockage de déchets nucléaires qui constituera l'exutoire final du piégeur. Certains ciments phosphatés pourraient présenter des atouts pour l'application visée. Leurs performances restent toutefois à déterminer. On cherchera donc dans un premier temps à préciser les contributions des différentes phases qui les composent à la rétention du strontium et on identifiera les mécanismes mis en jeu. A partir des résultats obtenus sur phases pures, on formulera et caractérisera un matériau polyphasique dont l'assemblage minéralogique sera optimisé pour le piégeage. Dans la dernière partie de la thèse, on déterminera l'évolution des propriétés de ce matériau dans l'environnement alcalin d'un stockage
During the decommissioning of old nuclear facilities, cleaning operations can produce acidic waste streams contaminated by cesium and strontium. One way to treat these effluents is to make them flow through columns filled with sorbents. Inorganic materials have been recently reported for the trapping of cesium in acidic medium. However, a solution is still lacking for strontium. The main objective of this PhD work is thus to design a mineral sorbent of strontium, keeping its efficiency under acidic conditions, and showing a good chemical compatibility with the alkaline environment of a nuclear waste repository, where the sorbent will be finally disposed of. Some phosphate binders may have several assets for the desired application. However, their trapping properties still need to be determined, as well as the consequences of a pH change in their environment. In a first stage, the contributions of the different phases of a phosphate cement paste to strontium retention will be determined, as well as the mechanisms involved. Using the results achieved on pure phases, a polyphasic material, with an optimized phase assemblage for strontium trapping, will then be designed. Finally, the evolution of its properties under the alkaline conditions of a repository will be investigated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Patry, Jacques. „Restauration et correction de blocs d'image détruits ou manquants“. Sherbrooke : Université de Sherbrooke, 2002.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Li, Qianrui. „Transmission coopérative et traitement du signal distribué avec feedback et backhaul limité“. Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0022/document.

Der volle Inhalt der Quelle
Annotation:
La coopération des émetteurs est considérée comme une approche prometteuse pour limiter les interférences dans les réseaux sans fil ayant une réutilisation des ressources spectrales très agressive. La coopération des émetteurs permet l'optimisation conjointe de certains paramètres de transmission. Bien que la coopération des émetteurs existe sous différentes formes, une hypothèse commune est le besoin pour les émetteurs entrant en coopération (i) d’acquérir et de partager des informations concernant le canal de propagation ainsi que (ii) d’effectuer une coopération fondée sur les informations diffusées à l'étape précédente. La conception coordonnée des matrices de précodage et, d’une manière encore plus marquée, la transmission conjointe à différents émetteurs sont des exemples importants de méthodes de coopérations présentant ces propriétés. L’acquisition et l'échange de l’information de canal étant strictement limités, il se pose deux questions importantes: (i) Quelle information doit être renvoyée ou échangée de manière à permettre la coopération la plus efficace? (ii) Quelles méthodes permettent de réaliser les gains de la coopération dans ce contexte de partage limité et imparfait d’information? Dans cette thèse, nous abordons les deux questions précédentes. Dans un premier temps, nous considérons que chaque émetteur acquiert une estimée de canal imparfaite. Dans un second temps, nous étudions la conception de techniques de coopération efficaces dans une configuration d’information de canal imparfaitement partagée entre les émetteurs. Enfin, les futures directions de recherche découlant de ces travaux sont présentées et discutées
Transmitter cooperation is considered a promising tool for dealing with interference in wireless networks with an aggressive reuse policy of spectral resources. Although transmitter cooperation comes in many flavors, a recurrent assumption behind proposed methods lies in the need for cooperating devices to (i) acquire, share information pertaining to the propagation channel toward the multiple receivers and (ii) perform cooperation based on the disseminated information in the previous step. This holds true for instance for coordinated beamforming methods and, to an even greater extent, for network-MIMO (Joint Processing coordinated multi-point (JP CoMP) in the long term evolution (LTE) terminology). As feedback and exchange of channel state information (CSI) come at a price in terms of signaling overhead, there arise two important questions: (i) What information should be fed back or exchanged such that the CSI acquired at each transmitter is most informative to perform cooperation? (ii) Which techniques can reap the benefits of cooperation while living with an imperfect channel representation that varies from transmitter to transmitter ? In this thesis, we address both aforementioned questions. We consider first each transmitter acquires an initial imperfect CSI based on limited receivers feedback. For the design of efficient cooperation techniques that copes with the imperfect and non-identical CSI configuration at each transmitter, we investigate specifically a regularized zero forcing (RZF) precoder design in large system scenario. Finally, interesting and challenging research directions and open problems are discussed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Medles, Abdelkader. „Codage et traitement de signal avancé pour les systèmes MIMO“. Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000785.

Der volle Inhalt der Quelle
Annotation:
L'utilisation d'antennes multiple à la transmission et réception dans les communications mobiles, offre d'importantes perspectives pour accroître le débit et améliorer la qualité du lien. Cela peut être effectué en utilisant un plus important multiplexage spatial et en exploitant la diversité contenue dans le canal, tout en gardant une complexité acceptable. L'état de connaissance sur le canal a un impact important sur la conception de la chaîne de transmission. En effet, l'information sur l'état du canal (CSI) au transmetteur (Tx) a un impact sur le codage alors que la qualité du CSI au récepteur (Rx) a principalement un impact sur la détection et l'estimation du canal. Dans la première partie de cette thèse nous avons considéré le cas d'absence de CSI au Tx et un parfait CSI au Rx. On propose la dispersion spatio-temporelle (STS), qui est un schéma de codage spatio-temporel basé sur le précodage linéaire en utilisant un filtre multi-entrée multi sortie (MIMO). Le STS effectue un multiplexage de flux maximal, qui est optimisé pour exploiter une diversité maximale, atteindre un bon gain codage et conserver la capacité ergodique. Un autre avantage du STS est qu'il permet d'utiliser une variété de récepteurs de complexité réduite. Le Stripping MIMO avec égalisation a retour de décision, est un récepteur non-itératif qui détecte les flux d'une manière successive. Les performances du Stripping sont données en terme du compromis entre diversité et multiplexage. Un autre récepteur non-itératif est l'égaliseur à retour de décision appliqué au cas MIMO. Il permet la détection des symboles des différents flux d'une manière conjointe mais successivement dans le temps. Le troisième récepteur proposé est itératif. Il profite de la présence d'un codage canal binaire et itère entre l'égaliseur linéaire et le décodeur canal binaire. Des simulations sont présentées pour évaluer les performances. Dans la seconde partie on considère des canaux avec un CSI partiel au Tx et parfait au Rx. La connaissance partiale dans ces cas peut être le résultat de la décomposition du canal en paramètres lents et rapides. Elle peut aussi être le résultat d'une réciprocité du canal physique entre la liaison montante et descendante. A ces différents cas on présente des modèles de canaux adaptés et on étudie la capacité ergodique. Dans la dernière partie on traite du cas d'absence de CSI aux Tx et Rx. La capacité de deux modèles de canaux, évanescent par bloc et sélectif en temps, sont étudiées. A cause de l'absence de CSI au Rx le canal doit être estimé dans les systèmes utilisés en pratique. On propose des estimateurs semi-aveugle qui combinent l'information de la séquence d'apprentissage et celle de la partie aveugle. Les conditions d'identifiabilité sont obtenues et des simulations sont proposées pour évaluer les performances.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

El, Saleous Nazmi. „Étude et réalisation d'un traitement de signal pour cinémomètre Doppler“. Lille 1, 1990. http://www.theses.fr/1990LIL10164.

Der volle Inhalt der Quelle
Annotation:
Nous avons réalisé le traitement du signal d'un cinémomètre à effet doppler permettant d'obtenir la vitesse, le sens de marche et la distance parcourue par des véhicules terrestres. Notre travail a surtout été orienté vers les applications ferroviaires dans le cadre du projet ASTREE de la SNCF. Dans une première partie, nous présentons les aspects particuliers de l'effet doppler obtenu par rétrodiffusion, les relations mathématiques nous permettant d'obtenir les différentes grandeurs recherchées et les limites physiques du procédé. Dans une deuxième partie, nous détaillons, tant sur le plan matériel que logiciel le dispositif de traitement de signal associé à la tête hyperfréquence produisant l'information doppler. Dans une troisième partie, nous présentons les résultats de deux campagnes d'essais dont l'une, de 2400 km, est effectuée dans la voiture d'essais ARIANE, attelée à un convoi régulier sur la ligne Paris-Le Havre.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Jutten, Christian. „Calcul neuromimétique et traitement du signal : analyse en composantes indépendantes“. Grenoble INPG, 1987. http://www.theses.fr/1987INPG0068.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Gillard, Nicolas. „Traitement du signal quantique : effets de bruit utile et intrication“. Thesis, Angers, 2019. http://www.theses.fr/2019ANGE0036.

Der volle Inhalt der Quelle
Annotation:
Nous examinons ici des problématiques standards du traitement du signal, comme la détection de signaux dans le bruit, l'estimation paramétrique à partir de signaux bruités, la transmission d'information sur un canal bruité, mais dans un cadre quantique. Nous suivons plus spécialement un fil conducteur spécifique, déjà bien développé en classique, et constitué par les effets de bruit utile ou phénomène de résonance stochastique – des situations de traitement du signal ou de l'information en présence de bruit, où la performance ne se dégrade pas de façon monotone lorsque le niveau du bruit augmente, mais au contraire où l'augmentation du bruit peut se révéler bénéfique au traitement. En présence de signaux et bruits quantiques, nous mettons ainsi en évidence la possibilité de tels effets de résonance stochastique, dans des tâches de détection, d'estimation ou de transmission de signal. Dans ces études de traitement du signal quantique, nous rencontrons également une propriété spécifiquement quantique constituée par l'intrication. Nous approfondissons aussi l'apport de l'intrication, avec des bénéfices purement quantiques inaccessibles en classique, obtenus pour les tâches de traitement du signal en présence de bruit que nous étudions. Nous considérons aussi des signaux à deux dimensions pouvant s'apparenter à du traitement numérique d'images en quantique. Les études de traitement du signal quantique développées ici sont principalement théoriques et numériques. En complément, nous présentons des mises en œuvre expérimentales que nous avons pu réaliser grâce à un processeur quantique rendu accessible en ligne par la compagnie IBM (processeur IBM Q 14 Melbourne à 14 qubits)
Here we examine standard signal processing issues, such as signal detection in noise, parametric estimation from noisy signals, transmission of information over a noisy channel, but in a quantum framework. We follow more specifically a specific thread, already well developed in classical, and constituted by the effects of useful noise or stochastic resonance phenomenon - situations of signal or information processing in the presence of noise, where the performance does not monotonically deteriorate when the noise level increases, but instead where the increase in noise can be beneficial to the processing. In the presence of quantum signals and noises, we thus highlight the possibility of such stochastic resonance effects, in tasks of detection, estimation or signal transmission. In these quantum signal processing studies, we also encounter a specifically quantum property consisting of entanglement. We also investigate the contribution of entanglement, with purely quantum benefits that are inaccessible in classical, obtained for signal processing tasks in the presence of noise that we are studying. We also consider two-dimensional signals that can be likened to digital processing of quantum images. The quantum signal processing studies developed here are mainly theoretical and numerical. In addition, we present experimental implementations that we have been able to achieve thanks to a quantum processor made accessible online by the IBM company (IBM Q 14 Melbourne processor of 14 qubits)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Papproth, Eckhard. „Conception et traitement de signal pour les systèmes radiomobiles AMRC /“. Paris : École nationale supérieure des télécommunications, 1996. http://catalogue.bnf.fr/ark:/12148/cb35855706p.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Jutten, Christian. „Calcul neuromimétique et traitement du signal analyse en composantes indépendantes /“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376063328.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Medles, Abdelkader. „Codage et traitement de signal avancé pour les systèmes MIMO /“. Paris : École nationale supérieure des télécommunications, 2004. http://catalogue.bnf.fr/ark:/12148/cb39939871p.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Le, Magoarou Luc. „Matrices efficientes pour le traitement du signal et l'apprentissage automatique“. Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0008/document.

Der volle Inhalt der Quelle
Annotation:
Les matrices, en tant que représentations des applications linéaires en dimension finie, jouent un rôle central en traitement du signal et des images et en apprentissage automatique. L'application d'une matrice de rang plein à un vecteur implique a priori un nombre d'opérations arithmétiques de l'ordre du nombre d'entrées non-nulles que contient la matrice. Cependant, il existe des matrices pouvant être appliquées bien plus rapidement, cette propriété étant d'ailleurs un des fondements du succès de certaines transformations linéaires, telles que la transformée de Fourier ou la transformée en ondelettes. Quelle est cette propriété? Est-elle vérifiable aisément? Peut-on approcher des matrices quelconques par des matrices ayant cette propriété? Peut-on estimer des matrices ayant cette propriété? La thèse s'attaque à ces questions en explorant des applications telles que l'apprentissage de dictionnaire à implémentation efficace, l'accélération des itérations d'algorithmes de résolution de de problèmes inverses pour la localisation de sources, ou l'analyse de Fourier rapide sur graphe
Matrices, as natural representation of linear mappings in finite dimension, play a crucial role in signal processing and machine learning. Multiplying a vector by a full rank matrix a priori costs of the order of the number of non-zero entries in the matrix, in terms of arithmetic operations. However, matrices exist that can be applied much faster, this property being crucial to the success of certain linear transformations, such as the Fourier transform or the wavelet transform. What is the property that allows these matrices to be applied rapidly ? Is it easy to verify ? Can weapproximate matrices with ones having this property ? Can we estimate matrices having this property ? This thesis investigates these questions, exploring applications such as learning dictionaries with efficient implementations, accelerating the resolution of inverse problems or Fast Fourier Transform on graphs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Douimi, Mohammed. „Modélisation markovienne et optimisation numérique pour la restauration des signaux en (1D) et (2D)“. Rouen, 1995. http://www.theses.fr/1995ROUES039.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à la modélisation markovienne et l'optimisation numérique pour la restauration des signaux en (1D) et (2D) bruités par un bruit blanc gaussien centré. Le principe du modèle markovien exploite le champ de Markov et de Gibbs sur des graphes finis via le théorème d'Hammersley Clifford. Le signal restauré est estimé au sens du critère du maximum a posteriori (MAP), qui conduit à un problème d'optimisation globale mixte, non convexe et de très grande taille, réputé très difficile. Plusieurs méthodes ont été proposées notamment le recuit simulé (SA), le graduted non convexity (GNC) et le recuit par champ moyen (MFA) introduits respectivement par (GG84), (BLA87) et (GEI89). Nous proposons des variantes de GNC 1er et 2eme ordre et surtout un nouvel algorithme que nous appelons balayage par position de discontinuité (BPD). Ce nouvel algorithme s'inspire des méthodes de coupe énumérative en optimisation combinatoire. Il se démarque des autres algorithmes cités par sa nature parallélisable, sa rapidité et sa facilite pour le choix des paramètres de lissage et de sensibilité. Ainsi, par exemple, dans le cas du signal en (1D) un traitement assisté ou automatique est proposé selon le degré de connaissance du signal à restaurer. De plus la souplesse de l'algorithme BPD permet d'introduire d'autres types de fonctions d'énergie élargissant le champ des applications (applications contour-image).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Baussé, Jérôme. „Recalage et planification du traitement en radiothérapie et protonthérapie“. Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00566712.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre d'un important et ambitieux projet de renouvellement de son centre, l'ICPO (Institut Curie - Centre de Protonthérapie d'Orsay) renouvelle ses logiciels dédiés au traitement des patients par protonthérapie, technique de radiothérapie utilisant des faisceaux de protons. Les hautes énergies utilisées durant les traitements, ainsi que la précision offerte par les caractéristiques des particules de proton, nécessitent une mise en place du patient plus précise qu'en radiothérapie classique. Le sujet de cette thèse est né de ces problématiques, puisqu'il vise à utiliser les informations RX intrinsèques aux images, et renouveler l'offre logicielle liée à la planification de la dose. Aujourd'hui, le deuxième objectif est parfaitement rempli, puisque le logiciel Isogray est utilisé en routine clinique, et les premiers patients planifiés avec son aide ont d'ores et déjà été traités. Le premier objectif quant à lui, même s'il a pu progresser de manière significative, n'a pas pu aboutir dans le temps imparti pour la thèse, des mises au point ainsi que des tests cliniques étant encore nécessaires. Cependant, les premiers résultats obtenus sont encourageants et ont permis de soulever les premiers problèmes à résoudre, Cette thèse s'inscrit dans le cadre d'un partenariat entre l'ICPO et la société DOSIsoft, leader européen des logiciels de planification de traitement, fournissant les logiciels dernière génération utilisés à l'ICPO. Le savoir faire du laboratoire TSI (Traitement du Signal et de l'Image) de Télécom ParisTech vient s'ajouter à ce partenariat, apportant une plus-value scientifique conséquente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Pougatch, Evelyne Bolliet Louis Lafeuille Jérôme. „Réalisation d'un système d'acquisition et d'un système de décodage de signaux acoustiques et sismiques“. S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00322976.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Daillant, Guylaine. „Automatisation d'analyse de radiogrammes de soudure par traitements d'images : algorithmes et architecture“. Dijon, 1997. http://www.theses.fr/1997DIJOS016.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la conception d'un banc automatique d'acquisition et d'analyse de radiogrammes de soudure. L'étude est le résultat d'une collaboration entre le Le2i (université de Bourgogne), le centre CEA de Valduc et la région Bourgogne. Le but est d'extraire des images, présentant de très fortes inhomogénéités, des défauts de type cavités qui se traduisent par des taches plus sombres que le fond. Les deux premiers chapitres concernent, d'une part, le cadre de l'étude et, d'autre part, l'état de l'art du traitement d'image applique à la radiographie. Les chapitres suivants sont consacrés aux techniques de traitement d'images mises en œuvre dans le cadre de notre application. Cinq méthodes de rehaussement de fond ont été étudiées et comparées. L'approche contour est alors choisie par le biais du détecteur de contours de Canny-Deriche généralisé. Des contours fins, fermes et binaires sont obtenus grâce à l'utilisation de l'algorithme de ligne de partage des eaux. Celui-ci doit cependant être contraint afin de supprimer les sur segmentations inhérentes a l'algorithme. Le chapitre suivant est en fait une introduction à la suite de l'étude puisqu'il présente des images résultats et synthétise le traitement entier des images originales en précisant les temps d'exécution de chacune des étapes. Chaque élément constituant le banc d'acquisition et de traitement est alors présente en détail. Les temps de traitement étant prohibitifs, les algorithmes ont été implantés sur un ensemble de processeurs DSP tms320c4x. Le nombre optimal de processeurs a été déterminé par l'utilisation du logiciel Syndex. L'architecture matérielle retenue est de type ferme de processeurs, donc de type MIMD.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

LAROUK, PROIETTI AICHA. „Interférométrie ultrasonore et sédimentation de particules : modélisation paramétrique et traitement par déconvolution des signaux reçus“. Paris 12, 1998. http://www.theses.fr/1998PA120011.

Der volle Inhalt der Quelle
Annotation:
Le probleme traite est celui de l'application de la modelisation parametrique arma et des methodes de deconvolution a une technique d'interferometrie ultrasonore dite echocell, qui vise l'etude de la sedimentation de particules en suspension d'une maniere generale et celle des globules rouges en particulier. Notre contribution comporte trois volets. Dans un premier temps, nous nous sommes interesses a la phase de l'acquisition de l'information. Il s'agissait de mettre en place une version modifiee de la chaine d'acquisition existante pour pallier certaines limitations et inadequations de celle-ci. Dans un second temps, nous avons propose des methodes d'analyse du signal echocell ; nous procedons dans ce sens a un filtrage qui attenue le bruit existant et donne une forme lissee des donnees acquises au moyen de la methode de reponse impulsionnelle tronquee. Le modele parametrique arma est par suite utilise pour l'analyse spectrale du signal echocell. Les frequences dominantes dans les spectres arma estimes peuvent etre reliees a la vitesse d'accumulation des particules qui sedimentent. Enfin, nous avons aborde le probleme de deconvolution des signaux radiofrequences recus lors de la sedimentation des particules afin d'ameliorer le pouvoir separateur du capteur utilise. Ceci permet d'identifier la reponse impulsionnelle du milieu etudie, contribue a suivre la cinetique de sedimentation des particules et determine certaines de leurs proprietes caracteristiques telles que leur vitesse d'accumulation, leur densite et compactage. Nous avons alors envisage et teste diverses methodes de deconvolution et nous avons retenu particulierement deux methodes : l'une deduite de la correlation et l'autre appartenant aux methodes de deconvolution bernoulli gaussienne par l'utilisation du detecteur smlr propose par kormylo et mendel. L'application de ces methodes dans un cadre reel avec des suspensions sanguines non agregees et des particules spheriques test permettent de montrer une amelioration de la resolution axiale d'un facteur de quatre. L'epaisseur de la couche sedimentee en fonction du temps de sedimentation est donnee et la vitesse d'accumulation des particules etudiees est estimee. Enfin, les impedances acoustiques et les cfficients de reflexion du milieu etudie sont alors deduits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Chonavel, Thierry. „Estimation spectrale à bande limitée et traitement d'antennes /“. Paris : Ecole nationale supérieure des télécommunications, 1993. http://catalogue.bnf.fr/ark:/12148/cb35607147q.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Pignolet, Jean-Marc. „Filtrage numérique et fonctions élémentaires pour un processeur de traitement du signal“. Grenoble INPG, 1988. http://www.theses.fr/1988INPG0068.

Der volle Inhalt der Quelle
Annotation:
Description des differents outils et des principaux concepts en filtrage numerique. Presentation des differents algorithmes de filtrage et des criteres qui ont permis de les retenir. Presentation des differentes methodes d'approximation numerique permettant, compte tenu de l'architecture du processeur, l'implantation de fonctions arithmetiques et elementaires
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Laniesse, Priscillia. „Les ciments brushitiques à base de wollastonite - Réactivité, propriétés et application au traitement et au conditionnement d’effluents contaminés par du strontium“. Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS017/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail vise à étudier l’hydratation et les propriétés des ciments brushitiques à base de wollastonite dans la perspective d’une application au traitement et au conditionnement de déchets radioactifs de faible ou moyenne activité acides et/ou contaminés en strontium. Une étude des processus conduisant à la prise et au durcissement d’un ciment commercial est d’abord menée. L’influence de la composition de la solution de gâchage sur les réactions mises en jeu est ensuite précisée. Enfin, une première évaluation du potentiel de ce matériau pour la décontamination ou l’immobilisation d’effluents aqueux contaminés en strontium est réalisée.Les pâtes de ciment brushitique à base de wollastonite sont préparées à partir de wollastonite broyée et d’une solution d’acide phosphorique concentrée contenant des cations métalliques (Zn2+ et Al3+) ainsi que du borax. La wollastonite réagit selon un processus de dissolution/précipitation qui conduit à la formation de brushite, de silice amorphe et d’un aluminophosphate de calcium et de zinc amorphe dont la structure a été caractérisée par RMN-MAS du 31P et 27Al. La précipitation de brushite est précédée par la formation transitoire de phosphate monocalcique monohydraté. La simulation thermodynamique à l’aide d’un code de spéciation géochimique de la réaction de la wollastonite avec une solution d’acide phosphorique reproduit bien la séquence de précipitation des phases cristallines observée expérimentalement.Il apparaît que la concentration optimale de l’acide phosphorique dans la solution de gâchage est comprise entre 9 et 10 mol.L-1. Le bore retarde la prise du ciment tandis que le zinc l’accélère. L’ajout d’aluminium, qui permet la précipitation massive d’aluminophosphate de calcium amorphe, s’avère nécessaire pour obtenir un matériau avec de bonnes performances mécaniques. Une étude de surfaces de réponses par plan d’expériences, suivie d’une optimisation multicritères, a permis d’identifier un domaine de compositions de solutions de gâchage conduisant à un matériau possédant les propriétés recherchées (en terme de temps de prise, auto-échauffement et résistance mécanique) pour une matrice de conditionnement de déchets.Une étude cristallographique montre par ailleurs que la brushite peut incorporer au moins 30 % (mol/mol) de strontium en substitution du calcium dans sa structure. Des essais de piégeage du strontium par une pâte de ciment broyée, menés en suspension diluée, conduisent à une isotherme de sorption de type S, témoignant de l’existence de plusieurs mécanismes de rétention. Enfin, un essai de lixiviation sur un monolithe contenant du strontium révèle le bon confinement de ce dernier, avec un coefficient de rétention Rd plus de 100 fois supérieur à celui obtenu avec une pâte de ciment Portland
This work aims at studying the hydration process and the properties of wollastonite-based brushite cements. These binders may indeed offer new prospects for the treatment or conditioning of low- or intermediate- level radioactive wastes characterized by a strong acidity and/or a contamination by strontium. First, a study of the hydration process is carried out with a commercial cement. Then, the influence of the mixing solution composition on the setting and hardening process is determined. Finally, a first assessment of the potential of this material for the decontamination and immobilization of strontium-containing aqueous effluents is performed.Wollastonite-based brushite cement pastes are prepared by mixing ground wollastonite and a phosphoric acid solution containing metallic cations (Al3+ and Zn2+) and borax. Wollastonite reacts through a dissolution/precipitation process, which leads to the formation of brushite, amorphous silica and amorphous zinc and calcium aluminophosphate whose structure has been investigated by 31P and 27Al MAS-NMR. The brushite precipitation is preceded by the transient formation of monophosphate calcium monohydrate. The thermodynamic simulation of the wollastonite reaction with a phosphoric acid solution, using a geochemical speciation code, fairly well reproduces the precipitation sequence of crystalline phases observed experimentally.It appears that the optimum phosphoric acid concentration in the mixing solution is comprised between 9 and 10 mol.L-1. Boron retards the cement setting whereas zinc accelerates it. The addition of aluminium, which leads to the massive precipitation of amorphous calcium aluminophosphate, is proved to be necessary to obtain a material with high mechanical strength. Thanks to response surface methodology and multi-criteria optimization, a composition domain of the mixing solution is pointed out, leading to a material with good properties (in terms of setting time, self-heating and mechanical strength) for waste conditioning.A crystallographic study also shows that brushite is able to incorporate at least 30 % (mol/mol) of strontium in substitution for calcium in its structure. Strontium retention tests by a ground cement paste in diluted suspension lead to a type S sorption isotherm, meaning that several retention mechanisms are involved. Finally, a leaching experiment performed on a cement monolith containing strontium shows that this species is well confined within the cement matrix, with a retention coefficient at least two orders of magnitude higher than that of a Portland cement paste
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Joachim, Christian. „Contribution au traitement moléculaire du signal : comportements intramoléculaires“. Toulouse, ENSAE, 1985. http://www.theses.fr/1985ESAE0002.

Der volle Inhalt der Quelle
Annotation:
Définition du traitement moléculaire du signal comme l'utilisation d'une molécule isolée dans une action cohérente sur une information s'y propageant. Analyse et classement des comportements intramoléculaires à partir de critères purement quantiques, obtenus par décomposition du spectre discret de la molécule en propriétés globales (densité d'états) et locales (rapport entre les moments d'ordre 2 et 1 de la distribution des écarts entre plus proche voisins du spectre). Distinction et illustration, par des simulations numériques des comportements réguliers, stochastiques et chaotiques. Modélisation locale de l'évolution intramoléculaire par généralisation de la décomposition de Madelung, en remplacant le couple densité de probabilité/vecteur vitesse de l'interprétation hydrodynamique par le couple densité de probabilité/densité d'énergie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Chamberod, Eric. „Capteur interactif à traitement de signal intégré“. Grenoble INPG, 1992. http://www.theses.fr/1992INPG0126.

Der volle Inhalt der Quelle
Annotation:
Une automatisation poussee des procedes necessite une meilleure perception de leur fonctionnement interne ou externe et par voie de consequence un plus grand nombre de capteurs. Cependant, si celui-ci augmente, la quantite d'informations a traiter devient excessive au niveau connectique et entraine des saturations au niveau des temps de calcul. Pour garder le benefice d'une excellente instrumentation, il est indispensable de distribuer quelque intelligence au niveau peripherique afin d'obtenir des reactions localisees en ligne et compresser l'information a sa source pour reduire son transport. Associe a des elements de gestion et de traitement du signal, le capteur acquiere des proprietes dignes d'un capteur intelligent. Les difficultes d'ordre connectique peuvent etre resolues par l'emploi d'un bus de terrain tel que fip. Les architectures que nous proposons, marient dans l'objectif precite, deux processeurs avec le capteur, un processeur de signal pour la partie gestion et traitement de donnees, et un processeur de communication pour le transfert bidirectionnel des informations sur le bus
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

DITE, CHRISTINE. „Assurance qualite et procedures appliquees a la production d'unites de traitement pour essais cliniques“. Strasbourg 1, 1994. http://www.theses.fr/1994STR15079.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Duchêne, Cédric. „Influence des fluctuations sur l’échantillonnage et la quantification dans le système visuel“. Grenoble INPG, 2007. https://tel.archives-ouvertes.fr/tel-00184839.

Der volle Inhalt der Quelle
Annotation:
De récentes études tendent à montrer que les réseaux de neurones biologiques exploitent le bruit et les non-linéarités pour favoriser les processus de traitements de l'information. Cette thèse s'articule autour de cette thématique; elle tente de mettre à jour des liens entre des opérations de traitement du signal susceptibles d'apparaître au sein du système visuel et les facteurs aléatoires qui y sont sous-jacents. Une description du système visuel et de ses différentes sources de bruits est réalisée dans le premier chapitre. Nous étudions dans le chapitre 2, le lien possible entre l'échantillonnage si particulier de la rétine et les mouvements incontrôlables et incessants de 1'{\oe}iI, les micro-mouvements. A l'aide de modèles simples de rétine et pour des fluctuations de diverses natures nous montrons que la ressemblance entre la scène projetée sur la rétine et la scène réelle peut être améliorée par des micro-mouvements aléatoires. Dans le chapitre 3, on s'intéresse à un problème récurent dans les systèmes naturels tel que le processus visuel",:",le test d'hypothèse binaire en milieu bruité. En particulier, nous caractérisons qu'elle peut être l'influence du bruit interne sur les performances de détection des premières couches de neurones du système visuel. Pour prendre en compte le bruit interne observé dans les réseaux de neurones biologiques, nous proposons de réaliser l'étude autour de quantifieurs stochastiques, quantifieurs dont les seuils sont soumis à des fluctuations aléatoires. Là encore, on observe que le bruit injecté dans le modèle permet d'accroître les performances de détection en diminuant la probabilité d'erreur
Recent studies have shown that biologie al neural systems are able to use noise and non linearities to improve the information processing which is occurred in. This thesis focus on this topic. We investigate the links between some operations of signal processing whose potentially appear in the visual system and its internaI noises. A description of the human visual system and its different sources of noise is done in first chapter. We study in the second part the link between the irregular retinal sampling and the random fixational eye movements. We use a simple model of retina. For sever al kind of fluctuations we show that the likeness of the image projected on the model of retina and the real scene can be improved by random movements. Ln the third chapter we are interested in a problem which is recurrent in biological systems such as the visual system: noisy binary detection tasks. The influence of the internaI noise of the first layers of neurons of the visual system on the performance of the detection tasks is characterized. To simulate the internaI noise observed in biological neural networks we propose to use stochastic quantizers. A stochastic quantizer is a quantizer whitch of thresholds are perturbed randomly by threshold noises. Once again we observe that the threshold noise can improve the detection performance by decreasing the probability of error
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Linarès, Georges. „Détection de ruptures et classification automatique dans un environnement de bruits impulsifs“. Avignon, 1998. http://www.theses.fr/1998AVIG0118.

Der volle Inhalt der Quelle
Annotation:
Ce memoire est consacre au probleme de la supervision d'environnements reels de bruits impulsifs. L'objectif est de developper une methode capable de detecter, dans un flux continu de bruits transitoires, les evenements acoustiques qui ne s'inscrivent pas dans une certaine regularite du signal. Nous montrons que les techniques classiques de detection de ruptures sont mal adaptees a la surveillance d'un milieu intrinsequement irregulier. Ceci nous amene a adopter une approche de plus haut niveau, basee sur le regroupement en classes des differentes composantes acoustiques de l'environnement. L'etude bibliographique des algorithmes de classification automatique montre leur difficulte a classifier des formes qui peuvent etre superposees. Or le recouvrement de signaux emis par differentes sources acoustiques est probable dans des milieux complexes. Nous proposons une solution neuro-mimetique originale au probleme de la modelisation dynamique du signal. Il s'agit d'une memoire associative nonsupervisee qui adapte sa structure par deux processus inter-dependants : la modelisation du signal par classification d'unites acoustiques recurrentes et la detection d'evenements provoquant la rupture du modele. L'architecture proposee permet la detection et la classification de formes acoustiques lineairement melangees. Neanmoins, la co-occurence d'une rupture et d'une forme acoustique referencee provoque une mauvaise formation du modele due au melange des prototypes des classes. La separation des classes melangees peut etre consideree comme un probleme de separation de sources. Ceci nous amene a implanter, dans l'architecture neuronale proposee, un mecanisme d'apprentissage qui s'inspire des methodes de separation aveugle de sources. Il s'agit d'un processus d'auto-organisation du classifieur neuronal qui minimise la dependance statistique des classes. Les performances de cet algorithme sont evaluees a la fois en detection de ruptures et en classification non-supervisee. Nos tests montrent le bon comportement du modele dans des situations de fort taux de superposition des formes acoustiques ainsi qu'une degradation sensible des performances en presence de bruit blanc de forte energie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Laude, Vincent. „Contributions au traitement optique du signal et aux ondes élastiques guidées“. Habilitation à diriger des recherches, Université de Franche-Comté, 2002. http://tel.archives-ouvertes.fr/tel-00005804.

Der volle Inhalt der Quelle
Annotation:
Ce document présente une synthèse de mes travaux de recherche postérieurement à la thèse de doctorat. Depuis le début de mes travaux de thèse en 1992 et jusqu'au début de l'année 2000, mes recherches ont été effectuées dans le domaine du traitement optique du signal. Depuis, mes principales activités de recherche concernent le domaine de la microsonique, et plus précisément des ondes élastiques guidées ou de surface. Je présente successivement mes contributions à ces deux domaines, puis les perspectives de cette thématique de recherche, et les directions que j'entends prendre dans les années à venir. A partir de 1995, à la suite de ma thèse, j'ai poursuivi mes travaux en corrélation optique. Je me suis intéressé aux aspects théoriques de la corrélation optique, ainsi qu'à des moyens pratiques d'utiliser les solutions optimales obtenues dans les corrélateurs existants. J'ai également étudié de nouvelles applications des modulateurs spatiaux de lumière pour le traitement optique du signal, et plus particulièrement des systèmes originaux d'imagerie programmable et un capteur de front d'onde à balayage. Par la suite, je me suis intéressé au traitement des impulsions laser ultrabrèves, domaine dans lequel le contrôle de la forme temporelle des impulsions présente un intérêt considérable. J'ai étudié plus particulièrement des moyens de contrôler et de mesurer la dispersion des impulsions ultrabrèves. J'ai également mené des études sur la possibilité d'obtenir des temps de groupe superluminaux pour les ondes optiques. Dans le domaine de la microsonique, mes travaux sont orientés vers la compréhension de la propagation des ondes électro-acoustiques (liées aux milieux piézoélectriques) dans les microstructures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Kouamé, Denis. „Modelisation parametrique et detection de ruptures en traitement du signal ultrasonore“. Tours, 1996. http://www.theses.fr/1996TOUR4015.

Der volle Inhalt der Quelle
Annotation:
L'utilisation des ultrasons dans les domaines industriel et medical revet une importance capitale a l'heure actuelle. De nombreuses etudes ont de ce fait ete menees pour diminuer les couts et ameliorer les performances des transducteurs qui servent a les generer et a les detecter. Dans bien des cas, le traitement du signal indispensable associe demeure sommaire et inadapte aux contraintes de temps reel et a la prise en compte de non-stationnarites. L'objet de cette these est l'extraction de caracteristiques de systemes physiques, a partir de signaux doppler ultrasonores. Deux applications specifiques vont motiver cette etude. 1) la mesure de la vitesse d'ecoulement d'un fluide. Sa finalite est d'ameliorer la precision des methodes usuelles utilisees dans les appareils de mesure de flux (tels que les debitmetres) conventionnels, ainsi que leurs aptitudes a suivre les non-stationnarites. 2) la detection d'emboles, c'est-a-dire la detection du passage de particules etrangeres a la constitution normale du sang, mais transportees lors de son ecoulement. Le but est ici de detecter, en temps reel et de facon aussi certaine que possible, le passage de micro-emboles qui peuvent etre a l'origine de graves pathologies. Pour resoudre ces deux problemes, nous utilisons des approches reposant sur l'identification parametrique. Agin de surmonter les inconvenients des methodes d'estimation parametrique conventionnelle des moindres carres, nous presentons une nouvelle approche fondee sur la prise en compte des connaissances partielles disponibles pendant l'estimation et sur l'utilisation de l'operateur delta. Le nouvel estimateur, utilise conjointement avec une procedure d'estimation de la frequence doppler fondee sur la decomposition de la densite spectrale de puissance, a permis d'apporter une reponse en terme de rapidite et de precision au probleme de la velocimetrie, dans le cas de signaux fortement non stationnaires. Le probleme de la detection d'emboles a ete pose dans le cadre de la detection de ruptures de modeles. Plusieurs procedures sont ainsi comparees, et la compensation de la rupture revisitee. La validation des methodes employees est realisee a partir d'une part, de simulations et d'autre part, de signaux reels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Benjelloun, Touimi Abdellatif. „Traitement du signal audio dans le domaine code : techniques et applications“. Paris, ENST, 2001. http://www.theses.fr/2001ENST0018.

Der volle Inhalt der Quelle
Annotation:
La manipulation classique de flux audio codes nécessite une opération préalable de décodage pour extraire les signaux temporels puis de recodage après traitement. Pour pallier les inconvénients en terme de complexité et délai algorithmiques, lies a cette méthode, cette thèse se propose de réaliser un traitement direct dans le domaine code. On s'intéresse aux codeurs de types fréquentiel perceptuel et particulièrement mpeg-1 layer i-ii et tdac de ftr&d. Le contexte applicatif illustre concerne le traitement du son pour la téléconférence multipoint. Le premier traitement aborde concerne le filtrage dans le domaine des sous-bandes. Une méthode générique a été développée permettant de transposer tout filtre rationnel (fir ou iir) temporel dans ce domaine et pour tout banc de filtres à décimation maximale assurant la reconstruction parfaite. Cette méthode a été appliquée à la spatialisation sonore par des filtres hrtf dans le domaine des sous-bandes. L'étude de la sommation sur les flux codes soulevé plusieurs contraintes suivant le codeur considère. Pour le codeur mpeg-1, la problématique principale concerne la détermination des paramètres psychoacoustiques nécessaires à l'allocation de bits. L'algorithme propose apporte donc une solution à ce problème par estimation des seuils de masquage des signaux individuels à sommer puis recombinaison. Une méthode de réduction de débit est aussi dérivée à partir de cet algorithme. Pour le codeur tdac la diminution de la complexité dans le procède de sommation repose sur le phénomène de masquage inter-signaux en tenant compte de la structure particulière de ce codeur. Elle profite de l'imbrication des dictionnaires de la quantification vectorielle qu'il utilise. La mise en valeur de l'intérêt du traitement dans le domaine code a été concrétisée par une mise en œuvre dans un pont audio de téléconférence multipoints qui assure les fonctionnalités de mixage, correction de trames effacées et la gestion des flux discontinus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Djigande, Kola. „Synthese et evaluation des performances d'architectures pour le traitement du signal“. Nantes, 1995. http://www.theses.fr/1995NANT2106.

Der volle Inhalt der Quelle
Annotation:
Le travail presente propose la comparaison de deux solutions d'implementation materielle des algorithmes de traitement du signal a partir des memes donnees et dans le meme environnement. La solution retenue pour chaque algorithme est fonction du choix de l'utilisateur guide par des criteres de performances et de cout. La methode utilisee consiste: ? pour la premiere solution, a faire executer l'algorithme par un processeur de traitement du signal synthetise, ? pour la seconde solution, a elaborer un composant de type asic (circuit integre specifique) realisant la fonction definie par l'algorithme et synthetise dans les memes conditions que le processeur. L'implementation de la premiere solution qualifiee de logicielle/materielle a necessite dans un premier temps, la modelisation du processeur tms320c10. Trois modeles differents ecrits en langage de description du materiel vhdl sont elabores et valides. Cette etude nous permet de degager une methode de modelisation vhdl de processeurs de traitement du signal. Dans un second temps, l'outil compass est utilise pour synthetiser le dernier modele moyennant une revision de la description vhdl comme l'impose le synthetiseur. Associe au processeur, un composant de type memoire programme est modelise puis synthetise. Un generateur de code machine est developpe afin de traduire une description assembleur et de charger la memoire programme. L'implementation de la seconde solution qualifiee de purement materielle a necessite le developpement d'un outil de synthese haut niveau. Cet outil saisit en entree le programme assembleur ayant servi a la specification de l'algorithme et un ensemble de contraintes sur la nature et le nombre des ressources (unites fonctionnelles) fourni par l'utilisateur. A la suite des operations de codage intermediaire, de construction d'un graphe de flot de controle et de donnees optimise, d'allocation et d'ordonnancement, l'outil genere une description vhdl au niveau transfert de registres. Cette representation de sortie est ensuite synthetisee moyennant l'usage de l'outil precedemment evoque. Afin d'attenuer le probleme de portabilite au niveau de la description d'entree, une ouverture sur l'outil de cao spw (signal processing workstation), largement utilise pour le traitement du signal a ete effectuee. Ainsi, notre outil permet une specification d'un algorithme sous forme de schema saisi a l'aide de spw ou sous forme d'un programme assembleur du tms320c30 que l'outil spw peut aussi generer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Depiesse, Marc. „Traitement du signal et deconvolution appliques a la spectroscopie de plasmas“. Toulon, 1995. http://www.theses.fr/1995TOUL0009.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette these est l'etude de methodes de traitement du signal et de deconvolution appliquees a la spectroscopie de plasmas. La comprehension des phenomenes se produisant dans les plasmas est accessible grace a l'analyse spectrale du rayonnement qu'ils emettent. Ces signaux sont essentiellement deformes par la fonction d'appareil du dispositif d'acquisition. Ces distorsions limitent la precision de mesure des parametres de raies spectrales. Apres l'analyse des phenomenes physiques qui engendrent ce rayonnement, la modelisation du systeme experimental permet de poser le probleme de la deconvolution. En fonction des mecanismes d'elargissement des raies, plusieurs methodes de restauration de signaux positifs monodimensionnels sont decrites. L'algorithme de biraud est etudie et son fonctionnement est optimise pour son application a des signaux spectroscopiques. Une comparaison de plusieurs methodes de deconvolution est faite pour caracteriser les signaux restaures en fonction du rapport signal sur bruit et de la fonction d'appareil. Le resultat nous permet de definir leur domaine de mise en uvre. Toutefois, les performances de ces traitements restent limitees par la presence de bruit superpose aux spectres observes. Plusieurs solutions sont proposees pour etendre leur champ d'application a des niveaux de bruit plus eleves. La deconvolution de spectres de raies experimentaux nous permet de verifier l'apport de ces methodes de traitement du signal a la spectroscopie. Les spectres sont emis dans le visible par un plasma cree dans un tube a choc. Un accroissement de la precision de la mesure du parametre d'elargissement stark est obtenue par la restauration du multiplet (1) du silicium ionise si ii. Ces resultats sont compares a ceux de differents auteurs pour les raies 385,6 et 386,2 nm. Une consequence importante de la methode de deconvolution appliquee est le gain de resolution sur le spectre. Cette amelioration nous permet de mesurer, pour la premiere fois, l'elargissement de la raie 385,4 nm la plus faible de ce multiplet
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Combet, François. „Traitement du signal, modélisation et diagnostic des installations de remontées mécaniques“. Grenoble INPG, 2003. http://www.theses.fr/2003INPG0109.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est dédiée au problème de la détection et de l'estimation d'une succession de chocs dans un signal. Sous l'hypothèse d'un système linéaire et stationnaire, nous étudions les performances de méthodes de déconvolution aveugle (ordre 2, ordres supérieurs et information mutuelle) par rapport à un modèle probabiliste du signal d'excitation. En situation non stationnaire, nous proposons une méthode de détection d'instants de choc basée sur le modèle de Prony appliqué sur une fenêtre glissante. Puis, afin de recaler à la même vitesse les mesures entre elles ou avec leur modèle théorique, nous proposons d'utiliser la transformée en échelle, cas particulier de la transformée de Mellin, pour estimer les faibles écarts de vitesse du système. Ces méthodes sont ensuite appliquées à des signaux d'accélérométrie mesurés en tête de suspente d'un télésiège débrayable au passage d'un pylône compression et en entrée/sortie de gare, et à des signaux d'engrenages.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Benjelloun, Touimi Abdellatif. „Traitement du signal audio dans le domaine codé : techniques et applications /“. Paris : École nationale supérieure des télécommunications, 2001. http://catalogue.bnf.fr/ark:/12148/cb388319544.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Olivero, Anaik. „Les multiplicateurs temps-fréquence : Applications à l’analyse et la synthèse de signaux sonores et musicaux“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4788/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le contexte de l'analyse/transformation/synthèse des signaux audio utilisant des représentations temps-fréquence, de type transformation de Gabor. Dans ce contexte, la complexité des transformations permettant de relier des sons peut être modélisée au moyen de multiplicateurs de Gabor, opérateurs de signaux linéaires caractérisés par une fonction de transfert temps-fréquence, à valeurs complexes, que l'on appelle masque de Gabor. Les multiplicateurs de Gabor permettent deformaliser le concept de filtrage dans le plan temps-fréquence. En agissant de façon multiplicative dans le plan temps-fréquence, ils sont a priori bien adaptés pour réaliser des transformations sonores telles que des modifications de timbre des sons. Dans un premier temps, ce travail de thèses intéresse à la modélisation du problème d'estimation d'un masque de Gabor entre deux signaux donnés et la mise en place de méthodes de calculs efficaces permettant de résoudre le problème. Le multiplicateur de Gabor entre deux signaux n'est pas défini de manière unique et les techniques d'estimation proposées de construire des multiplicateurs produisant des signaux sonores de qualité satisfaisante. Dans un second temps, nous montrons que les masques de Gabor contiennent une information pertinente capable d'établir une classification des signaux,et proposons des stratégies permettant de localiser automatiquement les régions temps-fréquence impliquées dans la différentiation de deux classes de signaux. Enfin, nous montrons que les multiplicateurs de Gabor constituent tout un panel de transformations sonores entre deux sons, qui, dans certaines situations, peuvent être guidées par des descripteurs de timbre
Analysis/Transformation/Synthesis is a generalparadigm in signal processing, that aims at manipulating or generating signalsfor practical applications. This thesis deals with time-frequencyrepresentations obtained with Gabor atoms. In this context, the complexity of a soundtransformation can be modeled by a Gabor multiplier. Gabormultipliers are linear diagonal operators acting on signals, andare characterized by a time-frequency transfer function of complex values, called theGabor mask. Gabor multipliers allows to formalize the conceptof filtering in the time-frequency domain. As they act by multiplying in the time-frequencydomain, they are "a priori'' well adapted to producesound transformations like timbre transformations. In a first part, this work proposes to model theproblem of Gabor mask estimation between two given signals,and provides algorithms to solve it. The Gabor multiplier between two signals is not uniquely defined and the proposed estimationstrategies are able to generate Gabor multipliers that produce signalswith a satisfied sound quality. In a second part, we show that a Gabor maskcontain a relevant information, as it can be viewed asa time-frequency representation of the difference oftimbre between two given sounds. By averaging the energy contained in a Gabor mask, we obtain a measure of this difference that allows to discriminate different musical instrumentsounds. We also propose strategies to automaticallylocalize the time-frequency regions responsible for such a timbre dissimilarity between musicalinstrument classes. Finally, we show that the Gabor multipliers can beused to construct a lot of sounds morphing trajectories,and propose an extension
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Berthout, Guillaume. „DEVELOPPEMENT INDUSTRIEL D'UNE PLATE-FORME PROTOTYPE : APPLICATIONS AU TRAITEMENT DE SURFACES ET A LA STERILISATION PAR PLASMAS FROIDS“. Phd thesis, Université d'Orléans, 2002. http://tel.archives-ouvertes.fr/tel-00512414.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce projet porte sur le développement d'applications industrielles dans le domaine des traitements de surface par plasmas froids. L'emploi de cette technique pour le traitement de surface polymère reste de manière générale une alternative intéressante à la voie chimique. La création d'un réacteur prototype de grand volume répond aux attentes très diverses des industriels. Par son caractère évolutif, la plate-forme plasma froid du CRITT est un véritable outil de recherche dédié à l'industrie. Un des thèmes émergents de ces dernières années concerne l'utilisation des plasmas froids comme moyen alternatif pour la stérilisation des dispositifs médicaux. En effet, les techniques conventionnelles ne permettent pas une inactivation performante de certains micro-organismes pathogènes et les conditions de traitement parfois extrêmes n'assurent pas la pérennité du matériel médical. Préalablement à une validation clinique nécessaire à son développement en milieu industriel ou médical, ce nouveau procédé doit naturellement faire la preuve de son efficacité. L'étude réalisée présente les principaux mécanismes susceptibles d'expliquer l'inactivation d'un micro-organisme exposé au plasma. L'action en synergie de photons UV et d'espèces actives comme l'oxygène atomique confère à cette technologie une cinétique d'inactivation particulière. La production de ces agents actifs est optimisée par un diagnostic du plasma en spectroscopie optique, permettant ainsi d'atteindre des degrés d'inactivation très prometteurs. Même si l'efficacité du plasma n'est plus à démontrer, la problématique du conditionnement, qui fait partie intégrante d'un procédé, se pose toujours en milieu industriel. L'inhibition du plasma diffusant à travers un sachet poreux ne permet pas d'obtenir l'état stérile. Une solution consistant à générer un plasma induit dans un sachet, assurant ainsi un contact intime entre les espèces actives du plasma et le dispositif à stériliser, est donc discutée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Li-Thiao-Té, Sébastien. „Traitement du signal et images LC/MS pour la recherche de biomarqueurs“. Phd thesis, Cachan, Ecole normale supérieure, 2009. https://theses.hal.science/tel-00466961/fr/.

Der volle Inhalt der Quelle
Annotation:
La spectrométrie de masse LC/MS est une technique de chimie analytique très prometteuse pour la recherche de biomarqueurs protéiques. Cette thèse aborde la correction de certaines distortions : l'alignement des images LC/MS et la normalisation des intensités. Nous étudions ensuite un détecteur de signaux a contrario et calculons la limite de détection
Liquid chromatography mass spectrometry is a promising technique in analytical chemistry for the discovery of protein biomarkers. This thesis deals with correcting distortions such as LC/MS image alignment and intensity standardization. We then apply a contrario detection, and study the limit of detection of the proposed algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie