Дисертації з теми "Analyse spectrale des données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Analyse spectrale des données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Analyse spectrale des données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Jamal, Sara. "Analyse spectrale des données du sondage Euclid." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0263.

Повний текст джерела
Анотація:
Les futurs sondages à grande échelle, comme la mission Euclid, produiront un large set de données qui nécessitera la mise en place de chaînes de traitement complètement automatisées pour analyser les données, extraire l'information et s'assurer que l'ensemble des exigences est respecté. À partir des données collectées, le redshift est une quantité essentielle à mesurer. Des méthodes distinctes pour l'estimation de redshift existent dans la littérature, mais il n'y a pas à l'heure actuelle une définition d'un critère de qualité automatisé pour juger de la fiabilité d'une mesure de redshift spectroscopique. Dans ce travail, nous avons présenté les techniques usuelles de l'analyse spectrale, comme le filtrage et l'extraction du continu, qui peuvent être réalisées en amont de l'estimation du redshift. Puis, nous nous sommes en grande partie intéressés à la problématique de prise de décision quant à l'évaluation de la fiabilité d'une mesure de redshift en développant une nouvelle méthodologie qui exploite les algorithmes de Machine Learning (ML) et les caractéristiques de la fonction de densité en probabilité du redshift (zPDF) définie dans un cadre bayésien.Notre idée consiste à quantifier, via le ML et des descripteurs des zPDFs, la fiabilité d'une mesure de redshift au sein de partitions distinctes qui décrivent différents niveaux de confiance. Par ex. une estimation de redshift obtenue à partir d'une zPDF multimodale ne dépeint pas le même niveau de confiance que celle obtenue à partir d'une zPDF unimodale. Nous estimons que cette nouvelle méthodologie pourra être exploitée dans le cadre de futurs sondages spectroscopiques à grande échelle comme Euclid
Large-scale surveys, as Euclid, will produce a large set of data that will require the development of fully automated data-processing pipelines to analyze the data, extract crucial information and ensure that all requirements are met. From a survey, the redshift is an essential quantity to measure. Distinct methods to estimate redshifts exist in the literature but there is no fully-automated definition of a reliability criterion for redshift measurements. In this work, we first explored common techniques of spectral analysis, as filtering and continuum extraction, that could be used as preprocessing to improve the accuracy of spectral features measurements, then focused on developing a new methodology to automate the reliability assessment of spectroscopic redshift measurements by exploiting Machine Learning (ML) algorithms and features of the posterior redshift probability distribution function (PDF). Our idea consists in quantifying, through ML and zPDFs descriptors, the reliability of a redshift measurement into distinct partitions that describe different levels of confidence. For example, a multimodal zPDF refers to multiple (plausible) redshift solutions possibly with similar probabilities, while a strong unimodal zPDF with a low dispersion and a unique and prominent peak depicts of a more "reliable" redshift estimate. We assess that this new methodology could be very promising for next-generation large spectroscopic surveys on the ground and space such as Euclid and WFIRST
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Ahamada, Ibrahim. "Analyse spectrale des données non stationnaires : théories et applications aux tests de stationnarité." Aix-Marseille 2, 2002. http://www.theses.fr/2002AIX24007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Bisgambiglia, Paul-Antoine. "Traitement numérique et informatique de la modélisation spectrale." Corte, 1989. http://www.theses.fr/1989CORT3002.

Повний текст джерела
Анотація:
L'ensemble du travail présent dans ce mémoire se coordonne autour des deux points forts suivants: mise au point d'un logiciel informatique spécifique appliqué à la résolution de problèmes décrits par des formes variationnelles faisant intervenir des opérateurs linéaires du second ordre. Cet outil est un logiciel d'éléments finis original (permettant de résoudre des problèmes numériques ardus, sur des petits calculateurs de type pc, et malgré tout très souple d'utilisation) car reposant sur des théorèmes et résultats nouveaux concernant les formes variationnelles, les bases propres, associées aux différents opérateurs permettant de décrire une gamme très large de problèmes. Traitement complet de problèmes de modélisation complexes, par application de la théorie et des méthodes issus de l'analyse spectrale, depuis leurs fondements les plus théoriques, jusqu'à leur résolution.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Loizeau, Damien. "ETUDE SPECTRALE ET GEOLOGIQUE DES PHYLLOSILICATES DE MARS, Analyse des données OMEGA et HRSC de la sonde MARS EXPRESS." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00398685.

Повний текст джерела
Анотація:
La présence d'eau liquide sur Mars est une question primordiale dans la recherche de milieux habitables extraterrestres. La planète nous a montré depuis les années 1970 des traces d'écoulement d'eau liquide. Depuis quelques années, nous cartographions des minéraux hydratés formés en grandes quantités par de l'eau liquide : phyllosilicates, hydroxydes, sulfates... Le travail de ma thèse a consisté à étudier la minéralogie et la géologie de certaines régions, afin d'essayer d'y comprendre les conditions de formation de ces minéraux, et en particulier des phyllosilicates, grâce à l'utilisation des données spectroscopiques, topographiques et d'imagerie visible et infrarouge des sondes martiennes, et notamment d'OMEGA et HRSC sur Mars Express. Les études des régions d'Echus Chasma, de Terby Crater, de Tyrrhena Terra et de Mawrth Vallis ont révélé la corrélation des minéraux hydratés avec des roches parmi les plus anciennes de Mars. Les terrains finement stratifiés de la région de Mawrth Vallis nous montrent sur les données OMEGA la présence de divers phyllosilicates dans une unité épaisse de plusieurs centaines de mètres, et divisée en sous-unités de compositions différentes, marquant la complexité de l'altération de ces terrains. Cette région est un des principaux témoins des environnements propices à la formation de phyllosilicates, qui ont dû être répandus à la surface de la planète au début de son histoire.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Kerbaol, Vincent. "Analyse spectrale et statistique vent-vagues des images radar à ouverture synthétique : application aux données satellites ERS-1/2." Rennes 1, 1997. http://www.theses.fr/1997REN10172.

Повний текст джерела
Анотація:
Le radar a ouverture synthetique (ros) est le seul instrument a fournir une information directionnelle des vagues grace a sa haute resolution. Toutefois, l'inversion des spectres 2-d ros, afin de restituer la spectre de la mer, est rendue difficile par la forte distortion spectrale causee par le filtrage passe-bas dans la direction de deplacement de l'instrument (azimut). Ce filtrage est issu des composantes radiales des mouvements sur la surface qui affectent l'information doppler necessaire a la reconstruction de l'image. De plus, le coefficient de retrodiffusion #o, permettant d'estimer le vent a l'aide de modeles empiriques, est frequemment sature lors de la quantification du signal. Les limitations actuelles demontrent donc la necessite d'ameliorer l'analyse vent-vagues des images ros. Tout d'abord, l'analyse spectrale et statistique du speckle est proposee selon les differents modes de detection. Puis, une methode originale d'etalonnage des donnees ros ers-1/2 (#o), par comparaison avec des donnees diffusiometriques co-localisees, est presentee. En outre, une nouvelle technique d'estimation de la longueur de coupure azimutale #c, fondee sur l'utilisation de la fonction d'auto-correlation de l'image ros est proposee. Cette definition de #c decrit mieux le filtrage passe-bas que ne le faisait, jusqu'ici, l'approximation quasi-lineaire de la transformation spectrale utilisee dans les algorithme operationnels d'inversion. Elle permet egalement de definir un nouvel algorithme de restitution du vent mis en evidence par des comparaisons avec les donnees diffusiometriques, et d'ameliorer l'estimation du vent lorsque #c et #o sont analyses conjointement. L'amelioration des techniques de restitution du vent et une meilleure definition de la coupure azimutale doit beneficier aux algorithmes d'inversion spectrale. Enfin, une interpretation statistique des images ros (loi, variance) est proposee au regard des differents mecanismes imageurs de la surface de la mer.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Ladjouze, Salim. "Problèmes d'estimation dans les séries temporelles stationnaires avec données manquantes." Phd thesis, Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://tel.archives-ouvertes.fr/tel-00319946.

Повний текст джерела
Анотація:
Le problème des données manquantes a été abordé en introduisant les processus modulés en amplitude. Les propriétés de type ergodique (ergodicité au k-ième degré) sont étudiées dans le cadre des processus asymptotiquement stationnaires. Dans le domaine non paramétrique on étudie la consistance de deux estimateurs de la fonction de covariance et la variance asymptotique de l'un deux. On propose ensuite une méthode générale d'estimation de la fonction de densité spectrale du processus étudié. L'estimateur obtenu est étudié du point de vue biais et variance asymptotiques. Des méthodes d'estimation paramétrique, basées sur le périodogramme et du maximum de vraisemblance, sont aussi présentées
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Huart, Victor. "Développement d'une procédure d'estimation du dommage par fatigue des emballages de transport à partir des données spectrales." Thesis, Reims, 2016. http://www.theses.fr/2016REIMS020.

Повний текст джерела
Анотація:
Cette thèse traite de l’étude des contraintes induites par le transport de marchandises. Les systèmes d’emballage reposent sur une multitude de fonctionnalités : transporter, protéger, informer,etc… Leur dimensionnement est un paramètre important quant à la protection d’un produit. Lors des transports, les marchandises sont soumises à un important panel de contraintes physiques. Ces contraintes vont engendrer des dégâts et de l’usure. Cette usure peut être étudiée en décomposant les signaux accélérométriques en cycles de contraintes afin d’observer leur l'influence. Ce travail de thèse vise, dans un premier temps à estimer les dommages par fatigue provoqués par un transport particulier sur un système d’emballage donné. Dans ce cas, l'extraction de cycles de contraintes n'est pas appropriée (l'enregistrement continu des longs transports est matériellement difficile). Cette estimation est donc réalisée à partir des densités spectrales de puissance (PSD) et du calcul de leurs moments spectraux, des différentes phases de transport. Dans un second temps, ce travail consiste à réaliser en laboratoire des tests induisant un dommage par fatigue similaire aux transports réels, mais réalisés sur une durée beaucoup plus courte. La méthode de réduction de temps de test repose ici sur les expressions de calcul du dommage afin de déterminer un facteur multiplicateur de PSD réelle afin d’obtenir une PSD de test reproduisant le dommage du transport réel dans un temps plus court. Pour ce faire, ce facteur prend en compte le comportement mécanique de vieillissement des systèmes testés
This thesis is focused on studies of the goods transport induced stresses. Packaging systems are composed of a multitude of functionalities: to transport, to protect, to inform, etc. Their development is an important parameter referring to the goods protection. During transports, goods endure an important panel of mechanical stress. This stress induces damages par fatigue. This damage by fatigue can be studied in decomposing the acceleration signal into stress cycles. This decomposition permits to observe the influence of each stress cycle. This thesis work, in a first step, consists in estimating the damage by fatigue generated during a particular transportation on a given packaging. In this case, stress cycle extraction is not appropriated (continuous record of long transportation is difficult point of view devices). This estimation is realized from the power spectral densities (PSD) and the calculation of the spectral moments of transport phases. The second aim of this work is to develop a simulation protocol inducing the same damage rate on packaging as the actual transportation, in a shorter time. The test time compression method is here based on the damages estimation expression. The aim consists in determining a PSD multiplicative factor to generate a PSD of test witch induce the same damage as the actual transport in a shorter duration. This test time compression take into account the mechanical behavior of damage accumulation for a particular system
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Tourasse, Guillaume. "Mesure et Analyse Statistique Tout Temps du Spectre du Rayonnement Solaire." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET014/document.

Повний текст джерела
Анотація:
Ce document présente la mise en place d’un système de mesure des éclairements énergétiques spectraux solaires pour tout type de temps, sur 4 plans. Les 4 spectromètres mesurent au total 900 spectres/min et produisent chacun un spectre/min moyen et son écart type. Entre 2014 et 2015, 700 000 spectres ont été enregistrés sur un domaine compris entre 400 et 1000 nm avec un pas ≤1 nm. Un échantillon de 145 000 spectres représentatifs du climat lyonnais a été sélectionné pour une analyse statistique. Pour ce faire, l’échantillon a été réduit par partitionnement à 1175 spectres. Son domaine spectral a été étendu de 280 à 1500 nm à l’aide du RTM SMARTS. Une ACP de cet échantillon extrapolé a permis d’en réduire la description à 3 composantes et ainsi de réviser le modèle des illuminants D de la CIE. Enfin, la relation entre composition spectrale et paramètres environnementaux ou colorimétriques ouvre une voie vers des modèles statistiques de génération de spectres du rayonnement solaire
This manuscript presents the design and setup of an all-weather spectral irradiance measurement system on 4 planes. The 4 spectrometers measure a total of 900 spectra/min to produce every minute, a mean spectral irradiance and its standard deviation. Between 2014 and 2015, this system recorded 700,000 spectra, for wavelengths ranging between 400 and 1,000 nm with a step ≤1 nm. A sample of 145,000 spectra representative of the Lyon climate was selected for statistical analysis. For this purpose, the sample was reduced in size by partitioning it in 1,175 spectra. Its spectral domain was extended to 280-1,500 nm by extrapolating the spectra with curve fitting using the SMARTS2 RTM. A PCA of the extrapolated sample reduced its description to only 3 components; hence, allowing a revision of the CIE’s illuminant D series. Finally, the relation between spectral power distribution and environmental or colorimetric parameters opens a way towards statistical models for generating solar spectra
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes." Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00462157.

Повний текст джерела
Анотація:
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes." Phd thesis, Observatoire de Paris (1667-....), 2009. https://theses.hal.science/tel-00462157v2.

Повний текст джерела
Анотація:
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure
The next generation of experiments dedicated to measuring temperature and polarization anisotropies of the microwave background radiation (CMB), inaugurated with the launch of the Planck satellite, will enable the detection and study of increasingly subtle effects. However, the superposition of astrophysical foreground emissions hinder the analysis of the cosmological signal and will contribute as the main source of uncertainty in the forthcoming measurements. An improved modeling of foreground emissions and the development of statistical methods to extract the cosmological information from this contamination are thus crucial steps in the scientific analysis of incoming datasets. In this work we describe the development of the Planck Sky Model, a tool for modeling and simulating the sky emission. We then make use of these simulations to develop and evaluate statistical treatments of foreground emission. We explore the efficiency of wavelet analysis on the sphere (needlets) in the domain of spectral estimation on incomplete data with inhomogeneous contamination, and design a method for treating small scales contamination induced by point sources in the Planck and WMAP data. We also study the impact of foregrounds on our ability to detect primordial gravitational waves (predicted by inflation) and offer forecasts of the performance of future dedicated experiments
Стилі APA, Harvard, Vancouver, ISO та ін.
11

CATALDI, SOPHIE. "Potentiels evoques : analyse spectrale de l'electroencephalogramme ; base de donnees normatives a l'aide du biologic traveler." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX20838.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Baghi, Quentin. "Optimisation de l’analyse de données de la mission spatiale MICROSCOPE pour le test du principe d’équivalence et d’autres applications." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEO003/document.

Повний текст джерела
Анотація:
Le Principe d'Equivalence (PE) est un pilier fondamental de la Relativité Générale. Il est aujourd'hui remis en question par les tentatives d'élaborer une théorie plus exhaustive en physique fondamentale, comme la théorie des cordes. La mission spatiale MICROSCOPE vise à tester ce principe à travers l'universalité de la chute libre, avec un objectif de précision de 10-15, c'est-à-dire un gain de deux ordres de grandeurs par rapport aux expériences actuelles. Le satellite embarque deux accéléromètres électrostatiques, chacun intégrant deux masses-test. Les masses de l'accéléromètre servant au test du PE sont de compositions différentes, alors que celles de l'accéléromètre de référence sont constituées d'un même matériau. L'objectif est de mesurer la chute libre des masses-test dans le champ gravitationnel de la Terre, en mesurant leur accélération différentielle avec une précision attendue de 10-12 ms-2Hz-1/2 dans la bande d'intérêt. Une violation du PE se traduirait par une différence périodique caractéristique entre les deux accélérations. Cependant, diverses perturbations sont également mesurées en raison de la grande sensibilité de l'instrument. Certaines d'entre elles, comme les gradients de gravité et d'inertie, sont bien définies. En revanche d'autres ne sont pas modélisées ou ne le sont qu'imparfaitement, comme le bruit stochastique et les pics d'accélérations dus à l'environnement du satellite, qui peuvent entraîner des saturations de la mesure ou des données lacunaires. Ce contexte expérimental requiert le développement d'outils adaptés pour l'analyse de données, qui s'inscrivent dans le cadre général de l'analyse des séries temporelles par régression linéaire.On étudie en premier lieu la détection et l’estimation de perturbations harmoniques dans le cadre de l'analyse moindres carrés. On montre qu’avec cette technique la projection des perturbations harmoniques sur le signal de violation du PE peut être maintenue à un niveau acceptable. On analyse ensuite l'impact des pertes de données sur la performance du test du PE. On montre qu'avec l'hypothèse pire cas sur la fréquence des interruptions de données (environ 300 interruptions de 0.5 seconde par orbite, chiffre évalué avant le vol), l'incertitude des moindres carrés ordinaires est multipliée par un facteur 35 à 60. Pour compenser cet effet, une méthode de régression linéaire basée sur une estimation autorégressive du bruit est développée, qui permet de décorréler les observations disponibles, sans calcul ni inversion directs de la matrice de covariance. La variance de l'estimateur ainsi construit est proche de la valeur optimale, ce qui permet de réaliser un test du PE au niveau attendu, même en présence de pertes de données fréquentes. On met également en place une méthode pour évaluer plus précisément la DSP du bruit à partir des données disponibles, sans utilisation de modèle a priori. L'approche est fondée sur une modification de l'algorithme espérance-maximisation (EM) avec une hypothèse de régularité de la DSP, en utilisant une imputation statistique des données manquantes. On obtient une estimée de la DSP avec une erreur inférieure à 10-12 ms-2Hz-1/2. En dernier lieu, on étend les applications de l'analyse de données en étudiant la faisabilité de la mesure du gradient de gravité terrestre avec MICROSCOPE. On évalue la capacité de cette observable à déchiffrer la géométrie des grandes échelles du géopotentiel. Par simulation des signaux obtenus à partir de différents modèles du manteau terrestre profond, on montre que leurs particularités peuvent être distinguées
The Equivalence Principle (EP) is a cornerstone of General Relativity, and is called into question by the attempts to build more comprehensive theories in fundamental physics such as string theories. The MICROSCOPE space mission aims at testing this principle through the universality of free fall, with a target precision of 10-15, two orders of magnitude better than current on-ground experiments. The satellite carries on-board two electrostatic accelerometers, each one including two test-masses. The masses of the test accelerometer are made with different materials, whereas the masses of the reference accelerometer have the same composition. The objective is to monitor the free fall of the test-masses in the gravitational field of the earth by measuring their differential accelerations with an expected precision of 10-12 ms-2Hz-1/2 in the bandwidth of interest. An EP violation would result in a characteristic periodic difference between the two accelerations. However, various perturbations are also measured because of the high sensitivity of the instrument. Some of them are well defined, e.g. gravitational and inertial gradient disturbances, but others are unmodeled, such as random noise and acceleration peaks due to the satellite environment, which can lead to saturations in the measurement or data gaps. This experimental context requires us to develop suited tools for the data analysis, which are applicable in the general framework of linear regression analysis of time series.We first study the statistical detection and estimation of unknown harmonic disturbances in a least squares framework, in the presence of a colored noise of unknown PSD. We show that with this technique the projection of the harmonic disturbances onto the WEP violation signal can be rejected. Secondly we analyze the impact of the data unavailability on the performance of the EP test. We show that with the worst case before-flight hypothesis (almost 300 gaps of 0.5 second per orbit), the uncertainty of the ordinary least squares is increased by a factor 35 to 60. To counterbalance this effect, a linear regression method based on an autoregressive estimation of the noise is developed, which allows a proper decorrelation of the available observations, without direct computation and inversion of the covariance matrix. The variance of the constructed estimator is close to the optimal value, allowing us to perform the EP test at the expected level even in case of very frequent data interruptions. In addition, we implement a method to more accurately characterize the noise PSD when data are missing, with no prior model on the noise. The approach is based on modified expectation-maximization (EM) algorithm with a smooth assumption on the PSD, and use a statistical imputation of the missing data. We obtain a PSD estimate with an error less than 10-12 ms-2Hz-1/2. Finally, we widen the applications of the data analysis by studying the feasibility of the measurement of the earth's gravitational gradient with MICROSCOPE data. We assess the ability of this set-up to decipher the large scale geometry of the geopotential. By simulating the signals obtained from different models of the earth's deep mantle, and comparing them to the expected noise level, we show that their features can be distinguished
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Doudou, Abdelkader. "Etude des techniques pour l'analyse des autocorrélations, des échelles et des spectres en turbulence à partir des données de la vélocimétrie laser. Application en combustion." Rouen, 1990. https://hal.archives-ouvertes.fr/tel-01075667.

Повний текст джерела
Анотація:
Ce mémoire concerne l'étude des différentes techniques d'analyse spectrale des fluctuations de vitesse, pouvant traiter les données arrivant aléatoirement de la vélocimétrie Doppler laser. Elles sont testées sur les dispositifs expérimentaux existant au laboratoire, afin d'en faire une critique. En combustion le fait que l'information n'arrive pas de manière homogène complique davantage les analyses. Il n'existe pas de technique universelle pour faire l'analyse spectrale, chaque cas est particulier par le niveau de turbulence de l'écoulement, le type de diffusion utilisé et par les accès optiques possibles. La méthode des produits à intervalle discret (MPID) basée sur le calcul de l'autocorrélation peut donner des bonnes estimations spectrales même si le taux d'échantillonnage est sous-Nyquist. Cette méthode peut calculer les spectres de turbulence pour des taux de données incontrôlés et relativement faibles. La méthode que nous proposons permet aussi de corriger le bruit et les biais. Elle donne accès à une meilleure résolution vers les hautes fréquences et la détermination plus précise de la micro-échelle. L'interaction combustion-turbulence est étudiée grâce à la MPID sous deux aspects: stationnaire et instationnaire. Sur la flamme stationnaire (flamme en V) l'incidence de la combustion sur les échelles et les spectres est mise en évidence. Sur la flamme en propagation, une attention particulière est portée sur des grandes échelles en relation avec la combustion
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Patanchon, Guillaume. "Analyse multi-composantes d'observations du fond diffus cosmologique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004512.

Повний текст джерела
Анотація:
Les anisotropies du fond diffus cosmologique (CMB) sont une mine d'informations sur la physique de l'Univers primordial. Leur spectre spatial de puissance depend des parametres cosmologiques qui caracterisent le contenu et l'evolution de l'Univers. La mesure precise de ce spectre de puissance permet de contraindre fortement les modeles, mais est rendue difficile par la presence de emissions astrophysiques d'avant-plan qui se superposent au signal primordial. Apres une presentation succinte du modele standard de la cosmologie et des differentes sources d'emission dans le domaine millimetrique, nous passons en revue les methodes de separation de composantes couramment employees au sein de la communaute. Nous developpons dans cette these des methodes ameliorees pour la separation et la caracterisation des composantes de signal et de bruit presentes dans les donnees. Tout d'abord, les methodes classiques, basees sur un modele extremement simplifie, ne permettent pas de separer efficacement certaines composantes systematiques instrumentales correlees entre les detecteurs. Nous presentons une methode de separation de composante adaptee au traitement de tels effets systematiques. Cette technique est testee sur des simulations d'observation du satellite Planck.Par ailleurs, les methodes "standard" de separation de composantes ne sont pas entierement satisfaisantes, car elles ne sont pas optimisees pour l'estimation des spectres de puissance, et elles necessitent la connaissance, a priori, des spectres electromagnetiques des composantes. Nous decrivons une nouvelle methode destimation du spectre de puissance du CMB (et des autres composantes) realisant en aveugle la separation des composantes. Cette approche est validee a l'aide de nombreuses simulations. Dans une derniere partie, nous appliquons cette methode aux donnees obtenues avec l'experience Archeops.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Mousset, Louise. "Exploring the primordial universe, inflation and primordial gravitational waves with QUBIC, the Q & U Bolometric Interferometer for Cosmology." Thesis, Université Paris Cité, 2021. http://www.theses.fr/2021UNIP7133.

Повний текст джерела
Анотація:
La détection des modes B primordiaux de polarisation du fond diffus cosmologique est aujourd'hui l'un des défis majeurs de la cosmologie observationnelle. Leur mesure permettrait de contraindre les modèles d'inflation cosmique, cette phase d'expansion accélérée aux tout premiers instants de l'univers. Le projet QUBIC a terminé la campagne de tests et de validation en France et l'instrument a été envoyé en Argentine. L'observation du ciel débutera après une nouvelle courte campagne de tests en laboratoire. Cet instrument s'appuie sur une technologie particulièrement innovante, l'interférométrie bolométrique dont le principe optique sera décrit en détail. La mesure d'un signal aussi ténu que celui des modes B exige un contrôle des effets systématiques irréprochable. C'est justement ce à quoi QUBIC entend répondre grâce à la possibilité de \textit{self-calibration} propre à l'interférométrie et à un design optique assurant une cross-polarisation minimale. Un deuxième enjeu majeur pour cette mesure est le traitement des avant-plans astrophysiques qui viennent contaminer le signal de l'univers primordial. Pour cela, l'interférométrie bolométrique offre la possibilité de faire de l'imagerie spectrale, c'est-à-dire de reconstruire, en "post-processing", des cartes du ciel dans plusieurs sous-bandes de fréquence alors même que l'intrument intègre le signal dans une large bande. Sachant que les avant-plans se distinguent par leur spectre d'émission, l'imagerie spectrale est la clé pour s'affranchir de ces contaminations. Cette thèse fait le pont entre l'instrument QUBIC et l'estimation des paramètres cosmologiques à partir du signal mesuré. J'ai tout d'abord participé activement à l'assemblage de l'instrument et à son étalonnage, notamment au travers de la vérification optique de l'alignement des miroirs. Aussi, une partie importante de ma thèse a été dédiée à la prise et à l'analyse des données d'étalonnage, notamment à la mesure des franges d'interférence et du lobe du télescope, toujours mises en regard avec des simulations optiques. Ces mesures sont un premier pas vers la "self-calibration" complète de l'instrument. Cependant, le coeur de ma thèse a été de démontrer la faisabilité de l'imagerie spectrale au travers de simulations complètes de la chaine d'analyse, allant de la simulation d'une observation du ciel, jusqu'à l'estimation des paramètres cosmologiques, en passant par la reconstruction des cartes du ciel en sous-bandes de fréquence
The detection of primordial B-mode polarization in the cosmic microwave background is one of the main targets for observational cosmology today. Their detection would constrain cosmic inflation models, an accelerating expansion phase occurring at the very beginning of the universe. The QUBIC project recently completed the calibration and the validation of the instrument and it has been sent to Argentina. Observation of the sky will begin after another short calibration phase in the laboratory. This instrument relies on an innovative technology, bolometric interferometry, which will be described in detail. Measurement of the extremely weak B-mode signal requires a exquisite control of systematic effects. This is a important advantage of QUBIC thanks to self-calibration, a technique coming from interferometry, and to a specific optical design assuring a minimal cross-polarization. A second challenge for this measurement is the mitigation of astrophysical foregrounds which contaminate the signal of the primordial universe. For this purpose, bolometric interferometry makes spectral imaging possible, i.e. the reconstruction, in post-processing, of sky maps in several frequency sub-bands even though the instrument integrates the signal in a wide band. Knowing that foregrounds have distinct emission spectra, spectral imaging is the key to eliminate these contaminants. This thesis describes a detailed analysis going from the QUBIC instrument through to the estimation of cosmological parameters. I contributed to the assembling and calibration of the instrument, especially in the optical verification of the mirror alignment. An important part of my thesis is dedicated to calibration data taking and data analysis, especially the measurement of interference fringes and the telescope beam, which are compared to optical simulations. Those measurements are a first step for the full self-calibration of the instrument. However, the heart of my thesis is the demonstration that spectral imaging is feasible. This is done through end-to-end simulations covering the simulation of a sky observation with QUBIC to the estimation of cosmological parameters, including the reconstruction of frequency sub-band maps
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Faivre, Adrien. "Analyse d'image hyperspectrale." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD075/document.

Повний текст джерела
Анотація:
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence
This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Guilloux, Frédéric. "Analyse harmonique et Estimation spectrale sur la Sphère.Applications à l'étude du Fond diffus cosmologique." Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00347673.

Повний текст джерела
Анотація:
Cette thèse porte sur l'utilisation d'ondelettes de seconde génération pour l'étude statistique de champs aléatoires sphériques. Parmi les phénomènes modélisables par un tel champ, on s'intéressera en particulier au Fond diffus cosmologique (CMB).

La localisation des needlets (récente construction d'ondelettes) sur la sphère est étudiée et optimisée en terme de concentration spatiale et d'estimation statistique. Ces fonctions sont ensuite utilisées pour construire un nouvel estimateur du spectre de puissance angulaire. L'examen des propriété de cet estimateur, d'un point de vue théorique (dans l'asymptotique des hautes fréquences angulaires) et pratique, montre qu'il améliore les méthodes existantes dans un modèle réaliste comportant des données manquantes et un bruit hétéroscédastique. A côté de l'estimation spectrale, l'utilisation des needlets est également introduite dans un problème de séparation de sources.

Après quatre chapitres introductifs (dédiés respectivement aux aspects physiques, analytiques et statistiques de l'étude du CMB, puis à une présentation d'ensemble des résultats), quatre articles de revue (en collaboration) sont présentés : "Practical wavelet design on the sphere" ; "CMB power spectrum estimation using wavelets" ; "Spectral estimation on the sphere with needlets: high frequency asymptotics" et "A full sky, low foreground, high resolution CMB map from WMAP".
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Lê, Laetitia Minh Mai. "Exploitation des données spectrales dans la sécurisation du circuit des médicaments anticancéreux." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112148/document.

Повний текст джерела
Анотація:
La plupart des médicaments anticancéreux sont des substances à marge thérapeutique étroite, les erreurs médicamenteuses peuvent avoir des conséquences majeures pour les patients. Il est de la responsabilité pharmaceutique de garantir le bon médicament à la bonne dose par la mise en place d’un contrôle qualité des préparations avant administration. Par ailleurs, ces molécules potentiellement cancérogènes, mutagènes et reprotoxiques présentent un risque pour les personnes exposées notamment le personnel de santé. L’objectif de ce travail de thèse a été de développer des outils permettant d’optimiser la sécurité du circuit de ces médicaments anticancéreux à l’hôpital tant pour le patient que pour le personnel de santé. Des outils analytiques associés à des méthodes d’interprétation des données issues de la chimiométrie et de la gestion de risque ont été mis en œuvre afin de répondre à cette problématique.Dans le cadre de la sécurisation du personnel, la recherche de traces de molécules anticancéreuses dérivées du platine a permis de mettre en évidence les zones les plus contaminées. Sur la base de ces contaminations et des conditions de travail, une méthodologie d’analyse de risque multicritère a été développée pour évaluer le risque d’exposition du personnel. Face au risque encouru, différentes mesures correctives ont été envisagées et des études évaluant plus spécifiquement l’efficacité détergente des opérations de décontamination des surfaces et des flacons ont été menées.En parallèle, des essais visant à sécuriser les préparations avant administration ont été conduits sur deux molécules anticancéreuses : le 5-fluorouracile et la gemcitabine. Au regard de leur caractère non destructif, non invasif et de ce fait, plus sécurisé, les spectroscopies vibrationnelles Raman et proche infrarouge ont été explorées. Les données spectrales (zones spectrales et prétraitements) ont été optimisées par des analyses multivariées ComDim pour développer des modèles de régression PLS prédisant la concentration en principe actif en solution. Les résultats ont montré la faisabilité et la complémentarité des techniques de spectroscopie Raman et proche infrarouge pour la détermination quantitative des molécules anticancéreuses
Most of the anticancer drugs are defined by a narrow therapeutic margin; therefore medical errors can have major consequences on patients. Thus, it’s necessary to guarantee the good drug at the good dose by the implementation of a quality control of the preparation before administration. These potentially carcinogenic, mutagenic or teratogenic drugs present a risk for exposed people especially healthcare workers.The aim of this study was to develop tools which can optimize the safety of the cytotoxic medication circuit in hospitals, for the patient as much as for healthcare workers. In order to respond to these problematics, analytical tools have been associated with different methods of data interpretation of chemometric and risk management.To improve healthcare workers’ safety, environmental monitoring looking for traces of platinum compound cytotoxic drugs were performed to identify the most contaminated areas. Based on these contaminations and working conditions, a methodology of multi-criteria risk analysis has been developed to quantify the risk of exposure of healthcare workers. Regarding the risk, various corrective measures were considered. Thus, studies based on the detergent efficiency of decontamination protocols used to clean workplace surfaces and cytotoxic vials were conducted.In parallel, assays were performed on two anticancer molecules to secure cytotoxic preparations before administration: 5-fluorouracile and gemcitabine. Regarding their non-destructive, non-invasive properties and therefore, more secured handling, Raman and near infrared spectroscopy were explored. Spectral data (spectral zones and pretreatments) were optimized by multivariate analyses ComDim to develop models of regression PLS predicting the concentration of the active ingredient in solution. Results showed the feasibility and the complementarity of these two spectroscopies in the quantitative determination of the cytotoxic drugs.These works participate in the continuous approach of quality assurance implemented in numerous health institutions. We hope that they will contribute to durably decrease risks associated to cytotoxic drugs for both patients and healthcare workers
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Traore, Oumar Issiaka. "Méthodologie de traitement et d'analyse de signaux expérimentaux d'émission acoustique : application au comportement d'un élément combustible en situation accidentelle." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0011/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse est de contribuer à l’amélioration du processus de dépouillement d’essais de sûreté visant étudier le comportement d'un combustible nucléaire en contexte d’accident d’injection de réactivité (RIA), via la technique de contrôle par émission acoustique. Il s’agit notamment d’identifier clairement les mécanismes physiques pouvant intervenir au cours des essais à travers leur signature acoustique. Dans un premier temps, au travers de calculs analytiques et des simulation numériques conduites au moyen d’une méthode d’éléments finis spectraux, l’impact du dispositif d’essais sur la propagation des ondes est étudié. Une fréquence de résonance du dispositif est identifiée. On établit également que les mécanismes basses fréquences ne sont pas impactés par le dispositif d'essais. En second lieu, diverses techniques de traitement du signal (soustraction spectrale, analyse spectrale singulière, ondelettes. . . ) sont expérimentées, afin de proposer des outils permettant de traiter différent types de bruit survenant lors des essais RIA. La soustraction spectrale s’avère être la méthode la plus robuste aux changements de nature du bruit, avec un fort potentiel d’amélioration du rapport signal-à-bruit. Enfin, des méthodes d’analyse de données multivariées et d’analyse de données fonctionnelles ont été appliquées, afin de proposer un algorithme de classification statistique permettant de mieux comprendre la phénoménologie des accidents de type RIA et d’identifier les mécanismes physiques. Selon l’approche (multivariée ou fonctionnelle), les algorithmes obtenus permettent de reconnaître le mécanisme associé à une salve dans plus de 80% des cas
The objective of the thesis is to contribute to the improvement of the monitoring process of nuclear safety experiments dedicated to study the behavior of the nuclear fuel in a reactivity initiated accident (RIA) context, by using the acoustic emission technique. In particular, we want to identify the physical mechanisms occurring during the experiments through their acoustic signatures. Firstly, analytical derivations and numerical simulations using the spectral finite element method have been performed in order to evaluate the impact of the wave travelpath in the test device on the recorded signals. A resonant frequency has been identified and it has been shown that the geometry and the configuration of the test device may not influence the wave propagation in the low frequency range. Secondly, signal processing methods (spectral subtraction, singular spectrum analysis, wavelets,…) have been explored in order to propose different denoising strategies according to the type of noise observed during the experiments. If we consider only the global SNR improvement ratio, the spectral subtraction method is the most robust to changes in the stochastic behavior of noise. Finally, classical multivariate and functional data analysis tools are used in order to create a machine learning algorithm dedicated to contribute to a better understanding of the phenomenology of RIA accidents. According to the method (multivariate or functional), the obtained algorithms allow to identify the mechanisms in more than 80 % of cases
Стилі APA, Harvard, Vancouver, ISO та ін.
20

PRUNET, CASSAN STEPHANIE. "Conception et realisation d'un spectrometre par transformee de fourier. Etude de l'interferometre birefringent, traitement des donnees et analyse spectrale." Cachan, Ecole normale supérieure, 2000. http://www.theses.fr/2000DENS0028.

Повний текст джерела
Анотація:
L'objet de cette these est l'etude de la faisabilite d'un spectrometre a transformee de fourier compact et sans reglage. L'appareil est construit autour d'un interferometre birefringent, constitue de deux prismes de wollaston en spath identiques et accoles et d'une barrette ccd. Le traitement des donnees propose est valide en utilisant des lampes spectrales, et plus particulierement la lampe a vapeur de zinc-mercure-cadmium. L'etude theorique complete du systeme permet d'estimer la resolution du spectrometre (environ 80 cm 1) et montre la necessite de prendre en compte la variation non lineaire de la difference de marche introduite par l'interferometre le long de la barrette. Une methode de reechantillonnage des donnees est proposee afin d'obtenir un signal regulierement echantillonne en fonction de la difference de marche. Pour ameliorer la qualite du spectre reconstruit, un filtrage frequentiel puis spatial des signaux est applique. Enfin, un etalonnage de l'appareil, prenant en compte le caractere dispersif du materiau birefringent, permet d'obtenir un spectre gradue en nombre d'onde. Le spectre obtenu avec la methode du periodogramme ne permet pas de separer les raies les plus proches des lampes etudiees, la resolution de cette methode etant limitee par l'etendue du signal a analyser. D'autres methodes d'analyse spectrale sont donc appliquees. L'etude menee montre que la methode ar-long et la methode de cauchy, exploitant une information a priori, sont tout a fait adaptees au probleme. Enfin, au vu des resultats obtenus, un redimensionnement de l'interferometre ainsi qu'une nouvelle realisation sont proposes afin d'obtenir une meilleure resolution (environ 16 cm 1) et une plage de linearite de la difference de marche plus grande.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Al, saddik Hania. "Spectral and textural analysis of high resolution data for the automatic detection of grape vine diseases." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK050/document.

Повний текст джерела
Анотація:
La Flavescence dorée est une maladie contagieuse et incurable de la vigne détectable sur les feuilles. Le projet DAMAV (Détection Automatique des MAladies de la Vigne) a été mis en place, avec pour objectif de développer une solution de détection automatisée des maladies de la vigne à l’aide d’un micro-drone. Cet outil doit permettre la recherche des foyers potentiels de la Flavescence dorée, puis plus généralement de toute maladie détectable sur le feuillage à l’aide d’un outil multispectral dédié haute résolution.Dans le cadre de ce projet, cette thèse a pour objectif de participer à la conception et à l’implémentation du système d’acquisition multispectral et de développer les algorithmes de prétraitement d’images basés sur les caractéristiques spectrales et texturales les plus pertinentes reliées à la Flavescence dorée.Plusieurs variétés de vigne ont été considérées telles que des variétés rouges et blanches; de plus, d’autres maladies que ‘Flavescence dorée’ (FD) telles que Esca et ‘Bois noir’ (BN) ont également été testées dans des conditions de production réelles. Le travail de doctorat a été essentiellement réalisé au niveau feuille et a impliqué une étape d’acquisition suivie d’une étape d’analyse des données.La plupart des techniques d'imagerie, même multispectrales, utilisées pour détecter les maladies dans les grandes cultures ou les vignobles, opèrent dans le domaine du visible. Dans DAMAV, il est conseillé que la maladie soit détectée le plus tôt possible. Des informations spectrales sont nécessaires, notamment dans l’infrarouge. Les réflectances des feuilles des plantes peuvent être obtenues sur les longueurs d'onde les plus courtes aux plus longues. Ces réflectances sont intimement liées aux composants internes des feuilles. Cela signifie que la présence d'une maladie peut modifier la structure interne des feuilles et donc altérer sa signature.Un spectromètre a été utilisé sur le terrain pour caractériser les signatures spectrales des feuilles à différents stades de croissance. Afin de déterminer les réflectances optimales pour la détection des maladies (FD, Esca, BN), une nouvelle méthodologie de conception d'indices de maladies basée sur deux techniques de réduction de dimensions, associées à un classifieur, a été mise en place. La première technique de sélection de variables utilise les Algorithmes Génétiques (GA) et la seconde s'appuie sur l'Algorithme de Projections Successives (SPA). Les nouveaux indices de maladies résultants surpassent les indices de végétation traditionnels et GA était en général meilleur que SPA. Les variables finalement choisies peuvent ainsi être mises en oeuvre en tant que filtres dans le capteur MS.Les informations de réflectance étaient satisfaisantes pour la recherche d’infections (plus que 90% de précision pour la meilleure méthode) mais n’étaient pas suffisantes. Ainsi, les images acquises par l’appareil MS peuvent être ensuite traitées par des techniques bas-niveau basées sur le calcul de paramètres de texture puis injectés dans un classifieur. Plusieurs techniques de traitement de texture ont été testées mais uniquement sur des images couleur. Une nouvelle méthode combinant plusieurs paramètres texturaux a été élaborée pour en choisir les meilleurs. Nous avons constaté que les informations texturales pouvaient constituer un moyen complémentaire non seulement pour différencier les feuilles de vigne saines des feuilles infectées (plus que 85% de précision), mais également pour classer le degré d’infestation des maladies (plus que 74% de précision) et pour distinguer entre les maladies (plus que 75% de précision). Ceci conforte l’hypothèse qu’une caméra multispectrale permet la détection et l’identification de maladies de la vigne en plein champ
‘Flavescence dorée’ is a contagious and incurable disease present on the vine leaves. The DAMAV project (Automatic detection of Vine Diseases) aims to develop a solution for automated detection of vine diseases using a micro-drone. The goal is to offer a turnkey solution for wine growers. This tool will allow the search for potential foci, and then more generally any type of detectable vine disease on the foliage. To enable this diagnosis, the foliage is proposed to be studied using a dedicated high-resolution multispectral camera.The objective of this PhD-thesis in the context of DAMAV is to participate in the design and implementation of a Multi-Spectral (MS) image acquisition system and to develop the image pre-processing algorithms, based on the most relevant spectral and textural characteristics related to ‘Flavescence dorée’.Several grapevine varieties were considered such as red-berried and white-berried ones; furthermore, other diseases than ‘Flavescence dorée’ (FD) such as Esca and ‘Bois noir’ (BN) were also tested under real production conditions. The PhD work was basically performed at a leaf-level scale and involved an acquisition step followed by a data analysis step.Most imaging techniques, even MS, used to detect diseases in field crops or vineyards, operate in the visible electromagnetic radiation range. In DAMAV, it is advised to detect the disease as early as possible. It is therefore necessary to investigate broader information in particular in the infra-red. Reflectance responses of plants leaves can be obtained from short to long wavelengths. These reflectance signatures describe the internal constituents of leaves. This means that the presence of a disease can modify the internal structure of the leaves and hence cause an alteration of its reflectance signature.A spectrometer is used in our study to characterize reflectance responses of leaves in the field. Several samples at different growth stages were used for the tests. To define optimal reflectance features for grapevine disease detection (FD, Esca, BN), a new methodology that designs spectral disease indices based on two dimension reduction techniques, coupled with a classifier, has been developed. The first feature selection technique uses the Genetic Algorithms (GA) and the second one relies on the Successive Projection Algorithm (SPA). The new resulting spectral disease indices outperformed traditional vegetation indices and GA performed in general better than SPA. The features finally chosen can thus be implemented as filters in the MS sensor.In general, the reflectance information was satisfying for finding infections (higher than 90% of accuracy for the best method) but wasn’t enough. Thus, the images acquired with the developed MS device can further be pre-processed by low level techniques based on the calculation of texture parameters injected into a classifier. Several texture processing techniques have been tested but only on colored images. A method that combines many texture features is elaborated, allowing to choose the best ones. We found that the combination of optimal textural information could provide a complementary mean for not only differentiating healthy from infected grapevine leaves (higher than 85% of accuracy), but also for grading the disease severity stages (higher than 73% of accuracy) and for discriminating among diseases (higher than 72% of accuracy). This is in accordance with the hypothesis that a multispectral camera can enable detection and identification of diseases in grapevine fields
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Bezzeghoud, Mourad. "Inversion et analyse spectrale des ondes p : potentialite des donnees numeriques large bande : application a des seismes mediterraneens et chiliens." Paris 7, 1987. http://www.theses.fr/1987PA077249.

Повний текст джерела
Анотація:
Les donnees sismiques digitales sont utilisees pour une modelisation realiste des sources sismiques, en particulier avec les methodes d'inversion. Les principaux seismes etudies sont issus de reseaux sismologiques numeriques recents, ce qui permet de deconvoluer la reponse de l'appareil; a l'aide d'un filtre passe haut ou pourra elargir la bande de frequence a partir d'enregistrement courte periode. La dynamique du processus de rupture associe aux seismes est etudiee par la forme de l'onde sismique lb. Deux techniques sont utilisees (inversion iterative et deconvolution temporelle) afin d'extraire la fonction source et le moment sismique. L'etude du comportement de la structure spectrale haute frequence montre que le couplage entre l'amplitude des phases de profondeur, la duree et la profondeur de la source. On estimera la densite dun moment sismique moyen et la duree de la source a partir des ondes p
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Bezzeghoud, Mourad. "Inversion et analyse spectrale des ondes P, potentialité des données numériques large bande application à des séismes méditerranéens et chiliens /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602992t.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Girard, Robin. "Réduction de dimension en statistique et application en imagerie hyper-spectrale." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10074.

Повний текст джерела
Анотація:
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire
This thesis deals with high dimensional statistical analysis. We focus on three different problems motivated by medical applications : curve classification, pixel classification and clustering in hyperspectral images. Our approaches are deeply linked with statistical testing procedures (multiple testing, minimax testing, robust testing, and functional testing) and learning theory. Both are introduced in the first part of this thesis. The second part focuses on classification of High dimensional Gaussian data. Our approach is based on a dimensionality reduction, and we show practical and theorical results. In the third and last part of this thesis we focus on hyperspectral image segmentation. We first propose a pixel classification algorithm based on multi-scale analysis, penalised maximum likelihood and feature selection. We give theorical results and simulations for this algorithm. We then propose a pixel clustering algorithm. It involves wavelet decomposition of observations in each pixel, smoothing with a growing region algorithm and frontier extraction based on a voting scheme
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Girard, Robin. "Réduction de dimension en statistique et application en imagerie hyper-spectrale." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00379179.

Повний текст джерела
Анотація:
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Durand, Amaury. "Functional time series modeling and application to representation and analysis of multi-site electric load curves for energy management." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT018.

Повний текст джерела
Анотація:
L'analyse des courbes de charge électrique recueillies par les compteurs intelligents est une étape importante pour de nombreuses tâches de maîtrise d'énergie telles que le suivi et la prévision de la consommation ou la segmentation de clientèle. Dans ce contexte, les chercheurs d'EDF s'intéressent à extraire des informations des courbes de charge électrique journalières pour comparer les consommations de différents bâtiments. La stratégie suivie par le groupe de recherche accueillant mon doctorat consiste à utiliser des modèles physiques et déterministes basés sur des informations telles que la taille de la pièce, les matériaux isolants ou la météo, ou à extraire à la main des motifs basés sur les connaissances d'experts. Compte tenu de la quantité croissante de données collectées, le groupe s’intéresse de plus en plus aux méthodes statistiques afin de fournir de nouvelles solutions capables d'exploiter des données massives sans s'appuyer sur des traitements coûteux et des connaissances d'experts. Mon travail s'inscrit directement dans cette tendance en proposant deux approches de modélisation : l'une basée sur les séries temporelles fonctionnelles et l'autre basée sur la factorisation non-négative de tenseurs. Cette thèse est structurée en trois parties. La première partie présente le contexte industriel et l'objectif pratique de la thèse, ainsi qu’une analyse exploratoire des données et une discussion sur les deux approches proposées. Dans la deuxième partie, nous suivons la première approche et étudions la théorie spectrale des séries temporelles fonctionnelles. La deuxième approche basée sur la factorisation non-négative de tenseurs est présentée dans la troisième partie
The analysis of electrical load curves collected by smart meters is a key step for many energy management tasks ranging from consumption forecasting and load monitoring to customers characterization and segmentation. In this context, researchers from EDF R&D are interested in extracting significant information from the daily electrical load curves in order to compare the consumption behaviors of different buildings. The strategy followed by the group which hosted my doctorate is to use physical and deterministic models based on information such as the room size, the insulating materials or weather data, or to extract hand-designed patterns from the electrical load curves based on the knowledge of experts. Given the growing amount of data collected, the interest of the group in statistical or data-driven methods has increased significantly in recent years. These approaches should provide new solutions capable of exploiting massive data without relying on expensive processing and expert knowledge. My work fits directly into this trend by proposing two modeling approaches: the first approach is based on functional time series and the second one is based on non-negative tensor factorization. This thesis is split into three main parts. In the first part, we present the industrial context and the practical objective of the thesis, as well as an exploratory analysis of the data and a discussion on the two modeling approaches proposed. In the second part, we follow the first modeling approach and provide a thorough study of the spectral theory for functional time series. Finally, the second modeling approach based on non-negative tensor factorization is presented in the third part
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Nadeau, Christian. "Analyse des effets atmosphériques dans les données en télédétection du moyen infrarouge sur la classification des minéraux de surface en milieu aride." Sherbrooke : Université de Sherbrooke, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Abou, Fadel Maya. "Apports de la chimiométrie à la spectroscopie de Résonance Paramagnétique Electronique : nouvelles perspectives de traitement de données spectrales à dimensions spatiales (imagerie) et/ou temporelles." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10130/document.

Повний текст джерела
Анотація:
La spectroscopie de Résonance Paramagnétique Electronique (RPE) est incontestablement devenue une technique de choix pour la caractérisation des matériaux complexes quand ceux-ci possèdent des électrons non appariés (ions de transitions, terres rares, défauts, radicaux organiques…). A l’instar de la résonnance magnétique nucléaire, la RPE génère des données spectrales multidimensionnelles (2D, 3D…) et depuis peu une imagerie spatiale mais aussi spectrale/spatiale. Il est ainsi étonnant de voir que malgré la grande quantité de données spectrales à explorer et la complexité des signaux RPE, il n’existe quasiment pas au niveau international d’exploitation des méthodes de traitements de données multivariées, méthodes largement proposées en chimiométrie. L’objectif de cette thèse est ainsi de développer de nouveaux outils pour le traitement de ces données spectrales RPE, d’établir de nouvelles méthodologies d’analyse et d’en évaluer leurs performances. Les deux axes principalement étudiés seront l’imagerie spectroscopique et la spectroscopie résolue en temps. Nous démontrerons dans ce travail que la mise en œuvre de méthodes dites de «résolutions multivariées de courbes» permet d’extraire simultanément et sans a priori toutes les cartographies chimiques et les spectres associés des composés purs présents dans l’échantillon étudié. Cette méthodologie sera aussi exploitée afin d’extraire les spectres RPE d’espèces intermédiaires lors d’un suivi cinétique
Electron Paramagnetic Resonance (EPR) Spectroscopy has undoubtedly become the first-choice technique for the characterization of complex materials containing some unpaired electrons (transition metal ions, rare earth ions, defects, organic radicals ...). Similarly to nuclear magnetic resonance spectroscopy, EPR generates multidimensional (2D, 3D…) spectral and recently also spatial (imaging) data as well as spectral/spatial ones. It is thus, surprising that despite the large amount of spectral data to be explored and complexity of the EPR signals, there hardly exist at the international level of exploitation the multivariate data processing methods that are widely available in chemometrics. The objective of this thesis is thus, to develop new tools for the treatment of these EPR spectral data, to establish new analytical methodologies and to evaluate their performance. The two main areas that will be studied are spectroscopic imaging and time-resolved spectroscopy. In this work, we will show that the implementation of the methods known as "multivariate curve resolutions" can extract, simultaneously, and without a priori all chemical maps and their corresponding spectra of pure compounds present in the studied sample. This methodology will also be exploited to extract the EPR spectra of intermediate species during a kinetic monitoring
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Fatmi, Hassane. "Méthodologie d’analyse des signaux et caractérisation hydrogéologique : application aux chroniques de données obtenues aux laboratoires souterrains du Mont Terri, Tournemire et Meuse/Haute-Marne." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT020H/document.

Повний текст джерела
Анотація:
Ce rapport présente des méthodes de prétraitement, d'analyse statistique et d'interprétation de chroniques hydrogéologiques de massifs peu perméables (argilites) dans le cadre d'études sur le stockage profond de déchets radioactifs. Les séries temporelles analysées sont la pression interstitielle et la pression atmosphérique, en relation avec différents phénomènes (marées terrestres, effet barométrique, évolution de l'excavation des galeries). Les pré-traitements permettent de reconstituer et homogénéiser les chroniques de données en présence de lacunes, aberrations, et pas de temps variables. Les signaux prétraités sont ensuite analysés en vue de caractériser les propriétés hydrauliques du massif peu perméable (emmagasinement spécifique ; porosité effective). Pour cela, on a développé et mis en oeuvre les méthodes d'analyses suivantes (implémentées en Matlab): analyses corrélatoires et spectrales (Fourier) ; analyses ondelettes multirésolution ; enveloppes de signaux aléatoires. Cette méthodologie est appliquée aux données acquises au Laboratoire Souterrain du Consortium International du Mont Terri (Jura Suisse), ainsi qu'à certaines données des Laboratoires Souterrains de Tournemire (Aveyron) et de Meuse / Haute-Marne (ANDRA)
This report presents a set of statistical methods for pre-processing and analyzing multivariate hydrogeologic time series, such as pore pressure and its relation to atmospheric pressure. The goal is to study the hydrogeologic characteristics of low permeability geologic formations (argilite) in the context of deep disposal of radioactive waste. The pressure time series are analyzed in relation with different phenomena, such as earth tides, barometric effects, and the evolution of excavated galleries. The pre-processing is necessary for reconstituting and homogenizing the time series in the presence of data gaps, outliers, and variable time steps. The preprocessed signals are then analyzed with a view to characterizing the hydraulic properties of this type of low permeability formation (specific storativity; effective porosity). For this sake, we have developed and used the following methods (implemented in Matlab): temporal correlation analyses; spectral/Fourier analyses; multiresolution wavelet analyses envelopes of random processes. This methodology is applied to data collected at the URL (Underground Research Laboratory) of the Mont Terri International Consortium (Swiss Jura), as well as some other data collected at the URL of IRSN at Tournemire (Aveyron) and at the URL of ANDRA (Meuse / Haute-Marne)
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Nardecchia, Alessandro. "Chemometric exploration in hyperspectral imaging in the framework of big data and multimodality." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. https://pepite-depot.univ-lille.fr/LIBRE/EDSMRE/2022/2022ULILR021.pdf.

Повний текст джерела
Анотація:
Nous sommes aujourd'hui tous conscients que l'imagerie hyperspectral est un outil très utile dans de nombreux domaines de recherche liés à la chimie, et qu'elle peut être exploitée pour l'étude d'échantillons de nature différente, quelle que soit la technique spectroscopique utilisée. Malgré les caractéristiques très intéressantes liées à ce type de données, diverses limitations sont potentiellement rencontrées. Les instruments modernes peuvent tout d'abord générer une énorme quantité de données (big datasets). De plus, la fusion de différentes réponses spectroscopiques acquises sur le même échantillon (multimodalité) peut être potentiellement appliqué, conduisant à encore plus de données à analyser. Cet aspect peut être problématique, compte tenu du fait que si la bonne approche n'est pas utilisée, il peut être compliqué d'obtenir des résultats satisfaisants. Bien évidemment, certains artefacts spectraux peuvent être présents dans les jeux de données acquis, et donc la correction de ces imperfections doit être prise en compte pour obtenir de bons résultats. Un autre défi important lié à l'utilisation de l'analyse d'images hyperspectrales est que normalement, l'observation simultanée d'informations spectrales et spatiales est presque impossible avec la plupart des méthodes actuelles. De toute évidence, cela conduit à une exploration incomplète des données à disposition acquises sur l'échantillon d'intérêt. La chimiométrie est une branche moderne de la chimie qui peut parfaitement répondre aux limitations actuelles liées à la structure des données en imagerie hyperspectrale. Le but de ce travail de thèse est de présenter au lecteur une série de sujets différents dans lesquels de nombreux défis liés aux images hyperspectrales peuvent être surmontés en utilisant différentes facettes de la chimiométrie. En particulier, les problèmes liés à la génération d'une grande quantité de données peuvent être surmontés à l'aide d'algorithmes basés sur la sélection de l'information la plus pure (i.e., SIMPLISMA), ou liés à la création de clusters dans lesquels des composants similaires seront regroupés (i.e., KM clustering). Afin de corriger les artefacts instrumentaux tels que les signaux saturés, une méthodologie originale qui exploite l'imputation statistique sera utilisée, afin de recréer de manière très élégante les informations manquantes et ainsi obtenir des signaux qui autrement seraient irrémédiablement perdus. Une partie importante de cette thèse est liée à l'investigation des données acquises à l'aide de l'imagerie LIBS, une technique qui suscite actuellement un intérêt croissant dans de nombreux domaines de recherche, mais qui n'a pas encore vraiment été exploitée à son plein potentiel par l'utilisation des approches chimiométriques. Dans ce manuscrit, nous introduirons un pipeline général axé sur la sélection des informations les plus importantes liées à ce type de structure de données cubique (en raison de l'énorme quantité de données spectrales qui peuvent être facilement générées) afin de surmonter certaines limitations rencontrées lors de l'analyse de cette réponse instrumentale. De plus, la même approche sera exploitée pour les problématiques de fusion de données spectrales, liée à la LIBS et à d'autres données spectroscopiques. Enfin, nous introduiront une manière intéressante d'utiliser la transformée en ondelettes, afin de ne pas limiter l'analyse uniquement aux données spectrales, mais aussi spatiales, pour obtenir une exploration chimique plus complète des échantillons complexes
Nowadays, it is widely known that hyperspectral imaging is a very good tool used in many chemical-related research areas. Indeed, it can be exploited for the study of samples of different nature, whatever the spectroscopic technique used. Despite the very interesting characteristics related to this kind of acquired data, various limitations are potentially faced. First of all, modern instruments can generate a huge amount of data (big datasets). Furthermore, the fusion of different spectroscopic responses on the same sample (multimodality) can be potentially applied, leading to even more data to be analyzed. This aspect can be a problem, considering the fact that if the right approach is not used, it could be complicated to obtain satisfying results or even lead to a biased vision of the analytical reality of the sample. Obviously, some spectral artifacts can be present in a dataset, and so the correction of these imperfections has to be taken into account to carry out good outcomes. Another important challenge related to the use of hyperspectral image analysis is that normally, the simultaneous observation of spectral and spatial information is almost impossible. Clearly, this leads to an incomplete investigation of the sample of interest. Chemometrics is a modern branch of chemistry that can perfectly match the current limitations related to hyperspectral imaging. The purpose of this PhD work is to give to the reader a series of different topics in which many challenges related to hyperspectral images can be overcome using different chemometric facets. Particularly, as it will described, problems such as the generation of big amount of data can be faced using algorithms based on the selection of the purest information (i.e., SIMPLISMA), or related to the creation of clusters in which similar components will be grouped (i.e., KM clustering). In order to correct instrumental artifacts such as saturated signals will be used a methodology that exploits the statistical imputation, in order to recreate in a very elegant way the missing information and thus, obtain signals that otherwise would be irremediably lost. A significant part of this thesis has been related to the investigation of data acquired using LIBS imaging, a spectroscopic technique that is currently obtaining an increasing interest in many research areas, but that, still, has not really been exploited to its full potential by the use of chemometric approaches. In this manuscript, it will be shown a general pipeline focusing on the selection of the most important information related to this kind of data cube (due to the huge amount of spectral data that can be easily generated) in order to overcome some limitations faced during the analysis of this instrumental response. Furthermore, the same approach will be exploited for the data fusion analysis, related to LIBS and other spectroscopic data. Lastly, it will be shown an interesting way to use wavelet transform, in order to not limit the analysis only to spectral data, but also to spatial ones, to obtain a more complete chemical investigation
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Ferré, Marc. "Analyse bio-informatique du protéome mitochondrial et du spectre des mutations de la protéine Opa1." Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00457327.

Повний текст джерела
Анотація:
Les mitochondries sont impliquées dans de nombreux processus cellulaires essentiels tels que le catabolisme des nutriments, la phosphorylation oxydative, l'apoptose et la régulation des flux calciques. Elles ont une structure dynamique, qui s'adapte en permanence aux besoins cellulaires, et sont sous le contrôle de réseaux de régulation coordonnant leur masse, leur structure et leurs fonctions. Le protéome mitochondrial est ainsi composé d'une très grande diversité de protéines qui dérive en partie de l'ancêtre procaryote des mitochondries et résulte majoritairement d'une information codée par le génome nucléaire, mais aussi d'une information plus restreinte portée par le génome mitochondrial. Sept cents protéines mitochondriales ont été caractérisées chez l'homme, grâce à diverses approches de protéomique, de génomique et de bio-informatique, mais il est probable que les mitochondries en comportent un nombre bien supérieur. La caractérisation de ces protéines est essentielle à la compréhension des nombreuses maladies génétiques et communes associées à des dysfonctionnements mitochondriaux. Au cours de ce travail de thèse nous avons comparé in silico les séquences des protéines mitochondriales humaines avec celles des procaryotes, mettant en évidence que les protéines impliquées dans les pathologies sont majoritairement homologues à des protéines procaryotes. Nous avons ensuite développé une stratégie de recherche bio-informatique de nouvelles protéines mitochondriales basée sur leur origine procaryote et la présence d'une extension N-terminale caractéristique. L'ensemble des protéomes procaryotes connus a été comparé au génome humain et différents outils de filtrage ont été développés pour identifier de nouvelles protéines. Parallèlement à cette stratégie globale de criblage, nous nous sommes focalisés sur l'étude d'une des protéines participant à la fusion mitochondriale qui est associée à l'atrophie optique autosomique dominante, la protéine Opa1. Cette dynamine GTPase est impliquée dans le remodelage de la membrane interne mitochondriale, l'apoptose, la maintenance de l'ADN mitochondrial et le métabolisme énergétique. Nous avons développé une base de données internationale répertoriant les différents variants affectant Opa1 afin de caractériser son spectre mutationnel. Cet outil a secondairement servi à une étude clinique multicentrique portant sur près de mille patients porteurs d'une neuropathie optique. À travers ces deux approches, nous avons pu développer de nouveaux outils bio-informatiques qui devraient contribuer à une meilleure compréhension de la physiopathologie mitochondriale.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Droulans, Robert. "Etude de l'émission haute énergie des objets compacts avec SPI/INTEGRAL." Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00592469.

Повний текст джерела
Анотація:
L'étude de l'émission haute énergie est indispensable pour comprendre les processus radiatifs inhérents aux flots d'accrétion sur les objets compacts (trous noirs et étoiles à neutrons). Le continuum X/γ d'un tel système est généralement interprété selon deux composantes. La première traduit la présence d'un disque d'accrétion alors que la deuxième, à plus haute énergie (>20 keV), peut s'expliquer par des diffusions Compton inverses entre électrons chauds et photons de plus basse énergie. Les mécanismes de chauffage des électrons et la structure du milieu de Comptonisation restent cependant mal connus. Pour approfondir notre compréhension des processus physiques qui gouvernent ce milieu, nous disposons d'une quantité importante de données issues de l'instrument SPI, un spectromètre haute énergie (20 keV - 8 MeV) développé au CESR (désormais IRAP, Toulouse, France) pour la mission INTEGRAL de l'ESA. Au-dessus de 150 keV, SPI réunit une résolution spectrale et une sensibilité sans précédent et constitue donc un outil idéal pour l'étude de l'émission haute énergie des objets compacts. Le manuscrit présente les résultats d'une étude spectrale et temporelle de trois systèmes particuliers. Le premier est l'énigmatique microquasar GRS 1915+105, caractérisé par une forte variabilité en rayons X et une luminosité colossale. Sur une échelle de temps de l'ordre du jour, l'indice de photon dans la bande 20 - 200 keV varie entre 2.7 et 3.5 ; à plus haute énergie (>150 keV), les mesures de SPI montrent la présence systématique d'une composante additionnelle qui s'étend sans coupure jusqu'à ~500 keV. Le deuxième système abordé est GX 339-4, une source dont le comportement spectral est représentatif des systèmes à trou noir. Les mesures de SPI ont révélé que le spectre de son état dur lumineux présente une composante énergétique (>150 keV) qui varie sur une échelle de temps de quelques heures. Pour expliquer ce phénomène, je propose une interprétation alternative de l'état dur grâce à un nouveau modèle qui inclut les effets du champ magnétique de manière auto-cohérente. Enfin, cette thèse comprend l'étude de la source GS 1826-24, un système à étoile à neutrons. Le flot d'accrétion étant extraordinairement stable, plus de 8 Msec de données ont pu être intégrées ce qui a permis de détecter la source jusqu'à plus de 500 keV. Une fois de plus, les mesures ont mis en évidence une composante haute énergie dans le spectre moyen ; cette caractéristique n'est donc pas exclusivement associée aux systèmes à trou noir. Après comparaison des résultats obtenus pour les trois sources, je discute les possibles origines physiques de l'émission haute énergie des systèmes accrétants, concluant que toutes les formes spectrales observées peuvent être expliquées par une couronne magnétique alimentée par des processus d'accélération non-thermiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Benoit, Tristan. "Cartographie des programmes et de leurs interrelations." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0320.

Повний текст джерела
Анотація:
Dans le domaine du génie logiciel, assurer la qualité et la sûreté des logiciels est complexe. Ce contexte est dû à un ensemble de facteurs, notamment l'utilisation croissante de bibliothèques et le recours à des pratiques comme la copie de codes à partir de services en ligne. Une réponse courante à cette problématique est l'application de méthodes formelles de validation des programmes avant leur diffusion. Cette approche, cependant, requiert une compréhension précise des enjeux à vérifier et un haut degré d'expertise. Cette thèse introduit des méthodes innovantes de rétro-ingénierie pour collecter automatiquement des informations sur l'origine d'un programme et pour identifier des clones de programmes au sein de larges jeux de données. Notre première contribution est le nouveau modèle de réseau de neurones Site Neural Network (SNN) qui prédit la chaîne de compilation utilisée pour produire un programme entier. SNN offre une grande rapidité ainsi qu'une bonne précision. Sa modularité grâce à l'utilisation de hiérarchies de classificateurs permet de considérer facilement des chaînes de compilation supplémentaires. Notre seconde contribution est Program Spectral Similarity (PSS), un outil qui fournit un moyen rapide et efficace de détecter des clones de programmes, même quand leur architecture matérielle visée diffère ou en cas d'offuscation. Contrairement aux méthodes basées sur les fonctions binaires ou sur la distance d'édition des graphes, qui sont chronophages et peu robustes, PSS s'appuie sur l'analyse spectrale de graphes pour mesurer la similarité entre programmes. Cette thèse participe ainsi à renforcer la sécurité des systèmes en mettant à disposition des outils pour identifier rapidement les clones de programmes malveillants. En outre, elle apporte un soutien à l'investigation numérique en donnant des informations pertinentes sur la chaîne de compilation. Ce travail ouvre la voie à de nouveaux réseaux de neurones spécialisés pour les programmes, ainsi qu'au développement de méthodes d'analyse spectrale pour l'étude de la similarité des codes binaires
In the field of software engineering, ensuring the quality and security of software is complex. This context is due to a set of factors, notably the increasing use of libraries and the use of practices such as copying codes from online services. The usual solution to this problem is the application of formal methods for program validation before their release. However, this approach requires a precise specification and a high degree of expertise. This thesis introduces new reverse engineering methods to automatically collect information about a program toolchain provenance and identify program clones within large data repositories. Our first contribution is the innovative neural network model Site Neural Network (SNN), which predicts the compilation toolchain used to produce an entire program. SNN offers excellent speed as well as good accuracy. Its modularity due to the use of hierarchies of classifiers allows for easy consideration of additional toolchains. Our second contribution is the Program Spectral Similarity (PSS), a tool that provides a quick and efficient way to detect program clones, even when their target hardware architecture differs or in the case of obfuscation. Unlike binary function-based methods or graph edit distance methods, which are time-consuming and low resilient, PSS relies on the spectral analysis of graphs to measure the similarity between programs. This thesis thus contributes to cyber security by providing tools to identify malware clones quickly. In addition, it supports computer forensics by providing relevant information on the compilation chain. This work paves the way for new neural networks for programs, as well as the development of spectral graph analysis methods for studying binary code similarity
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Fahlaoui, Tarik. "Réduction de modèles et apprentissage de solutions spatio-temporelles paramétrées à partir de données : application à des couplages EDP-EDO." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2535.

Повний текст джерела
Анотація:
On s’intéresse dans cette thèse à l’apprentissage d’un modèle réduit précis et stable, à partir de données correspondant à la solution d’une équation aux dérivées partielles (EDP), et générées par un solveur haute fidélité (HF). Pour ce faire, on utilise la méthode Dynamic Mode Decomposition (DMD) ainsi que la méthode de réduction Proper Orthogonal Decomposition (POD). Le modèle réduit appris est facilement interprétable, et par une analyse spectrale a posteriori de ce modèle on peut détecter les anomalies lors de la phase d’apprentissage. Les extensions au cas de couplage EDP-EDO, ainsi qu’au cas d’EDP d’ordre deux en temps sont présentées. L’apprentissage d’un modèle réduit dans le cas d’un système dynamique contrôlé par commutation, où la règle de contrôle est apprise à l’aide d’un réseau de neurones artificiel (ANN), est également traité. Un inconvénient de la réduction POD, est la difficile interprétation de la représentation basse dimension. On proposera alors l’utilisation de la méthode Empirical Interpolation Method (EIM). La représentation basse dimension est alors intelligible, et consiste en une restriction de la solution en des points sélectionnés. Cette approche sera ensuite étendue au cas d’EDP dépendant d’un paramètre, et où l’algorithme Kernel Ridge Regression (KRR) nous permettra d’apprendre la variété solution. Ainsi, on présentera l’apprentissage d’un modèle réduit paramétré. L’extension au cas de données bruitées ou bien au cas d’EDP d’évolution non linéaire est présentée en ouverture
In this thesis, an algorithm for learning an accurate reduced order model from data generated by a high fidelity solver (HF solver) is proposed. To achieve this goal, we use both Dynamic Mode Decomposition (DMD) and Proper Orthogonal Decomposition (POD). Anomaly detection, during the learning process, can be easily done by performing an a posteriori spectral analysis on the reduced order model learnt. Several extensions are presented to make the method as general as possible. Thus, we handle the case of coupled ODE/PDE systems or the case of second order hyperbolic equations. The method is also extended to the case of switched control systems, where the switching rule is learnt by using an Artificial Neural Network (ANN). The reduced order model learnt allows to predict time evolution of the POD coefficients. However, the POD coefficients have no interpretable meaning. To tackle this issue, we propose an interpretable reduction method using the Empirical Interpolation Method (EIM). This reduction method is then adapted to the case of third-order tensors, and combining with the Kernel Ridge Regression (KRR) we can learn the solution manifold in the case of parametrized PDEs. In this way, we can learn a parametrized reduced order model. The case of non-linear PDEs or disturbed data is finally presented in the opening
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Lanher, Bertrand S. "Spectrométrie infra-rouge à transformée de Fourier et analyse multidimensionnelle de données spectrales : application à la quantification et au contrôle de procédés dans le domaine des produits laitiers." Dijon, 1991. http://www.theses.fr/1991DIJOS054.

Повний текст джерела
Анотація:
Ce projet de recherches fut proposé pour tenter de définir les champs d'applications scientifiques et industrielles potentielles de la spectrométrie IRTF. On propose un plan d'implantation de cette technologie au niveau des principales situations analytiques rencontrées dans l'industrie laitière (dosage des composés de produits laitiers en utilisant différentes méthodes d'échantillonnage spectroscopique et contrôle de procédés de fabrication laitière). Ce travail a impliqué la mise en place de nouvelles méthodologies d'acquisition et de traitements de données. On a développé des applications de procédures analytiques multidimensionnelles et on propose des solutions informatiques. On propose alors des applications pour cette méthode instrumentale tout au long de la chaine de transformation du lait, pratiquement de la vache au consommateur. Ce travail consiste en la détermination de l'âge et de la population bactérienne de laits crus, l'analyse qualitative et quantitative de lait liquide, le suivi de cinétique de coagulation enzymatique du lait avec la définition d'un nouveau paramètre rhéologique, l'analyse qualitative et quantitative de fromage frais et le suivi de l'affinage de plusieurs fromages avec la prédiction de leur âge ainsi que leur teneur en azote soluble. Aucun de ces résultats n'a actuellement quitté le laboratoire de R. Et D. Toutefois, le travail reporté dans cette thèse pourrait être considéré comme une étude de faisabilité de la méthode et comme une base possible pour de nouveaux travaux de recherche et développement utilisant la spectrométrie IRTF.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Guertin, A. "Sections efficaces de production de pions et de kaons lors de collisions proton-noyau de l'ordre du GeV.Mesures de sections efficaces de production de particules chargées légères lors de réactions induites par protons de 62,9 MeV sur cible de plomb." Phd thesis, Université de Nantes, 2001. http://tel.archives-ouvertes.fr/tel-00011244.

Повний текст джерела
Анотація:
I - Sections efficaces de production de pions et de kaons
lors de collisions proton noyau de l'ordre du GeV

L'étude des propriétés des hadrons dans la matière nucléaire est un sujet d'intérêt actuel. Les kaons chargés positivement possèdent un anti-quark étrange qui ne peut pas être réabsorbé et constituent donc une sonde intéressante du milieu nucléaire.
La première partie de cette thèse étudie les sections efficaces de production de pions et de kaons lors de collisions proton noyau pour une énergie incidente de l'ordre du GeV.
Dans un premier temps, le modèle de Dynamique Quantique Moléculaire utilisé pour simuler les collisions proton noyau est décrit. Puis, les sections efficaces totales des processus élémentaires implémentées dans le modèle sont présentées. Ensuite, les effets de la fonction spectrale du nucléon sur la production de pions et de kaons sont mis en évidence dans les sections efficaces doublement différentielles. Finalement, les conséquences des corrélations observées entre les nucléons du noyau sont discutées.

II - Mesures de sections efficaces de production de particules chargées légères
lors de réactions induites par protons de 62,9 MeV sur cible de plomb

Pour développer des options nouvelles de gestion des déchets nucléaires, des recherches sont menées sur les systèmes hybrides. La seconde partie de cette thèse s'inscrit dans le cadre des mesures de données nucléaires liées à la conception de tels systèmes. Un pouvoir prédictif suffisant des codes théoriques, de 20 à 150 MeV, nécessite de nouvelles mesures de sections efficaces pour les contraindre.
L'expérience réalisée a pour but de déterminer les sections efficaces de production de particules chargées légères (p, d, t, 3He, a) lors de réactions induites par protons de 62,9 MeV sur une cible de plomb 208Pb.
Le contexte général de cette partie est présenté en premier lieu. Puis, le dispositif expérimental composé de 7 télescopes triple (Si, Si, CsI(Tl)) est décrit. Les chapitres suivants sont consacrés au dépouillement des données (identification des particules, étalonnage des détecteurs) et à l'extraction des sections efficaces. Finalement, une étude comparative de nos résultats expérimentaux à ceux des codes théoriques est menée.
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Nastasiu, Dragos-Florin. "Développement de solutions pour l’identification (THID) et l’authentification par des approches non intrusives dans le domaine THz." Electronic Thesis or Diss., Chambéry, 2024. http://www.theses.fr/2024CHAMA007.

Повний текст джерела
Анотація:
L'imagerie THz est un domaine émergent depuis les avancées technologiques en termes d'émission de rayonnement THz et d'équipement de détection. L'objectif principal de la thèse est de contribuer et d'améliorer les systèmes d'imagerie THz, de la reconstruction et de l'analyse d'images aux tâches de classification d'images. Dans la première partie de la thèse, nous nous attaquons au défi de l'estimation de l'amplitude dans des conditions de bruit idéal et multiplicatif. Le bruit multiplicatif déforme la phase et introduit des artefacts complexes, tels que la perte d'information sur les contours et la dégradation du contraste, qui ne peuvent être éliminés à l'aide des techniques de reconstruction d'image les plus récentes. À cet égard, nous présentons cinq nouvelles méthodes de reconstruction qui exploitent la représentation du diagramme de phase des signaux. Deux de ces méthodes sont basées sur le filtrage du diagramme de phase pour estimer l'amplitude dans les deux conditions. Deux autres méthodes utilisent le concept de déformation temporelle dynamique (DTW) pour augmenter la capacité à modéliser le type de bruit multiplicatif. Enfin, nous exploitons la dynamique de la trajectoire de phase décrite par les courbures pour reconstruire l'image. Parmi le grand nombre de méthodes, nous évaluons tout au long de la thèse que la méthode basée sur les courbures reconstruit efficacement l'image dans des contextes idéaux et bruités. Après une reconstruction efficace de l'image, la deuxième partie de la thèse, nous étudions les méthodes d'analyse et de classification d'images en tenant compte des instabilités des systèmes d'imagerie du monde réel, telles que les translations et les rotations. Dans ce sens, nous proposons d'utiliser des décompositions de paquets d'ondelettes invariantes par rapport à la translation et à la rotation, qui fournissent une représentation unique et optimale d'une image, indépendamment de la translation ou de la rotation de l'image. Sur la base des représentations d'images invariantes, de nouvelles techniques d'extraction de caractéristiques sont introduites, telles que les cadres verticaux, horizontaux, N-directionnels et N-zonaux. En outre, deux structures de caractéristiques sont introduites, qui prennent en compte le partitionnement en fréquence de la décomposition en ondelettes et sont adaptées pour fonctionner avec des réseaux neuronaux graphiques (GNN) et des classificateurs ML classiques tels que les k-voisins les plus proches (k-NN), les machines à vecteurs de support (SVM), etc. Dans l'ensemble, les approches que nous proposons augmentent la précision de tous les classificateurs
THz imaging is an emerging field since the technological advances in terms of THz radiation emission and detection equipment. The main objective of the thesis is to contribute and to improve THz imaging systems, from image reconstruction and analysis to image classification tasks. In the first part of the thesis, we tackle the amplitude estimation challenge under ideal and multiplicative noise conditions. The multiplicative noise deforms the phase and introduces complex artefacts, such as contour information loss and contrast degradation, that cannot be eliminated using state-of-the-art image reconstruction techniques. In this regard, we introduce five novel reconstruction methods which exploit the phase diagram representation of signals. Two of the methods are based on phase-diagram match filtering to estimate the amplitude in both conditions. Another two methods use the concept of dynamic time warping (DTW) to increase the capability to model the multiplicative type of noise. Lastly, we exploit the dynamic of the phase trajectory described by the curvatures to reconstruct the image. From the large pool of methods, we evaluate throughout the thesis that the curvature-based method efficiently reconstructs the image in both ideal and noisy contexts. After an efficient image reconstruction, the second part of the thesis, we study image analysis and classification methods considering the instabilities of real-world imaging systems, such as translations and rotations. In this sense, we propose to use translation and rotation invariant wavelet packet decompositions, that provide a unique and optimal representation of an image, regardless if the image is translated or rotated. Based on the invariant image representations, novel feature extraction techniques are introduced such as vertical, horizontal, N-directional and N-zonal frameworks. Additionally, two feature structures are introduced and that consider the frequency partitioning of the wavelet decomposition and are adapted to work with Graph Neural Networks (GNNs) and classic ML classifiers such as k-nearest neighbors (k-NN), support vector machine (SVM), etc. Overall, our proposed approaches increase the accuracy of all classifiers
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Cherni, Afef. "Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ055/document.

Повний текст джерела
Анотація:
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles
This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data
Стилі APA, Harvard, Vancouver, ISO та ін.
39

gomez, cecile. "Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00008556.

Повний текст джерела
Анотація:
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies à partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Hennequin, Romain. "Décomposition de spectrogrammes musicaux informée par des modèles de synthèse spectrale : modélisation des variations temporelles dans les éléments sonores." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00648997.

Повний текст джерела
Анотація:
Cette thèse propose de nouvelles méthodes de décomposition automatique de spectrogrammes de signaux musicaux. Les décompositions proposées sont issues de la factorisation en matrices non-négatives (NMF), puissante technique de réduction de rang réputée pour fournir une décomposition sur un petit nombre de motifs fréquentiels automatiquement extraits des données ayant généralement un sens perceptif. La NMF ne permet cependant pas de modéliser de façon efficace certaines variations temporelles d'éléments sonores non-stationnaires communément rencontrées dans la musique. Cette thèse propose donc d'introduire dans la NMF des modèles génératifs de spectrogrammes musicaux basés sur des modèles classiques de synthèse sonore afin de pouvoir prendre en compte deux types de variations courantes : les variations d'enveloppe spectrale (sons d'instruments à cordes métalliques libres...) et les variations de fréquence fondamentale (vibrato, prosodie...). L'introduction de modèles de synthèse simples dans la NMF permet de proposer des décompositions capables de prendre en compte ces variations : l'utilisation d'un modèle de synthèse source/ filtre permet de modéliser les variations spectrales de certains objets musicaux au cours du temps. L'utilisation d'un modèle d'atomes harmoniques paramétriques inspiré de la synthèse additive ou bien l'utilisation d'un modèle inspiré de la synthèse par table d'onde qui utilise des transformations d'un unique atome de base afin de recréer toute la tessiture de chaque instrument permettent de modéliser les variations de fréquence fondamentale. Une application de séparation de sources et une de transformation sélective du son sont également présentées.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Moslem, Bassam. "Méthodes non paramétriques pour la classification dans les signaux non stationnaires : application à l'EMG utérin." Compiègne, 2011. http://www.theses.fr/2011COMP1981.

Повний текст джерела
Анотація:
L'analyse de la contractilité utérine par les techniques actuelles reste insuffisante pour un diagnostic fiable des menaces d'accouchement prématuré (MAP) et pour qu'un clinicien puisse obtenir toutes les informations qualitatives et quantitatives de cette activité. L'analyse de l'enregistrement de l'activité électrique utérine a été proposée de longue date pour évaluer l'activité contractile. Le signal enregistré, appelé l'électromyogramme (EMG) utérin, se révèle porteur d'informations supplémentaires relatives à l'efficacité de la contraction. C'est dans ce contexte que se développe depuis quelques années étude de l'EMG utérin pour le diagnostic précoce des MAP. Notre étude porte principalement sur l'analyse de l'EMG utérin le suivi de grossesse et la classification des contractions. Il s'agit ici, dans un premier temps, d'appliquer les différents types des techniques de traitement du signal (analyse spectrale, multiresolution, non-linéaire) afin de caractériser au mieux l'EMG utérin. Ensuite, un suivi de grossesse à l'aide des différents paramètres extraits des signaux enregistrés sur les mêmes femmes à différents termes de grossesse est réalisé. Cette approche est améliorée par l'application de l'analyse multiresolution basée sur la transformée en paquets d'ondelettes et la recherche d'une meilleure base adaptée au problème du suivi de grossesse. Afin de bénéficier de l'enregistrement multivoie des signaux EMG utérin pour l'étude de la propagation de l'activité électrique, nous réalisons une étude spatiale de cette activité afin de connaitre la façon dont elle varie tout au long de la grossesse. La dernière partie de notre travail consiste à classifier les signaux EMG utérin entre accouchement et grossesse. Une nouvelle approche basée sur l'analyse multivoie et l'application d'une règle de fusion des décisions individuelles de toutes les voies est proposée. Le taux élevé de classification correcte (92%) montre que cette approche pourrait être la solution appropriée pour le problème de détection des MAP
Uterine contraction monitoring provides important prognostic information during pregnancy and labor and can be used for an early detection of any sign of preterm labor. Current techniques used for monitoring the uterine contraction impose a compromise between accuracy and invasiveness. Recently, the uterine electrical activity has been proven to be representative of the uterine contractility. The uterine electromyogram (EMG), also called the electrohysterogram (EHG), is the bioelectrical signal associated with the uterine activity. Recorded noninvasively from the abdominal wall of pregnant women, uterine EMG gives valuable information about the function aspects of the uterine contractility. Numerous studies have analyzed the uterine recordings associated with pregnancy and labor: it has been proven that it is of interest to offer a good insight into the process of pregnancy and labor and may be also used to predict the risk of preterm labor. Our study focuses on feature extraction, pregnancy monitoring and signal classification. In the first part, we apply new signal processing techniques (spectral analysis, multiresolution analysis, nonlinear analysis…) in order to extract new features capable of provide the best characterization of the uterine EMG. Next, a pregnancy monitoring using the extracted features in presented. This study concerns different women recorded at several pregnancy terms. This approach is improved by applying the multiresolution analysis based on the wavelet packet transform. We searched for the best basis adapted for the problem of pregnancy monitoring. In order to benefit from the multichannel type of the recorded signals, we study the spatial variability of the electrical activity at different recording sites of the uterus. This multichannel-based approach allows us to know the way the electrical activity changes at throughout pregnancy over all the uterine muscle. In the last part, we present our work on classifying uterine EMG signals between two classes of contraction (pregnancy vs. Labor). A novel approach based on multisensor data fusion is presented. The high correct classification ratio (92%) obtained proves that this method may be the solution for the problem described
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Chadha, Kush. "Improvement of water management in PEM fuel cells using water balance and electrochemical noise analysis." Thesis, Poitiers, 2021. http://www.theses.fr/2021POIT2251.

Повний текст джерела
Анотація:
Cette thèse s’inscrit dans une démarche d’optimisation des performances des piles à combustibles PEMFC, à travers le développement de nouveaux designs de plaque d’alimentation. Des outils tel que le bilan hydrique et l’analyse des bruits électrochimiques ont été utilisés comme diagnostic de la gestion de l’eau au sein d’un mono-cellule PEMFC. Une gestion optimale du transport d’eau permet une augmentation des performances et de la durée de vie des piles à combustible. Le bilan hydrique a été utilisé pour mesurer et encadrer la valeur du coefficient de diffusion effectif de l’eau au sein des membranes de piles à combustibles. De nouvelles géométries de plaque d’alimentation ont été développées et caractériser par des mesures classiques de courbes de performance et des mesures de pression. La technique du bruit électrochimique a été utilisée pour détecter des phénomènes liés au comportement de l’eau lors du fonctionnement de la pile pour chaque géométrie développée. Le bruit électrochimique enregistré pendant ces expériences a été associé à des mécanismes sources grâce à une démarche expérimentale et à un traitement de signal approprié basé sur l’analyse fréquentielle et temporelle. Les résultats des descripteurs obtenus par l’analyse temporel et fréquentiel ont permis de d’obtenir la signature dans un fonctionnement normal de pile à combustible utilisant une géométrie classique de canaux en serpentin. Cette signature a été comparée aux nouveaux designs développés permettant de caractériser l’influence de ces nouvelles géométries sur le transport d’eau. Enfin, de manière à compléter l’approche expérimental effectuée sur le coefficient de diffusion de l’eau au sein des membranes de piles à combustibles PEMFC, une modélisation de la courbe de polarisation prenant en compte ce coefficient a été développé et comparé aux courbes de performances expérimentales. En termes d’ouverture, l’impact des nouvelles géométries développées a été étendu à leur utilisation en stack et un modèle de pronostic basé sur les réseaux de neurones artificiels a été proposé
This thesis deals to optimize the performance of PEMFC fuel cells, through the development of new flow-field plate designs. Tools such as water balance and electrochemical noise analysis have been used to diagnose water management within a PEMFC single cell. Optimal management of the water transport enables an increase of the performance and durability of fuel cells. Water balance method was used to measure and frame the value of the effective water diffusion coefficient within the membranes of fuel cells. New flow-flied plate geometries have been developed and characterized by conventional polarization curve and pressure measurements. The electrochemical noise technique was used to detect phenomena related to the behavior of water during fuel cell operation for each geometry developed. Electrochemical noise measurements have been associated with source mechanisms through an experimental approach and an appropriate signal processing based on frequency and time analysis. The descriptors obtained by time and frequency analysis shows that it possible to obtain the signature in normal operation of a fuel cell using a classical serpentine. This signature was compared to the new developed designs allowing to characterize the influence of these new geometries on the water transport. Finally, to complete the experimental approach carried out on the water diffusion coefficient within the membranes of PEMFC fuel cells, a model based on polarization curve, considering this coefficient, was developed and compared to the experimental curves of performances. In perspective, the impact of the new developed geometries has been extended in a stack utilization and a prognosis model based on artificial neural networks has been proposed
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Polat, Songül. "Combined use of 3D and hyperspectral data for environmental applications." Thesis, Lyon, 2021. http://www.theses.fr/2021LYSES049.

Повний текст джерела
Анотація:
La demande sans cesse croissante de solutions permettant de décrire notre environnement et les ressources qu'il contient nécessite des technologies qui permettent une description efficace et complète, conduisant à une meilleure compréhension du contenu. Les technologies optiques, la combinaison de ces technologies et un traitement efficace sont cruciaux dans ce contexte. Cette thèse se concentre sur les technologies 3D et les technologies hyper-spectrales (HSI). Tandis que les technologies 3D aident à comprendre les scènes de manière plus détaillée en utilisant des informations géométriques, topologiques et de profondeur, les développements rapides de l'imagerie hyper-spectrale ouvrent de nouvelles possibilités pour mieux comprendre les aspects physiques des matériaux et des scènes dans un large éventail d'applications grâce à leurs hautes résolutions spatiales et spectrales. Les travaux de recherches de cette thèse visent à l'utilisation combinée des données 3D et hyper-spectrales. Ils visent également à démontrer le potentiel et la valeur ajoutée d'une approche combinée dans le contexte de différentes applications. Une attention particulière est accordée à l'identification et à l'extraction de caractéristiques dans les deux domaines et à l'utilisation de ces caractéristiques pour détecter des objets d'intérêt.Plus spécifiquement, nous proposons différentes approches pour combiner les données 3D et hyper-spectrales en fonction des technologies 3D et d’imagerie hyper-spectrale (HSI) utilisées et montrons comment chaque capteur peut compenser les faiblesses de l'autre. De plus, une nouvelle méthode basée sur des critères de forme dédiés à la classification de signatures spectrales et des règles de décision liés à l'analyse des signatures spectrales a été développée et présentée. Les forces et les faiblesses de cette méthode par rapport aux approches existantes sont discutées. Les expérimentations réalisées, dans le domaine du patrimoine culturel et du tri de déchets plastiques et électroniques, démontrent que la performance et l’efficacité de la méthode proposée sont supérieures à celles des méthodes de machines à vecteurs de support (SVM).En outre, une nouvelle méthode d'analyse basée sur les caractéristiques 3D et hyper-spectrales est présentée. L'évaluation de cette méthode est basée sur un exemple pratique du domaine des déchet d'équipements électriques et électroniques (WEEE) et se concentre sur la séparation de matériaux comme les plastiques, les carte à circuit imprimé (PCB) et les composants électroniques sur PCB. Les résultats obtenus confirment qu'une amélioration des ré-sultats de classification a pu être obtenue par rapport aux méthodes proposées précédemment.L’avantage des méthodes et processus individuels développés dans cette thèse est qu’ils peuvent être transposé directement à tout autre domaine d'application que ceux investigué, et généralisé à d’autres cas d’étude sans adaptation préalable
Ever-increasing demands for solutions that describe our environment and the resources it contains, require technologies that support efficient and comprehensive description, leading to a better content-understanding. Optical technologies, the combination of these technologies and effective processing are crucial in this context. The focus of this thesis lies on 3D scanning and hyperspectral technologies. Rapid developments in hyperspectral imaging are opening up new possibilities for better understanding the physical aspects of materials and scenes in a wide range of applications due to their high spatial and spectral resolutions, while 3D technologies help to understand scenes in a more detailed way by using geometrical, topological and depth information. The investigations of this thesis aim at the combined use of 3D and hyperspectral data and demonstrates the potential and added value of a combined approach by means of different applications. Special focus is given to the identification and extraction of features in both domains and the use of these features to detect objects of interest. More specifically, we propose different approaches to combine 3D and hyperspectral data depending on the HSI/3D technologies used and show how each sensor could compensate the weaknesses of the other. Furthermore, a new shape and rule-based method for the analysis of spectral signatures was developed and presented. The strengths and weaknesses compared to existing approach-es are discussed and the outperformance compared to SVM methods are demonstrated on the basis of practical findings from the field of cultural heritage and waste management.Additionally, a newly developed analytical method based on 3D and hyperspectral characteristics is presented. The evaluation of this methodology is based on a practical exam-ple from the field of WEEE and focuses on the separation of materials like plastics, PCBs and electronic components on PCBs. The results obtained confirms that an improvement of classification results could be achieved compared to previously proposed methods.The claim of the individual methods and processes developed in this thesis is general validity and simple transferability to any field of application
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Gomez, Cécile. "Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)." Phd thesis, Université Claude Bernard - Lyon I, 2004. http://tel.archives-ouvertes.fr/tel-00665112.

Повний текст джерела
Анотація:
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies ' partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Falcón, Prado Ricardo. "Active vibration control of flexible structures under input saturation through delay-based controllers and anti-windup compensators." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG042.

Повний текст джерела
Анотація:
Dans ce travail, on traite le problème du commande actif des vibrations robustes pour une structure mécanique flexible à travers des techniques pour des systèmes à dimensions infinis et finis. Les approches abordées sont réglées pour une commande à retour de sortie basée sur une commande aux actions retardées proportionelles, par une approche basée sur quasipolynomials,et une commande synthétisée par la méthode H∞avec une approche par LMIs. Le but c’est l’analyse de ses capabilités pour amortisser les modes vibratoires dans une bande passante d’intérêt, et éviter les effets dénommés de phénomène “spillover”. Cettes commandes sont sythétisés à travers d’un modèle de dimensions finies,dérivé à partir d’un analyse des dimensions finies des structures mécaniques, combiné avec des methodes de réduction.Les structures flexibles envisagées ici sont, d’abord,une poutre flexible d’aluminium à la configuration Euler-Bernoulli, dont un bout est encastrée et l’autre libre, deuxièmement,une membrane axisymmetrique. Chaque système est instrumenté d’un capteur et d’un actionneur piézoélectrique,ils sont bien soumises à chaque coté des structures et elles sont bien placées. Notre intention est d’examiner les performances susmentionnés par les environnements de simulation numérique et la mise en oeuvre à titre expérimental
In this work, the problem of active vibration control of flexible mechanical structures is addressed through infinite and finite dimensional techniques. The compared approaches are adjusted for an output feedback controller based on delayed proportional actions,through a quasipolynomial-based approach, and an optimalH∞ controller design computed with an LMI approach.They are shown in order to analyze their capabilities to damp some vibrational modes in the frequency band with of interest, and to avoid the so called “spillover”phenomenon. These controllers are synthetized through a finite dimensional model, derived from a finite element analysis of the mechanical structure, combined with some reduction methods.The flexible structures considered here are, firstly, aflexible aluminium beam in the Euler-Bernoulli configuration,and secondly, an axysimmetric membrane. Bothof them are equipped with two piezoelectric patches that are bounded and collocated on each face of the structure.We intend to examine and discuss the aforementioned performances in both simulation and experimental environments
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Chahdi, Lotfi. "Application de l'analyse spectrale aux données économiques." Mémoire, Université de Sherbrooke, 1990. http://hdl.handle.net/11143/8258.

Повний текст джерела
Анотація:
Une série chronologique appelée aussi série temporelle ou chronique est une suite de données, généralement autocorrélées, ordonnées dans le temps. On accorde en général aux astronomes d'avoir été les premiers à analyser une série chronologique. Découvrir les composantes effectives d'une chronique et déterminer leur importance relative constitue un vieux rêve des économistes, soucieux de prévoir et d'expliquer l'évolution du phénomène étudié. L'analyse d'une série chronologique peut s'effectuer dans le domaine du temps. Le plus simple serait évidemment d'examiner son profil temporel sur un graphique. Cependant l'évolution sera, dans la plupart des cas, tellement irrégulière qu'une partie importante des mouvements échappera à l'œil. C'est pourquoi, il semble plus rigoureux de s'attacher directement à l'étude du corrélogramme empirique de la série envisagée.
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Droulans, Robert. "Étude de l'émission haute énergie des objets compacts avec SPI-INTEGRAL." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1234/.

Повний текст джерела
Анотація:
L'étude de l'émission haute énergie est indispensable pour comprendre les processus radiatifs inhérents aux flots d'accrétion sur les objets compacts (trous noirs et étoiles à neutrons). Le continuum X/gamma d'un tel système est généralement interprété selon deux composantes. La première traduit la présence d’un disque d'accrétion alors que la deuxième, à plus haute énergie (>20 keV), peut s'expliquer par des diffusions Compton entre électrons chauds et photons de plus basse énergie. Les mécanismes de chauffage des électrons et la structure du milieu de Comptonisation restent cependant mal connus. Pour approfondir notre compréhension de ces aspects, nous avons tiré profit des données issues de l'instrument SPI, un spectromètre haute énergie (20 keV – 8 MeV) développé au CESR (désormais IRAP, Toulouse, France) pour la mission INTEGRAL de l'ESA. Au-dessus de 150 keV, SPI réunit une résolution spectrale et une sensibilité sans précédent et constitue donc un outil idéal pour l'étude de l'émission haute énergie des objets compacts. Dans cette thèse, je présente les résultats d'une étude spectrale et temporelle de trois systèmes individuels. Malgré les différences dans leurs propriétés principales (nature de l'objet compact, stabilité du flot d'accrétion etc. ), les trois sources montrent un excès à haute énergie par rapport aux lois habituellement utilisées pour décrire leur spectre. Les possibles origines physiques de cet excès d'émission sont présentées et discutées, concluant que tous les états lumineux peuvent être expliqués par un milieu de Comptonisation magnétique de type couronne alimenté par des processus d'accélération non-thermiques
The study of the high energy emission (>20 keV) is essential for understanding the radiative processes inherent to accretion flows onto compact objects (black holes and neutron stars). The X/gamma-ray continuum of these systems is successfully interpreted in terms of two components. The first component corresponds to blackbody emission from a geometrically thin optically thick accretion disk while the second component is generally associated to Compton scattering of the thermal disk flux off hot electrons. Despite considerable advances throughout the years, the heating mechanisms as well as the structure of the Comptonizing medium remain poorly understood. In order to enhance our understanding of these aspects, we take advantage of the data archive accumulated by the SPI instrument, a high energy spectrometer (20 keV – 8 MeV) developed at the CESR (now IRAP, Toulouse, France) for the INTEGRAL mission. Above 150 keV, SPI combines a unique spectral resolution with unequalled sensitivity, being thus an ideal tool to study the high energy emission of accreting compact objects. This thesis comprises the results of timing and spectral studies of three individual systems. Despite major differences in their main properties (nature of the compact object, stability of the accretion flow etc. ), all three systems show a significant high energy excess with respect to the emission laws that are commonly used to describe their spectra. In the lights of the SPI results, the possible physical origins of the high energy emission of stellar-size compact objects are presented and discussed, showing that all luminous states can be explained by a non-thermal magnetized corona model
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Sbihi, Mohammed. "Analyse spectrale de modèles neutroniques." Phd thesis, Université de Franche-Comté, 2005. http://tel.archives-ouvertes.fr/tel-00011072.

Повний текст джерела
Анотація:
Cette thèse porte principalement sur l'étude spectrale de divers modèles neutroniques. Elle consiste en trois parties complémentaires. La première partie est consacrée aux problèmes d'applications spectrales dans les domaines non bornés, où faute de compacité les méthodes usuelles n'opèrent plus. A l'aide d'arguments d'analyse fonctionnelle sur le spectre critique des semigroupes perturbés nous cernons une large classe de paramètres liés à l'équation pour lesquels le théorème d'application spectrale a lieu. Dans la deuxième partie, nous apportons une nouvelle approche, dite résolvante, de la stabilité des spectres essentiel et critique des semigroupes perturbés dans les espaces de Hilbert. En neutronique, par le biais de cette approche, nous retrouvons des résultats classiques de stabilité de spectre essentiel dans les domaines bornés et nous améliorons certains résultats de la première partie dans les domaines non bornés. La troisième partie traite d'un modèle de collision partiellement élastique introduit par E.W. Larsen et P.F. Zweifel. Afin de dégager le comportement asymptotique en temps grands du semigroupe gouvernant ce modèle nous ferons sa théorie spectrale. Nous étudions les propriétés de compacité à la base de cette théorie, ce qui nous permettra notamment d'obtenir des résultats de stabilité du type essentiel. Nous examinons ensuite les incidences de la positivité : irréductibilité, propriétés de monotonie stricte de la valeur propre principale, réalité du spectre périphérique
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Feltekh, Kais. "Analyse spectrale des signaux chaotiques." Phd thesis, INSA de Toulouse, 2014. http://tel.archives-ouvertes.fr/tel-01071919.

Повний текст джерела
Анотація:
Au cours des deux dernières décennies, les signaux chaotiques ont été de plus en plus pris en compte dans les télécommunications, traitement du signal ou transmissions sécurisées. De nombreux articles ont été publiés qui étudient la densité spectrale de puissance (DSP) des signaux générés par des transformations spécifiques. La concentration sur la DSP est due à l'importance de la fréquence dans les télécommunications et la transmission sécurisée. Grâce au grand nombre de systèmes sans fil, la disponibilité des fréquences de transmission et de réception est de plus en plus rare pour les communications sans fil. Aussi, les médias guidés ont des limitations liées à la bande passante du signal. Dans cette thèse, nous étudions certaines propriétés associées à la bifurcation collision de frontière pour une transformation unidimensionnelle linéaire par morceaux avec trois pentes et deux paramètres. Nous calculons les expressions analytiques de l'autocorrélation et de la densité spectrale de puissance des signaux chaotiques générés par les transformations linéaires par morceaux. Nous montrons l'existence d'une forte relation entre les différents types de densité spectrale de puissance (passe-bas, passe-haut ou coupe-bande) et les paramètres de bifurcation. Nous notons également en évidence une relation entre le type de spectre et l'ordre des cycles attractifs. Le type du spectre dépend de l'existence des orbites périodiques au-delà de la bifurcation de collision de frontière qui a donné naissance au chaos. Nous utilisons ensuite les transformations chaotiques pour étudier la fonction d'ambiguïté. Nous combinons quelques transformations chaotiques bien déterminées pour obtenir un spectre large bande avec une bonne fonction d'ambiguïté qui peut être utilisée en système radar.
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Podemski, Robert. "Analyse spectrale des turbo codes." Rennes 1, 1998. http://www.theses.fr/1998REN10150.

Повний текст джерела
Анотація:
Cette these est dediee aux proprietes spectrales des turbo-codes. Un nouvel algorithme de calcul du spectre des distances de hamming, appele algorithme de la fenetre coulissante, est propose. Cet algorithme est base sur l'algorithme de fano et utilise le concept de suite de retour a zero introduit dans cette these. L'algorithme de la fenetre coulissante tire avantage des proprietes des turbo-codes et, de ce fait, presente une complexite bien inferieure a celle de l'algorithme de fano, permettant ainsi le calcul du spectre des distances pour des turbo-codes utilisant un entrelacement pouvant atteindre 4. 000 bits. La seconde partie de la these donne les regles de construction de turbo-codes, presentant de bons spectres de distance. Les differents criteres que doivent remplir les elements constitutifs du turbo-codeur i. E. Les codes recursifs systematiques, l'entrelacement et le masque de poinconnage de facon a obtenir de bonnes performances sont alors donnes. Les resultats analytique sont verifies par la simulation, aussi bien dans le cas du decodage optimal que non-optimal (iteratif).
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії