To see the other types of publications on this topic, follow the link: Traitement des données et Chimiométrie.

Dissertations / Theses on the topic 'Traitement des données et Chimiométrie'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Traitement des données et Chimiométrie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Abbas, Ouissam. "Vieillissement simulé ou naturel de la matière organique. Apport du traitement chimiométrique des données spectroscopiques. Conséquences environnementales et aide à l'exploration pétrolière." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30006.

Full text
Abstract:
La caractérisation de la matière organique avant et au cours d'un processus de vieillissement est un paramètre très important pour les professionnels de différents secteurs industriels. Car appréhender les processus gérant son évolution, permet de mieux comprendre ses origines, les mécanismes de sa genèse et de déterminer ses différents rôles environnementaux au sein d'écosystèmes naturels ou artificiels, et notamment lorsqu'il s'agit d'une aide à l'exploration pétrolière ou d'améliorer les procédés de dépollution des milieux aquatiques. Cette démarche nécessite cependant la mise en place d'une méthodologie analytique efficace. Dans cette optique, une nouvelle approche des techniques spectroscopiques (IRTF et fluorescence) a été utilisée en traitant les données spectrales à l'aide d'outils chimiométriques exploratoires, d'automodélisation et prédictifs (ACP, SIMPLISMA et PLS) afin d'établir une corrélation structure ~ réactivité de différentes matières organiques. L'objectif a été d'une part de différencier des huiles pétrolières en cherchant à authentifier leurs origines géographiques, leurs données géologiques, évaluer leur degré de maturité et de biodégradation. D'autre part, cette démarche a permis de suivre la photodégradation du phénol en milieu aqueux, de déterminer des profils de concentration relatifs aux constituants réactionnels, donc d'estimer l'efficacité du processus d'élimination de ce polluant et le devenir des photoproduits. Les résultats montrent que cette démarche analytique est en accord avec les réponses des techniques usuelles, qu'elle a un caractère innovant dans le domaine de l'industrie pétrolière et de l'environnement tout en assurant des informations fiables, pertinentes et rapides à obtenir
The characterization of the organic matter before and during a process of ageing is a very significant parameter for the professionals of various industrial sectors. The knowledge of its evolution processes is important to a better understand of its origins, mechanisms of its genesis and to determine its various environmental roles in natural or artificial ecosystems, in particular when the aim is to help the oil exploration or to improve the depollution processes of the aquatic environments. Thus, an effective analytical methodology is necessary. For this, a new approach of use of the spectroscopic techniques (infrared and fluorescence) is to treat spectral data by chemometric tools (ACP, SIMPLISMA and PLS) in order to establish a correlation structure ~ reactivity of the organic matter. The first objective was to authenticate the geographical origins of oils, their geological data, to evaluate their degree of maturity and biological biodegradation. In addition, this methodolgy made it possible to follow the photodegradation of phenol in aqueous solutions, to determine the concentration profiles of intermediary compounds. Thus, the effectiveness of the process has been estimated in terms of the elimination of the polluant and its photoproducts. The conclusions of this analytical procedure, which is innovating in the environmental field and petroleum industry, are in agreement with the the classical techniques. Reliable and relevant informations have been rapidly obtained with low cost
APA, Harvard, Vancouver, ISO, and other styles
2

Abou, Fadel Maya. "Apports de la chimiométrie à la spectroscopie de Résonance Paramagnétique Electronique : nouvelles perspectives de traitement de données spectrales à dimensions spatiales (imagerie) et/ou temporelles." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10130/document.

Full text
Abstract:
La spectroscopie de Résonance Paramagnétique Electronique (RPE) est incontestablement devenue une technique de choix pour la caractérisation des matériaux complexes quand ceux-ci possèdent des électrons non appariés (ions de transitions, terres rares, défauts, radicaux organiques…). A l’instar de la résonnance magnétique nucléaire, la RPE génère des données spectrales multidimensionnelles (2D, 3D…) et depuis peu une imagerie spatiale mais aussi spectrale/spatiale. Il est ainsi étonnant de voir que malgré la grande quantité de données spectrales à explorer et la complexité des signaux RPE, il n’existe quasiment pas au niveau international d’exploitation des méthodes de traitements de données multivariées, méthodes largement proposées en chimiométrie. L’objectif de cette thèse est ainsi de développer de nouveaux outils pour le traitement de ces données spectrales RPE, d’établir de nouvelles méthodologies d’analyse et d’en évaluer leurs performances. Les deux axes principalement étudiés seront l’imagerie spectroscopique et la spectroscopie résolue en temps. Nous démontrerons dans ce travail que la mise en œuvre de méthodes dites de «résolutions multivariées de courbes» permet d’extraire simultanément et sans a priori toutes les cartographies chimiques et les spectres associés des composés purs présents dans l’échantillon étudié. Cette méthodologie sera aussi exploitée afin d’extraire les spectres RPE d’espèces intermédiaires lors d’un suivi cinétique
Electron Paramagnetic Resonance (EPR) Spectroscopy has undoubtedly become the first-choice technique for the characterization of complex materials containing some unpaired electrons (transition metal ions, rare earth ions, defects, organic radicals ...). Similarly to nuclear magnetic resonance spectroscopy, EPR generates multidimensional (2D, 3D…) spectral and recently also spatial (imaging) data as well as spectral/spatial ones. It is thus, surprising that despite the large amount of spectral data to be explored and complexity of the EPR signals, there hardly exist at the international level of exploitation the multivariate data processing methods that are widely available in chemometrics. The objective of this thesis is thus, to develop new tools for the treatment of these EPR spectral data, to establish new analytical methodologies and to evaluate their performance. The two main areas that will be studied are spectroscopic imaging and time-resolved spectroscopy. In this work, we will show that the implementation of the methods known as "multivariate curve resolutions" can extract, simultaneously, and without a priori all chemical maps and their corresponding spectra of pure compounds present in the studied sample. This methodology will also be exploited to extract the EPR spectra of intermediate species during a kinetic monitoring
APA, Harvard, Vancouver, ISO, and other styles
3

Elmi, Rayaleh Waïss. "Extraction de connaissances en imagerie microspectrométrique par analyse chimiométrique : application à la caractérisation des constituants d'un calcul urinaire." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00270116.

Full text
Abstract:
L'imagerie spectroscopique classique utilisant la sélection d'une bande spectrale d'absorption spécifique pour chaque composé d'un mélange a atteint ses limites lors d'analyse d'échantillons complexes naturels ou industriels. Les méthodes chimiométriques sont alors un précieux outil pour s'affranchir à la fois des limitations dues aux recouvrements spectraux et certaines limitations instrumentales. Cependant une optimisation et une adaptation des méthodologies de résolution aux cas concrets sous analyse sont nécessaires. Notre étude a ciblé les différents traitements chimiométriques permettant de mieux extraire les images microspectrométriques des constituants d'un mélange. Dans une première étape, une optimisation est effectuée sur des données synthétiques pour un ensemble des méthodes de résolution multivariées. Parmi celles-ci, OPA(var) (Orthogonal Projection Approach par sélection des variables) s'est révélée être le plus efficace qualitativement. Puis, la démarche originale mettant en oeuvre le couplage des méthodes chimiométriques de l'optimisation avec MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares) a été réalisée. La capacité de résolution de MCR-ALS se trouve considérablement renforcée par ce couplage. Ensuite, au niveau du pixel, les contraintes liées au rang local ont été spécifiées et appliquées. La pertinence du couplage réalisé et l'efficacité d'extraction par les contraintes du rang local ont été mises en évidence dans les nombreux cas étudiés. L'application de cette méthodologie d'analyse, mise en place, sur des données réelles issues de la micro- spectrométrie Raman a abouti d'une manière concluante. Les constituants d'un calcul urinaire sont identifiés par leurs spectres respectifs grâce à une bibliothèque de référence. Chaque image extraite indique la répartition du composé correspondant dans la partie analysée par l'intermédiaire d'une échelle de couleur adaptée. En effet, dans ce type de pathologie, une bonne identification de la chronologie de formation de différents constituants permet un meilleur diagnostic et un traitement médical adapté. Dans notre étude, la reproduction efficace des images microspectrométriques de grande qualité par les méthodes chimiométriques est prouvée même dans un cas réel complexe.
APA, Harvard, Vancouver, ISO, and other styles
4

Jacq, Kévin. "Traitement d'images multispectrales et spatialisation des données pour la caractérisation de la matière organique des phases solides naturelles. High-resolution prediction of organic matter concentration with hyperspectral imaging on a sediment core High-resolution grain size distribution of sediment core with 2 hyperspectral imaging Study of pansharpening methods applied to hyperspectral images of sediment cores." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAA024.

Full text
Abstract:
L'évolution de l'environnement et le climat sont, actuellement, au centre de toutes les attentions. Les impacts de l'activité des sociétés actuelles et passées sur l'environnement sont notamment questionnés pour mieux anticiper les implications de nos activités sur le futur. Mieux décrire les environnements passés et leurs évolutions sont possibles grâce à l'étude de nombreux enregistreurs naturels (sédiments, spéléothèmes, cernes, coraux). Grâce à eux, il est possible de caractériser des évolutions bio-physico-chimiques à différentes résolutions temporelles et pour différentes périodes. La haute résolution entendue ici comme la résolution su sante pour l'étude de l'environnement en lien avec l'évolution des sociétés constitue le principal verrou de l'étude de ces archives naturelles notamment en raison de la capacité analytique des appareils qui ne peuvent que rarement voir des structures fines inframillimétriques. Ce travail est bâti autour de l'hypothèse que l'utilisation de caméras hyperspectrales (VNIR, SWIR, LIF) couplée à des méthodes statistiques pertinentes doivent permettre d'accéder aux informations spectrales et donc bio-physico-chimiques contenues dans ces archives naturelles à une résolution spatiale de quelques dizaines de micromètres et, donc, de proposer des méthodes pour atteindre la haute résolution temporelle (saisonnière). De plus, a n d'avoir des estimations ables, plusieurs capteurs d'imageries et de spectroscopies linéaires (XRF, TRES) sont utilisés avec leurs propres caractéristiques (résolutions, gammes spectrales, interactions atomiques/moléculaires). Ces méthodes analytiques sont utilisées pour la caractérisation de la surface des carottes sédimentaires. Ces analyses spectrales micrométriques sont mises en correspondance avec des analyses géochimiques millimétriques usuelles. Optimiser la complémentarité de toutes ces données, implique de développer des méthodes permettant de dépasser la difficulté inhérente au couplage de données considérées par essence dissimilaire (résolutions, décalages spatiaux, non-recouvrement spectral). Ainsi, quatre méthodes ont été développées. La première consiste à associer les méthodes hyperspectrales et usuelles pour la création de modèles prédictifs quantitatifs. La seconde permet le recalage spatial des différentes images hyperspectrales à la plus basse des résolutions. La troisième s'intéresse à la fusion de ces dernières à la plus haute des résolutions. Enfin, la dernière s'intéresse aux dépôts présents dans les sédiments (lamines, crues, tephras) pour ajouter une dimension temporelle à nos études. Grâce à l'ensemble de ces informations et méthodes, des modèles prédictifs multivariés ont été estimés pour l'étude de la matière organique, des paramètres texturaux et de la distribution granulométrique. Les dépôts laminés et instantanés au sein des échantillons ont été caractérisés. Ceci a permis d'estimer des chroniques de crues, ainsi que des variations biophysico-chimiques à l'échelle de la saison. L'imagerie hyperspectrale couplée à des méthodes d'analyse des données sont donc des outils performants pour l'étude des archives naturelles à des résolutions temporelles fines. L'approfondissement des approches proposées dans ces travaux permettra d'étudier de multiples archives pour caractériser des évolutions à l'échelle d'un ou de plusieurs bassin(s) versant(s)
The evolution of the environment and climate are, currently, the focus of all attention. The impacts of the activities of present and past societies on the environment are in particular questioned in order to better anticipate the implications of our current activities on the future. Better describing past environments and their evolutions are possible thanks to the study of many natural recorders (sediments, speleothems, tree rings, corals). Thanks to them, it is possible to characterize biological-physical-chemical evolutions at di erent temporal resolutions and for di erent periods. The high resolution understood here as the su cient resolution for the study of the environment in connection with the evolution of societies constitutes the main lock of the study of these natural archives in particular because of the analytical capacity devices that can only rarely see ne inframillimetre structures. This work is built on the assumption that the use of hyperspectral sensors (VNIR, SWIR, LIF) coupled with relevant statistical methods should allow access to the spectral and therefore biological-physical-chemical contained in these natural archives at a spatial resolution of a few tens of micrometers and, therefore, to propose methods to reach the high temporal resolution (season). Besides, to obtain reliable estimates, several imaging sensors and linear spectroscopy (XRF, TRES) are used with their own characteristics (resolutions, spectral ranges, atomic/molecular interactions). These analytical methods are used for surface characterization of sediment cores. These micrometric spectral analyses are mapped to usual millimeter geochemical analyses. Optimizing the complementarity of all these data involves developing methods to overcome the di culty inherent in coupling data considered essentially dissimilar (resolutions, spatial shifts, spectral non-recovery). Thus, four methods were developed. The rst consists in combining hyperspectral and usual methods for the creation of quantitative predictive models. The second allows the spatial registration of di erent hyperspectral images at the lowest resolution. The third focuses on their merging with the highest of the resolutions. Finally, the last one focuses on deposits in sediments (laminae, oods, tephras) to add a temporal dimension to our studies. Through all this information and methods, multivariate predictive models were estimated for the study of organic matter, textural parameters and particle size distribution. The laminated and instantaneous deposits within the samples were characterized. These made it possible to estimate oods chronicles, as well as biological-physical-chemical variations at the season scale. Hyperspectral imaging coupled with data analysis methods are therefore powerful tools for the study of natural archives at ne temporal resolutions. The further development of the approaches proposed in this work will make it possible to study multiple archives to characterize evolutions at the scale of one or more watershed(s)
APA, Harvard, Vancouver, ISO, and other styles
5

Cooney, Gary Sean. "Spectroscopie Raman exaltée de pointe pour la caractérisation de systèmes biologiques : de l'imagerie chimique et structurale nanométrique à l’air à son développement en milieu liquide." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0267.

Full text
Abstract:
Cette thèse a pour objectif le développement de la spectroscopie Raman exaltée de pointe (TERS) pour des applications en milieux liquides, et plus particulièrement pour l’étude de membranes lipidiques et de protéines amyloïdes qui sont impliquées dans des maladies neurodégénératives comme la maladie d’Alzheimer. La TERS s’affranchit de la limite de diffraction de la spectroscopie Raman conventionnelle en combinant la haute résolution spatiale de la microscopie à sonde locale et la spécificité chimique de la spectroscopie Raman exaltée de surface (SERS). En utilisant une pointe de microscope à sonde locale métallisée et effilée au niveau nanométrique, la TERS génère une exaltation localisée du signal Raman au sommet de la pointe. Ceci permet l’étude de biomolécules optiquement non-résonnantes à l’échelle nanométrique sans marquage moléculaire et de manière non-destructive. Les défis clés qui sont traités dans ce travail incluent la fabrication de pointes actives en TERS, l’optimisation d’un nouveau système TERS en réflexion totale interne (RTI) pour des utilisations en environnements liquides, et l’exploitation de données complexes obtenues par imagerie TERS hyperspectrale. Des protéines amyloïdes sous forme de fibrilles de protéine Tau ont été étudiées au moyen de notre instrument de RTI-TERS en prenant des fibrilles induites par de l’héparine comme référence pour évaluer la performance du système. Des études TERS de fibrilles Tau induites par de l’ARN ont donné un aperçu des mécanismes de formation sous-jacents des fibrilles amyloïdes. Par ailleurs, ces données ont été utilisées pour explorer le potentiel des méthodes chimiométriques, telles que l’Analyse en Composantes Principales (ACP) et l’Analyse en Cluster Hiérarchique (ACH), pour leur analyse fine. Ces méthodes ont été évaluées dans le contexte des méthodes plus traditionnelles de sélection de pics individuels. Cette thèse détaille aussi le développement d’un système RTI-TERS compatible avec le milieu liquide et son application à l’étude de bicouches lipidiques supportées en milieux aqueux. Cette avancée permet la caractérisation nanométrique de membranes lipidiques dans des milieux biologiquement pertinents et plus réalistes que l’air. Dans la perspective de futurs travaux examinant les interactions protéines-lipides, ces innovations sont cruciales pour comprendre la formation des fibrilles amyloïdes et leurs effets délétères sur les cellules neuronales. Au final, cette thèse a amélioré la TERS en tant qu’outil pour étudier les structures biomoléculaires à l’échelle nanométrique dans le contexte des maladies neurodégénératives, et le système RTI-TERS optimisé fournit une plateforme pour de futures recherches dans des applications biologiques et biomédicales
The aims of this thesis are the development of tip-enhanced Raman spectroscopy (TERS) for applications in liquid media, specifically for the study of lipid membranes and amyloid proteins which are implicated in neurodegenerative diseases like Alzheimer’s. TERS overcomes the diffraction limit of conventional Raman spectroscopy by combining the high spatial resolution of scanning probe microscopy with the chemical specificity of surface-enhanced Raman spectroscopy (SERS). By employing a metal-coated nano-tapered scanning probe microscopy probe tip, TERS generates a localised enhancement of the Raman signal at the tip apex. This enables the study of optically non-resonant biomolecules at the nanoscale in a label-free and non-destructive manner. The key challenges that are addressed in this work include the fabrication of TERS-active tips, the optimisation of our novel total-internal reflection (TIR)-TERS system for use in liquid environments, and the handling of the complex data obtained from hyperspectral TERS imaging. Amyloid proteins in the form of Tau fibrils were studied using this TIR-TERS setup with heparin-induced Tau fibrils being a benchmark for evaluating the performance of the system. TERS studies of RNA-induced Tau fibrils provided insight into the underlying formation mechanisms of amyloid fibrils. In addition, these data were used to explore the use of chemometric methods, such as Principal Component Analysis (PCA) and Hierarchical Cluster Analysis (HCA), for their fine analysis. These methods were evaluated in the context of more traditional peak-picking methods. This thesis also details the development of a liquid-compatible TIR-TERS system and its application to the study of supported lipid bilayers in aqueous media. This advancement enables the nanoscale investigation of lipid membranes in biologically relevant media, which is more representative compared to TERS in air. With the outlook of future works investigating protein-lipid interactions, these innovations are crucial for understanding amyloid fibril formation and their deleterious effects on neuronal cells. To conclude, this thesis enhances TERS as a tool for studying biomolecular structures in the context of neurodegenerative diseases at the nanoscale, and the optimised TIR-TERS system provides a platform for future research in biological and biomedical applications
APA, Harvard, Vancouver, ISO, and other styles
6

Gendrin, Christelle. "Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solides." Phd thesis, Université Louis Pasteur - Strasbourg I, 2008. http://tel.archives-ouvertes.fr/tel-00341106.

Full text
Abstract:
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.
La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.
La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
APA, Harvard, Vancouver, ISO, and other styles
7

Fliti, Tamim. "Le problème SAT : traitement dynamique et données minimales." Aix-Marseille 2, 1997. http://www.theses.fr/1997AIX22015.

Full text
Abstract:
Le present memoire se compose de deux parties consacrees, l'une aux traitements dynamique de donnees aleatoires du probleme de satisfaisabilite sat, l'autre a l'etude sur les systemes minimaux (et inconsistants) smi en forme normale conjonctive. Dans la premiere partie nous incluons, d'une part, une methode de recherche dynamique sur plusieurs niveaux a la procedure de davis et putnam visant a valuer les meilleures variables qui produisent un plus petit arbre de calcul apres k-niveaux de recherche. Les experimentations des variantes ainsi obtenues, pour k = 2 sur des donnees 3-sat aleatoires, donnent un meilleur nombre de nuds de l'arbre de calcul, ce nombre compense le temps necessaire a la recherche des variables fournissant un plus petit arbre apres deux niveaux de recherche. D'autre part, nous essayons d'isoler l'intervalle (c/v)#i#n#f,(c/v)#s#u#p hors duquel la correspondance experimentale c/v probabilite de satisfaisabilite des donnees est constante par morceaux ; en faisant une etude sur les donnees k-sat de format (c,v), dans la zone d'entropie maximale plus particulierement. Dans la seconde partie, nous etudions divers algorithmes pour engendrer des smi de facon aleatoire, en vue notamment d'estimer les nombres n(v) de smi a v variables apparentes. Nous donnons le nombre minimum des clauses d'une donnee smi et nous construisons de smi 3-sat ayant un nombre de clauses polynomial en le nombre v des variables apparentes, plus particulierement un exemple de smi 3-sat qui n'a pas moins de v#3/(48(log v)#3) clauses
APA, Harvard, Vancouver, ISO, and other styles
8

Bakiri, Ali. "Développements informatiques de déréplication et de classification de données spectroscopiques pour le profilage métabolique d’extraits d'algues." Thesis, Reims, 2018. http://www.theses.fr/2018REIMS013.

Full text
Abstract:
L’émergence des méthodes de déréplication comme moyen d’identification rapide des substances naturelles connues implique le développement conjoint d’outils informatiques dédiés au traitement et à l’analyse des données spectrales. Dans ce contexte, les travaux présentés dans ce mémoire ont porté sur le développement de deux méthodes in silico de déréplication par résonance magnétique nucléaire (RMN). La première méthode, DerepCrud, permet l’identification des molécules naturelles à partir d’extraits naturels bruts en utilisant des données de RMN du 13C. La méthode permet de comparer des spectres de RMN 1D du 13C issus de l’analyse d’un extrait naturel à ceux des molécules naturelles répertoriées dans une base de données locale afin de pouvoir identifier les composés majoritaires. La deuxième méthode, BCNet, permet d’exploiter les données RMN bidimensionnelles (HMBC et HSQC) pour la déréplication de molécules naturelles. L’algorithme construit un réseau de corrélations HMBC formés par les signaux appartenant aux différentes molécules constituant un extrait puis isole les signaux de chaque molécule grâce à l’utilisation d’algorithmes de détection de communautés. Les molécules sont enfin identifiées en effectuant une recherche dans la base de données des corrélations HMBC. A la fin de la procédure, la présence des molécules identifiées est confirmée par une comparaison de leurs corrélations HSQC théoriques (aussi issues de la base de données) avec les corrélations expérimentales correspondantes afin de renforcer la précision de l’identification
The emergence of dereplication strategies as a new tool for the rapid identification of the natural products from complex natural extracts has unveiled a great need for cheminformatic tools for the treatment and analysis of the spectral data. The present thesis deals with the development of in silico dereplication methods based on Nuclear Magnetic Resonance (NMR). The first method, DerepCrud, is based on 13C NMR spectroscopy. It identifies the major compounds contained in a crude natural extract without any need for fractionation. The principle of the method is to compare the 13C NMR spectrum of the analyzed mixture to a series of 13C NMR chemical shifts of natural compounds stored in a local database. The second method, BCNet, is designed to exploit the richness of 2D NMR data (HMBC and HSQC) for the dereplication of the natural products. BCNet traces back the network formed by the HMBC correlations of the molecules present in a naturel extract, then isolates the groups of correlations belonging to the individual molecules using a community detection algorithm. The molecules are identified by searching these correlations within a locally constructed database that associates natural product structures and 2D NMR peak positions. Finally, the HSQC correlations of the molecules identified during the previous step are compared to the experimental HSQC correlations of the studied extract in order to increase the quality of identification accuracy
APA, Harvard, Vancouver, ISO, and other styles
9

Wojciechowski, Christine. "Apports de la chimiométrie à l'interprétation des données de la spectroscopie infrarouge : caractérisation des matières premières et matériaux d'emballage dans l'agro-alimentaire." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-63.pdf.

Full text
Abstract:
Dans l'industrie agroalimentaire, la maitrise de la qualite s'applique autant sur les produits finis que sur les matieres premieres. Les techniques d'analyses classiques, longues et couteuses, posent des problemes de gestion des flux pour des controles de routine. En revanche, la spectroscopie irtf est une technique simple, rapide, fiable et specifique. Combinees avec des methodes chimiometriques qui contribuent a sa rapidite grace au traitement automatique des donnees spectrales, son utilisation est envisagee pour resoudre les problemes donnes. Neanmoins, les methodes d'analyses necessitant l'etablissement d'une calibration souvent longue, leur developpement est justifie pour des analyses frequentes. Afin d'evaluer le potentiel de l'irtf dans le domaine alimentaire, differentes applications ont ete developpees. Avec un echantillonnage adapte (en transmission, en reflexion, par couplage microscopique), les resultats sont competitifs tant sur le domaine qualitatif que quantitatif. La constitution d'une base de donnees de reference permet une caracterisation automatique des ingredients et materiaux d'emballage a reception ainsi qu'une identification des corps etrangers. Apres calibration par regression pls sur des spectres atr, la quantification des vitamines (b1, b2, b6 et pp) dans un melange multivitamines conduit a des erreurs de 3 a 10% par comparaison aux techniques d'analyses traditionnelles. L'application des reseaux de neurones artificiels non supervises (de type kohonen) ou supervises offre la possibilite de discriminer les amidons natifs des amidons modifies avec une precision comparable aux methodes statistiques (pca et pls). Enfin, en complement de la methode cpg, apres calibration par regression pls sur des spectres atr, l'irtf permet d'obtenir rapidement une estimation globale de la teneur en acides gras trans (agt) dans les matieres grasses pour suivre leur evolution au cours des procedes de fabrication.
APA, Harvard, Vancouver, ISO, and other styles
10

Buchholz, Bert. "Abstraction et traitement de masses de données 3D animées." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00958339.

Full text
Abstract:
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées.
APA, Harvard, Vancouver, ISO, and other styles
11

Buchholz, Bert. "Abstraction et traitement de masses de données 3D animées." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0080.

Full text
Abstract:
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées
In this thesis, we explore intermediary structures and their relationship to the employed algorithms in the context of photorealistic (PR) and non-photorealistic (NPR) rendering. We present new structures for rendering as well as new uses for existing structures. We present three original contributions in the NPR and PR domain: First, we present binary shading, a method to generate stylized black and white images, inspired by comic artists, using appearance and geometry in a graph-based energy formulation. The user can control the algorithm to generate images of different styles and representations. The second work allows the temporally coherent parameterization of line animations for texturing purposes. We introduce a spatio-temporal structure over the input data and an energy formulation for a globally optimal parameterization. Similar to the work on binary shading, the energy formulation provides a an important and simple control over the output. Finally, we present an extension to Point-based Global Illumination, a method used extensively in movie production during the last years. Our work allows compressing the data generated by the original algorithm using quantification. It is memory-efficient and has only a neglegible time overhead while enabling the rendering of larger scenes. The user can easily control the strength and quality of the compression. We also propose a number of possible extensions and improvements to the methods presented in the thesis
APA, Harvard, Vancouver, ISO, and other styles
12

Laloum, Eric. "Classification de calculs biliaires et urinaires à partir de spectres vibrationnels et de critères morphologiques : relation avec des données cliniques." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0591.

Full text
Abstract:
La lithiase est une complication fréquente de la cristallisation au sein des liquides sursaturés de l'organisme que sont la bile et l'urine. La prévention de la maladie repose sur une meilleure connaissance de la lithogenèse ; et l'analyse des calculs y joue un rôle majeur à double titre : au niveau thérapeutique, pour orienter me traitement médical de la lithiase et ainsi éviter la récidive, et au niveau épidémiologique, pour identifier les facteurs de risque associes aux divers types de calculs. Plusieurs centaines de calculs biliaires et urinaires de porteurs de diverses ethnies (France, Maghreb et Vietnam) ont été analysées par spectrométries d'absorption infrarouge et de diffusion Raman. Un examen morphologique des calculs ainsi qu'un questionnaire clinique ont complété ces analyses. Afin de trouver des associations entre les trois jeux de données expérimentales de notre étude, des techniques statistiques multivariables ont été utilisées.
APA, Harvard, Vancouver, ISO, and other styles
13

Gu, Co Weila Vila. "Méthodes statistiques et informatiques pour le traitement des données manquantes." Phd thesis, Conservatoire national des arts et metiers - CNAM, 1997. http://tel.archives-ouvertes.fr/tel-00808585.

Full text
Abstract:
Cette thèse est consacrée au traitement des données manquantes. Des méthodes descriptives (analyse en composantes principales, analyse des correspondances dont analyse homogène et la classification automatique) sont étudiées dans le cadre des données incomplètes. La seconde partie est consacrée à des problèmes de fusion de fichiers et analyses homogène y est introduite.
APA, Harvard, Vancouver, ISO, and other styles
14

Mouginot, Jérémie. "Traitement et analyse des données du radar MARSIS/Mars Express." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10291.

Full text
Abstract:
Ce mémoire décrit le traitement et l'analyse des données du Mars Advanced Radar for Subsurface and Ionosphere Sounding (MARSIS). Le traitement de ces données a principalement consisté à compenser la distorsion ionosphérique. Cette correction a permis de réaliser une mesure indirecte du contenu électronique de l'ionosphère. Grâce à ces mesures, nous avons pu étudier en détail l'ionosphère martienne. Nous avons ainsi montré que le champ magnétique rémanent modifiait la distribution des électrons de l'ionosphère en précipitant les particules du vent solaire le long des lignes de champ radiales. Les radargrammes corrigés nous ont permis d'étudier en détail les calottes martiennes. Nous faisons le bilan du volume des calottes polaires de Mars en utilisant des outils numériques développés pour le pointage des interfaces. Nous montrons ainsi que le volume des calottes correspondrait à une couche d'eau d'environ 20 m d'épaisseur répartie sur toute la planète. Nous étudions enfin la réflectivité de la surface martienne. Pour cela, nous avons extrait l'amplitude de l'écho de surface de chaque pulse MARSIS, puis, après avoir calibré ces mesures, nous avons créé une carte globale de l'albédo radar. Nous nous sommes attachés à décrire cette carte de réflectivité, d'abord de manière globale, puis plus localement autour de Medusae Fossae et de la calotte résiduelle sud. Nous montrons que la réflectivité décroît avec la latitude, cette constatation est surement liée à la présence d'un pergélisol lorsqu'on remonte vers les hautes latitudes. Près de l'équateur, nous observons que les formations de Medusae Fossae possèdent une constante diélectrique de 2,4+/-0. 5 ce qui est caractéristique d'un terrain poreux et/ou riche en glace. Dans cette même région, nous montrons que, dans les plaines d'Elysium et Amazonis, la constante diélectrique est égale à 7\pm1 et nous observons une interface dans la plaine d'Amazonis à environ 140+/-20 m, notre conclusion est que ces résultats sont caractéristiques d'écoulements de lave. L'étude de la calotte résiduelle sud de Mars, à l'aide d'un modèle de réflectivité multi-couches, nous permet d'estimer l'épaisseur de CO2 qui couvre cette région à 11+/-1. 5 m
This manuscript describes the data processing and analysis of the Mars Advanced Radar for Subsurface and Ionosphere Sounding (MARSIS). The data processing consists mainly to compensate the ionospheric distorsion. This correction provides as beneficial by-product to estimate the total electron content of the martian ionosphere. Using this results, we study in detail the martian ionosphere. We show that the remnant magnetic fied changes the spatial distribution of electrons in the ionosphere by accelerated the solar wind particles along magnetic field lines. The corrected radargrams provide the opportunity to study in detail the martian polar deposits. After the development of numerical tools to select the subsurface interfaces, we make a volume balance of the martian polar deposits. We show that the volume of the martian ice sheets is equivalent to a global water layer thickness of about 20 m. In a last part, we study the martian surface reflectivity. To do that, we extract the surface echo amplitude from each MARSIS pulse, and then, after calibrate it, we construct a global map of radar reflectivity (radar albedo). We describe the reflectivity map, firstly in a global point of view and secondly, more regionally around Medusae Fossae and the south residual cap of Mars. We show that the reflectivity decreases with the latitude, this constatation is probably linked to the presence of permafrost in the shallow subsurface. Near equator, we observe that the Medusae Fossae Formation corresponds to a dielectric constant of 2,4+/-0. 5, which is carateristic of a porous and/or ice rich terrain. In the same region, we show that the dielectric constant of Elysium and Amazonis Planitia is equal to 7+/-1 and we observe a interface at about 140+/-20 m under the surface, our main conclusion is that these results are characterics of lava floods. Finally, the study of the reflectivity of south residual of Mars by a multi-layers model of reflectivity, shows that the CO2 layer covering this region has a thickness of about 11+/-1. 5 m
APA, Harvard, Vancouver, ISO, and other styles
15

Mouginot, Jérémie. "Traitement et Analyse des Données du Radar MARSIS/Mars Express." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00364323.

Full text
Abstract:
Ce mémoire décrit le traitement et l'analyse des données du Mars Advanced Radar for Subsurface and Ionosphere Sounding (MARSIS).

Le traitement de ces données a principalement consisté à compenser la distorsion ionosphérique. Cette correction a permis de réaliser une mesure indirecte du contenu électronique de l'ionosphère. Grâce à ces mesures, nous avons pu étudier en détail l'ionosphère martienne. Nous avons ainsi montré que le champ magnétique rémanent modifiait la distribution des électrons de l'ionosphère en précipitant les particules du vent solaire le long des lignes de champ radiales.

Les radargrammes corrigés nous ont permis d'étudier en détail les calottes martiennes. Nous faisons le bilan du volume des calottes polaires de Mars en utilisant des outils numériques développés pour le pointage des interfaces. Nous montrons ainsi que le volume des calottes correspondrait à une couche d'eau d'environ 20 m d'épaisseur répartie sur toute la planète.

Nous étudions enfin la réflectivité de la surface martienne. Pour cela, nous avons extrait l'amplitude de l'écho de surface de chaque pulse MARSIS, puis, après avoir calibré ces mesures, nous avons créé une carte globale de l'albédo radar. Nous nous sommes attachés à décrire cette carte de réflectivité, d'abord de manière globale, puis plus localement autour de Medusae Fossae et de la calotte résiduelle sud. Nous montrons que la réflectivité décroît avec la latitude, cette constatation est surement liée à la présence d'un pergélisol lorsqu'on remonte vers les hautes latitudes. Près de l'équateur, nous observons que les formations de Medusae Fossae possèdent une constante diélectrique de 2,4+/-0.5 ce qui est caractéristique d'un terrain poreux et/ou riche en glace. Dans cette même région, nous montrons que, dans les plaines d'Elysium et Amazonis, la constante diélectrique est égale à 7\pm1 et nous observons une interface dans la plaine d'Amazonis à environ 140+/-20 m, notre conclusion est que ces résultats sont caractéristiques d'écoulements de lave. L'étude de la calotte résiduelle sud de Mars, à l'aide d'un modèle de réflectivité multi-couches, nous permet d'estimer l'épaisseur de CO2 qui couvre cette région à 11+/-1.5 m.
APA, Harvard, Vancouver, ISO, and other styles
16

Royer, Jean-Jacques. "Analyse multivariable et filtrage des données régionalisées." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Full text
Abstract:
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
APA, Harvard, Vancouver, ISO, and other styles
17

Fraisse, Bernard. "Automatisation, traitement du signal et recueil de données en diffraction x et analyse thermique : Exploitation, analyse et représentation des données." Montpellier 2, 1995. http://www.theses.fr/1995MON20152.

Full text
Abstract:
La recherche en chimie du solide necessite l'utilisation et la maitrise de techniques indispensables telles que la diffraction des rayons x et l'analyse thermique. Tout en ameliorant leurs performances, l'automatisation des appareils classiques permet a un grand nombre de laboratoires d'acceder a ces techniques pour un cout modeste. Cette derniere n'a pu etre envisagee qu'apres le developpement d'outils informatiques, en particulier les bibliotheques de communication entre le micro-ordinateur et les differents peripheriques. Les logiciels d'acquisition, d'exploitation, de representation tridimensionnelle et de comparaison des diffractogrammes de rayons x avec ceux contenus dans un fichier de references, ont ete concus et ecrits au laboratoire. De plus, la realisation de chambres de mesures autorise l'enregistrement des diffractogrammes en fonction de la temperature. L'experience acquise a pu etre appliquee a l'analyse thermique: les logiciels ecrits permettent respectivement l'acquisition et l'exploitation des diagrammes d'analyse thermique, directe et differentielle
APA, Harvard, Vancouver, ISO, and other styles
18

Woiselle, Arnaud. "Parcimonie et ses applications à des données de flot optique." Paris 7, 2010. http://www.theses.fr/2010PA077201.

Full text
Abstract:
Cette thèse adresse la résolution de problèmes inverses par l'utilisation de transformées parcimonieuses tridimensionnelles. Nous présentons tout d'abord les systèmes d'imagerie infrarouge et les problèmes liés aux bruits et aux données manquantes, puis nous faisons un court état de l'art des techniques industrielles de traitement d'images. Nous introduisons ensuite le concept de parcimonie et présentons les algorithmes et représentations classiques de ce domaine. Le coeur de ce travail de recherche est le développement de nouvelles représentations 3D, qui sont bien adaptées à la représentation des surfaces et des filaments dans un volume 3D. Deux nouvelles transformées sont proposées, ainsi que la modification d'une troisième, les curvelets rapides, en vue de réduire sa redondance. Ces outils sont alors appliqués à la résolution de divers problèmes inverses comme le débruitage, l'inpainting ou le désentrelacement. Des expériences numériques montrent la qualité des résultats. Finalement, nous proposons quelques applications concrètes utilisant des transformées parcimonieuses au traitement de vidéos infrarouges, telles que la détection de petites cibles, ou la déconvolution de flou de bougé
This manuscript addresses inverse problems using 3D sparsifying transforms in the context of infrared video. We first survey the infrared imaging System and the problems associated such as noise and missing data, and make a short state of the art on industrial imaging processing technics Then we introduce the concept of sparsity and present common algorithms and representations used in this domain. The core of this research is the development of new 3D representations, which are well adapted to representing surfaces or filaments in a 3D volume. Two innovative transforms are proposed, and an existing one ~ the fast curvelet transform — is modified to better suit the applications by reducing its redundancy. These tools are used in many inverse problems such as denoising, inpainting and video deinterlacing, and prove to be very useful and competitive. Finally, we propose a few concrete applications of sparse transforms to infrared video processing, such as small targets detection or motion blur deconvolution
APA, Harvard, Vancouver, ISO, and other styles
19

Revenu, Benoît. "Anisotropies et polarisation du rayonnement fossile: méthode de détection et traitement de données." Phd thesis, Université Paris-Diderot - Paris VII, 2000. http://tel.archives-ouvertes.fr/tel-00001686.

Full text
Abstract:
Le rayonnement fossile regorge d'une multitude d'informations physiques sur l'univers tel qu'il était quelques centaines de milliers d'années après le Big-Bang. L'analyse de ses fluctuations de température et de polarisation permet de mesurer les paramètres cosmologiques et de contraindre les théories de l'univers primordial. La polarisation permet en particulier de lever des dégénérescences entre certains paramètres cosmologiques en donnant un accès direct aux ondes gravitationnelles primordiales.
La première partie de cette thèse est consacrée au modèle standard de la cosmologie. Je présente en particulier la polarisation du rayonnement fossile.
Le signal polarisé, dont l'intensité n'excède pas dans la plupart des scénarios 10 % des fluctuations de température, est attendu à quelques micro kelvins. Pour le mesurer, on utilise souvent des bolomètres refroidis, couplés à des polariseurs. Je montre qu'il existe des dispositions optimales des détecteurs dans le plan focal de l'instrument minimisant le volume de la boîte d'erreurs et permettant d'avoir des erreurs décorrélées sur les paramètres de Stokes, caractérisant la polarisation.
La source majeure de bruit dans ces mesures provient des fluctuations du bain thermique dans lequel plongent les bolomètres, de l'électronique de lecture, des instabilités de gain et de l'optique. Ces processus engendrent des dérivez basses fréquences qui se traduisent par des niveaux de bruit relatifs entre détecteurs trop importants par rapport au signal recherché. J'applique aux donné polarisées une méthode simple permettant de soustraire aux dérives basses fréquences; elle utilise les redondances inhérentes à la stratégie de balayage du ciel par l'instrument. Les résultats montrent que ces dérives peuvent être soustraites jusqu'au niveau du bruit blanc.
Enfin, je décris l'expérience COSMOSOMAS et présente une analyse préliminaire. Elle fournira des cartes de l'émission polarisée de notre galaxie à des fréquences de l'ordre de 10 GHz.
APA, Harvard, Vancouver, ISO, and other styles
20

Marcel, Patrick. "Manipulations de données multidimensionnelles et langages de règles." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0093.

Full text
Abstract:
Ce travail est une contribution à 1' étude des manipulations dans les entrepôts de données. Dans la première partie, nous présentons un état de l'art concernant les langages de manipulations de données multidimensionnelles dans les systèmes d'analyse en ligne de données (systèmes OLAP). Nous mettons en évidence des possibilités de combinaisons intéressantes qui n'ont pas été étudiées. Ces pistes sont utilisées dans la deuxième partie pour proposer un langage de manipulation de données simple à base de règles, qui permet de spécifier les traitements typiques dans les systèmes OLAP. Dans une troisième partie, nous illustrons l'exploitation de ce langage pour décrire des traitements de type OLAP dans les tableurs, et automatiser en partie la génération des feuilles de calcul
This works is a contribution to the study of the manipulations in data warehouses. In the first part, we present a state of the art about multidimensional data manipulation languages in systems dedicated to On-Line analytical Processing (OLAP systems). We point out interesting combinations that haven't been studied. These conclusions are used in the second part to propose a simple rule-based language allowing specifying typical treatments arising in OLAP systems. In a third part, we illustrate the use of the language to describe OLAP treatments in spreadsheets, and to generate semi automatic spreadsheet programs
APA, Harvard, Vancouver, ISO, and other styles
21

Bisgambiglia, Paul-Antoine. "Traitement numérique et informatique de la modélisation spectrale." Corte, 1989. http://www.theses.fr/1989CORT3002.

Full text
Abstract:
L'ensemble du travail présent dans ce mémoire se coordonne autour des deux points forts suivants: mise au point d'un logiciel informatique spécifique appliqué à la résolution de problèmes décrits par des formes variationnelles faisant intervenir des opérateurs linéaires du second ordre. Cet outil est un logiciel d'éléments finis original (permettant de résoudre des problèmes numériques ardus, sur des petits calculateurs de type pc, et malgré tout très souple d'utilisation) car reposant sur des théorèmes et résultats nouveaux concernant les formes variationnelles, les bases propres, associées aux différents opérateurs permettant de décrire une gamme très large de problèmes. Traitement complet de problèmes de modélisation complexes, par application de la théorie et des méthodes issus de l'analyse spectrale, depuis leurs fondements les plus théoriques, jusqu'à leur résolution.
APA, Harvard, Vancouver, ISO, and other styles
22

Sablayrolles, Jean-François. "Les néologismes du français contemporain : traitement théorique et analyses de données." Paris 8, 1996. http://www.theses.fr/1996PA081066.

Full text
Abstract:
L'objectif de ce travail consiste a examiner la place des neologismes dans l'interlocution et les traitements de la neologie dans les theories linguistiques. Cet examen conduit a comparer les definitions donnees par des dictionnaires et encyclopedies de la fin du siecle dernier et de l'epoque contemporaison d'une centaine de typologies etablies dans ces memes periodes amene a envisager les concepts mis en place dans plusieurs modeles linguistiques contemporains, structuralistes ou generativistes. La diversite des solutions proposees et les difficultes qu'elles rencontrent poussent a s'interroger sur la nature de l'unite linguistique pertinente. La notion de mot, controversee et insuffisante, est abandonnee au profit de la lexie, unite fonctionnelle memorisee en competence. C'est ensuite la notion de nouveaute qui est examinee sous deux aspects: nouveau pour qui et nouveau par rapport a quoi? la constitution et l'examen de six corpus de plusieurs origines (divers, hebdomadaires, un roman de r. Jorif, le burelain, les chroniques de ph. Meyer, le monde et des neologismes recueillis dans un lycee) permettent de tester les definitions adoptees et de confirmer, pour l'essentiel, des hypotheses emises sur les inegalites des membres de la communaute linguistique face au phenomene neologique. Tout le monde ne creee pas autant de neologismes, ni les memes. Des analyses complementaires suscitees par l'examen des donnees envisagent l'existence de circonstances favorables a la neologie, puis de causes qui poussent un locuteur a creer une nouvelle lexie et a propos desquelles l'interpretant fait des hypotheses. Enfin des considerations liees a la circulation du dire precisent le concept de mouveaute et montrent les incertitudes qui pesent sur l'avenir des lexies creees par un locuteur donne dans des circonstances donnees
The aim of the present work is to examine the place of neologisms in interlocution and the treatments of neology in linguistic theories. This examination induces to compare the definitions given by some dictionaries and encylopedias of the end of the last century and of nowadays. Then the comparison between about a hundred typologies made in these same periods leads to consider the concepts set in several contemporary linguistic models, whether structuralist or generativist. Diversity of the proposed solutions and the dificulties they encounter egg to inquire about the nature of the relevant linguistic unity. The notion of word, debated and insufficient, is leaved on behalf of lexie, functional unity memorized in competence,then,it is the notion of newness which is examined from two points of view:new for whom and new when compared with what? the formation and examination of six corpus from different origines (miscellaneous, weekly papers, a novel by r. Jorif, le burelain, the chronicles of ph. Meyer,le monde, and neologisms collected in a lycee) allow to test the taken up definitions and to bear out, for the maint points, some expressed hypothesis about the inequalities between membres of the linguistic community facing the neologic phenomenon. Everybody does not create as many neologisms nor the same ones. Complementary analysis, caused by the examination of the facts, consider the existence of circumstances propitious to neology, then of causes which egg the locuteur to create a new lexie and about which the interpretant makes hypothesis. At last, considerations connected with the circulation du dire specify the concept of newness and show the incertitudes which bear on the future of lexies created by a definite locuteur in definite circumstances
APA, Harvard, Vancouver, ISO, and other styles
23

Lerat, Nadine. "Représentation et traitement des valeurs nulles dans les bases de données." Paris 11, 1986. http://www.theses.fr/1986PA112383.

Full text
Abstract:
Cette thèse étudie la représentation et le traitement de deux types d'informations incomplètes dans le contexte des bases de données : les valeurs nulles non applicables et les valeurs nulles représentant des objets inconnus. Dans une première partie, les requêtes portant sur une table unique contenant des valeurs non applicables sont traduites par un ensemble de requêtes sur des multitables conventionnelles. Dans une seconde partie, les valeurs nulles inconnues sont représentées par des constantes de Skolem et une méthode adaptant à ce contexte un algorithme de "chasse" permet d'évaluer des requêtes en présence de dépendances fonctionnelles ou d'inclusion. Des techniques efficaces d'évaluation sont proposées. On montre, en conclusion, que les deux types de valeurs nulles ci-dessus peuvent être pris en compte simultanément
This thesis deals with the representation and treatment of two cases of information incompleteness in the field of databases: non applicable null values and null values representing unknown objects. In the first part, queries on a unique table containing non applicable nulls are translated into a set of queries on conventional multitables. In the second part, unknown null values are represented by Skolem constants and a method adapting to this context a "chase" algorithm allows evaluating queries when functional or inclusion dependencies are satisfied. Eventually, it is shown that these two types of null values can be taken into account simultaneously
APA, Harvard, Vancouver, ISO, and other styles
24

Gassot, Oriane. "Imagerie SAR du régolithe d'un astéroïde : simulation et traitement des données." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALY016.

Full text
Abstract:
Les radars pénétrant sont des instruments embarqués à bord de multiples missions spatiales depuis plusieurs années. En mettant à profit des observations obtenues depuis différentes orbites séparées spatialement, ils peuvent mener à l’utilisation de techniques de tomographie radar en 3D afin d’imager la structure interne de corps planétaires, notamment des astéroïdes, et améliorer les modèles de formations et d’évolution des astéroïdes. Cependant, même si les radars à synthèse d'ouverture (SAR) spatiaux sont classiques afin de détecter et reconstruire des structures planétaires, pour une telle étude effectuée à quelques kilomètres d’un astéroïde, la taille, la vitesse de rotation et au final la géométrie d’observation elle-même remets en question les hypothèses habituellement formulées pour l'observation de la Terre. De plus, afin d’atteindre la résolution métrique nécessaire afin d'observer des astéroïdes kilométriques, le radar doit être à très large bande (UWB) en range et en doppler, ce qui remets également en cause les modèles de synthèse SAR. Puisque les performances du radar, et donc le retour scientifique de la mission, dépendent de la géométrie d’observation et de la configuration du radar, des simulations du signal radar et de la synthèse SAR dans la géométrie d’un petit corps doivent être mis en place. Le but de ma thèse est d'étudier les performances du radar UWB HFR, développé afin d’étudier les petits corps avec des fréquences allant de 300 à 800 MHz, en étudiant les retours du radar.En créant dans un premier temps des modèles numériques de terrains réalistes d’astéroïdes, plusieurs modèles de diffusions ont été étudiés afin de sélectionner le modèle le plus apte à modéliser le champ réfléchi par la surface d’un astéroïde. L’approximation de Kirchhoff (KA) a été sélectionnée et appliquée sur les modèles de terrain créés, et a permis de construire des images SAR qui localisent correctement le terrain simulé, et qui différencient les zones rugueuses des terrains des zones plus planes. Ensuite, l’approximation de Born (BA) a été sélectionnée afin de modéliser le champ réfléchi par la sous-surface d’un astéroïde, permettant de construire des images SAR qui localisent correctement une inclusion enfouie sous la surface. Avec une géométrie d’observation multipass, des algorithmes de tomographie ont été appliqués à partir des résultats obtenus avec BA, afin d’améliorer leur résolution dans la troisième dimension de l’espace, ainsi que la précision de la localisation de la cible enfouie. Enfin, l’étude des performances de la diffusion UWB a permis d’évaluer que, contrairement à ce qui était pressenti, la diffusion UWB n’entraine qu’une dégradation limitée de la résolution en range, et en azimuth
In recent years, surface-penetrating radars were part of several space missions dedicated to study the bodies of the solar system. These radars, associated with repeat-pass observations and processing, can lead to 3D radar tomography, which results in 3D imagery of the first tens of meters of the sub-surface of planetary bodies. This technique can be used to better understand and model the formation processes and post-accretion evolution of asteroids. However, even though spaceborne SAR is a classical technique used for the detection and reconstruction of planetary structures, the small body geometry of observation reconsiders the hypotheses usually formulated for Earth observation. Furthermore, in order to achieve the metric-resolution necessary to study kilometric-sized asteroids with sufficient precision, the radar has to be ultra-wideband in range and in Doppler, which also question the SAR synthesis models established for narrow band signals. As the radar geometry of study and configuration drives the instrument performance, and thus the mission science return, simulation of the radar signal and the SAR synthesis needs to be developed while taking into account the specificity of the small body geometry. Thus, my thesis aims at assessing the performances of the UWB SAR HFR, which is dedicated to the study of small bodies, with frequencies ranging from 300 to 800 MHz, by simulating the radar's return.By creating firsly realistic asteroid digital terrain models (DTM), several surface scattering models were studied in order to select the model most suited to simulate the field scattered by the surface of an asteroid. The Kirchhoff Approximation (KA) was selected and applied on the generated DTM, and was used to build SAR images which correctly locate the DTM studied, and which differenciate the terrain’s rough areas from the smooth ones. Then, the Born Approximation (BA) was selected to model the field reflected by the asteroid subsurface and was found out to correctly locate an inclusion below the surface of an asteroid. With a multipass geometry, tomography algortihms were applied to the BA results in order to improve the resolution of the results in the third dimension of space, as well as the precision of the localisation of the inclusion. Finally, the performances of UWB scattering were studied, and, unlike what was foreseen, UWB scattering generates only a small degradation of the resolution in range and in azimuth
APA, Harvard, Vancouver, ISO, and other styles
25

Pucheu, Chantal. "Etude de la goutte : traitement par l'allopurinol : données pharmacologiques et toxicologiques." Bordeaux 2, 1992. http://www.theses.fr/1992BOR2P003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Spill, Yannick. "Développement de méthodes d'échantillonnage et traitement bayésien de données continues : nouvelle méthode d'échange de répliques et modélisation de données SAXS." Paris 7, 2013. http://www.theses.fr/2013PA077237.

Full text
Abstract:
La détermination de la structure de protéines et d'autres complexes macromoléculaires est de plus en plus difficile. Les cas les plus simples ont étés déterminés, et la recherche actuelle en bioinformatique se focalise sur des cibles de plus en plus compliquées. Pour déterminer la structure de ces complexes, il est devenu nécessaire de combiner différentes expériences et d'utiliser des données de moins bonne qualité. En d'autres termes, la détermination de structures utilise de plus en plus de données éparses, bruitées et incohérentes. Par conséquent, il est devenu essentiel de pouvoir quantifier l'exactitude d'une structure, une fois déterminée. Cette quantification est parfaitement accomplie par inférence statistique. Dans cette thèse, je développe un nouvel algorithme d'échantillonnage, l'Échange de Répliques Convectif, qui perme de trouver des structures probables de façon plus robuste. Je propose également un traitement statistique de données continues, comme celles obtenues par diffusion des rayons X aux petits angles
The determination of protein structures and other macromolecular complexes is becoming more and more difficult. The simplest cases have already been determined, and today's research in structural bioinformatics focuses on ever more challenging targets. To successfully determine the structure of these complexes, it has become necessary to combine several kinds of experiments and to relax the quality standards during acquisition. In other words, structure determination makes an increasing use of sparse, noisy and inconsistent data. It is therefore becoming essential to quantify the accuracy of a determined structure. This quantification is superbly achieved by statistical inference. In this thesis, I develop a new sampling algorithm, Convective Replica-Exchange, sought to find probable structures more robustly. I also propose e proper statistical treatment for continuous data, such as Small-Angle X-Ray Scattering data
APA, Harvard, Vancouver, ISO, and other styles
27

Héraud, Bousquet Vanina. "Traitement des données manquantes en épidémiologie : Application de l'imputation multiple à des données de surveillance et d'enquêtes." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00713926.

Full text
Abstract:
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d'intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L'objectif de ce travail a été d'investiguer et d'appliquer une méthode d'imputation multiple à des données transversales d'enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l'application d'une méthode d'imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l'infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d'une base de données de surveillance de l'hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind'identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d'application d'une analyse de sensibilité aux hypothèses sous-jacentes àl'imputation multiple. Enfin, nous avons décrit l'élaboration d'un processus d'imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d'évaluation et devalidation.Les applications pratiques présentées nous ont permis d'élaborer une stratégie de traitement des données manquantes, incluant l'examen approfondi de la base de données incomplète, la construction du modèle d'imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses.
APA, Harvard, Vancouver, ISO, and other styles
28

Héraud, Bousquet Vanina. "Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T017/document.

Full text
Abstract:
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses
The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses
APA, Harvard, Vancouver, ISO, and other styles
29

Marot, Julien. "Méthodes par sous-espaces et d'optimisation : application au traitement d'antenne, à l'analyse d'images, et au traitement de données tensorielles." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30051.

Full text
Abstract:
Cette thèse est consacrée aux méthodes par sous-espaces et d'optimisation, développées en traitement d'antenne, analyse d'images, et traitement du signal tensoriel. Des définitions concernant un problème de traitement d'antenne et les méthodes haute résolution sont présentées. Nous proposons une méthode d'optimisation appliquée à la localisation de sources en présence de distortions de phase pour un grand nombre de capteurs. Nous proposons des méthodes rapides pour l'estimation de l'orientation et de l'offset de contours rectilignes, plusieurs méthodes d'optimisation pour l'estimation de contours distordus, approximativement rectilignes ou circulaires. Nous donnons un état de l'art sur les méthodes de traitement du signal multidimensionnel: la troncature de la HOSVD, l'approximation de rang inférieur d'un tenseur, le filtre de Wiener multidimensionnel. Nous proposons une procédure de déploiement nonorthogonal de tenseur, utilisant la méthode présentée dans la première partie
This thesis is devoted to subspace-based and optimization methods, developed in array processing, image processing, tensor signal processing. Definitions concerning an array processing problem and high resolution methods are presented. We propose an optimization method applied to source detection in presence of phase distortions for a high number of sensors. We propose fast subspace-based methods for the estimation of straight line offset and orientation, several optimization methods to estimate distorted contours, nearly straight or circular. We provide a state-of-the art about multiway signal processing: truncation of the HOSVD, lower rank tensor approximation, multiway Wiener filtering. We propose a procedure for nonorthogonal tensor flattening, using the method presented in the first part
APA, Harvard, Vancouver, ISO, and other styles
30

Benzine, Mehdi. "Combinaison sécurisée des données publiques et sensibles dans les bases de données." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Full text
Abstract:
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes
Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
APA, Harvard, Vancouver, ISO, and other styles
31

Michel, François. "Validation de systèmes répartis : symétries d'architecture et de données." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT099H.

Full text
Abstract:
Cette these s'interesse a la validation de systemes repartis par analyse de l'espace des etats accessibles. Les symetries presentes dans un systeme, dans son architecture ou dans ses donnees, sont utilisees pour n'explorer qu'une partie des etats accessibles tout en conservant les capacites de verification et de test. L'exploitation des symetries permet alors l'analyse de systemes que l'explosion combinatoire mettait sinon hors de portee des techniques de description formelle. L'idee de base est de reduire le nombre des etats examines en ne considerant qu'un seul representant par classe d'equivalence d'etats symetriques. Grace a des structures syntaxiques introduites dans le langage de specification, le concepteur peut indiquer les symetries d'architecture ou de traitement du systeme considere. Les principales contributions de cette these sont: - les concepts de pool d'agents permutables et de trames de donnees, qui permettent les prises en compte respectives des symetries d'architecture et de donnees, et leur integration dans le langage ccs, - l'interpretation de ces constructeurs sur le domaine des graphes de comportement, au moyen d'une semantique transitionnelle, - la conception d'une algorithmique basee sur les concepts precedents pour la verification par bissimulation et la generation de tests
APA, Harvard, Vancouver, ISO, and other styles
32

Bilodeau, Antoine, and Antoine Bilodeau. "Traitement de données observationnelles et développement d'un code de simulation pour SpIOMM et SITELLE." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26907.

Full text
Abstract:
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
The arrival of the Fourier-transform imaging spectrometer SITELLE at the Canada-France-Hawaii telescope highlights the importance of having an exposure time calculator allowing the instrument’s users to plan ahead their observing proposals. A large part of my project is the development of a simulator able to reproduce the results obtained with SITELLE and its predecessor SpIOMM. The accuracy of the simulations is confirmed through comparison with SpIOMM data and SITELLE’s first observations. The second part of my project is the spectral analysis of observational data. SpIOMM’s large field of view allows us to study the properties (radial velocities and line intensities) of the ionized gas through the entirety of Arp 72, a pair of interacting galaxies. For the first time, the rotation curve in the optical and the metallicity gradient are obtained for NGC 5996, the main galaxy in Arp 72. Both SpIOMM and SITELLE results are also shown for the dwarf spiral galaxy NGC 7320.
The arrival of the Fourier-transform imaging spectrometer SITELLE at the Canada-France-Hawaii telescope highlights the importance of having an exposure time calculator allowing the instrument’s users to plan ahead their observing proposals. A large part of my project is the development of a simulator able to reproduce the results obtained with SITELLE and its predecessor SpIOMM. The accuracy of the simulations is confirmed through comparison with SpIOMM data and SITELLE’s first observations. The second part of my project is the spectral analysis of observational data. SpIOMM’s large field of view allows us to study the properties (radial velocities and line intensities) of the ionized gas through the entirety of Arp 72, a pair of interacting galaxies. For the first time, the rotation curve in the optical and the metallicity gradient are obtained for NGC 5996, the main galaxy in Arp 72. Both SpIOMM and SITELLE results are also shown for the dwarf spiral galaxy NGC 7320.
APA, Harvard, Vancouver, ISO, and other styles
33

Tencé, Marcel. "Un système informatique pour l'acquisition et le traitement des données en microscopie électronique : réalisation, mise au point et application." Paris 11, 1987. http://www.theses.fr/1987PA112449.

Full text
Abstract:
Par son principe même, la nouvelle génération de microscopes électroniques à balayage en transmission est particulièrement adaptée à un couplage avec une unité informatique. Cette dernière doit remplir plusieurs missions : la gestion des paramètres d’acquisition des données à travers le contrôle de certaines commandes du microscope, l’archivage du résultat et leur traitement a posteriori. Le microscope STD1 offre en outre des caractères spécifiques qui ont conditionné les choix techniques dans la conception de l'architecture du système informatique et la réalisation des interfaces nécessaires. Il assure la possibilité d'enregistrer les divers signaux délivres simultanément par le microscope pour une position donnée de la sonde sur l'échantillon. Il s'agit aussi des séquences d'images filtrées à différentes pertes d'énergie requises pour la cartographie élémentaire. Enfin, la duplication d'images dans des conditions de fonctionnement données ouvre le champ aux techniques de corrélation croisée pour l’estimation de la résolution et du rapport signal/bruit dans une image. Ce travail contient donc la description du hardware réalisé et des logiciels écrits pour remplir ces missions. Il se conclut par la description de trois applications originales réalisées avec l'ensemble de ce système : i) la détermination en ligne de la dimension fractale de familles d'agrégats, ii) la mesure de la résolution spatiale dans des images de cartographie chimique par spectroscopie de pertes d'énergie, iii) le développement quantitatif de ces méthodes avec une estimation raisonnable des limites de détection, à savoir l'identification d'un atome isolé
As a consequence of its general layout, the new generation of scanning transmission electron microscopes (STEM) is particularly well suited to be interfaced with a computer which has several functions the control of the electron microscope parameters used for image acquisition, the storage of the recorded data and their a posteriori processing. STEM instruments offer several specific characters which determine the technical choices for the elaboration of the digital system hardware and for building the required interfaces. These are the capability of simultaneously recording the data delivered by the different detection channels for one probe position on the specimen. It has also to handle the sequences of energy filtered images necessary for achieving elemental mapping. Finally, the replication of images in a given set of working conditions is the key for applying cross correlation techniques and estimating image parameters such as point resolution or signal to noise ratio. This work describes the hardware which has been built and the software which has been elaborated to fulfill these goals. As a conclusion, we present three different applications made with this system : i) on-line measurement of the fractal dimension of aggregates, ii) estimate of the spatial resolution in EELS chemical mapping, iii) quantitative development of these methods with a reasonable extrapolation of the detection limits to the identification of a single atom
APA, Harvard, Vancouver, ISO, and other styles
34

Malla, Noor. "Méthode de Partitionnement pour le traitement distribué et parallèle de données XML." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00759173.

Full text
Abstract:
Durant cette dernière décennie, la diffusion du format XML pour représenter les données générées par et échangées sur le Web a été accompagnée par la mise en œuvre de nombreux moteurs d'évaluation de requêtes et de mises à jour XQuery. Parmi ces moteurs, les systèmes " mémoire centrale " (Main-memory Systems) jouent un rôle très important dans de nombreuses applications. La gestion et l'intégration de ces systèmes dans des environnements de programmation sont très faciles. Cependant, ces systèmes ont des problèmes de passage à l'échelle puisqu'ils requièrent le chargement complet des documents en mémoire centrale avant traitement.Cette thèse présente une technique de partitionnement des documents XML qui permet aux moteurs " mémoire principale " d'évaluer des expressions XQuery (requêtes et mises à jour) pour des documents de très grandes tailles. Cette méthode de partitionnement s'applique à une classe de requêtes et mises à jour pertinentes et fréquentes, dites requêtes et mises à jour itératives.Cette thèse propose une technique d'analyse statique pour reconnaître les expressions " itératives ". Cette analyse statique est basée sur l'extraction de chemins à partir de l'expression XQuery, sans utilisation d'information supplémentaire sur le schéma. Des algorithmes sont spécifiés, utilisant les chemins extraits par l'étape précédente, pour partitionner les documents en entrée en plusieurs parties, de sorte que la requête ou la mise à jour peut être évaluée sur chaque partie séparément afin de calculer le résultat final par simple concaténation des résultats obtenus pour chaque partie. Ces algorithmes sont mis en œuvre en " streaming " et leur efficacité est validée expérimentalement.En plus, cette méthode de partitionnement est caractérisée également par le fait qu'elle peut être facilement implémentée en utilisant le paradigme MapReduce, permettant ainsi d'évaluer une requête ou une mise à jour en parallèle sur les données partitionnées.
APA, Harvard, Vancouver, ISO, and other styles
35

Toutain, Matthieu. "EdP géometriques pour le traitement et la classification de données sur graphes." Caen, 2015. https://hal.archives-ouvertes.fr/tel-01258738.

Full text
Abstract:
Les équations aux dérivées partielles (EDPs) jouent un rôle clé dans la modélisation mathématiques des phénomènes en sciences appliquées. En en traitement et analyse d'image et en vision par ordinateur, les EDPs géométriques ont été utilisées avec succès pour résoudre différents problèmes, tels que la restauration, la segmentation, l'inpainting, etc. De nos jours, de plus en plus de données sont collectées sous la forme de graphes ou réseaux, ou de fonctions définies sur ces réseaux. Il y a donc un intérêt à étendre les EDPs pour traiter des données irrégulières ou des graphes de topologies arbitraires. Les travaux de cette thèse s'inscrivent dans ce contexte. Ils traitent précisément des EDPs géométriques pour le traitement et la classification de données sur graphes. Dans une première partie, nous proposons une adaptation du SpS-Laplacien normalisé sur graphes pondérés de topologie arbitraire en utilisant le cadre des équations aux différences partielles (EdPs). Cette adaptation nous permet d'introduire une nouvelle classe de SpS-Laplacien sur graphe sous la forme d'une non-divergence. Nous introduisons aussi dans cette partie une formulation du SpS-Laplacien sur graphe définie comme une combinaison convexe de gradient. Nous montrons que cette formulation unifie et généralise différents opérateurs de différences sur graphe existants. Nous utilisons ensuite cet opérateur à travers l'équation de Poisson afin de calculer des distances généralisées sur graphe. Dans une deuxième partie, nous proposons d'appliquer les opérateurs sur graphes que nous avons proposés pour les tâches de classification semi-supervisée et de clustering, et de les comparer aux opérateurs sur graphes existants ainsi qu'a certaines méthodes de la littérature, telles que le Multiclass Total Variation clustering (MTV), le clustering par nonnegative matrix factorization (NMFR), ou encore la méthode INCRES
Partial differential equations (PDEs) play a key role in the mathematical modelization of phenomena in applied sciences. In particular, in image processing and computer vision, geometric PDEs have been successfuly used to solve many problems, such as image restoration, segmentation, inpainting, etc. Nowadays, more and more data are collected as graphs or networks, or functions defined on these networks. Knowing this, there is an interest to extend PDEs to process irregular data or graphs of arbitrary topology. The presented work follows this idea. More precisely, this work is about geometric partial difference equations (PdEs) for data processing and classification on graphs. In the first part, we propose a transcription of the normalized SpSLaplacian on weighted graphs of arbitrary topology by using the framework of PdEs. This adaptation allows us to introduce a new class of SpSaplacian on graphs as a non-divergence form. In this part, we also introduce a formulation of the SpSaplacian on graphs defined as a convex combination of gradient terms. We show that this formulation unifies and generalize many existing difference operators defined on graphs. Then, we use this operator with the Poisson equation to compute generalized distances on graphs. In the second part, we propose to apply the operators on graphs we defined, for the tasks of semi-supervised classification and clustering. We compare them to existing graphs operators and to some of the state of the art methods, such as Multiclass Total Variation clustering (MTV), clustering by non-negative matrix factorization (NMFR) or the INCRES method
APA, Harvard, Vancouver, ISO, and other styles
36

Hardy, Emilie. "Procédures expérimentales et traitement des données associées pour la mission spatiale MICROSCOPE." Observatoire de Paris (1667-....), 2013. https://hal.science/tel-02095140.

Full text
Abstract:
L'objectif de la mission MICROSCOPE est de tester le Principe d'Equivalence avec une précision encore inégalée de 1E-15. L'expérience sera menée en orbite grâce à un accéléromètre différentiel électrostatique embarqué à bord d'un microsatellite à traînée compensée. Elle consiste à comparer les accélérations appliquées à deux masses de composition différente en lévitation électrostatique pour les maintenir sur la même trajectoire. La précision de la mesure exploitée pour ce test est limitée par la connaissance à priori des paramètres de dimensionnement de l'instrument. Des sessions d'étalonnage en orbite sont indispensables pour évaluer précisément leurs valeurs afin de corriger la mesure des effets. Des procédures d'étalonnage appropriées ont été déterminées. Afin de valider leurs performances, elles ont été implémentées dans un simulateur dédié aux phases d'étalonnage et modélisant l'instrument, le satellite et son environnement. Par ailleurs, d'autres perturbations sont à considérer lors du traitement des données scientifiques : des effets numériques apparaissent du fait du caractère fini dans le temps de la mesure. Ces effets ont été évalués et une procédure de traitement des données a été déterminée afin de les minimiser en situation nominale ainsi qu'en cas de mesures manquantes, ces dernières pouvant amplifier les perturbations numériques. Enfin, un simulateur permettant de jouer l'ensemble de la mission a été développé afin d'étudier l'association des perturbations instrumentales et numériques. En reproduisant à la fois les phases d'étalonnage et de test du Principe d'Equivalence, il permet de valider le protocole de correction et de traitement de la mesure
The MICROSCOPE space mission aims at testing the Equivalence Principle with an accuracy of 1E-15. The instrument will be embarked on board a drag-free microsatellite, and consists in a differential electrostatic accelerometer composed of two test masses submitted to the same gravitional field but made of different material. The accelerations applied to the masses to maintain them relatively motionless are measured and will demonstrate a violation of the universality of free fall if found unequal. The accuracy of the measurement exploited for the test is limited by our a priori knowledge of the instrument physical parameters. An in-orbit calibration is needed to finely characterize them in order to correct the measurement. Appropriate calibration procedures have been determined. In order to validate their performances, they have been implemented in a software tool dedicated to the calibration sessions which simulates the instrument, the satellite and its environment. Other pertubations must be considered during the data analysis : numerical effects arise from the finite time span of the measurement. These effects have been evaluated and a procedure has been determined to process the data with minimal numerical perturbations, in a nominal situation as well as in the case of missing data, which may amplify these effects. Finally, a simulator has been developed for the entire mission scenario in order to study the association of instrumental and numerical simulations. This tool enables to simulate both the calibration sessions and the sessions for the test of the Equivalence Principle, and is therefore used to validate the protocol of measurement correction and analysis
APA, Harvard, Vancouver, ISO, and other styles
37

Dupuy, Marie-Pierre. "Essais de prospection électromagnétique radar en mines et au sol : interprétation et traitement des données." Bordeaux 1, 1987. http://www.theses.fr/1987BOR10504.

Full text
Abstract:
Une experimentation de la methode electromagnetique radar a permis de tester les possibilites du georadar ylr2 de oyo sur du granite, du calcaire et des roches volcaniques. Apres une description de l'appareillage et des sites etudies, on presente les enregistrements et leur interpretation. La penetration des ondes est liee a la resistivite de la roche. On montre que les images radar peuvent etre rapidement et facilement ameliorees grace a une deconvolution predictive et une egalisation spectrale
APA, Harvard, Vancouver, ISO, and other styles
38

Roumy, Aline. "Egalisation et décodage conjoints : méthodes turbo." Cergy-Pontoise, 2000. http://biblioweb.u-cergy.fr/theses/00CERG0100.pdf.

Full text
Abstract:
Afin d'assurer des transmissions fiables et a debit eleve, les recepteurs utilisent le decodage de canal mais doivent egalement combattre les interferences entre symboles apportees par les canaux selectifs en frequence. Si pour des raisons de complexite, les recepteurs classiques operent l'egalisation et le decodage de maniere disjointe, cette approche n'est pas optimale. Aussi, nous nous sommes interesses a des techniques d'egalisation et de decodage conjoints mais sous-optimales pour maintenir une complexite reduite. Ainsi, nous avons etudie le turbo-egaliseur, qui applique le principe iteratif des turbo-codes a notre contexte. Afin de mettre en evidence la perte due a la sous-optimalite du turbo-egaliseur, nous avons calcule les performances asymptotiques de la solution optimale (au sens map) au probleme de l'egalisation et du decodage conjoints et avons montre qu'elles peuvent differer de la borne babg code. Puis, nous avons propose une analyse fonctionnelle du processus iteratif qui permet de predire les performances et en particulier le point de declenchement de l'effet turbo. Cette analyse a egalement montre que le modele blanc gaussien est insuffisant pour representer l'erreur a l'entree du decodeur. Nous avons ensuite etendu l'approche de la turbo-egalisation a la detection multi-utilisateurs, qui traite les interferences entre symboles mais aussi entre utilisateurs. Cette generalisation a conduit a une premiere structure, que nous avons ensuite amelioree sans augmenter la complexite. Pour ce faire, nous avons propose d'une part un nouvel ordre de demodulation des utilisateurs, qui tient compte des interferences et d'autre part une nouvelle structure serie appelee full.
APA, Harvard, Vancouver, ISO, and other styles
39

Deveau, Matthieu. "Utilisation conjointe de données image et laser pour la segmentation et la modélisation 3D." Paris 5, 2006. http://www.theses.fr/2006PA05S001.

Full text
Abstract:
Le sujet de cette thèse est l’automatisation de la modélisation 3D de scènes complexes par combinaison d’une image numérique haute résolution et de données laser. Ces travaux s’articulent autour de trois principaux thèmes : l’estimation de pose, la segmentation et la modélisation. L’estimation de pose s’appuie sur l’appariement de points d’intérêts par corrélation entre image numérique et image d’intensité laser, et sur l’extraction d’éléments linéaires. La segmentation géométrique des données a été étudiée en s’appuyant sur le principe de segmentation hiérarchique, ce qui permet de combiner les données dans le processus de segmentation. Un outil de saisie semi-automatique basé sur la structure hiérarchique est proposé. La modélisation a été abordée au niveau des surfaces construites à partir de profils quelconques. On obtient ainsi une description de la scène en plans, cylindres à profils quelconques, surfaces de révolution et maillage, pour les parties complexes
This thesis deals with combining a digital image with laser data for complex scenes 3D modeling automation. Image and laser data are acquired from the same point of view, with a greater image resolution than the laser one. This work is structured around three main topics pose estimation, segmentation and modeling. Pose estimation is based both on feature points matching, between the digital image and the laser intensity image, and on linear feature extraction. Data segmentation into geometric features is done through a hierarchical segmentation scheme, where image and laser data are combined. 3D modeling automation is studied through this hierarchical scheme. A tool for semi-automated modeling is also derived from the hierarchical segmentation architecture. In the modeling step, we have focused on automatic modeling of cylinders with free-form profiles. The description is then very general, with planes, freeform profile cylinders, revolution objects, and meshes on complex parts
APA, Harvard, Vancouver, ISO, and other styles
40

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Full text
Abstract:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO, and other styles
41

Chmiel, Malgorzata. "Traitement de données géophysiques en réseaux denses en configuration sismique passive et active." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU009/document.

Full text
Abstract:
En géophysique, les réseaux denses améliorent la caractérisation spatiale et fréquentielle des différents types d’ondes dans le milieu. Bien entendu, l’acquisition en surface est sujette aux ondes de surface qui sont très fortes. Les ondes de surface ont un fort impact sur les données géophysiques acquises au niveau du sol. Elles peuvent être considérées comme du bruit et être sujettes à la suppression puisqu’elles cachent l’information de sous-surface. Cependant, elles peuvent être utiles pour l’imagerie de proche surface si elles sont convenablement récupérées.Dans tous les cas, leur caractérisation est cruciale en géophysique d’exploration active et passive. Dans la surveillance microsismique passive, le bruit de surface ambiant est composé d’ondes de surface. L’objectif principal de la surveillance passive est de minimiser l’impact des ondes de surface sur les données microsismiques. Le fort bruit de surface diminue la sensibilité etl’efficacité des méthodes de détection et de localisation. De plus, les méthodes actuelles de localisation et de détection nécessitent généralement la connaissance d’informations telles qu’un un modèle de vitesse ou un modèle d’événement. Dans la sismique active, de fortes ondes de surface sont générés par des sources actives. Les stratégies actuelles de traitement sont généralement basées sur une sélection manuelle des ondes de surface afin de choisir lesquelles garder. Il s’agit là d’une tâche complexe, coûteuse et sujette à interprétation. Cependant, cette tâche est nécessaire pour l’imagerie de proche-surface et de sous-surface. Les ondes de surface peuvent être particulièrement difficiles à récupérer dans des acquisitions clairsemées.Nous proposons d’appliquer les techniques d’interférométrie et de formation de voies (telles que le Matched Field Processing) dans le contexte des réseaux denses. Une densité de traces importante ouvre de nouvelles possibilités dans les traitements géophysiques, qu’ils soient actifs ou passifs. Nous montrons que le bruit ambiant peut être utilisé dans le traitement microsismique pour extraire des informations importantes sur les propriétés du milieu. De plus, nous développons une approche de débruitage qui permet de supprimer les sources de bruit à la surface et détecter les événements microsismiques. Nous proposons également une méthode automatique de détection et de localisation qui se base sur une quantité minimale d’information préalable qui permet de récupérer la distribution des hétérogénéités du réservoir, dans le voisinage du puits. En ce qui concerne la sismique active, nous proposons une approche interférométrique et automatique de caractérisation des ondes de surface. Nous récupérons les noyaux de sensibilité de phase des ondes de surface entre deux points quelconques de l’acquisition. Ces noyaux de sensibilité sont par conséquent utilisés pour obtenir les courbes de dispersion multimodales. Ces courbes de dispersion permettent la séparation des différents modes des ondes de surface, et fournissent l’information de proche surface suite à une simple inversion.Le réseau dense permet l’amélioration des méthodes présentées ci-dessus: elle permet des applications alternatives et innovantes dans le traitement du signal géophysique
In geophysics, spatially dense arrays enhance the spatial and frequential characterization of the various waves propagating in the medium. Of course, surface array is subject to strong surface waves. Surface waves highly impact the processing of geophysical data acquired at ground level. They can be considered as noise and subject to suppression as they mask sub-surface information.However, they can be useful for near-surface imaging if they are well retrieved. In any case, their characterization is crucial in active and passive exploration geophysics. In passive microseismic monitoring, ambient surface noise consists of surface waves. The main goal of passive monitoring is to minimize the impact of surface waves on the actual microseismic data. The strong ambient surface noise lowers the sensitivity and the efficiency ofdetection and location methods. Moreover, current location and detection methods usually require strong a priori information (e.g., a velocity model or a template).Active sources generate strong surface waves. In active seismic, current processing strategies often consist in manually picking surface wave arrivals in order to use or remove them. This is often a complex, time consuming, and an ambiguous task. However, it is needed for near- and sub-surface imaging. Surface waves can be particularly difficult to retrieve in sparse arrays. We propose to apply the techniques of interferometry and beamforming (Matched Field Processing in particular) in the context of dense arrays. High trace density opens new possibilities in geophysical processing in both passive and active surveys. We show that the ambient noise can be explored in the case of microseismic monitoring to extract important information about the medium properties. Moreover, we develop a denoising approach to remove the noise sources at the surface and detect the microseismic event. Furthermore, we propose an automatic detection and location method with a minimum a priori information to retrieve the distribution of heterogeneities in the reservoir, in the well vicinity.In active survey, we propose an interferometric, automatic approach to characterize the surface waves. We retrieve phase-sensitivity kernels of surface waves between any two points of the acquisition. These kernels are consequently used to obtain multi-mode dispersion curves. These dispersion curves make it possible to separate different modes of surface waves and provide near-surface information if inverted.The above presented methodologies benefit from spatially dense arrays.Dense arrays of sources or receivers enable alternative, innovative applications in geophysical processing
APA, Harvard, Vancouver, ISO, and other styles
42

Servière, Thierry. "Acquisition et traitement de données : application à la caractérisation des structures implantées F.E.T." Montpellier 2, 1986. http://www.theses.fr/1986MON20047.

Full text
Abstract:
Nous avons mis en place une chaine de mesure automatique destinee a la caracterisation de structures implantees fet, dans gaas et inp. Cette chaine est articulee autour d'un calculateur central de gestion qui distribue les taches a des peripheriques de mesure, de commande et de visualisation. L'essentiel de ce travail est de concevoir et realiser deux de ces peripheriques specialises: un voltmetre numerique rapide a memoire et programmable pour l'etude d'evenements transitoires rapides et une commande numerique de moteur pas a pas couplee mecaniquement a un monochromateur. Ces deux peripheriques a microprocesseur sont programmes en langage machine, puis inseres dans la chaine de mesure pilotee par le calculateur programme en basic. Cette chaine a permis l'acquisition de donnees experimentales puis leur traitement afin d'en ressortir les elements essentiels elabores et presentes sous la forme la plus significative pour le physicien. Les applications essentielles ont porte sur la caracterisation de structures implantees f. E. T. Sur les composes iii-v gaas et inp par les methodes de spectroscopies suivantes: tsc, picts et tsoa
APA, Harvard, Vancouver, ISO, and other styles
43

Wurbel, Nathalie. "Dictionnaires et bases de connaissances : traitement automatique de données dictionnairiques de langue française." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30035.

Full text
Abstract:
L'utilisation des versions informatisees de dictionnaires courants comme sources d'informations en traitement automatique du langage naturel a ete encouragee par la masse de connaissances lexicales et semantiques qu'ils contiennent. Cependant, apres 15 annees de recherches, les resultats apparaissent decevants et n'ont pas debouche sur une evaluation des bases de connaissances dictionnairiques, ni sur l'etude des retombees de ces recherches. Nous avons realise l'evaluation d'un dictionnaire francais. En nous placant dans le cadre de la construction automatique de taxinomies, nous avons repertorie les anomalies et les imperfections des informations extraites de facon automatique dont nous donnons une classification detaillee. Ces observations ont ete utilisees pour definir un modele de dictionnaire informatise destine a la fois a des utilisateurs humains et a des systemes de traitement automatique du langage naturel, ou les informations dictionnairiques sont representees dans une base de connaissances orientee objets. Nous proposons un automate de generation de definitions, fournissant un outil puissant d'aide a la redaction pour les lexicographes
APA, Harvard, Vancouver, ISO, and other styles
44

Delanchy, Patrice. "Mesure et traitement de données thermiques : contribution à la connaissance des sols viticoles." Angers, 1990. http://www.theses.fr/1990ANGE0003.

Full text
Abstract:
Pour caractériser les terroirs viticoles, les agronomes ont besoin d'un ensemble d'acquisition de données pédoclimatiques adapte au milieu naturel, autonome, consommant peu et aise d'emploi. Cet ensemble comprend plusieurs centrales d'acquisition équipées de sondes résistives métalliques, un lecteur pour transférer les données recueillies dans un calculateur de traitement et un dispositif de test pour les vérifications sur le terrain. Un logiciel complète ce système, permettant le suivi du matériel, la qualification des données, l'élaboration d'éléments statistiques et l'exportation vers d'autres logiciels tels les tableurs. Les mesures ainsi obtenues ont permis aux agronomes de déterminer avec précision les seuils thermiques correspondant aux différents stades phrénologiques de la vigne ainsi que le zéro de végétation. Ce matériel peut être utilisé de façon générale pour toute mesure de température en milieu un peu difficile.
APA, Harvard, Vancouver, ISO, and other styles
45

Fernandez, Pernas Jesus. "Optimisation et automatisation du traitement informatique des données spectroscopiques cérébrales (proton simple volume)." Caen, 2002. http://www.theses.fr/2002CAEN3079.

Full text
Abstract:
La SRM 1H est une technique utilisée pour étudier le métabolisme neuronal et glial par la quantification de paramètres biologiques. La précision de cette dernière s'avère délicate car de nombreux problèmes inhérents au signal RMN existent. Une description de ces problèmes ainsi que celle de méthodes de quantification existantes sont présentées dans le premier chapitre. Dans les second et troisième chapitres, des solutions innovantes sont proposées pour augmenter la précision et la reproductibilité du traitement des données spectrales : la sélection des CDILs pour améliorer le signal en éliminant les " mauvaises " acquisitions, la modélisation par paquets pour améliorer la quantification dans le domaine fréquentiel. L'ergonomie logicielle a été aussi perfectionnée grâce à une meilleure conception informatique. Dans le quatrième chapitre, trois applications cliniques permettent de tester dans des conditions in vivo ces solutions originales. Leurs avantages et inconvénients sont discutés dans le dernier chapitre
APA, Harvard, Vancouver, ISO, and other styles
46

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00599168.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de d écision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information.
APA, Harvard, Vancouver, ISO, and other styles
47

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10015.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de décision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information
The main topic of this thesis addresses the important problem of mining numerical data, and especially gene expression data. These data characterize the behaviour of thousand of genes in various biological situations (time, cell, etc.).A difficult task consists in clustering genes to obtain classes of genes with similar behaviour, supposed to be involved together within a biological process.Accordingly, we are interested in designing and comparing methods in the field of knowledge discovery from biological data. We propose to study how the conceptual classification method called Formal Concept Analysis (FCA) can handle the problem of extracting interesting classes of genes. For this purpose, we have designed and experimented several original methods based on an extension of FCA called pattern structures. Furthermore, we show that these methods can enhance decision making in agronomy and crop sanity in the vast formal domain of information fusion
APA, Harvard, Vancouver, ISO, and other styles
48

Grenier, Jean-Christophe. "Le glaucome primitif à angle ouvert : données actuelles et nouvelles perspectives de traitement." Bordeaux 2, 1995. http://www.theses.fr/1995BOR2P039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Fleureau, Julien. "Intégration de données anatomiques issues d'images MSCT et de modèles électrophysiologique et mécanique du coeur." Rennes 1, 2008. http://www.theses.fr/2008REN1S049.

Full text
Abstract:
Ce travail contribue à l'interprétation conjointe de données cliniques caractérisant la fonction régionale ventriculaire cardiaque. Une approche spécifique patient est recherchée, intégrant une géométrie réaliste à un modèle électro-mécanique. Le travail se décompose en deux parties : 1) deux approches originales de segmentation d'images 3D sont proposées pour l'extraction de structures cardiaques en imagerie scanner multibarette : la première, multi-objet et générique, est basée sur un système multi-agent ; la seconde, basée régions/contours, permet une représentation plus approximative du coeur. Elles sont évaluées sur plusieurs bases de données réelles ; 2) un modèle mésoscopique du ventricule gauche est proposé, couplant un modèle électrique discret, un modèle mécanique (loi de comportement visco-élastique résolue par les éléments finis) et un modèle hydraulique. Ce modèle est vérifié par simulations et une première méthode d'identification appliquée sur données réelles est proposée
This work contributes to the systemic interpretation of clinical data for the analysis of the regional cardiac function. A patient-specific approach, combining a realistic geometry and an electromechanical model of the ventricle is proposed. The work is divided into two parts: 1) Two original methods for 3D segmentation are proposed to extract cardiac structures from MSCT imaging: the first one, generic and multi-object, is based on a multi-agent framework; the second one, leads to a less detailed approximation of the heart geometry, combining region and boundary-based approaches in a hybrid method. Both methods are evaluated on real data; 2) A mesoscopic model of the left ventricle, coupling a discrete electrical model, a mechanical model integrating a visco-elastic law, solved by a finite element method and a hydraulic model, is presented. Verification is carried out by a set of simulations and a first parameter identification approach, based on real patient data is presented
APA, Harvard, Vancouver, ISO, and other styles
50

Damak, Mohamed. "Un logiciel de stockage, de traitement et de visualisation graphique et cartographique des données géologiques et géotechniques." Phd thesis, Grenoble 1, 1990. http://tel.archives-ouvertes.fr/tel-00785637.

Full text
Abstract:
Cette thèse présente un travail de spécification, de conception et de réalisation partielle d'un logiciel de stockage, de traitement et de visualisation graphique et cartographique des données géologiques et géotechniques. Nous avons accordé dans cette étude autant d'importance aux méthodes d'analyse et de conception qu'à la réalisation du système. En effet, nous avons établi la spécification en utilisant la métbode SA.D.T. (System Analysis Data Thecnic) qui nous a permis de constituer un dossier d'analyse de fonctionnalités du système. Par ailleurs, l'application du modèle entité-association nous a conduit à la définition des entités correspondant aux données géologiques ainsi que les relations entre ces entités. La conception du système a été basée sur la méthode orientée objet ce qui permet plus d'adaptabilité et de portabilité. La priorité a été donnée à la réalisation d'un sous*logiciel de modélisation géométrique des données et de leur visualisation tridimensionnelle. La modélisation a été basée sur un choix adéquat des structures de données. Une étude des algorithmes de triangulation et d'élimination des parties cachées a été réalisée, les algorithmes choisis ont été améliorés et adaptés à l'application présente.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography