Segui questo link per vedere altri tipi di pubblicazioni sul tema: Traitements de Fond.

Tesi sul tema "Traitements de Fond"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Traitements de Fond".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Maze, Florence. "Données actuelles sur les traitements de fond de la polyarthrite rhumatoi͏̈de". Bordeaux 2, 1992. http://www.theses.fr/1992BOR2P029.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Shrivastava, Rémi. "Association de l'écorce de Saule et de la Grande Camomille : une alternative thérapeutique aux traitements de fond de la migraine". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC049.

Testo completo
Abstract (sommario):
Les propriétés anti migraineuses du Tanacetum parthenium sont essentiellement attribuées à son principal principe actif : le parthénolide. Son mécanisme d’action n’est pas encore élucidé, mais des études montrent qu’il pourrait agir en désensibilisant le récepteur TRPA1. Or, par son expression dans les terminaisons nerveuses des nocicepteurs méningés, TRPA1 pourrait jouer un rôle dans la physiopathologie de la migraine. Notre hypothèse est que le parténolide pourrait augmenter le seuil de déclenchement des migraines en désensibilisant les récepteurs TRPA1. Pour tester notre hypothèse, nous avons dans un premier temps entrepris d’évaluer l’efficacité et le mode d’action du parthénolide dans un modèle murin de migraine. En combinant des approches comportementales, immunohistochimiques, électrophysiologiques in vivo, nous avons montré que le parthénolide, administré en intrapéritonéal, prévient l’hypersensibilité cutanée céphalique induite par des injections répétées de substances inflammatoires (ou soupe inflammatoire : SI) à la surface des méninges. Nous avons montré que le parthénolide peut agir au niveau périphérique où sont situés les récepteurs TRPA1. En effet, l’application du parthénolide directement à la surface des méninges a montré une diminution de l’activité spontanée et évoquée des neurones nociceptifs non spécifiques du noyau spinal caudal du trijumeau (Sp5c) provoquée par l’application de SI. Enfin nous avons montré que le parthénolide est capable de se lier aux récepteurs TRPA1 via une réaction d’addition de Michael sur les cystéines, comme le montrent nos études de résonance magnétique nucléaire et de thermophorèse. Par ailleurs une étude clinique ouverte avait également montré l’efficacité du Tanacetum parthenium dans la prévention des migraines lorsqu’il est associé à la plante Salix alba, dont la salicine est l’actif principal. Afin de tester l’efficacité de l’association des 2 principes actifs, nous avons administré salicine et parthénolide dans notre modèle murin de migraine. Nous avons montré que la salicine seule n’a aucune efficacité dans ce modèle, mais a permis de potentialiser l’action du parthénolide. Enfin, nous avons testé l’efficacité de l’association des deux plantes dans une étude clinique randomisée, contre placebo, en double aveugle sur 129 patients atteints de migraine épisodiques. Après 28 jours d’observation et 12 semaines de traitement, l’association des plantes s’est montrée significativement supérieure dans la prévention des migraines comparée au groupe placebo. Ainsi l’ensemble de nos résultats, permettent de confirmer l’efficacité de cette association et de mieux comprendre son mécanisme d’action à travers les récepteurs TRPA1
The anti-migraine properties of Tanacetum parthenium are mainly attributed to its main active compound: the parthenolide. Its mechanism of action is not completely understood, but growing evidences are demonstrating a possible desensitization of the transient receptor potential ankyrin 1 (TRPA1) channel by parthenolide action. The TRPA1, due its expression in the nerve endings of meningeal nociceptors and other neuroanatomical sites implicated in migraine modulation, play itself a role in the pathophysiology of migraine. Our hypothesis is that partenolide increases the migraine triggering threshold by desensitizing TRPA1 receptors. To test our hypothesis, we first evaluated the efficacy and mode of action of parthenolide in a rat model of migraine. By combining different in vivo approaches (behaviour assessment and electrophysiology) we have shown that parthenolide, administered intraperitoneally, prevents cutaneous cephalic hypersensitivity induced by repeated injections of inflammatory substances (or inflammatory soup: IS) on the surface of the meninges. More specifically, we demonstrate parthenolide can act at the peripheral level where the TRPA1 receptors are located. Indeed, when the application of parthenolide directly on the surface of the meninges preceded the application of IS, second order wide-dynamic range neurons at the caudal trigeminal spinal nucleus displayed a decreased spontaneous and evoked activity, contrasting with the increased activity observed in non-treated rats. Finally, we were able to observe that, in vitro, parthenolide binds to TRPA1 receptors via a Michael addition reaction on cysteine, as shown by nuclear magnetic resonance and thermophoresis studies. Additionally, since a previous open clinical trial had shown the effectiveness of Tanacetum parthenium combined with the plant Salix alba in preventing migraines we used the same model of migraine as described above to test the effectiveness of salicin (active compound in Salix alba) or the combination of the 2 active compounds in reducing cutaneous cephalic hypersensitivity. We observed that salicin alone was ineffective but, when used in combination with parthenolide, it produced a synergetic effect. Finally, we tested the effectiveness of the combination of the two plants in a randomized, placebo-controlled, double-blind clinical study on 129 patients with episodic migraine. After 28 days of observation and 12 weeks of treatment, the herbal combination was shown to be significantly superior in preventing migraines compared to the placebo group. Overall, these results confirm that Tanacetum parthenium, particularly when used in combination with Salix alba, is a successful and safe therapy in humans to prevent and decrease the frequency of migraine attacks, an effect probably related the ability to target and desensitize TRPA1 channels
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Richard, Joël. "Application de méthodes de traitements numériques de signaux de détection, compression et reconnaissance d'événements d'origines sismiques dans une station autonome de type sismographe fond de mer". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376180862.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

RICHARD, JOEL. "Application de methodes de traitements numeriques de signaux a la detection, compression et reconnaissance d'evenements d'origines sismiques dans une station autonome de type sismographe fond de mer". Rennes 1, 1988. http://www.theses.fr/1988REN10121.

Testo completo
Abstract (sommario):
Les conditions de fonctionnement des sismographes fond de mer imposent le conditionnement des signaux pour limiter les debits d'information lors de l'enregistrement ou de la transmission. Trois methodes deduites de la transformation de fourier, de la transformation de walsh et de la modelisation autoregression sont examines et testes
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Delachartre, Philippe. "Identification d'un système sonar large bande pour la reconnaissance des fonds sous-marins et la détection de cibles à proximité du fond". Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0076.

Testo completo
Abstract (sommario):
En sonar actif, l'écho réverbéré par le fond sous-marin constitue, suivant les applications visées, soit le signal qui contient l'information caractéristique du fond, soit le bruit qui limite alors les performances de la détection des cibles à proximité du fond. Ce travail est motivé par l'intérêt que présente, pour la reconnaissance des fonds et pour la détection d'une cible, l'utilisation d'un sonar large bande (20-140 kHz) à directivité constante dans le cadre d'expériences réalisées en milieu naturel. L'élargissement de la bande de fréquence permet de caractériser les fonds par leur réponse impulsionnelle et d'émettre un signal à grand produit BT pour améliorer les performances en détection. Nous avons pu mettre en œuvre un protocole expérimental d'identification du système sonar permettant d'estimer, par filtrage inverse, la réponse impulsionnelle de cibles. Ce protocole a été validé en utilisant une cible sphérique et a ensuite permis d'estimer la réponse impulsionnelle des fonds. Des paramètre extraits à partir de ces réponses impulsionnelles ont alors permis de reconnaître correctement cinq types de fonds différents. Les caractéristiques des signaux réverbérés par le fond ont été prises en compte pour la détection d'une cible en présence d'un fond identifié. Le détecteur est constitué d'un filtre de blanchiment ARMA et d'un filtre adapté au signal "blanchi" de la cible. Les performances du détecteur évaluées en terme de rapport signal sur bruit montrent que ce détecteur est relativement tolérant à la variabilité des signaux de fond. Les simulations et les résultats expérimentaux indiquent également l'intérêt d'élargir la bande passante pour limiter les fluctuations du rapport signal sur bruit à l'entrée du détecteur et améliorer la résolution à la sortie du filtre adapté
For active sonar systems, the echo backscattered from the seabed is either the signal containing the relevant information of the sea-bottom or the reverberating noise limiting the performances of target detection. This study is concerned with the interest of performing experiments in natural environment using a wideband sonar system (20-140 kHz) with a constant directivity for sea-bottom recognition and target detection purposes. The use of wide frequency range allows to characterize sea-bottom by its impulse response and the transmission of a high time bandwidth product signal improves the detection performances. An experimental procedure has been implemented to identify the system function of the wideband sonar. This identification procedure yields an estimate of the target impulse response by inverse filtering. Validation is made using a reference sphere target and the results are applied to estimate the sea-bottom impulse response. Relevant information is then extracted from the sea-bottom impulse response and leads to a rather well recognition rate of five different types of seabed. The characteristics of the bottom backscattered signals are taken into account for the detection of a target lying on the seabed. The receiver is based on an ARMA prewhitening filter and a matched filter. The receiver performances are evaluated as a function of the signal to noise ratio and show that the receiver is tolerant to the variability of bottom backscattered signals. Finally, the simulations and the experimental results show the interest of widening the frequency band in order to limit the fluctuations of the signal to noise ratio at the receiver input and to improve the resolution at the receiver output
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Gaubert, Eric. "Séparation radioéléments-sels de fond par nanofiltration assistée par complexation en milieu fortement salin". Lyon 1, 1997. http://www.theses.fr/1997LYO19004.

Testo completo
Abstract (sommario):
Cette etude concerne l'utilisation de la nanofiltration, assistee ou non par la complexation, pour le traitement des effluents liquides de decontamination fortement salins. L'objectif est de separer les elements non radioactifs (nitrate de sodium) des radioelements (cesium, strontium et actinides) afin de reduire le volume de dechets. Dans l'optique d'une application industrielle, un systeme de concentration de l'effluent a deux etages successifs, associant un controle de la salinite des retentats par diafiltration, est tout d'abord defini. Parmi les membranes de nanofiltration testees, les modules desal 5 et nanomax 50 sont preferes (comparativement au module filmtec nf 70) en raison de leurs plus fortes permeabilites a l'eau et au nitrate de sodium. Cependant, les performances intrinseques de ces membranes s'averent insuffisantes en milieu fortement salin. Une etape de complexation selective des radioelements est alors envisagee prealablement a la nanofiltration. Dans un premier temps, le poly(acide acrylique) est utilise pour la separation sodium/strontium, mais les faibles constantes de complexation de ce polymere limitent ce type d'association (nf - paa). Plus selectifs du strontium et du cerium, l'edta et son derive l'edtmp, permettent en milieu fortement salin (4,5 mol/l), la separation sodium/(strontium + cerium). Concernant la separation sodium/cesium, les resorcinarenes sont employes mais leurs performances sont insuffisantes lorsque la salinite de l'effluent est superieur a 0,5 mol/l. Cette etude, menee sur des solutions modeles non radioactives, met en evidence les principaux facteurs agissant sur les performances de la nanofiltration-complexation (pour un systeme membranaire donne) tels que la force ionique, le ph, la teneur en ligand, la pression transmembranaire. Enfin, un pilote de nanofiltration est mis en oeuvre en cellule blindee pour realiser, par telemanipulation, les operations de nanofiltration-complexation sur des solutions radioactives. La membrane nanomax 50 est alors retenue pour une telle application en raison de son faible encombrement (comparativement a la membrane desal 5).
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Rosenberg, Nicole. "La suppression du fond en spectrométrie Auger : étude générale et applications". Lyon 1, 1990. http://www.theses.fr/1990LYO10004.

Testo completo
Abstract (sommario):
Pour mener a bien, en spectrometrie auger, une analyse qualitative finie ou quantitative, il faut pouvoir eliminer le fond c. -a-d. Les contributions des electrons retrodiffuses, secondaires et auger inelastiques. L'evaluation de la contribution des electrons auger inelastiques s'appuie sur les travaux theoriques de tougaard et tofterup. La section efficace differentielle de diffusion inelastique est obtenue a partir du spectre de retrodiffuses lorsque l'energie primaire est voisine de celle des electrons etudies. Les travaux theoriques supposant une symetrie cylindrique, realisee dans la pratique par les analyseurs a miroir cylindrique; cependant une soustraction satisfaisante a ete effectuee sur les spectres realises avec un analyseur hemispherique. Les pics auger deduits de cette soustraction de fond sont tres voisins de ceux obtenus grace a une deconvolution par un spectre de retrodiffusion. La precision du fond est telle que l'on peut determiner le spectre llv du silicium, d'intensite tres faible. Le rapport signal sur bruit, mediocre, est ameliore par une methode d'intercorrelation avec une fonction convenablement choisie
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Najar, Dorra. "La rémunération dans les fonds d’investissement : évaluation et traitement fiscal". Thesis, Paris 9, 2012. http://www.theses.fr/2012PA090049.

Testo completo
Abstract (sommario):
Les fonds d’investissement, plus connus sous le nom de private equity, constituent un acteur très important du marché financier. Leur performance dépasse souvent celle du marché. Ces fonds sont constitués suite à un accord entre les apporteurs de capitaux (les limited partners) et les gérants du fonds (les general partners). Cette thèse s’intéresse plus particulièrement à la rémunération accordée aux managers du fonds en contrepartie de leurs compétences de gestion. Cette rémunération est constituée d’une partie fixe (management fees) et une partie variable indexée sur la performance du fonds (carried interest). Tout d’abord, cette thèse examine les différents facteurs économiques, culturels, spécifiques aux gérants…qui affectent le choix des partenaires du fonds concernant les clauses de rémunération et de partage de profit. Ensuite, elle se penche sur le problème du traitement fiscal du carried interest. La différence d’imposition entre les États-Unis et certains pays européens s’explique par une difficulté de définition de cet instrument financier. Le rapprochement du carried interest à des options financières permet de mieux identifier le traitement fiscal le plus approprié. Pour finir, cette thèse propose une méthode d’estimation de la juste valeur de la rémunération des GPs en utilisant des simulations Monte Carlo. La prise en compte des clauses contractuelles et des caractères optionnels permet de réaliser une analyse de sensibilité de cette rémunération
Private equity funds are a very important actor of the financial market. Their performance often exceeds the market performance. To establish a private equity fund, there are some agreements between the capital providers (limited partners) and the fund managers (the general partners). This thesis particularly treats the fund managers’ compensation granted to them for their management skills. This compensation consists of a fixed part (management fees) and a variable part indexed on the performance fund (carried interest). First, this thesis examines the various economic, cultural, specific managers’ factors ... that affect the choice of fund partners concerning compensation and profit sharing terms. Then, it studies the tax treatment problem of carried interest. The difference of taxing treatment between the United States and some European countries is explained by a difficulty in defining this financial instrument. The approximation of the carried interest to a financial option allows a better identification of the most appropriate tax treatment. Finally, this thesis proposes an estimating method of the GPs compensation fair value using Monte Carlo simulations. Varying contract clauses and optional characteristics allows a sensitivity analysis of this remuneration
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Zhou, Liangzhu. "Contribution à l'analyse harmonique du bruit de fond par méthode numérique". Montpellier 2, 1986. http://www.theses.fr/1986MON20050.

Testo completo
Abstract (sommario):
Presentation theorique des problemes de l'analyse spectrale estimee par echantillonage, de l'influence de la fenetre de troncature, dans le cas ou le signal etudie est un bruit de fond stationnaire. Presentation des differents analyseurs spectraux pour bruit de fond et de l'etude de la metrologie du bruit de fond par une methode numerique type tfd. Confirmation, par presentation des resultats experimentaux obtenus sur maquette reelle, des conclusions tirees de l'etude theorique. Conception du prototype d'un analyseur spectral numerique adapte a la mesure de la densite spectrale de bruit de fond stationnaire
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Abellaoui, Lahcen. "Conception d'un analyseur numérique de densité spectrale de bruit de fond électronique". Montpellier 2, 1989. http://www.theses.fr/1989MON20235.

Testo completo
Abstract (sommario):
Presentation du bruit de fond electronique et des principes de mesure de sa densite spectrale de bruit par echantillonnage. Definition des besoins lies a la mesujre de densite spectrale de bruit et conception d'un analyseur numerique dans la bande 0,1 hz-10 mhz les satisfaisant. Presentation des resultats experimentaux
Gli stili APA, Harvard, Vancouver, ISO e altri
11

NATAF, SERGE. "Indication de la pentoxifylline dans le traitement de fond de la sclerose en plaques : essai pilote". Nantes, 1994. http://www.theses.fr/1994NANT268M.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Perrot, Yannick. "Imagerie tridimensionnelle haute résolution du fond sous-marin par le traitement sonar interférométrique à ouverture synthétique". Brest, 2001. http://www.theses.fr/2001BRES2026.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Maquin, Pascal. "Le traitement de fond de la maladie asthmatique : son incidence clinique et economique ; une experience interessante en matiere d'economie de sante ; a propos de 141 observations recueillies dans la region midi-pyrenees". Toulouse 3, 1994. http://www.theses.fr/1994TOU31033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Mennessier, Anne-Laurence Rech Régis. "La médiathèque François-Mitterrand de Poitiers traitement du fonds Arthur Labbé de la Mauvinière /". [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/dcb/rsmennessier-dcb.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Boisset, Catherine. "Sismique monotrace informatisée, prospection marine par petit fond". Paris 6, 1986. http://www.theses.fr/1986PA066356.

Testo completo
Abstract (sommario):
La sismique monotrace informatisée est une technique qui s'inscrit, dans le domaine des méthodes de prospection géophysique, entre le sondage sismique continu et la sismique pétrolière multitrace. Elle utilise le matériel du sondage sismique continu pour l'acquisition en mer des profils, et le traitement des données se fait simultanément sur micro-ordinateur installé sur le navire. Les nouvelles conditions d'exploration et d'exploitation du plateau continental exigent une précision dans la résolution que la sismique multitrace classique, procédé lourd et couteux, ne peut entièrement satisfaire, mais ou une instrumentation légère et flexible semblable à celle exposée ici trouverait sa place.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Maroni, Claire-Sophie. "Détermination automatique de la stratification des fonds sous-marins à l'aide d'un sondeur de sédiments". Brest, 1997. http://www.theses.fr/1997BRES2044.

Testo completo
Abstract (sommario):
L'onde emise par les sondeurs 3,5 khz penetre les couches de sediment. La succession des tirs acoustiques permet ainsi de reconstituer une coupe verticale du sous-sol marin. Les traitements classiques proposent un suivi de l'interface eau-fond mais ne fournissent pas d'information sur les strates sedimentaires successives. Nous decrivons une methode originale de detection des reflecteurs, fondee sur l'analyse en paquets d'ondelettes et qui utilise la correlation entre les tirs voisins. Une approche image est cependant plus appropriee pour tracer les reflecteurs et nous presentons un algorithme de suivi de contour multiresolution, mene, soit a partir de la transformee en ondelettes, soit a partir d'une pyramide de chehikian. Considerer l'image a differentes echelles permet d'obtenir des reflecteurs continus, avec une localisation precise et peu de structures erronees. Par ailleurs, un algorithme de recherche automatique des seuils a partir de la distribution des donnees est mis au point. Nous etudions ensuite la possibilite d'estimer le coefficient d'attenuation des ondes de compression : les methodes de filtrage adapte, rapport des spectres et decalage de la frequence centrale doivent etre adaptees aux signaux recueillis pour compenser la longueur du signal source et l'absence de modulation d'amplitude. Une etude theorique et des simulations menees a partir d'un modele de fond stratifie permettent de proposer des solutions et demontrent l'interet des distributions temps-frequence pour analyser ces signaux. Les resultats sur des profils reels sont egalement presentes. Nous envisageons egalement l'identification de la nature de la premiere couche de sediment a partir du signal compose de l'echo de fond et du premier reflecteur. Cette demarche s'appuie sur les etapes d'extraction de parametres et de selection des caracteristiques a l'aide d'une analyse factorielle discriminante. Une classification est effectuee par un reseau a fonction a base radiale.
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Gala, Pavia Nùria. "Un modèle d'analyseur synthaxique robuste fondé sur la modularité et la lexicalisation de ses grammaires". Paris 11, 2003. http://www.theses.fr/2003PA112040.

Testo completo
Abstract (sommario):
Les analyseurs syntaxiques robustes associent automatiquement à la chaîne découpée en unités une représentation des groupements structurels et des relations fonctionnelles existant entre ces unités. L'enjeu auquel ces analyseurs se heurtent est souvent le maintien d'un équilibre entre la finesse de la description linguistique et l'efficacité de l'analyseur, ainsi qu'entre cette finesse descriptive et son adéquation empirique. Il existe un bon nombre de phénomènes mal modélisés ou pas modélisés du tout par les analyseurs existants, parce qu'il s'agit soit de phénomènes peu fréquents dans les corpus généralement utilisés pour le développement des analyseurs (modalités de l'oral, des instructions), soit de phénomènes ayant trait à la structure et à la visualisation des documents (marques typo-dispositionnelles), soit des structures requerant des techniques de traitement au delà de la syntaxe stricte (rattachement de groupes prépositionnels). Tous ces aspects nous amené à proposer et à implémenter une architecture pour un analyseur robuste capable de traiter du texte libre de différents domaines avec une couverture et une précision élévées et homogènes. Notre modèle d'analyseur s'articule ainsi autour de deux notions fondamentales: d'une part une spécialisation et une stratégie d'application modulaire des grammaires pour le traitement précis des corpus hétérogènes et, d'autre part, une lexicalisation des grammaires de dépendance (combinaison de la grammaire symbolique avec un mécanisme d'apprentissage non-supervisé) pour une meilleure résolution des ambigui͏̈tés structurelles liées au rattachement prépositionnel
Robust parsers automatically assign to strings already chunked in units a representation of structural groups and functionnal relations existing within these units. The challenge for these systems is to keep a balance between the linguistic description and their performances, as well as between a fine-grained description and an empirical adequacy. There are a number of phenomena that existing parsers wrongly process or not process at all, i. E. Structures not frequent in corpora used to develop the parsers, phenomena dealing with the structure and the visualisation of the documents, or phenomena requiring specific techniques going beyond syntax. All these points have lead us to propose and to implement an architecture for a robust parser able to process rough text from different domains with high and homogeneous coverage and precision rates. Our robust parser model is thus based on: first, a specialisation and a modular strategy of application of the different grammars in order to accurately process heterogeneous corpora and, second, dependency grammars lexicalisation (rule-based grammars combined with an unsupervised learning method) for a better resolution of prepositionnal attachment ambiguities
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Karoui, Imen. "Segmentation par méthodes markoviennes et variationnelles des images texturées : application à la caractérisation sonar des fonds marins". Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0035.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans la continuité des collaborations de l'Ifremer et de l'ENST-Bretagne sur le thème de l'estimation objective et automatique des caractéristiques physiques des fonds marins et la mise en place d'algorithmes de segmentation des cartographies associées. Dans cette thèse on s'attache plus particulièrement à exploiter l'information texturale présente dans des images sonar haute résolution. Ce mémoire de thèse comprend trois parties. Les deux premières concernent les domaines de l'analyse et de la segmentation des images texturées. La troisième partie présente une adaptation de ces algorithmes à la caractérisation et à la segmentation des images de fonds marins. Dans la première partie, nous caractérisons les textures par un ensemble de distributions empiriques de leurs réponses à des bancs de filtres. Nous fusionnons les descripteurs élémentaires en définissant une nouvelle mesure de similarité entre textures dans l'espace de ces attributs. Notre mesure de similarité est calculée selon une somme pondérée de divergence de Kullback-Leibler entre les attributs élémentaires de textures. Les poids sont estimés de manière à maximiser le critère de la marge globale. Selon la valeur des poids, on opère une sélection des attributs les plus pertinents que nous utilisons effectivement pour la discrimination entre textures. Dans la deuxième partie, nous utilisons cette mesure de similarité pour la segmentation supervisée et non supervisée d'images texturées. Nous proposons deux algorithmes: un algorithme "basé pixel" et formulé dans un cadre markovien et un autre "basé région" formulé dans un cadre variationnel et implanté selon la technique des ensembles de niveaux. Dans la troisième partie, nous présentons une application à la caractérisation et la cartographie des fonds marins par imagerie sonar. Nous évoquons le problème de la dépendance angulaire des attributs de texture et nous décrivons les modifications apportées aux méthodes de caractérisation et de segmentation proposées afin de tenir compte de cette variation angulaire
This work is concerned with the characterization and the segmentation of high resolution sonar images. We are interested in the texture information within these images. The report is divided into three parts. The two former parts are concerned with natural texture analysis in general. The third one presents an application to sonar image segmentation. In the first part, we describe texture by a set of empirical distribution estimated on texture responses to a set of different filters computed for different parameterizations. We fuse the contribution of the different features using a weighting scheme: we define a new similarity measure between textures, as a weighted sum of Kullback-Leibler divergence between texture features. The weights are estimated according to global margin maximization criterion. According to weight values, we select the most discriminating features. In the second part, we exploit this similarity measure to develop supervised and unsupervised segmentation algorithms. We propose two segmentation methods: one "pixel-based" method formulated in a bayesian based Markov Random Field (MRF) framework and a variational "region-based" approach implemented with the level set technique. In the third part, we present an application to the characterization and the segmentation of sonar images. We show sidescan sonar feature dependency with incidence angles and we describe the modification of our similarity measure and our segmentation algorithms to take into account the angular feature dependency
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Lamouret, Marie. "Traitement automatisés des données acoustiques issues de sondeurs multifaisceaux pour la cartographie des fonds marins". Electronic Thesis or Diss., Toulon, 2022. http://www.theses.fr/2022TOUL0002.

Testo completo
Abstract (sommario):
Le sondeur multifaisceaux (SMF) est l'une des technologies d'acoustique sous-marine les plus avancées pour l'étude des fonds et de la colonne d'eau. Il requiert une réelle expertise pour son déploiement sur le terrain ainsi que pour l'élaboration de cartographies à partir des différentes données acquises. Ces traitements sont souvent chronophages en raison de la quantité de données acquises et demandent à être automatisés pour alléger le travail à l'hydrographe. C'est ce sur quoi portent les travaux réalisés durant cette thèse. Après des rappels sur des notions d'acoustique sous-marine, le fonctionnement du SMF est décrit et les types de données manipulées tout au long des traitements sont présentés. Le manuscrit s'articule ensuite autour de deux thématiques ˸ la cartographie bathymétrique et la cartographie biocénotique. Les développements sont intégrés dans les logiciels de l'entreprise Seaviews pour laquelle les travaux sont réalisés. Ils répondent à des besoins particuliers de l'entreprise.En ce qui concerne la cartographie bathymétrique, la donnée bathymétrique doit être préalablement triée pour écarter les sondes aberrantes et éviter qu'elles ne pénalisent la précision topographique. Ce tri d'innombrables sondes est une tâche que réalisent les hydrographes, assistés aujourd'hui d'outils numériques. Nous proposerons une méthode statistique rapide pour trier les sondes tout en réalisant une carte de profondeurs marines. Ce qui amène à se demander si les images de la colonne d'eau acquises également par le sondeur ne seraient pas exploitables pour déduire une bathymétrie exempte d'aberration. Nous testerons cette hypothèse à l'aide de l'apprentissage profond (deep learning) et en particulier par des réseaux de neurones convolutifs qui ont permis des progrès considérables en vision par ordinateur. La cartographie des habitats marins (les biocénoses) est un travail de classification de la nature des fonds à partir des données acoustiques du SMF en concordance avec les espèces vivant sur les lieux. La société Seaviews a développé une méthode de préparation des données SMF pour l'analyse des habitats. Nous nous orientons vers des méthodes de classification des habitats, à partir de ces données, par des techniques d'apprentissage automatique (machine learning). Plusieurs méthodes sont mises en place et testées, puis une zone d'étude est choisie pour évaluer et comparer les résultats des différentes approches
Among underwater acoustic technologies, multibeam echo sounder (MBES) is one of the most advanced tool to study and map the underwater floors and the above water column. Its deployment on-site requires expertise so as the whole data processing to map the information. These processing are very time-consuming due to the massive quantity of recorded data and thus needs to be automatised to shorten and alleviate the hydrographer's task. This PhD research works focus on the automatisation of the current activities in Seaviews society.After some reminders on the underwater acoustic sciences, the MBES operating is described as well the produced data that will be manipulated throughout the developments. This document presents two thematics˸ bathymetric (depths) and marine habitats mapping. The developments are integrated into the Seaviews' software in the aim to be used by all the employees.About seafloor depths mapping, the bathymetric sounding has to be sorted to avoid that the outlier errors distort the results. Sorting the uncountable measures is cumbersome but necessary, although the hydrographers are today happily computed-assisted. We propose a fast statistical method to exclude the outliers while mapping the information. This leads to wonder if the water column imagery would be workable to deduce the bathymetry without failure. We will test this hypothesis with some technics of deep learning, especially with convolutional neural networks.The marine habitats mapping is a seabed nature classification according to the local life. Seaviews has worked on a way to prepare MBES data and habitats analysis. Concerning the method of classification itself, we move towards machine learning technics. Several methods are implemented and assessed, and then an area is chosen to evaluate and compare the results
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Delannoy, Jean-François. "Un système fondé sur les objets pour le suivi de situation à partir de textes en langage naturel". Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX30063.

Testo completo
Abstract (sommario):
Dans le but de tenir a jour, a partir de rapports quotidiens en anglais, un historique et une representation de la situation navale, le systeme concu dans cette etude assure les trois fonctions d'acquisition (comprehension de textes en langage naturel), memorisation (integration de la nouvelle connaissance dans la base), et interrogation/exploitation (requetes sur des elements de la situation et signalement automatique des anomalies). La modelisation s'appuie sur une etude prealable des textes et du domaine. Au premier niveau, la semantique des textes consiste en evenements ponctuels correspondant a chaque proposition linguistique. Le deuxieme niveau est celui d'une semantique referentielle sur une modelisation du domaine en representation orientee objets. Le monde de reference est constitue d'objets permanents subdivises en navires, entites geographiques et types d'actions. Les evenements sont des instances d'action, creees dynamiquement lors du traitement. La continuite temporelle de l'activite des navires est prise en charge par la structure de tache, alimentee par une succession d'evenements instances du meme type d'action geres en fonction de leur date. Le traitement des enonces aboutit a creer ou inactiver des objets et a enrichir ou modifier leur description. Apres une discussion comparee des grammaires d'unification et des applications des objets au traitement du langage naturel, on choisit d'associer une representation par frames et une grammaire de clauses definies possedant le statut de methode de la classe rapport. Le prototype est implante en objlog, vu comme langage hybride
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Kotenkoff, Cyril. "Détection d'objets enfouis sur le fond marin par ondes sismo-acoustiques de Scholte". Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00248886.

Testo completo
Abstract (sommario):
Le but de ce travail est la détection d'objets enfouis au fond de la mer à l'aide d'ondes sismo-acoustiques de surface de type Scholte.
Nous avons défini un système composé d'une antenne de capteurs multicomposante et d'un source impulsive disposés sur l'interface.
Le traitement du signal se décompose en deux temps: une étape d'estimation des caractéristiques de propagation des ondes est réalisée à partir de l'onde incidente sur l'antenne puis une image de détection est calculée par un traitement d'antenne adapté aux caractéristiques estimées, la dispersion et la polarisation.
Le traitement nécessite une modélisation fidèle du bruit sismo-acoustique, dont nous proposons des modèles.
Les performances ont une grande sensibilité au modèle de bruit, elles soulignent l'intérêt du traitement multicomposante.
La méthode a été favorablement validée par simulation d'ondes élastiques ainsi que sur des données réelles.
Elle demande à l'être expérimentalement en environnement contrôlé et en mer.
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Louati, Sihem. "Acquisition, traitement, analyse, modélisation et inversion des enregistrements de bruit de fond sismique : application : les berges du lac sud de Tunis". Paris 6, 2013. http://www.theses.fr/2013PA066475.

Testo completo
Abstract (sommario):
L’analyse et la caractérisation du sous-sol peuvent être réalisées en utilisant plusieurs méthodes et prospections géophysiques. Parmi ces méthodes, on trouve les méthodes sismiques traditionnelles (actives ou passives) qui nécessitent l’utilisation des sources sismiques naturelles ou artificielles et dont leur utilisation est limitée par les caractéristiques des sources. Après, la découverte de la théorie de Nakamura (1989), une technique de sismique passive récente consiste à enregistrer le bruit de fond sismique est établit. Afin d’analyser le risque sismique des berges de Lac Sud de la ville de Tunis, nous avons eu recours à cette méthode. Les campagnes des mesures dans le terrain d’étude ont aboutit à la détermination des cartes de microzonage sismique et l’identification des origines de ces signaux. A l’aide de plusieurs simulations numériques, l’élaboration de la relation entre une colonne du sol et les résultats de ces enregistrements de bruit de fond sismique est réalisée. L’estimation de la propagation d’une source sismique à travers une colonne de sol tabulaire est effectuée puis une synthèse d’une distribution de sources de bruit à la fois en surface et en profondeur est réalisée et une estimation du signal sismique engendré par cette distribution bidimensionnelle est accomplie. Une caractérisation géophysique et géotechnique du terrain d’étude permet la confrontation entre ses résultats et les résultats issues d’une inversion des courbes H/V. Cette comparaison rassure les aboutissements dérivant des enregistrements de bruit de fond sismique
The analysis and characterization of the sub-soil can be performed using several geophysical methods and surveys. These methods include traditional seismic methods (active or passive) that require the use of natural or artificial seismic sources and whose application is limited by the characteristics of the sources. After the finding of Nakamura theory (1989), a recent passive seismic technique consist to record the ambient seismic noise is established. To analyze the seismic risk of south lake banks of Tunis City, we have used this method. Campaigns measures in the field of study leads to the determination of seismic micro-zoning maps and identification of origin of these signals. Using several numerical simulations, the development of the relationship between a soil column and the results of these ambient seismic noise recordings is achieved. The estimation of the propagation of a seismic source through a column of tabular soil is performed. Then, a distribution of noise sources in both surface and subsurface is made and an estimation of the seismic signal generated by this two-dimensional distribution is performed. Geophysical and geotechnical site characterization study allows the comparison between these results and the results from an inversion of the curves H/V. This comparison reassures outcomes deriving records seismic noise
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Espiau, François-Xavier. "Métrologie 3D par vision active sur des objets naturels sous-marins". Nice, 2002. http://www.theses.fr/2002NICE5713.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Pesquet-Popescu, Béatrice. "Modélisation bidimensionnelle de processus non stationnaires et application à l'étude du fond sous-marin". Cachan, Ecole normale supérieure, 1998. http://www.theses.fr/1998DENS0021.

Testo completo
Abstract (sommario):
Dans cette thèse, nous proposons des généralisations anisotropes des champs 2D de type fractal. Tout d'abord, nous introduisons les champs 2D à accroissements stationnaires fractionnaires et nous montrons que le mouvement brownien fractionnaire appartient à cette classe de processus. L'intérêt d'une analyse multi résolution de ces champs est démontré théoriquement et sur un exemple d'application à la localisation sous-marine. Pour la modélisation de données, un moyen efficace pour caractériser les textures à accroissements stationnaires est fourni par la fonction de structure. Nous soulignons la possibilité de contrôler l'anisotropie de ces champs par le biais de cette fonction, dont nous proposons également plusieurs modèles. La fonction de structure est aussi employée pour l'interpolation des champs non stationnaires à accroissements stationnaires. Un autre aspect de ce travail concerne les extensions bidimensionnelles des processus ARIMA fractionnaires et leurs liens avec les champs continus présentés. Finalement, nous considérons des processus auto-similaires non-gaussiens et étudions les statistiques de leurs coefficients d'ondelettes.
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Varda, Nathalie Ollès Christian. "Traitement et signalement des catalogues de bibliothèques du fonds de recueils de la Bibliothèque nationale de France". [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/pppvarda.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Viala, Christophe Asch Mark. "Inversion géoacoustique temps réel de signaux large bande par grands fonds". [S.l.] : [s.n.], 2007. http://tel.archives-ouvertes.fr/tel-00258272/fr.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
27

LOPES, LAURENT. "Etude methodologique du traitement sismique : deconvolution directionnelle dans le domaine frequence - nombre d'onde ; traitement de donnees sismiques acquises avec un dispositif tracte pres du fond de la mer. application a des donnees reelles". Paris 6, 1997. http://www.theses.fr/1997PA066685.

Testo completo
Abstract (sommario):
Deconvolution directionnelle dans le domaine frequence - nombre d'onde de par leur dimension, les reseaux de sources sismiques marines sont directionnels. Cette directivite est a eliminer avant tout traitement base sur l'hypothese d'une source unique. Une methode allant dans ce sens, ainsi que le design de l'operateur correspondant, est explicitee. Cette methode est testee sur des donnees du delft air gun experiment (1983). Cette methode considere des sections en recepteur commun et utilise une approche exacte. Elle s'oppose en cela a la methode proposee par ziolkowski et spoelstra (1987), qui considere des sections en point milieu commun et qui n'est qu'une approximation. Considerer des sections en recepteur commun permet en outre de doubler l'intervalle des nombres d'onde consideres. Par suite, une amelioration de la resolution etait attendue. Elle n'a pas ete obtenue. Cette etude montre la necessite de transformer le champ d'onde emis par la source, lie a un milieu a trois dimensions, en un champ d'onde lie a un milieu a deux dimensions. Un algorithme oeuvrant dans ce sens est propose et relie a la deconvolution. Traitement de donnees acquises avec un dispositif tracte pres du fond de la mer. Un dispositif sismique comprenant une source situee en surface et une flute monotrace tractee pres du fond de la mer a ete developpe par l'ifremer. Cette geometrie permet de reduire la taille de la zone de fresnel, et donc d'ameliorer la resolution spatiale. Un algorithme de correction geometrique et un algorithme de migration profondeur dedies a ce dispositif ont ete developpes. Les variations de la geometrie d'acquisition se traduisent sur la section sismique par des variations des temps d'arrivee. Comme il est primordial de comparer des donnees acquises avec ce systeme a des donnees de sismique classique, un algorithme visant a simuler une section a zero-offset a ete developpe. Cet algorithme est robuste et converge en peu d'iterations. De par la dissymetrie du dispositif, des evenements situes sur une meme trace ne correspondent pas a des points de reflexion situes a la meme abscisse le long du profil. Cela peut conduire a des interpretations erronees. Deux methodes de migration profondeur, celle proposee par bowen (1984) et une de type kirchhoff ont ete testees. La superiorite de l'algorithme de type kirchhoff est montree. Les ameliorations et tests ulterieurs sont definis.
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Swital, Morgane. "Utilisation des Médicaments Innovants de la Sclérose en Plaques Pendant la Grossesse et Risques Associés". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASR037.

Testo completo
Abstract (sommario):
La sclérose en plaques (SEP) est une maladie chronique du système nerveux central qui touche particulièrement les femmes jeunes en âge de procréer. L'arrivée sur le marché de nombreux médicaments innovants et efficaces au cours de la dernière décennie a engendré un besoin accru de données sur leur sécurité, notamment en cas de grossesse. Cette thèse avait pour objectif général d'évaluer l'utilisation et les risques associés à ces traitements pendant la grossesse au cours de la dernière décennie en France à partir du registre mères-enfants EPI-MERES. Dans une première étude, nous avons inclus un total de 20 567 grossesses de femmes atteintes de SEP terminées entre 2010 et 2021, dont 7 587 étaient exposées à un traitement de fond. Nous avons montré que malgré les adaptations de la prise en charge médicamenteuse de la SEP pendant la grossesse, l'exposition à des traitements dont le profil de sécurité n'a pas encore été clairement établi a considérablement augmenté. Dans une deuxième étude, parmi les 22 413 grossesses de femmes atteintes de SEP terminées entre 2010 et 2022 incluses, 8 477 étaient exposées à un traitement. Nous avons montré que l'exposition à certains traitements de fond de la SEP pendant la grossesse était associée à des risques de fausse couche spontanée (natalizumab, anti-CD20), de prématurité (natalizumab, anti-CD20, fingolimod) et de petit poids pour âge gestationnel (natalizumab, tériflunomide). Ces travaux apportent de nouvelles connaissances sur l'utilisation et la sécurité des traitements de la SEP pendant la grossesse et soulignent le rôle crucial des études de pharmaco-épidémiologie
Multiple sclerosis (MS) is a chronic disease of the central nervous system that particularly affects young women of childbearing age. The market introduction of numerous innovative and effective disease-modifying therapies (DMT) over the last decade has led to an increased need for data on their safety, especially during pregnancy. The general objective was to assess the use and associated risks of these DMTs during pregnancy in France over the last decade, using the EPI-MERES mother-child Register. In the first study, we included 20,567 pregnancies of women with MS that ended between 2010 and 2021, of which 7,587 were exposed to DMTs. We showed that despite MS therapeutic management adaptations to pregnancy, exposure during pregnancy to DMTs whose safety profile has not yet been clearly established has increased sharply. In a second study, among the 22,413 pregnancies of women with MS that ended between 2010 and 2022, 8,477 were exposed to a DMT. We showed that exposure to certain MS DMTs during pregnancy was associated with increased risks of adverse pregnancy outcomes including spontaneous abortion (natalizumab, anti-CD20), preterm birth (natalizumab, anti-CD20, fingolimod), and small weight for gestational age at birth (natalizumab, teriflunomide). These results provides new insights into the use and safety of MS DMTs during pregnancy, highlighting the critical role of pharmacoepidemiology studies
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Le, Thanh Huyen. "Etude et traitement informatique du fonds d'archives des musées des Tissus et des Arts décoratifs de Lyon". [S.l.] : [s.n.], 2002. http://www.enssib.fr/bibliotheque/documents/dessride/rsle.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Kergosien, Eric. "Point de vue ontologique de fonds documentaires territorialisés indexés". Phd thesis, Université de Pau et des Pays de l'Adour, 2011. http://tel.archives-ouvertes.fr/tel-00720439.

Testo completo
Abstract (sommario):
Dans les bibliothèques et les médiathèques, une caractéristique importante des fonds documentaires mis à disposition est qu'ils contiennent d'abondantes références a l'histoire, à la géographie, au patrimoine, en somme au territoire, et il est primordial pour ces centres de valoriser ces spécificités territoriales pour répondre à des objectifs d'information et d'éducation. Dans ce contexte, nous faisons l'hypothèse qu'en utilisant un point de vue géographique pour mod eliser un ensemble de ressources terminologiques utilisées pour indexer un fond documentaire, il est possible de faire émerger une représentation du territoire qui y est implicitement décrite. Concernant la modélisation de la connaissance en géomatique, de nombreux travaux s'appliquent à construire une représentation sémantique structurée géographique de domaines cibles. Cependant, il ne semble pas exister d'approche permettant de construire une représentation d'un territoire à partir de fonds documentaires annotés. Nous proposons donc une méthodologie complète et automatisée permettant de construire une couche conceptuelle de type ontologie d'un territoire, sur la base d'un fonds documentaire indexé par des experts. Nous positionnons nos travaux dans l'extraction et la structuration de la connaissance que nous appliquons dans le domaine de la géomatique en nous appuyant notamment sur des techniques provenant du Traitement Automatique du Langage Naturel. Nous entendons ici par territoire un ensemble de lieux que l'on peut mettre en relation selon un ensemble de thèmes en fonction d'une période donnée. Ainsi, nous présentons un complément original s'appuyant sur le travail d'indexation réalisé par les experts documentalistes sur un fonds documentaire pour faire émerger une ontologie d'un territoire implicitement décrit dans les documents. Une contribution importante de notre travail concerne l'enrichissement de fa con incrémentale de la représentation d'un territoire. Nous proposons pour cela une chaine de TALN qui permet de marquer dans des documents textes annotés un ensemble d'informations spatiales, temporelles et thématiques qui nous sert de base pour l'enrichissement de la représentation d'un territoire. Une perspective à ces travaux est de pouvoir valider notre approche sur plusieurs fonds documentaires d'origines diverses. L'intérêt sera de proposer une méthode qui, sur la base des représentations de territoires obtenues, permettrait d'identifier et de représenter les spécificités de chaque fonds documentaire.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Le, Chenadec Gilles. "Analyse de descripteurs énergétiques et statistiques de signaux sonar pour la caractérisation des fonds marins". Brest, 2004. http://www.theses.fr/2004BRES2025.

Testo completo
Abstract (sommario):
L'information contenue dans les images sonar, l'energie rétrodiffusée par l'interface sédimentaire, s'avère être un indice essentiel pour caractériser la nature et le relief du fond insonifié. Les objectifs de cette thèse résident dans l'extraction et l'interprétation des données de deux systèmes sonar de me^me fréquence (100kHz) mais de géométrie différente. Dans un premier temps, les images sonar révèlent des artefacts. Nous proposons un algorithme de correction des données du sonar latéral en post-traitement, basé sur la reconstruction de la géométrie d'acquisition. L'étude a porté sur deux descripteur énergétiques et statistiques des signaux rétrodiffusés. L'indice angulaire de rétrodiffusion se révèle le descripteur le plus simple et le plus efficace pour la discrimination des fonds. La présence de textures dans les images autorise de compléter l'étude par un descripteur basé sur la forme des distributions statistiques. Différents comportements statistiques ont été mis en évidence en fonction du type de fond. Enfin, l'utilisation conjointe de ces deux descripteurs améliore les résultats de segmentation des images sonar; l'utilisation des "Support Vector machines" est proposée et s'est révélée pertinente et évolutive
Information contained in sonar data, the backscattered energy is well known as an essential clue about the seabed nature and roughness. The objectives are the data exploitation of two sonar systems, both operate at a high frequency (100 kHz) but their survey geometry is different. Sonar images reveal artefacts dur to geometry of the sonar system and array patterns. A new postprocessing correction method is proposed for signals recorded by the sidescan sonar, based on the reconstruction of the survey geometry. The study concerns two energetical and statistical features extracted from backscattered intensity. The angular backscattering strength is shown as the simplest and the most efficient feature for the seabed discrimination. Textures presence in sonar images allow to complete the study by a feature based on the statistical distributions shape and revealing roughness characteristics. Different statistical behaviors are highlighted depending either on seafloor properties or on the sonar system geometry. Finally, the simultaneous use of these features improves segmentation results. In this context, the use of the "Support Vector Machines" is proposed and shows some relevant and evolutive possibilities
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Leblond, Isabelle. "Recalage à long terme d'images sonar par mise en correspondance de cartes de classification automatique des fonds". Brest, 2006. http://www.theses.fr/2006BRES2004.

Testo completo
Abstract (sommario):
Ce travail montre la possibilité d'utiliser des images issues d'un sonar latéral pour se repérer sur le fond marin. Nous prenons l'hypothèse que l'on évolue dans un environnement précédemment cartographié et par rapport auquel on va se repérer. La zone de recherche est de la centaine de mètre ou plus et les images peuvent avoir été acquises sous des caps différents. Nous décidons d'opérer en deux temps : extraction de données symboliques nommés "amers" puis appariements. Préalablement, nous présentons les différentes données. Une attention particulière est portée sur la physique des fonds marins, afin d'appréhender les divers types d'amers utilisables. Nous présentons également la problématique du recalage sonar, en terme de difficultés et de solutions proposées pour les résoudre. Une deuxième partie est consacrée au prétraitement des données : correction de la TVG par une normalisation en fonction de l'angle et de despecklelisation par un seuillage de décompositions en ondelettes. L'étape d'extraction des amers est réalisée par une classification/segmentation des données. Les amers sont constitués par des zones contenant les diverses classes de fonds marins et leurs frontières. Nous montrons l'intérêt d'utiliser des paramètres classifiant issus d'une décomposition par ondelettes de Gabor et de réaliser la classification par le plus proche voisin en plusieurs étapes. La dernière phase est celle du recalage, effectuée en deux niveaux principaux. Le premier est un recalage symbolique, où les résultats de la classification sont appariés de manière de plus en plus fine. Le deuxième est un recalage quantitatif, où des données issues directement des images sonar sont associées
This study deals with sea-floor localization problem by using sidescan sonar images. Here, we assume that the considered seafloor areas have previously been mapped. The size of each considered seafloor area is over a hundred square metres and the images can be recorded with different courses. A direct matching of theses images is obviously unacceptable. Therefore, we consider a two step method : extraction of symbolic data named “landmarks” and a matching process. Before these two steps, we begin by presenting the different data. We particularly focus on the physics of the seafloor, in order to grasp the different types of usable landmarks. We present also the problematic of sonar registration, both in terms of difficulties and proposed solutions to solve them. A second part is devoted to the preprocessing of the data : correction of the TVG (Time Varying Gain) by a normalization of the images according to the grazing angle and the despecklelisation by thresholding on wavelet decomposition. Concerning the landmark extraction, we apply a segmentation/classification of the data. Classifying parameters extracted from a Gabor wavelet decomposition are used to realize a classification by the nearest neighbour in several stages. The obtained landmarks contain different kinds of seafloor and their boundaries. The registration is achieved using mainly two steps. The first step is a symbolic registration, where the classification results are matched more an more accurately. The second one is a quantitative registration, where data, extracted directly from images, are matched
Gli stili APA, Harvard, Vancouver, ISO e altri
33

El, Baf Fida. "Apport des concepts flous dans la détection d'objets en mouvement par suppression de fond : application sur des séquences vidéo acquises dans des conditions non contrôlées". La Rochelle, 2009. http://www.theses.fr/2009LAROS269.

Testo completo
Abstract (sommario):
L’objectif de cette thèse consiste à élaborer une méthode de détection d’objets en mouvement par suppression de fond robuste aux changements dynamiques pouvant se produire dans une scène filmée par une caméra fixe dans le domaine visible ou infrarouge. Tout d’abord, nous proposons un modèle basé sur les mélanges de gaussiennes appelé "T2-FMOG" dont l’originalité est la flexibilité et la capacité d’adaptation à des environnements divers (intérieur et extérieur). Cette flexibilité est liée au caractère flou que nous intégrons dans le modèle des mélanges de gaussiennes classiques en s’appuyant sur la théorie des sous-ensembles flous de type 2. Ceci permet de gérer l’incertitude liée aux paramètres de ce modèle qui n’est pas prise en compte par le modèle classique. Le modèle proposé est robuste aux fonds dynamiques, aux variations lumineuses et aux ombres et notamment dans le cas où la scène filmée présente les situations critiques suivantes : vibration de la caméra, mouvement d’arbres, écoulement d’eau dans le fond, ondulation de la surface d’eau. Nous proposons ensuite dans l’étape de la classification Objet d’intérêt / Fond, l’utilisation de l’intégrale floue de Choquet pour fusionner plusieurs caractéristiques optimisant ainsi l’information portée par chacune d’elles. Le mécanisme de la fusion par cet opérateur flou améliore sensiblement la qualité de la détection d’objets. Finalement, nous développons une règle de mise à jour du modèle du fond qui prend en considération le degré de contribution de chaque pixel dans la classification objets d’intérêt/fond. Cette information se trouve dans le résultat de la classification obtenu par l’intégrale de Choquet. Le mécanisme proposé permet au modèle d’intégrer les changements récents qui se produisent dans la scène d’une façon adaptative. Les algorithmes proposés sont testés pour différentes applications. Les évaluations qualitatives et quantitatives réalisées ont montré de bonnes performances par comparaison à d’autres méthodes
The objective of this thesis consists in elaborating of a background subtraction method for moving object detection adapted to scene acquired by a fixed camera and presenting the problematic of dynamic backgrounds in and beyond visual spectrum. Firstly, we have proposed a fuzzy model based on the Mixture of Gaussians models (MOG), called "T2-FMOG". The originality of our work is the introducing of the fuzzy character to the original model of mixture of Gaussians to perform its flexibility and its capability to adapt to different environments (Indoor and Outdoor). This technique utilizes the fuzzy sets theory and handles the uncertainty related to the parameter of the MOG, which is not taken into account by the original model. The proposed method is robust to dynamic backgrounds, illumination changes and shadows, especially when some of the following phenomenons occur in the scene like camera jitter, waving trees, rippling water. Secondly, we have developed a foreground detection method based on Choquet integral. This method allows to combine different image’s characteristics in a fuzzy way and optimizes the information hold by each one. The experiments show an improvement of the quality of the detection. Finally, we have proposed an updated background model rule based on the feedback of the foreground detection step. This mechanism considers the degree of the contribution of each pixel in the classification process of the pixels as background or foreground. This rule is adaptive and introduces dynamically the recent changes of the scene. The proposed algorithms have been tested for three applications presenting different critical situations. The evaluations show that our fuzzy approaches outperform the well known approaches
Gli stili APA, Harvard, Vancouver, ISO e altri
34

NOLIBE, LAURENT. "Amelioration des traitements en veille inrarouge bibande : application a un probleme de classification des fonds et de detection de cibles". Nice, 1997. http://www.theses.fr/1997NICE5069.

Testo completo
Abstract (sommario):
La detection passive du rayonnement infrarouge emis par les cibles presente un grand interet dans le cadre de la surveillance de l'espace aerien. Cependant, les performances des systemes de veille infrarouges sont limitees par la densite elevee de fausses alarmes detectees sur les fonds et par les conditions de propagation atmospherique. La detection dans plusieurs bandes spectrales infrarouges permet de resoudre ces problemes. En effet, les performances des traitements de detection classiques peuvent etre ameliorees par l'integration de l'information spectrale. Par ailleurs, l'etude des correlations spectrales des alarmes avec le fond et de leurs comportements dans les differentes bandes ameliore nettement la discrimination entre les cibles ponctuelles et les fausses alarmes. La connaissance de la nature du fond s'avere essentielle pour cette analyse spectrale. Elle permet egalement d'adapter les differents traitements de detection ou de correlation temporelle sur les cibles. La methode de classification developpee repose sur l'etude des densites spectrales de puissance des images infrarouges des fonds. Le processus de classification exploite les specificites de l'emission des fonds dans les differentes bandes infrarouges. Enfin, les differences de propagation atmospherique entre les bandes spectrales sont exploitees de maniere a optimiser les performances des systemes de veille infrarouges multibandes en fonction des conditions meteorologiques. L'estimation des perturbations atmospheriques sur la detection dans chaque bande spectrale est ainsi integree dans les traitements multibandes etudies.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Campano, Sabrina. "Cor-e : un modèle pour la simulation d'agents affectifs fondé sur la théorie COR". Paris 6, 2013. http://www.theses.fr/2013PA066060.

Testo completo
Abstract (sommario):
Les émotions sont abondamment étudiées par les psychologues depuis plusieurs décennies (James, 1890; Darwin, 1874; Lazarus et Folkman, 1984), et les premières théoriesremontent à l’Antiquité. Elles sont principalement considérées comme un moyen d’adap-tation, permettant à individu de réagir à un événement de façon appropriée. Ces réac-tions peuvent prendre la forme d’un comportement comme la fuite ou l’attaque (Cannon,1920), d’une expression faciale comme le sourire (Ekman, 1999), ou d’une stratégie cogni-tive comme le déni (Lazarus, 1998). La simulation informatique des processus émotionnelspermet d’améliorer la crédibilité des personnages virtuels, ou de tester des hypothèses psychologiques. Le domaine de l’Informatique affective regroupe les travaux poursuivantces objectifs. La majorité des modèles existants en Informatique Affective utilisent des variablesreprésentant des catégories d’émotion. Une autre classe de modèle cherche à simuler descomportements affectifs sans utiliser de catégories d’émotion, en adoptant une approcheémergente (Pfeifer, 1994; Cañamero, 2005; Rank et Petta, 2007). Dans cette approche, lesémotions ne sont pas simulées à l’intérieur du système, mais proviennent des interprétationsqu’un observateur humain fait à propos des comportements des agents. Dans cette thèsenous proposons un modèle de simulation de comportements émotionnels appartenant àce second type d’approche, fondé sur la théorie psychologique de la Conservation desRessources (COR theory) de Hobfoll (1998). Notre modèle, intitulé COR-Engine (COR-E), est basé sur le principe qu’un agentessaye d’acquérir ou de protéger des ressources lorsqu’elles sont respectivement désiréesou menacées. Une ressource peut représenter des éléments variés, comme la « réputation »d’un agent ou une « voiture ». Un comportement peut avoir à la fois des effets positifs(acquisition ou protection) et négatifs (menace ou perte) sur des ressources. Chaque agenta des préférences individuelles sur les ressources de l’environnement, qui déterminent lavaleur de la ressource du point de vue de l’agent. La valeur d’un comportement est calculéeselon ces préférences et les effets du comportement. Afin d’évaluer les performances du modèle COR-E sur l’aspect crédible et émotion-nels des comportements qu’il simule, nous proposons un protocole d’évaluation dédié auxmodèles émergents, dans lequel des observateurs doivent évaluer le caractère crédible etémotionnel des comportements produits par le modèle. Grâce à cette évaluation, nousmontrons que les caractéristiques de l’architecture du modèle COR-E permettent de si-muler des agents dont le comportement est jugé comme crédible et émotionnel par desobservateurs humains. Nous présentons également une évaluation comparative du modèleCOR-E avec un autre modèle affectif, mettant en évidence les avantages et les limites dechacun. En particulier, le modèle COR-E se révèle plus facile à configurer, mais ne peutpas gérer de représentations probabilistes. Enfin, nous définissons un modèle de simulationpour les groupes adapté à l’architecture de COR-E, dans lequel les agents rejoignent ungroupe en fonction de leurs préférences.
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Costache, Mihai. "Support vector machines et méthodes bayésiennes pour l'apprentissage sémantique fondé sur des catégories : recherche dans les bases de données d'imagerie satellitaire". Paris, ENST, 2008. http://www.theses.fr/2008ENST0026.

Testo completo
Abstract (sommario):
De grands volumes de données multimédias sont disponibles avec la source représentée par l'activité humaine dans différents domaines comme la photographie et les applications de la télédétection, etc. Pour l'ensemble de ces données, il est absolument nécessaire d'avoir des outils et des méthodes permettant une organisation et une utilisation optimales des données, afin que l'accès au contenu puisse être fait d'une manière rapide et efficace. Le nombre de satellites opérationnels augmente chaque année et génère une explosion du volume de données acquises. Par exemple, entre 10 à 100 Gigaoctets de données d'image sont en moyenne enregistrées chaque jour par des capteurs optiques et radar embarques. Le satellite ESA de l'environnement, Envisat, lance 2002 recueille environ 18 Téraoctets de données par année. Les données générées sont traitées manuellement par des experts spécialisés dans chaque domaine d'application en télédétection. Toutefois, ce type d'analyse est coûteux et prend du temps. De plus, il permet le traitement d' une petite fraction de données disponibles, à un rythme beaucoup plus faible que celui dans lequel les images enregistrées sont envoyées au sol. Pour faire face à ces deux principaux aspects de la télédétection, il est clair qu'il faut des outils très efficaces pour la recherche par contenu dans des archives satellitaires. Ils doivent être en mesure d'identifier et de reconnaître des structures dans les images. Ces systèmes doivent être rapides et fonctionner avec une grande précision. Un tel système a pour objectif d'automatiquement effectuer la classification des images numériques disponibles, sur la base d'une formation préalable, qui est supervisisée par un expert. Ainsi, la base de données est mieux organisée et des images d'intérêt peuvent être identifiées plus facilement plutôt que par l'emploi d'une interprétation manuelle d'experts. La tâche consiste à déduire des connaissances par le biais de l'interaction homme-machine. L'interaction entre un système automatique et un expert humain permet le transfert de l'expertise humaine à la machine par le biais d'algorithmes d'inférence de connaissances capable d'interpréter la décision humaine et de le traduire en conceptuel. De cette manière, le processus d'extraction d'information dans des données satellitaires est automatisé, ce qui permet une réponse rapide aux requêtes de l'utilisateur. Dans le domaine de la recherche par contenu il y a beaucoup de travaux mais peu dans le domaine satellitaire. Dans cette thèse nous proposons un système complet d'annotations d'images satellitaires par le contenu et par mots clés. Du point de vue des techniques d'apprentissage, une combinaison entre les SVM et les formalismes de Bayes peut être établie pour la génération de classe sémantique et catégorique en fonction de la représentation de données. L'apprentissage se fait sur la base d'un dialogue homme-machine qui est essentiel dans le processus de transfert de connaissances entre l'expert et le système. La combinaison des formalismes SVM et Bayésienne est une contribution originale de la thèse
Nowadays large volumes of multimedia data are available with the source being represented by different human activity domains such as photography, television channels, remote sensing applications, etc. For all these data there is a clear need for tools and methods which can allow an optimal data organisation so that the access to the content can be done in a fast and efficient manner. The number of operational EO satellites increases every year and generates an explosion of the acquired data volume. Nowadays, for instance, on average somewhere between 10 to 100 Gigabytes of image data are recorded daily on regular basis by the available optical and Synthetic Aperture Radar (SAR) sensors on board of the EO satellites. ESA's Environmental Satellite, Envisat, deployed in 2002 collects per year around 18 Terabytes of multisensor data. This leads to a total of about 10 Terabytes of annually recorded data volume which is representing a huge volume of data to be processed and interpreted. The generated data volume in classical remote sensing applications, are treated manually by specialised experts for each domain of application. However, this type of analysis is costly and time consuming. Moreover, it allows the processing of only a small fraction of the available data as the user-based image interpretation is done at a greatly lower pace that the one in which the recorded images are sent to the ground stations. In order to cope with these two major aspects in remote sensing, there is a clear need for highly efficient search tools for EO image archives and for search mechanisms able to identify and recognise structures within EO images; moreover these systems should be fast and work with high precision. Such a system should automatically perform classification of the available digital image collection, based on a previous training, which was supervised by an expert. In this way, the image database is better organized and images of interest can be identifed more easily than just by employing a manual expert image interpretation. The task is to infer knowledge, by means of human-machine interaction, from EO image archives. The human-machine interaction enables the transfer of human expertise to the machine by means of knowledge inference algorithms which interpret the human decision and to translate it into conceptual levels. In this way, the EO image information search and extraction process is automated, allowing a fast reponse adapted to human queries
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Bichot, Élodie. "Filtrage particulaire fondé sur les informations de mouvements et de couleur pour le suivi d'objets non rigides en milieu perturbé : application au projet Aqu@thèque". La Rochelle, 2006. http://www.theses.fr/2006LAROS156.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

HAFEZ, RAIDA. "Etude d'un reacteur non-thermique fonde sur une decharge electrique d'arc entrave, pour l'application au traitement des polluants atmospheriques". Paris 6, 1996. http://www.theses.fr/1996PA066183.

Testo completo
Abstract (sommario):
L'etude d'un reacteur a pression atmospherique et a plasma non-thermique a ete menee en vue de son application a l'elimination des oxydes d'azote (no#x) contenus dans certains effluents gazeux industriels. Le reacteur de depollution mis au point est base sur le principe de l'arc entrave. Il s'agit d'une technique de controle de l'intensite du courant d'arc, au moyen d'un circuit electrique exterieur, afin que l'energie electrique soit dirigee preferentiellement vers les electrons plutot que dans le chauffage du gaz. Il s'en suit la production, par collisions electroniques, d'especes radicalaires qui engendrent toute une chimie de plasmas froids aboutissant a une transformation chimique des diverses composantes gazeuses, en particulier des molecules du polluant. Les transformations obtenues sont correlees a differents parametres ; un traitement optimum est recherche. Pour un point de fonctionnement electrique precis du reacteur, cet optimum a ete obtenu dans un melange (n#2, 2% o#2, 5% h#2o, 750 ppm no) pour lequel une efficacite de 15% d'elimination de no est atteinte pour un cout energetique de 77 ev/molec. Les performances du reacteur de depollution sont etroitement liees a la composition du melange gazeux, notamment a sa teneur en eau et en oxygene. Le traitement passe par un optimum pour une concentration en eau situee entre 5% et 7%. L'humidite semble agir essentiellement par piegeage sur des noyaux de condensation acqueux
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Zaghar, Halima. "Mise à jour de bases de données géographiques par fusion de sources à l'aide de transformations correctives élastiques sous contraintes : raboutement de cartes et insertion de portion dans un fond". Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0014.

Testo completo
Abstract (sommario):
Le secteur de l'information géographique. Qui est actuellement en pleine expansion, contribue à la constitution de bases de données localisées provenant de sources différentes. De plus, afin d'assurer la pérennité des systèmes d'informations, il est impératif d'effectuer des mises à jour régulières. Si la mise à jour d'une base de données alphanumériques est une opération tout à fait simple et maîtrisée de nos jours. Il n'en est pas de même pour celle d'une base de données géographiques. Les cas de mises à jour peuvent provenir de l'évolution des objets réels ou de l'évolution des connaissances. Notre travail se situe dans le cadre de la mise à jour de base de données géographiques. Nous nous sommes efforcée à apporter des solutions à deux cas courants de mises à jour, le premier étant celui de l'extension de couverture où il s'agit de faire le raboutement de deux cartes représentant deux zones (quartiers, communes. Arrondissement, etc. . . ) géographiquement voisines et le second celui de l'insertion d'une portion dans un fond existant auparavant dans la base de données. L'originalité de nos solutions réside dans le fait que l'on ne se contente pas d'appliquer les méthodes de recalage utilisées comme dans le passé. En effet, celles-ci consistaient à effectuer des dilatations, rotations ou translations pour intégrer les documents sources dans le même système de coordonnées en se basant sur les positions des points de contrôle. Cependant, ces opérations donnaient des résultats insatisfaisants en entraînant la déformation de certains objets cartographiques et en ne respectant pas toujours la topologie après correction. Afin d'éviter ces problèmes, nous proposons d'effectuer des transformations correctives élastiques homéomorphes en tenant compte des contraintes portant sur ces objets, lesquelles peuvent être des contraintes de position, de longueur, d'orientation, de superficie, de parallélisme etc … Ainsi, pour le raboutement de cartes, les déplacements des objets situés dans une zone d'élasticité dépendront également de celui des points homologues ainsi que de leur proximité par rapport à la frontière. De même, en ce qui concerne l'intégration de portions, le déplacement des objets sera lié à celui des points homologues et de leur proximité par rapport au périmètre de la portion
[However if updating a conventional database (e. G. Changing the delive1y address in a custom file) can be done by means of a SQL-type language or via a form interface, in the domain of geographic databases, updating means different things and cannot be performed easily. The essential reason is because updating information is not only elementary, but rather coming from different sources such as new/y made measures, aerial photos, scanned maps and so on. In this work, we will give an overview of two problems of updating. The first updating is extension of the coverage; in other words. When we have to fusion maps of two neighbouring zones whose boundaries do not meet, if is necessary ta select control points and to perform rubber-sheeting at the vicinity of the boundary based on those control points. The second updating consist in integration of a new portion in database. For this, we based on position of control points and Finite Element Method. ]
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Nikolova, Yoana. "Développement de matrices alimentaires permettant de protéger des substances actives lors des traitements thermiques". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0102.

Testo completo
Abstract (sommario):
Les produits déshydratés permettent d’optimiser la conservation et le transport des aliments. Les poudres alimentaires distribuées au consommateur affichent des garanties nutritionnelles en termes d’apports qualitatif et quantitatif. Cependant, l’apport nutritionnel du produit après reconstitution et cuisson, n’est pas garanti. Ce travail se concentre sur l’évaluation des pertes en vitamines dues aux procédés de transformation alimentaire en lien avec l’effet de la matrice alimentaire. Ces pertes mesurées après le traitement thermique ne sont pas négligeables, rendant l’encapsulation nécessaire pour répondre à l’objectif de la thèse de garantir une teneur en vitamines suffisante après reconstitution et traitement thermique du produit alimentaire déshydraté. Différentes matrices ont été testées à l’échelle laboratoire et industrielle. Parmi ces matrices, certaines comme les protéines laitières et l’amidon se sont avérées très intéressants et ont permis la préservation de la vitamine C du traitement thermique. Pour finaliser l’étude, il a été indispensable de prendre en compte le stockage des poudres de la vitamine C encapsulée avant et après leur commercialisation. Pour assurer leur teneur suffisante en vitamine C lors ce stockage, un vieillissement accéléré a été effectué. Cette thèse a permis d’apporter des réponses concrètes au problème industriel posé, qui était de garantir la teneur en vitamine C des produits commercialisés après reconstitution et traitement thermique
Dehydrated products make it possible to optimize the storage and transport of food products. Food powder mixes distributed to the consumer display nutritional guarantees in terms of qualitative and quantitative inputs. However, the nutritional value of the product after reconstitution and cooking, is not guaranteed. This PhD work focuses on the evaluation of vitamins losses due to food processing in relation to the effect of the food matrix. Losses measured after the heat treatment were not negligible, making the encapsulation necessary to meet the objective of the thesis to guarantee a sufficient vitamins content after reconstitution and heat treatment of the dehydrated food product. Different matrices have been tested at the laboratory scale and industrial scales. Some of these matrices, such as dairy proteins and starch, have proved to be very interesting and allowed the preservation of vitamin C during heat treatment. To finalize the study, it was essential to take into account that the vitamin C-encapsulating powders will be stored before and after their distribution. To ensure that they maintain a sufficient vitamin C content during storage, accelerated aging has been carried out. Thus this thesis made it possible to provide concrete answers to the posed industrial problem, which was to guarantee the vitamin C content of the commercial products after reconstitution and heat treatment
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Chaudhry, Adnan Rashid. "Traitement d'image appliqué aux images d'autofluorescence dans le cadre de la Dégénérescence Maculaire Liée à l'Âge (DMLA)". Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005958.

Testo completo
Abstract (sommario):
La Dégénérescence Maculaire Liée à l'Age (DMLA) est la principale cause de cécité chez les personnes de plus de 55 ans. Dans ses premiers stades, les patients peuvent ne pas ressentir de déficience visuelle. Aux stades avancés, la forme humide et la forme sèche doivent être distinguées. La forme humide est définie par la croissance de nouveaux vaisseaux sous la rétine. La forme sèche se caractérise par des atrophies souvent appelées atrophies géographiques des photorécepteurs et de l'épithélium pigmentaire de la rétine. Dans les deux formes, la rétine centrale peut être détruite par une dégénérescence substantielle des photorécepteurs accompagnée d'une perte de vision importante. Au cours des dernières années, l'autofluorescence du fond d'œil (Fundus AutoFluorescence (FAF)) a montré que l'imagerie pouvait être utile pour la DMLA, en particulier pour la DMLA de type sec au niveau du diagnostic, de la documentation des changements, de l'identification de la progression de la maladie, et du suivi des nouvelles thérapies. Les images autofluorescentes de la rétine sont obtenues avec un angiographe équipé d'un laser de 488 nm de longueur d'onde (ophtalmoscope à balayage laser (Scanning Laser Ophthalmoscope (SLO)). L'autofluorescence est émise par la présence d'un pigment (lipofuscine), qui est un bon indicateur de l'activité de la rétine. Les images FAF sont capturées avec un SLO dans une séquence de 15-20 images, chacune ayant un faible rapport signal / bruit et un faible contraste. L'objectif de la thèse est le développement d'outils pour le traitement automatique des images FAF. Ces outils apporteront une aide importante aux spécialistes dans le diagnostic et le suivi de la maladie.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Roussel, Clément. "Expérimentation d’un gravimètre mobile léger et novateur pour la mesure du champ de gravité en fond de mer". Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1099/document.

Testo completo
Abstract (sommario):
L’un des défis majeurs relevé par la gravimétrie moderne consiste en la détermination de modèles mathématiques et de cartes numériques du champ de gravité de la Terre dont la fiabilité est identique quelle que soit l’échelle spatiale considérée en domaines terrestre, littoral, marin et sous-marin. Aujourd’hui, les harmoniques de haut degré correspondant aux courtes longueurs d’onde du champ de gravité sont encore affectés de grandes incertitudes de par la diversité et les différences de précision et de résolution des techniques gravimétriques permettant de les atteindre. Le principal obstacle à l’amélioration de la résolution et la précision des modèles vient de ce que les systèmes de gravimétrie et gradiométrie mobiles, seuls instruments qui permettent des acquisitions à précision et à résolution spatiale homogènes, demeurent encore encombrants et gros consommateurs d’énergie, ce qui interdit en particulier leur installation sur des drones terrestres, aériens, navals de surface et sous-marins. L’intérêt de ce type de porteur est de pouvoir opérer des acquisitions très proches des sources ce qui accroît considérablement la restitution des variations locales de la gravité. Le développement d’un nouveau type de capteur gravimétrique à faible encombrement et moindre consommation énergétique apparaît donc indispensable pour répondre à la problématique posée par la mesure des courtes longueurs d’onde du champ de gravité.Dans le cadre de ses activités de recherche en gravimétrie, le Laboratoire de Géomatique et Foncier (Cnam/GeF EA 4630), en collaboration avec le Laboratoire de Recherche en Géodésie (LAREG) de l’Institut National de l’information Géographique et forestière (IGN), le Laboratoire Domaines Océaniques (LDO, UMR CNRS 6538, UBO), l’Institut Français de Recherche pour l’Exploitation de la Mer (IFREMER) et le Service Hydrographique et Océanographique de la Marine (SHOM), développe un instrument novateur qui permet la mesure dynamique du champ de gravité terrestre en fond de mer.Le système baptisé GraviMob (système de Gravimétrie Mobile) ne nécessite pas de plateforme stabilisée et se fixe rigidement dans l’habitacle du véhicule porteur, en l’occurrence, un submersible autonome. Le cœur du système est constitué de triades d’accéléromètres, permettant une mesure vectorielle de l’accélération de pesanteur. Un traitement des mesures par filtrage de Kalman, intégrant les données de position et d’orientation du véhicule porteur, réalise la restitution du champ de pesanteur dans un référentiel adapté à son interprétation et son exploitation. Ce prototype instrumental a été expérimenté en Mer Méditerranée au cours de l’année 2016, à l’aplomb de profils gravimétriques de surface acquis antérieurement par le SHOM. La comparaison du signal gravimétrique obtenu en fond de mer avec les données du SHOM indique une répétabilité de la tendance générale du signal gravimétrique à 5 mGal près.Ce manuscrit aborde successivement, l’établissement de l’équation d’observation du système GraviMob, l’étalonnage et l’orientation des accéléromètres du capteur, la stratégie d’estimation du champ de pesanteur par un filtre de Kalman intégrant un modèle d’évolution des composantes du champ de pesanteur et un modèle d’observation tenant compte du bruit de mesure, le traitement et l’analyse des mesures acquises lors de son expérimentation en Mer Méditerranée, puis la comparaison du signal gravimétrique obtenu avec les données de référence
One of the major challenges of modern gravimetry consists in determining mathematical models and digital maps of the Earth’s gravity field, the reliability of which is identical whatever the spatial scale considered in terrestrial, coastal, marine and submarine domains. Today, the harmonics of high degree corresponding to the short wavelengths of the gravity field are still affected by great uncertainties due to the diversity and the differences in precision and resolution of the gravimetric techniques making it possible to reach them. The main obstacle to improve the resolution and accuracy of models is that gravimetry and gradiometry mobile devices, the only instruments that allow homogeneous precision and spatial resolution acquisitions, are still bulky and energy-intensive, which prohibits their installation on terrestrial, aerial, surface and submarine drones. The interest of this type of carrier is to make acquisitions very close to the sources which considerably increases the restitution of the local variations of the gravity. The development of a new type of gravimetric sensor with small size and lower energy consumption appears therefore essential to answer the problematic posed by the measurement of the short wavelenghts of the gravity field.As part of its research in gravimetry, the Laboratoire Géomatique et Foncier (Cnam/GeF EA 4630), in collaboration with the Laboratory for Research Geodesy (LAREG) of the National Institute for Geographic and Forest Information (IGN), the Oceanic Domains Laboratory (LDO, UMR, CNRS 6538, UBO), the French Research Institute for the Exploitation of the Sea (IFREMER) and the Marine Hydrographic and Oceanographic Service (SHOM), develops an innovative instrument which allows the dynamic measurement of the Earth’s gravity field in the subsea domain.The system, called GraviMob (Gravimetry Mobile System), does not require a stabilized platform and is rigidly attached to the carrier vehicule, in this case an Autonomous Underwater Vehicule (AUV). The heart of the system consists of triads of accelerometers, allowing a vector measurement of the gravity. A Kalman filter, integrating the position and orientation data of the carrier vehicle, performs the estimation of the gravity field in a frame adapted to its interpretation. This instrumental prototype has been tested in the Mediterranean Sea during the year 2016. The comparison of the gravimetric signal obtained near the seabed with the surface gravimetric profiles, previously acquired by the SHOM, indicates a repeatability of the general trend of the gravimetric signal to within 5 mGal.This manuscript deals successively with the establishment of the observation equation of the GraviMob system, the calibration and orientation of the accelerometers, the gravity field estimation strategy by a Kalman filter, integrating an evolution model of the gravity field components and an observation model taking the measurement noise into account, the processing and analysis of the measurements acquired during its experimentation in the Mediterranean Sea, then the comparison of the gravimetric signal obtained with the reference data
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Thomas, Marielle. "Biodétection en temps réel. Contribution à la réalisation d'un nouveau système de détection biologique précoce de la pollution des eaux de surface, fondé sur l'exploitation des décharges autostimulatrices d'un poisson électrique tropical : Apteronotus albifrons, Apteronotidae-Gymnotiformes". Nancy 1, 1996. http://docnum.univ-lorraine.fr/public/SCD_T_1996_0018_THOMAS.pdf.

Testo completo
Abstract (sommario):
Cette thèse décrit un nouveau système de détection biologique des pollutions des eaux de surface, qui exploite en temps réel des signaux électriques engendrés par un poisson tropical d'eau douce, Apteronotus albifrons (Gymnotiformes). Ce travail s'est articulé autour de quatre grands axes. La première partie est un bilan des connaissances actuelles dans le domaine des biodetecteurs et des biocapteurs. Il montre la multiplicité des systèmes, dont la diversité s'exprime aussi bien du point de vue de l'espèce utilisée que du principe développé. La seconde partie décrit le nouveau procédé de bio détection. Son principe est fondé sur une caractérisation temporelle du signal électrique d'A. Albifrons, en termes de fréquence et de forme. Ces deux caractéristiques électriques, naturellement stables dans le temps, sont affectées par un environnement toxique. La troisième partie traite de l'influence de plusieurs paramètres physico-chimiques (température, pH, conductivité et oxygène dissous) sur les caractéristiques des signaux bioélectriques. Elle révèle que la fréquence de décharge des poissons est une grandeur fortement dépendante de la température de l'eau. Dans une moindre mesure, cette caractéristique électrique est aussi fonction du pH et de la concentration en oxygène dissous. En revanche, aucune influence des paramètres physico-chimiques sur la forme du signal n'a été mise en évidence. La dernière partie dresse le profil de sensibilité toxicologique d'A. Albifrons vis-à-vis de six polluants. Ce nouveau procédé permet la détection en moins de 35 minutes de : 35 [micro]g. L-1 de cyanure, 1 mg. L-1 de phénol, 500 [micro]g. L-1 d'atrazine, 1 mg. L-1 de trichloréthylène, 2,7 mg. L-1 de chrome (VI) et une gamme de 1,9 a 18,4 mg. L-1 de gazole. Des problèmes concernant la fiabilité et la crédibilité des informations collectées ainsi que la variabilité des réponses exploitées sont aussi considérés. Enfin, des hypothèses sont proposées pour expliquer les modes d'action toxiques sur la capacité électrogène d'A. Albifrons.
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Chaudhry, Adnan Rashid. "Traitement d’image appliqué aux images d’autofluorescence dans le cadre de la Dégénérescence Maculaire Liée à l’Age (DMLA)". Paris, ENMP, 2009. http://www.theses.fr/2009ENMP1682.

Testo completo
Abstract (sommario):
La Dégénérescence Maculaire Liée à l'Age (DMLA) est la principale cause de cécité chez les personnes de plus de 55 ans. Dans ses premiers stades, les patients peuvent ne pas ressentir de déficience visuelle. Aux stades avancés, la forme humide et la forme sèche doivent être distinguées. La forme humide est définie par la croissance de nouveaux vaisseaux sous la rétine. La forme sèche se caractérise par des atrophies souvent appelées atrophies géographiques des photorécepteurs et de l'épithélium pigmentaire de la rétine. Dans les deux formes, la rétine centrale peut être détruite par une dégénérescence substantielle des photorécepteurs accompagnée d'une perte de vision importante. Au cours des dernières années, l'autofluorescence du fond d'œil (Fundus AutoFluorescence (FAF)) a montré que l'imagerie pouvait être utile pour la DMLA, en particulier pour la DMLA de type sec au niveau du diagnostic, de la documentation des changements, de l'identification de la progression de la maladie, et du suivi des nouvelles thérapies. Les images autofluorescentes de la rétine sont obtenues avec un angiographe équipé d'un laser de 488 nm de longueur d'onde (ophtalmoscope à balayage laser (Scanning Laser Ophthalmoscope (SLO)). L'autofluorescence est émise par la présence d'un pigment (lipofuscine), qui est un bon indicateur de l'activité de la rétine. Les images FAF sont capturées avec un SLO dans une séquence de 15-20 images, chacune ayant un faible rapport signal / bruit et un faible contraste. L'objectif de la thèse est le développement d'outils pour le traitement automatique des images FAF. Ces outils apporteront une aide importante aux spécialistes dans le diagnostic et le suivi de la maladie
Age-related Macular Disease (AMD) is the leading cause of blindness in people over the age of 55. In its early stages, the patients may still have no visual impairment. In advanced stages, a wet and a dry form have to be distinguished. The wet form is defined by the growth of new vessels under the retina. The dry form is characterized by atrophies often called geographic atrophies of the photoreceptors and the Retinal Pigment Epithelium. In both forms the central retina may be destroyed by subsequent photoreceptor degeneration with severe vision loss. In recent years, Fundus AutoFluorescence (FAF) imaging has shown to be useful for AMD, especially for dry AMD type with regards to diagnosis, documentation of changes, identification of disease progression, and monitoring of novel therapies. The FAF images of the retina are obtained with an angiograph equipped with a scanning laser of 488 nm wavelength (Scanning Laser Ophthalmoscope (SLO)). The autofluorescence is emitted by the presence of a pigment (lipofuscin), which is a good indicator of the retinal activity. The FAF images are captured with a SLO in a sequence of 15-20 images, each having low signal to noise ratio and low contrast. The objective of the thesis is the development of tools for the automatic processing of FAF images. These tools will help the specialists in the diagnosis and follow up of the disease
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Pommaret, Sabine. "Traitement documentaire et valorisation des fonds iconographiques anciens dans les bibliothèques l'exemple de la collection d'estampes de la B.M. de Bourges /". [S.l.] : [s.n.], 2002. http://www.enssib.fr/bibliotheque/documents/dcb/pommaret.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Vigier, Jean-François. "Synthèse d’oxydes d’actinides en milieu chlorure fondu : études structurales et mécanismes réactionnels". Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10051/document.

Testo completo
Abstract (sommario):
L’étude réalisée au cours de cette thèse concerne la synthèse d’oxydes d’actinides en fin de procédé pour la refabrication de combustible nucléaire. Cette synthèse est réalisée par précipitation des chlorures d’actinides (III) solubilisés en milieu sel fondu LiCl-CaCl2 (30-70%mol) à 700°C par bullage d’argon humide. La méthode de conversion est décrite dans un premier temps pour la coprécipitation du néodyme et du cérium. Les taux de conversion des lanthanides deux sont de l’ordre de 99,9% et les poudres obtenues sont composées principalement d’oxychlorure mixte Ce1-yNdyOCl, et d’une faible proportion d’oxyde mixte Ce1-xNdxO2- 0,5x pour les mélanges les plus riches en cérium. Un second oxychlorure CeIV(Nd0.7Ce0.3)IIIO3Cl est également obtenu mais uniquement dans des conditions spécifiques et en très faible quantité. La structure de cet oxychlorure est décrite au cours de cette étude. Le caractère partiellement oxydant de la méthode de conversion est responsable de l’oxydation d’une partie du cérium (III) au degré (IV). Dans le cas de la conversion de l’uranium par bullage d’argon humide, l’ensemble de l’uranium est oxydé pour former l’oxyde UO2 comme unique composé. Le taux de conversion est supérieur à 99,9% pour cet élément, mais une partie de l’uranium est perdue par volatilisation au cours de la conversion. Enfin, la coconversion U(III)-Pu(III) met en évidence la plus grande sensibilité de l’uranium (III) comparativement au plutonium (III) vis-à-vis de la précipitation, responsable d’une précipitation successive des deux éléments, et aboutissant à la formation d’un mélange d’UO2 et de PuO2 avec des taux de conversion quantitatifs
The study developed in this thesis concerns actinide oxides synthesis for nuclear fuel refabrication, and more specifically, the actinide (III) precipitation in molten salt LiCl-CaCl2 (30-70%mol) salt at 700°C using wet argon sparging. First, this conversion method is described for neodymium (III) and cerium (III) coconversion. The conversion rates are around 99.9%, and the obtained powders contain mixed oxychloride Ce1-xNdxOCl as main component, with a small amount of mixed oxide Ce1-xNdxO2-0.5x for the high cerium ratio. A second oxychloride CeIV(Nd0.7Ce0.3)IIIO3Cl is obtained in specific conditions and in very low quantity. The structure of this oxychloride is described in this study. The partially oxidative property of the conversion method induces the oxidation of a part of cerium (III) to oxidation state (IV). In the case of uranium (III) conversion by wet argon sparging, all the uranium is oxidized and give the oxide UO2 as single compound. The conversion rate for this element is over 99.9% in the molten chloride, but significant amount of uranium is lost by volatilization during the conversion. Finally, the U(III) and Pu(III) coconversion study shows the highest precipitation sensitivity of uranium (III) in comparison with plutonium (III), responsible of a successive conversion of the two elements, giving an oxide mixture of UO2 et PuO2 with quantitative conversion rate. Surprisingly, the conversion of Pu(III) in the same conditions led to a mixture of PuO2 and PuOCl, characteristic of a partial oxidation from Pu (III) to Pu (IV), in contrast with coconversion of U(III)-Pu(III)
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Htira, Thouaiba. "Traitement d’eaux usées industrielles par congélation sur paroi froide". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1155/document.

Testo completo
Abstract (sommario):
Ce travail vise à étudier un procédé de traitement d'eaux usées industrielles par cristallisation en milieu fondu sur paroi froide. Deux effluents modèles sont choisis : un mélange eau/acétone et un mélange eau/acide propanoïque. Dans un premier temps, l'équilibre solide-liquide du mélange est étudié pour connaitre les limites de l'étude en température et en concentration. Le procédé de traitement de l'eau est alors conduit, selon un mode opératoire précis. Deux modes de fonctionnement sont mis en œuvre, un mode statique et un mode dynamique avec une circulation en boucle de la solution. La concentration en impuretés dans la glace est analysée après chaque cycle de congélation. L'étude paramétrique, conduite suivant un plan d'expériences, a mis en avant les effets importants de la concentration initiale de la solution et de la rampe de refroidissement. La microstructure de la glace est également analysée par microscopie en chambre froide pour interpréter les mécanismes d'incorporation d'impuretés au sein de la glace. Les inclusions de liquide sont sous la forme de poches de solution à faible vitesse de croissance et sont localisées dans les joints de grain à plus forte vitesse. Enfin, la modélisation du procédé fonctionnant en mode statique, par les éléments finis et en 2D axisymétrique avec frontière mobile, montre la présence de mouvements de convection. En mode dynamique, l'hydrodynamique de l'écoulement dans l'espace annulaire est décrite par une modélisation 3D prenant en compte la position de l'entrée et de la sortie. Les résultats démontrent la faisabilité du procédé et permettent des avancées significatives dans la compréhension des phénomènes mis en jeu
This work aims to study a process of industrial wastewater treatment by melt crystallization on a cold wall. Two effluent model solutions are chosen: water/acetone and water/propionic acid binary mixtures. First, the solid liquid phase diagrams are determined experimentally in order to delimit the operating range of temperature and concentration. Then, a parametric study of the wastewater treatment process by freezing is performed, by means of an experimental design, for two working modes, static mode and dynamic mode by adding a recirculation loop, respectively. The impurity concentration in the ice is analyzed after each freezing cycle. The process requires applying very precise conditions and the ice concentration mainly depends on the initial solution concentration and on the applied cooling rate. The ice microstructure is also characterized by optical microscopy in a cold chamber and gives insights into the mechanism of impurity incorporation: the liquid inclusions are localized under the form of solution pockets at low growth rate or between the polycrystals at higher growth rate. Lastly, 2D axisymmetric modelling of the process in static mode, based on finite elements and taking into account the moving boundary, shows the presence of buoyancy loops in relation with the density dependence of the solution with temperature. In dynamic mode, the hydrodynamics in the annular space is described by a 3D model to account for the positions of the inlet and outlet pipes. All the results demonstrate the process feasibility and allow better understanding of the occurring phenomena
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Ariunbaatar, Javkhlan. "Methods to enhance anaerobic digestion of food waste". Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1176/document.

Testo completo
Abstract (sommario):
Le traitement des déchets alimentaires (FW) par digestion anaérobie peut conduire à une production d'énergie couplée à une réduction des émissions de volume et de gaz à effet de serre à partir de ce type de déchets. Néanmoins, l'obtention de la récupération du méthane la plus élevée possible dans un temps plus court avec un fonctionnement stable est difficile. Pour surmonter les obstacles de la MA de divers procédés de pré-traitement FW, la supplémentation en oligo-éléments, bioaugmentation utilisant la bouse des animaux de zoo et la comparaison des configurations de réacteurs, y compris une étape ou en deux réacteurs à cuve agités en continu (CSTR) et un réacteur à membrane anaérobie (AnMBR ) ont été étudiées dans le cadre de la présente recherche. Sur la base des résultats des expériences de traitement par lots, de pré-traitement thermique à 80 ° C pendant 1,5 heure cédés> 50% augmentation de la production de biométhane, et il a été trouvé à être plus économe en énergie que l'ozonation ou prétraitements de choc thermophiles. Parmi les différentes concentrations testées et les oligo-éléments, Fe (II) et Se (VI) des concentrations de 25 à 50 ug / L ont donné lieu à 39 et 35% d'augmentation de la production de biométhane, respectivement. Une meilleure solubilisation des protéines (6,96 ± 2,76% de plus) et de glucides récalcitrants (344,85 ± 54,31 mg / L par rapport à zéro) pourrait être obtenue avec bioaugmentation de girafe fumier (30% en volume), qui a donné un 11,24 ± 4,51% de plus production de biométhane. Un CSTR à deux étages avec digestat re-circulation de meilleurs résultats que d'un stade en raison de sa (i) une meilleure capacité d'auto-ajustement du pH; (ii) une plus grande résistance aux chocs de charge organique; (iii) de près de 100% de matières solides volatiles a été destryoed par rapport à 71% en CSTR une étape; (iv) 50 à 60% de teneur en méthane a été obtenu, alors qu'il était de 40 à 50% en une seule étape CSTR; (c) une petite quantité d'hydrogène a également été détectée à partir de la première étape du réacteur à deux étages qui en fait un système attrayant pour la production de biohythane. Bien que la séparation physique des méthanogènes rendus plus sensibles à des facteurs inhibiteurs, tels que l'ammonium et l'acide propionique. En outre, le temps de rétention hydraulique (HRT) est encore une chute de ces systèmes, d'où une AnMBR équipé d'une membrane de fluorure de vinylidène courant latéral a été proposé et exploité avec succès pour 100 d. Merci de membranes HRT a pu être réduite de 20 d à 1d, tout en conservant un rendement global d'élimination de> 97% de la demande en oxygène influent chimique (COD) et a abouti à une production de biogaz supérieure à 70% de teneur en méthane
Treatment of food waste by anaerobic digestion can lead to an energy production coupled to a reduction of the volume and greenhouse gas emissions from this waste type. Nevertheless, obtaining the highest possible methane recovery in a shorter time with a stable operation is challenging. To overcome the hurdles of AD of FW various pretreatment methods, supplementation of trace elements, bioaugmentation using zoo animals' dung and comparison of reactor configurations including one-stage and two-stage continuously stirred tank reactors (CSTR) as well as anaerobic membrane reactor (AnMBR) were studied in the scope of this research. Based on the results of the batch experiments, thermal pretreatment at 80°C for 1.5 hours yielded 46 – 52% higher biomethane production, and it is more energy efficient than ozonation or thermophilic shock pretreatments. Among the various tested concentrations and trace elements Fe (II) and Se (VI) concentrations of 25-50 ug/L resulted in 39 and 35% increase of biomethane production, respectively. A better solubilization of proteins (6.96 ± 2.76% more) and recalcitrant carbohydrates (344.85 ± 54.31 mg/L as compared to zero) could be obtained with bioaugmentation of giraffe dung (30% by volume), which yielded a 11.24 ± 4.51% higher biomethane production. A two-stage CSTR with digestate re-circulation performed better than one-stage with (i) a better pH self-adjusting capacity; (ii) a higher resistance to organic loading shocks; (iii) almost 100% volatile solids was destroyed as compared to 71% in one-stage CSTR; (iv) 50-60% methane content was obtained, while it was 40-50% in one-stage CSTR; (v) a small amount of hydrogen was also detected from the first stage of the two-stage reactor making it an attractive biohythane production system. Although physically separating the methanogens made them more sensitive to inhibitory factors, such as ammonium and propionic acid. Moreover, the long hydraulic retention time (HRT) is still the problem with these systems, hence an AnMBR equipped with a side-stream polyvinylidene fluoride membrane was proposed and a successful operation was achieved. Thanks to the membranes the HRT was able to be reduced from 20 d to 1d, while maintaining an overall removal efficiency of >97% of the influent chemical oxygen demand (COD) and yielded a higher biogas production with 70% methane content
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Guilloux, Frédéric. "Analyse harmonique et Estimation spectrale sur la Sphère.Applications à l'étude du Fond diffus cosmologique". Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00347673.

Testo completo
Abstract (sommario):
Cette thèse porte sur l'utilisation d'ondelettes de seconde génération pour l'étude statistique de champs aléatoires sphériques. Parmi les phénomènes modélisables par un tel champ, on s'intéressera en particulier au Fond diffus cosmologique (CMB).

La localisation des needlets (récente construction d'ondelettes) sur la sphère est étudiée et optimisée en terme de concentration spatiale et d'estimation statistique. Ces fonctions sont ensuite utilisées pour construire un nouvel estimateur du spectre de puissance angulaire. L'examen des propriété de cet estimateur, d'un point de vue théorique (dans l'asymptotique des hautes fréquences angulaires) et pratique, montre qu'il améliore les méthodes existantes dans un modèle réaliste comportant des données manquantes et un bruit hétéroscédastique. A côté de l'estimation spectrale, l'utilisation des needlets est également introduite dans un problème de séparation de sources.

Après quatre chapitres introductifs (dédiés respectivement aux aspects physiques, analytiques et statistiques de l'étude du CMB, puis à une présentation d'ensemble des résultats), quatre articles de revue (en collaboration) sont présentés : "Practical wavelet design on the sphere" ; "CMB power spectrum estimation using wavelets" ; "Spectral estimation on the sphere with needlets: high frequency asymptotics" et "A full sky, low foreground, high resolution CMB map from WMAP".
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Ferret, Olivier. "ANTHAPSI : un système d'analyse thématique et d'apprentissage de connaissances pragmatiques fondé sur l'amorçage". Phd thesis, Université Paris Sud - Paris XI, 1998. http://tel.archives-ouvertes.fr/tel-00189116.

Testo completo
Abstract (sommario):
Le système ANTHAPSI a été conçu dans le but d'apprendre de manière automatique des connaissances sur les situations prototypiques du monde à partir de textes. Afin que ce processus d'apprentissage soit le plus général possible, ANTHAPSI se place dans un cadre minimisant le recours à des connaissances pragmatiques fournies a priori. Pour mener sa tâche à bien, il met l'accent sur la nécessité d'associer étroitement l'analyse des textes, en l'occurrence une analyse de nature thématique, et l'apprentissage de connaissances. Cette association repose sur un modèle de mémoire spécifique, chargé de servir de trait d'union entre ces deux processus. Cette mémoire joue en effet le rôle de réceptacle actif pour les connaissances nécessaires au fonctionnement de l'analyse thématique, ces connaissances étant produites par le processus d'apprentissage à partir des représentations des textes construites par l'analyse thématique. De cette manière, l'association entre l'analyse des textes et l'apprentissage de connaissances permet de développer progressivement un noyau initial de connaissances et met en oeuvre par là même la première forme d'amorçage présente dans ANTHAPSI, appelée amorçage intra-niveau. ANTHAPSI explore également la façon dont ce noyau initial peut être constitué à partir d'un niveau de connaissances moins précises et moins structurées. Il est ainsi formé de deux composantes fonctionnellement similaires mais utilisant des connaissances et des représentations de niveaux différents : MLK applique les principes de l'amorçage intra-niveau en manipulant des représentations composées de graphes conceptuels tandis que ROSA le fait avec des représentations simplement composées de mots. L'amorçage inter-niveau montre en l'occurrence comment ROSA peut contribuer, au moins sur le plan thématique, à la mise en opération de MLK.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia