Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Caractérisation des objets.

Dissertationen zum Thema „Caractérisation des objets“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Caractérisation des objets" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Delsanti, Audrey. „Les Objets Trans-Neptuniens : détection et caractérisation physique“. Paris 6, 2003. http://www.theses.fr/2003PA066372.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Huchard, Mathieu. „Caractérisation et Conception d'Antennes Isotropes Miniatures pour Objets Communicants“. Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00389796.

Der volle Inhalt der Quelle
Annotation:
Les progrès réalisés dans les domaines des réseaux de capteurs disséminées, de l'identification radiofréquence ou des communications millimétriques présagent l'apparition de petits objets, intelligents, autonomes et communiquant par le biais de transmissions radiofréquences. Dans ce contexte, les orientations aléatoires et variables des dispositifs les uns par rapport aux autres engendrent de fortes variations du bilan de transmission en raison de l'anisotropie de rayonnement ainsi que des désadaptations de polarisation entre antennes. Il existe donc un besoin pour de petites antennes bas coût aux caractéristiques de rayonnement optimisées pour une transmission indépendante de leurs orientations relatives. La première partie de ce travail a consisté à proposer un nouveau critère, appelé fonction de couverture isotrope, permettant de caractériser rigoureusement les performances des antennes dans un tel contexte. Cette méthode a permis de comparer diverses antennes de la littérature et d'étudier les effets de leurs propriétés de rayonnement. L'influence de l'environnement de propagation a également été étudiée. La seconde partie a consisté à proposer deux nouvelles antennes répondant à cette problématique tout en prenant en compte les fortes contraintes d'intégration et de miniaturisation. Un prototype a été réalisé et valide l'approche de conception suivie. Finalement, un dernier développement envisage le cas des multi antennes. Une extension de la méthode de caractérisation est proposée. L'une des structures précédentes est développée en deux versions à deux accès et illustre le principe d'une antenne isotrope à double polarisation orthogonale aux performances optimales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Han, Dong. „Caractérisation des objets enfouis par les méthodes de traitement d'antenne“. Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30003/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'étude de la localisation d'objets enfouis dans acoustiques sous-marins en utilisant les méthodes de traitement d'antenne et les ondes acoustiques. Nous avons proposé un modèle bien adapté en tenant compte le phénomène physique au niveau de l'interface eau/sédiment. La modélisation de la propagation combine donc la contribution de l'onde réfléchie et celle de l'onde réfractée pour déterminer un nouveau vecteur directionnel. Le vecteur directionnel élaboré à partir des modèles de diffusion acoustique est utilisé dans la méthode MUSIC au lieu d'utiliser le modèle d'onde plane habituel. Cette approche permet d'estimer à la fois coordonnées d'objets (angle et distance objet-capteur) de forme connue, quel que soit leur emplacement vis à vis de l'antenne, en champ proche ou en champ lointain. Nous remplaçons l'étape de décomposition en éléments propres par des algorithmes plus rapides. Nous développons un algorithme d'optimisation plus élaboré consiste à combiner l'algorithme DIRECT (DIviding RECTangles) avec une interpolation de type Spline, ceci permet de faire face au cas d'antennes distordues à grand nombre de capteurs, tout en conservant un temps de calcul faible. Les signaux reçus sont des signaux issus de ce même capteur, réfléchis et réfractés par les objets et sont donc forcément corrélés. Pour cela, nous d'abord utilisons un opérateur bilinéaire. Puis nous proposons une méthode pour le cas de groupes indépendants de signaux corrélés en utilisant les cumulants. Ensuit nous présentons une méthode en utilisant la matrice tranche cumulants pour éliminer du bruit Gaussien. Mais dans la pratique, le bruit n'est pas toujours gaussien ou ses caractéristiques ne sont pas toujours connues. Nous développons deux méthodes itératives pour estimer la matrice interspectrale du bruit. Le premier algorithme est basé sur une technique d'optimisation permettant d'extraire itérativement la matrice interspectrale du bruit de la matrice interspectrale des observations. Le deuxième algorithme utilise la technique du maximum de vraisemblance pour estimer conjointement les paramètres du signal et du bruit. Enfin nous testons les algorithmes proposés avec des données expérimentales et les performances des résultats sont très bonnes
This thesis is devoted to the study of the localization of objects buried in underwater acoustic using array processing methods and acoustic waves. We have proposed a appropriate model, taking into account the water/sediment interface. The propagation modeling thus combines the reflected wave and the refracted wave to determine a new directional vector. The directional vector developed by acoustic scattering model is used in the MUSIC method instead of the classical plane wave model. This approach can estimate both of the object coordinates (angle and distance sensor-object) of known form, in near field or far field. We propose some fast algorithms without eigendecompostion. We combine DIRECT algorithm with spline interpolation to cope with the distorted antennas of many sensors, while maintaining a low computation time. To decorrelate the received signals, we firstly use a bilinear operator. We propose a method for the case of independent groups of correlated signals using the cumulants. Then we present a method using the cumulants matrix to eliminate Gaussian noise. But in practice, the noise is not always Gaussian or the characteristics are not always known. We develope two iterative methods to estimate the interspectral matrix of noise. The first algorithm is based on an optimization technique to extract iteratively the interspectral matrix of noise. The second algorithm uses the technique of maximum likelihood to estimate the signal parameters and the noise. Finally we test the proposed algorithms with experimental data. The results quality is very good
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Luxey, Cyril. „Solutions antennaires pour petits objets communicants et techniques de caractérisation associées“. Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00342422.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bourtoutian, Rafi. „Objets communicants : miniaturisation des frontaux RF par co-conception“. Nantes, 2009. http://www.theses.fr/2009NANT2043.

Der volle Inhalt der Quelle
Annotation:
Avec les avancées technologiques actuelles, le concept d'objet communicant intelligent devient une réalité. Deux contraintes techniques réduisent encore le déploiement des réseaux de capteurs ou d'objets communicants dans nos sociétés : la consommation et la taille. L'antenne est l'un des composants les plus volumineux d'un tel objet communicant. La miniaturisation de l'antenne par les méthodes classiques entraîne une augmentation de la consommation. L'objectif de cette thèse est d'étudier les potentialités offertes par la co-conception d'antennes miniatures et de composants radiofréquences dans le but de réduire la taille de ces dispositifs et de les réaliser au plus près du circuit intégré. Ainsi, des antennes multifonctions ont pu être réalisées en concevant conjointement l'antenne avec d'autres fonctions de l'interface radio (filtres, baluns, amplificateurs à faible bruit …)
With the recent technological advances, the concept of smart communicating object has become a reality. Currently, two technical constraints reduce the deployment in our societies of these smart objects or wireless sensor networks : their size and consumption. The antenna constitutes one the most cumbersome parts of such an object. The miniaturization of the antenna by conventional methods leads to increased consumption. The aim of the thesis is to explore the potentials offered by the co-design of miniature antennas and radio frequency components in order to reduce the size of these devices and achieve a fabrication near to the integrated circuits. Thus, multifunction antennas have been achieved by co-designing the antenna with other features of the radio interface (filters, baluns, low noise amplifiers …)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

R'mili, Badr. „Développement de méthodes de caractérisation physico-chimique et morphologique des nano-objets manufacturés“. Amiens, 2012. http://www.theses.fr/2012AMIE0116.

Der volle Inhalt der Quelle
Annotation:
Des matériaux nanostructurés aux propriétés remarquables sont actuellement élaborés à partir de nano-objets manufacturés telles que des nanoparticules ou des nanofibres. Leur volume de production est en forte croissance compte tenu des potentialités offertes en termes d'application et de gain économique. Cependant, le risque d'exposition des personnels impliqués dans le cycle de production est à considérer, d'autant plus que les effets des nano-objets sur l'homme et l'environnement sont encore peu documentés. Le suivi du personnel impliqué dans les procédés de production nécessite le développement d'outils de détection adéquats permettant de caractériser ces nano-objets. Dans ce contexte deux techniques de mesures ont été développées, évaluées et caractérisées dans le cadre de ma thèse. La première est une technique de prélèvement par filtration à travers une grille MET (Microscopie Electronique en Transmission) à membrane poreuse. L'analyse par microscopie électronique à balayage ou en transmission permet d'accéder en premier lieu à la morphologie des particules prélevées mais également à leurs compositions chimiques élémentaires par EDX (Energie Dispersive X-ray). Les premières expériences ont montré que ce dispositif, aisé à mettre en œuvre, permet un prélèvement homogène et reproductible. Un nouveau prototype, version améliorée de celui précédemment acquis par l'INERIS a été conçu et l'efficacité de prélèvement des grilles MET à membrane poreuse (et donc du dispositif de prélèvement par filtration) a été évaluée tant expérimentalement que théoriquement en vue, à terme, d'accéder à des résultats quantitatifs par dénombrement. La seconde technique, basée sur la spectroscopie de plasma induit par laser ou technique LIBS (Laser-Induced Breakdown Spectroscopy), permet d'accéder à la composition chimique élémentaire d'un objet (solide, liquide, gazeux ou sous forme d’aérosol), in-situ, en temps réel et sans préparation d'échantillon. Cette technique LIBS a été optimisée pour une mise en œuvre lors d'une campagne de mesures dans un laboratoire industriel (ARKEMA) dans des conditions normales de production et de manipulation de nanotubes de carbone (NTC). D'autres techniques de mesures en temps réel (comptage, spéciation en taille. . . ) ont été également mises en place. Parallèlement, des prélèvements sur grilles MET ont été réalisés. Par recoupement avec les résultats des analyses MET, la technique LIBS a montré des potentialités remarquables à détecter en temps réel des pelotes de NTC. En effet, il était possible de détecter ces derniers et de les différentier des particules présentes dans l'air ambiant (suie et autres particules carbonées) grâce aux éléments de catalyse et support de catalyse qu'elles contiennent (fer et aluminium respectivement). Par ailleurs, les résultats de prélèvement ont montré l'émission de fibres de NTC isolées en cas de déversement accidentel de poudres de NTC
Nanostructured materials with remarkable properties are being developed from manufactured nano-objects such as nanoparticles or nanofibers. Their production volume is growing rapidly given the potentialities in terms of application and economic gain. However, the risk of personnel involved in the production process requires the development of appropriate detection tools to characterize nano-objects. In this context two measurement techniques have been developed, evaluated and characterized. The first technique consists in sampling particles by filtration through a porous grid TEM (Transmission Electron Microscopy). Analysis by scanning or transmission electron microscopy coupled with EDX (Energy Dispersive X-ray) provides access to the morphology and chemical composition of particles. The first experiments showed that the device, easy to implement, allows a homogeneous and reproductible sampling. The collection efficiency of porous TEM grids was evaluated and compared to a numerical tool for quantitative results. The second technique named LIBS (Laser-Induced Breakdown Spectroscopy) provides access to the elemental chemical composition of an object (solid, liquid, gaseous or aerosol), in-situ and in real time, without sample preparation. The aim was to apply this technique to detect emissions of manufactured nano-objects. The LIBS technique has been optimized and implemented in a measurement campaign in an industrial laboratory (Arkema) producing carbon nanotubes (CNTs) and compared to other techniques for real-time measurements (counter, size speciation, …). Meanwhile, samples from TEM grids were made. By overlap with the results of sampling, the LIBS technique showed a potential to detect in real time CNTs bundle. Indeed, it has been shown that it is possible to detect CNTs bundle and to differentiate them from ambient air particles (carbon soot and other particles) through the amount of metal elements (aluminium and iron). Moreover, the sampling results showed emission of isolated NTC fiber in the case of accidental spillage of NTC powders
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Basly, Brice. „Conception et caractérisation de nano-objets magnétiques pour l’imagerie par résonance magnétique (IRM)“. Strasbourg, 2010. https://publication-theses.unistra.fr/public/theses_doctorat/2010/BASLY_Brice_2010.pdf.

Der volle Inhalt der Quelle
Annotation:
Les nanoparticules magnétiques d’oxyde de fer (NPs) fonctionnalisées sont des objets très étudiés pour le développement d’agents de contraste pour l’IRM. Cependant, il reste des challenges à lever comme: optimiser la fonctionnalisation des NPs sans altérer leurs propriétés magnétiques tout en assurant leur biocompatibilité et leur furtivité dans le corps humain ; empêcher la désorption des molécules greffées dans les conditions in-vivo ; avoir une taille moyenne des particules en suspension inférieure à 100 nm. Dans ce contexte nous proposons une approche originale qui consiste à greffer à la surface de NPs des molécules dendritiques (favorisant la stabilité des suspensions par interaction stérique et constituant une plateforme pour le greffage de molécules fonctionnelles) avec un agent de couplage phosphonate (permettant un ancrage direct et fort des molécules) pour concevoir des agents de contrastes performants et innovants. Ainsi, des NPs d'une taille moyenne de 10 nm ont été synthétisées par deux méthodes: la co-précipitation et la décomposition thermique. Trois dendrons ont été conçus sur la base d’un coeur aromatique possédant d’un côté l’agent de couplage phosphonate, de l’autre trois chaines biocompatibles oligoéthylène glycol portant des groupes fonctionnels tels COOH ou NH2. Les conditions de greffage ont été mises au point suivant le type de NPs et le type de dendrons. Les nombreuses caractérisations des NPs et de leurs suspensions montrent que les propriétés magnétiques et structurales des NPs sont préservées après l’étape de greffage. Les mesures de relaxivité, des tests in-vivo et des mesures IRM ont montré le grand potentiel de ces NPs dendronisées pour l’IRM
Functionalized iron oxide nanoparticles (NPs) have attracted an increasing interest as contrast agents for MRI. However, challenges remain to overcome: to optimize the functionalization of nanoparticles without affecting their magnetic properties while ensuring their biocompatibility and stealth in the human body, to prevent desorption of the grafted molecules under in vivo conditions, to ensure a small particle size distribution below 100 nm… In this context, we propose a novel strategy which involves the grafting, at the surface of NPs, of dendritic molecules (favoring the suspensions stability by steric hindrance and constituting a platform for the grafting of functional molecules) via a phosphonate coupling agent (allowing a direct grafting and a stronger binding) to develop innovative and competitive contrast agents. Thus, NPs with an average size of 10 nm were synthesized by two methods: co-precipitation and thermal decomposition. Three hydrophilic oligoethyleneglycol-based dendrons displaying a phosphonic acid at the focal point and three biocompatible chains (oligoethylene glycol) bearing functional groups such as COOH or NH2 were designed. The grafting conditions have been adapted according to the NPs and dendron natures. Numerous characterizations of the nanoparticles and their suspensions showed the preservation of the NPs magnetic and structural properties after the grafting step. Relaxivity measurements, in vivo tests and MRI measurements have shown the great potential of these dendronized nanoparticles for MRI
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Robail, Frédéric. „Ondelettes et diagraphies : un outil de détection et de caractérisation des objets géologiques“. Montpellier 2, 2001. http://www.theses.fr/2001MON20199.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Le, Maire Pauline. „Caractérisation des anomalies magnétiques, approches théoriques et expérimentales : applications à des objets anthropiques et géologiques“. Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAH006/document.

Der volle Inhalt der Quelle
Annotation:
L’objectif de ce travail est d’améliorer la caractérisation des sources à l’origine d’anomalies magnétiques, par le biais de développements théoriques et expérimentaux. Pour des structures invariantes dans une direction horizontale (structures à 2D), l’idée de Nabighian (1972) a été généralisée, ce qui implique une nouvelle façon d’étudier les méthodes potentielles à 2D. Ces développements ont permis de proposer une nouvelle approche théorique et de nouvelles représentations dans le plan complexe des fonctions magnétiques. La deuxième approche de ce travail est expérimentale. Une étude y est faite par le biais de données et de cas synthétiques, afin d’estimer l’apport d’acquisitions magnétiques à différentes altitudes pour caractériser une source. Dans un troisième temps, les développements théoriques et expérimentaux sont mis en œuvre pour deux exemples : des anomalies magnétiques en domaine océanique de type Vine et Mathews et une cartographie pour l’archéologie
Magnetic anomalies recorded outside bodies provide high quality information relative to buried structures. By using theoretical and experimental developments, this thesis aims to improve the characterization of the source inducing the magnetic anomaly. Firstly, some properties of three dimensional magnetic functions are presented, for example the presence of several maxima of the analytic signal operator (3D) is demonstrated. The Nabighian (1972) equation is generalized, which imply a new process to study potential method in two dimensions. These developments enable a new visualization of the anomaly in the complex field. The second approach is experimental. Synthetic cases are used to estimate the contribution of different configurations of magnetic data acquisitions at different altitudes to characterize the magnetic source. Theoretical and experimental developments are finally applied to two field examples: oceanic magnetic anomalies and archaeological magnetic prospection
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Chimi, Chiadjeu Olivier. „Caractérisation probabiliste et synthèse de surfaces agricoles par objets structurants à partir d'images haute résolution“. Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2012. http://tel.archives-ouvertes.fr/tel-00795582.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse porte sur la caractérisation probabiliste et la synthèse de surfaces agricoles par objets structurants (agrégats, mottes et creux) à partir d'images de haute résolution. Nous proposons de caractériser les surfaces par deux niveaux de rugosité : le premier niveau correspondant aux mottes, aux agrégats et aux creux et le second niveau étant le substrat sur lequel sont posés ces objets. Disposant d'un algorithme de segmentation par Hiérarchie de Contour (HC) pour l'identification des objets, nous avons mis en évidence l'influence de la méthode d'estimation du gradient sur cet algorithme. Nous avons aussi adapté une approche de morphologie mathématique - la Ligne de Partage des Eaux - pour identifier les différents objets. La méthode de HC sous-estime les dimensions des contours. Pour améliorer ces contours, nous avons développé un algorithme de déplacement de contours basé sur le principe du recuit simulé. Nous montrons que le demi-ellipsoïde est une forme mathématique qui modélise très correctement les objets. Après avoir déterminé les lois de probabilité des paramètres des demi-ellipsoïdes (orientation, axes et hauteur) et étudié leurs dépendances, nous avons mis en place un procédé de génération d'objets posés sur un plan. Nous montrons que les objets générés ont les mêmes statistiques que les objets identifiés sur les images hautes résolution. Nous montrons que l'isotropie des surfaces est liée à l'orientation des objets et que le substrat est corrélé à la surface comportant des objets.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Derville, Alexandre. „Développement d'algorithmes de métrologie dédiés à la caractérisation de nano-objets à partir d'informations hétérogènes“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM082/document.

Der volle Inhalt der Quelle
Annotation:
Ces travaux de thèse s’inscrivent dans le contexte technico/économique des nanomatériaux notamment les nanoparticules et les copolymères. Aujourd’hui, une révolution technologique est en cours avec l’introduction de ces matériaux dans des matrices plus ou moins complexes présentes dans notre quotidien (santé, cosmétique, bâtiment, agroalimentaire...). Ces matériaux confèrent à ces produits des propriétés uniques (mécanique, électrique, chimique, thermique, ...). Cette omniprésence associée aux enjeux économiques engendre deux problématiques liées au contrôle des procédés de fabrication et à la métrologie associée. La première est de garantir une traçabilité de ces nanomatériaux afin de prévenir tout risque sanitaire et environnemental et la seconde est d’optimiser le développement des procédés afin de pérenniser des filières économiques rentables. Pour cela, les deux techniques les plus courantes de métrologie utilisées sont : la microscopie électronique à balayage (MEB) et la microscopie à force atomique (AFM).Le premier volet des travaux est consacré au développement d’une méthodologie de fusion de données permettant d’analyser automatiquement les données en provenance de chaque microscope et d’utiliser leurs points forts respectifs afin de réduire les incertitudes de mesure en trois dimensions. Une première partie a été consacrée à la correction d’un défaut majeur d’asservissement de l’AFM qui génère des dérives et/ou sauts dans les signaux. Nous présentons une technique dirigée par les données permettant une correction de ces signaux. La méthode présentée a l’avantage de ne pas faire d’hypothèses sur les objets et leurs positions. Elle peut être utilisée en routine automatique pour l’amélioration du signal avant l’analyse des objets.La deuxième partie est consacrée au développement d’une méthode d’analyse automatique des images de nanoparticules sphériques en provenance d’un AFM ou d’un MEB. Dans le but de développer une traçabilité en 3D, il est nécessaire d’identifier et de mesurer les nanoparticules identiques qui ont été mesurées à la fois sur l’AFM et sur le MEB. Afin d’obtenir deux estimations du diamètre sur la même particule physique, nous avons développé une technique qui permet de mettre en correspondance les particules. Partant des estimations pour les deux types de microscopie, avec des particules présentes dans les deux types d'images ou non, nous présentons une technique qui permet l'agrégation d’estimateurs sur les populations de diamètres afin d'obtenir une valeur plus fiable des propriétés du diamètre des particules.Le second volet de cette thèse est dédié à l’optimisation d’un procédé de fabrication de copolymères à blocs (structures lamellaires) afin d’exploiter toutes les grandeurs caractéristiques utilisées pour la validation du procédé (largeur de ligne, période, rugosité, taux de défauts) notamment à partir d’images MEB afin de les mettre en correspondance avec un ensemble de paramètres de procédé. En effet, lors du développement d’un nouveau procédé, un plan d’expériences est effectué. L’analyse de ce dernier permet d’estimer manuellement une fenêtre de procédé plus ou moins précise (estimation liée à l’expertise de l’ingénieur matériaux). L’étape est réitérée jusqu’à l’obtention des caractéristiques souhaitées. Afin d’accélérer le développement, nous avons étudié une façon de prédire le résultat du procédé de fabrication sur l’espace des paramètres. Pour cela, nous avons étudié différentes techniques de régression que nous présentons afin de proposer une méthodologie automatique d’optimisation des paramètres d’un procédé alimentée par les caractéristiques d’images AFM et/ou MEB.Ces travaux d’agrégations d’estimateurs et d’optimisation de fenêtre de procédés permettent d’envisager le développement d’une standardisation d’analyse automatique de données issues de MEB et d’AFM en vue du développement d’une norme de traçabilité des nanomatériaux
This thesis is included in the technical and economical context of nanomaterials, more specifically nanoparticles and block copolymer. Today, we observe a technological revolution with the introduction of these materials into matrices more or less complex present in our daily lives (health, cosmetics, buildings, food ...). These materials yield unique properties to these products (mechanical, electrical, chemical, thermal ...). This omnipresence associated with the economic stakes generates two problems related to the process control and associated metrology. The first is to ensure traceability of these nanomaterials in order to prevent any health and environmental risks and the second is to optimize the development of processes in order to sustain profitable economic sectors. For this, the two most common metrology techniques used are: scanning electron microscopy (SEM) and atomic force microscopy (AFM).The first phase of the work is devoted to the development of a data fusion methodology that automatically analyzes data from each microscope and uses their respective strengths to reduce measurement uncertainties in three dimensions. A first part was dedicated to the correction of a major defect of the AFM which generates drifts and / or jumps in the signals. We present a data-driven methodology, fast to implement and which accurately corrects these deviations. The proposed methodology makes no assumption on the object locations and can therefore be used as an efficient preprocessing routine for signal enhancement before object analysis.The second part is dedicated to the development of a method for automatic analysis of spherical nanoparticle images coming from an AFM or a SEM. In order to develop 3D traceability, it is mandatory to identify and measure the identical nanoparticles that have been measured on both AFM and SEM. In order to obtain two estimations of the diameter on the same physical particle, we developed a technique that allows to match the particles. Starting from estimates for both types of microscopy, with particles present in both kinds of images or not, we present a technique that allows the aggregation of estimators on diameter populations in order to obtain a more reliable value of properties of the particle diameter.The second phase of this thesis is dedicated to the optimization of a block copolymer process (lamellar structures) in order to capitalize on all the characteristic quantities used for the validation of the process (line width, period, roughness, defects rate) in particular from SEM images for the purpose of matching them with a set of process parameters.Indeed, during the development of a new process, an experimental plan is carried out. The analysis of the latter makes it possible to manually estimate a more or less precise process window (estimate related to the expertise of the materials engineer). The step is reiterated until the desired characteristics are obtained. In order to accelerate the development, we have studied a way of predicting the result of the process on the parameter space. For this, we studied different regression techniques that we present to propose an automatic methodology for optimizing the parameters of a process powered by AFM and / or SEM image characteristics.This work of estimator aggregation and process window optimization makes it possible to consider the development of a standardization of automatic analysis of SEM and AFM data for the development of a standard for traceability of nanomaterials
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Chimi, Chiadjeu Olivier. „Caractérisation probabiliste et synthèse de surfaces agricoles par objets structurants à partir d’images haute résolution“. Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0058.

Der volle Inhalt der Quelle
Annotation:
Les communautés scientifiques travaillant dans le domaine de la télédétection et sciences du sol, ont fait ressortir la nécessité de faire progresser la modélisation du couplage onde – surface et d’améliorer les modèles descriptifs des propriétés de surface. Dans cette thèse, nous proposons une caractérisation probabiliste et la synthèse des surfaces agricoles par objets (agrégats, mottes et creux) structurant à partir d’images de haute résolution. Nous proposons de décrire une surface agricole par des objets et leur substrat. Disposant d’un algorithme de segmentation par Hiérarchie de Contour pour l’identification des objets, nous avons mis en évidence l’influence de la méthode d’estimation de gradient sur cet algorithme et, nous avons adaptés une approche de morphologie mathématique pour l’identification des objets. Nous avons développé un algorithme de déplacement de contours pour l’amélioration des contours des objets identifiés. Nous montrons que le demi-ellipsoïde est une forme mathématique qui modélise parfaitement les objets. Après avoir exhibé les paramètres des demi-ellipsoïdes (orientation, grand et petit axe et, hauteur) et leurs lois, nous avons mis en place un procédé de génération d’objet sur une surface plane. Nous montrons que les objets générés ont les mêmes statistiques que les objets identifiés sur la surface et que, l’isotropie de cette surface est lié à l’orientation des objets. Par ailleurs, nous avons caractérisé le substrat et nous montrons que ce substrat est fortement corrélé à la surface plane sur laquelle sont déposés les objets. Il est donc nécessaire de décrire ce substrat et d’intégrer cette corrélation dans le générateur de surface
Our aim is to propose a probabilistic characterization and the synthesis of agricultural surfaces by structuring objects (aggregates, clods and wholes) from high resolution images. We propose to describe agricultural surfaces by two levels of roughness: The first one corresponding to clods, aggregates and wholes and, the second being the substrate on which were placed these objects. Having a segmentation algorithm by Hierarchy Contours (HC) for objects identification, we have highlighted the influence of the gradient estimation method on that algorithm. We have also adapted a mathematical morphology approach – Watershed – for objects identification. To improve the boundaries of the detected objects, we developed an algorithm to move the clod boundaries using simulated annealing algorithm. We show that semi-ellipsoid is the mathematical shape which model well objects. Having estimated the probability lows of the semi-ellipsoid parameters (orientation, major and minor axis, high), and studied their dependence, we developed a procedure to generate objects on a plane surface. We show that generated objects have the same statistics that identified objects on the high resolution images. We show that isotropy of the surface is related to orientation of the objects and that there exists a high correlation between substrate and objects placed on the plane
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Achrait-Furlan, Latifa. „Contribution à la caractérisation non destructive d'objets enfouis par des techniques micro-ondes“. Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-181.pdf.

Der volle Inhalt der Quelle
Annotation:
L'utilisation des micro-ondes comme moyen d'investigation de matériaux et de structures est de plus en plus répandue. Ainsi, elles apparaissent comme une technique de choix pour la caractérisation d'un large éventail de matériau, mais également comme une technique complémentaire à des procédés plus traditionnels tels les rayons X, les infrarouges, les ultrasons,. . . Le travail présenté dans ce mémoire concerne la caractérisation d'objets enfouis, par des techniques micro-ondes, qui repose sur le relevé du coefficient de réflexion d'une sonde placée au contact du milieu sous test. On entend par objets enfouis, une inclusion métallique ou diélectrique noyée dans un milieu hôte. Dans le cas de l'inclusion diélectrique, la permittivité est différente de celle du milieu environnant. Ce type d'études trouve des applications dans les domaines industriel, scientifique et médical. Dans le but de détecter, localiser et dimensionner les inclusions, des campagnes de mesures ont été réalisées à l'aide d'un système, le SPMS-2450, développé au laboratoire pour la mesure de paramètres S à la fréquence de 2,45 GHz. Celles-ci ont permis de vérifier la pertinence des résultats issus de la modélisation à l'aide, d'une méthode modale développée au laboratoire, et du logiciel commercial HFSS d'Ansoft. La prédiction du cœfficient de réflexion selon une ou deux dimensions, connaissant les caractéristiques de la structure de test, a ainsi été rendue possible. Quant au problème inverse, nous avons mis au point des techniques de déconvolution par filtrage de Wiener qui permettent d'estimer la section de l'objet sous test.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Mouri, Abdelkader. „Optimisation, caractérisation et comportement physico-chimique dans les milieux modèles de nano-objets en phase inverse“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT207.

Der volle Inhalt der Quelle
Annotation:
Le projet de thèse, mené en collaboration avec le laboratoire Medesis Pharma, porte sur la mise au point de deux formulations pharmaceutiques, une microémulsion inverse et un gel colloïdal, à base de Pécéol®, lécithine, éthanol et eau. Le lithium indiqué dans le traitement de maladies neurodégénératives a été utilisé comme un modèle de principe actif hydrophile dans le cadre de ce projet. Ce travail a été initié par l’étude du comportement de phases du mélange quaternaire Pécéol®/lécithine/éthanol/eau, mettant essentiellement l’accent sur les différents paramètres impliqués dans les transitions de phases, dans le but de déterminer le rôle du Pécéol® et de la lécithine dans la structuration du système.- L’étude des propriétés structurales de la microémulsion, dans le domaine riche en Pécéol®, a montré que la structure du système n’est pas cohérente avec un modèle classique de micelles sphériques, l’hypothèse d’une structure localement lamellaire a été proposée. Les propriétés de solubilisation de la microémulsion ont été évaluées par l’élaboration d’une série de diagrammes de phases pseudo-ternaires, en faisant varier le rapport éthanol/lécithine. Une efficacité optimale a été obtenue pour un rapport éthanol/lécithine égal à 40/60. La formulation optimisée est capable d’incorporer efficacement le lithium (Li), à des concentrations acceptables sans altérer la stabilité du système. L’étude des propriétés d’incorporation du Li dans la microémulsion a montré que le mécanisme d’encapsulation est compatible avec un modèle d’interactions de type drug-surfactant. Les résultats des études de stabilité de la microémulsion vide et chargée en Li menées selon les conditions ICH sont satisfaisants.- La structuration du gel clair, dans le domaine riche en lécithine, a été suivie par des analyses de rhéologie et de microscopie en lumière polarisée en fonction du rapport lécithine/Pécéol®. Les résultats ont montré que les propriétés rhéologiques du gel peuvent être modifiées en ajustant le rapport lécithine/Pécéol®. La caractérisation de la structure du gel clair par diffraction de rayons X aux petits angles (SAXS) et cryofracture conjuguée à la microscopie électronique en transmission (FF-TEM) a mis en évidence une structure anisotrope hexagonale H2. Alors que dans le domaine riche en eau, une structure anisotrope hexagonale inverse H2 et lamellaire Lα a été mise en évidence. Les propriétés rhéologiques modulables du gel dans le domaine riche en lécithine ainsi que sa grande capacité de rétention d’eau, sont particulièrement intéressantes pour une application du gel clair dans le domaine de pharmaceutique et/ou cosmétique
This thesis project, carried out in collaboration with Medesis Pharma laboratory, is about the development of two pharmaceutical formulations, a reverse microemulsion and a colloidal gel, based on Pécéol®, lécithine, ethanol and water. The indicated lithium in the treatment of neurodegenerative diseases has been used as a hydrophilic principal active model for this project. This work started with the study of the phase behavior of the four component system Pécéol®/lecithin/éthanol/water, focusing primarily on the various parameters involved in phase transitions in order to determine the role of Pécéol® and lecithin in the structuring of the system.- The study of the structural properties of the reverse microemulsion, in the Pécéol® rich domain, showed that the system structure is not coherent with a classical model of spherical micelles, a hypothesis of a local lamellar structure was proposed. The solubilization properties of the microemulsion were evaluated following the development of a series of pseudo-ternary phase diagrams, by varying the ethanol/lecithin ratio. Optimal efficiency was obtained for an ethanol/lecithin ratio of 40/60. The optimized formulation is capable of effectively incorporating lithium (Li) to acceptable concentrations without altering the stability of the system. The study of the incorporation properties of Li in the microemulsion has shown that the encapsulation mechanism is compatible with drug-surfactant binding model. The results of the stability studies of the free and Li loaded microemulsion, conducted according to ICH conditions, are satisfactory.- The gel structuring was followed, in the lecithin rich domain, through rheological and optical microscopy analyses, according to lecithin/Pécéol® ratio. Results showed that the rheological properties of the gel can be modified by adjusting the lecithin/Pécéol® ratio. Moreover, the characterization of the gel structure through Small Angle X-Ray Scattering (SAXS) and Freeze Fracture-Transmission Electron Microscopy (FF-TEM) showed an inverse hexagonal phase H2. While, in the water rich region, an inverse hexagonal H2 and lamellar Lα phases were identified. The adjustable rheological properties of the clear gel, and its great water solubilisation capacity, are particularly interesting for the application of the gel in pharmaceutical and/or cosmetic fields
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Mouri, Abdelkader. „Optimisation, caractérisation et comportement physico-chimique dans les milieux modèles de nano-objets en phase inverse“. Electronic Thesis or Diss., Montpellier, 2016. http://www.theses.fr/2016MONTT207.

Der volle Inhalt der Quelle
Annotation:
Le projet de thèse, mené en collaboration avec le laboratoire Medesis Pharma, porte sur la mise au point de deux formulations pharmaceutiques, une microémulsion inverse et un gel colloïdal, à base de Pécéol®, lécithine, éthanol et eau. Le lithium indiqué dans le traitement de maladies neurodégénératives a été utilisé comme un modèle de principe actif hydrophile dans le cadre de ce projet. Ce travail a été initié par l’étude du comportement de phases du mélange quaternaire Pécéol®/lécithine/éthanol/eau, mettant essentiellement l’accent sur les différents paramètres impliqués dans les transitions de phases, dans le but de déterminer le rôle du Pécéol® et de la lécithine dans la structuration du système.- L’étude des propriétés structurales de la microémulsion, dans le domaine riche en Pécéol®, a montré que la structure du système n’est pas cohérente avec un modèle classique de micelles sphériques, l’hypothèse d’une structure localement lamellaire a été proposée. Les propriétés de solubilisation de la microémulsion ont été évaluées par l’élaboration d’une série de diagrammes de phases pseudo-ternaires, en faisant varier le rapport éthanol/lécithine. Une efficacité optimale a été obtenue pour un rapport éthanol/lécithine égal à 40/60. La formulation optimisée est capable d’incorporer efficacement le lithium (Li), à des concentrations acceptables sans altérer la stabilité du système. L’étude des propriétés d’incorporation du Li dans la microémulsion a montré que le mécanisme d’encapsulation est compatible avec un modèle d’interactions de type drug-surfactant. Les résultats des études de stabilité de la microémulsion vide et chargée en Li menées selon les conditions ICH sont satisfaisants.- La structuration du gel clair, dans le domaine riche en lécithine, a été suivie par des analyses de rhéologie et de microscopie en lumière polarisée en fonction du rapport lécithine/Pécéol®. Les résultats ont montré que les propriétés rhéologiques du gel peuvent être modifiées en ajustant le rapport lécithine/Pécéol®. La caractérisation de la structure du gel clair par diffraction de rayons X aux petits angles (SAXS) et cryofracture conjuguée à la microscopie électronique en transmission (FF-TEM) a mis en évidence une structure anisotrope hexagonale H2. Alors que dans le domaine riche en eau, une structure anisotrope hexagonale inverse H2 et lamellaire Lα a été mise en évidence. Les propriétés rhéologiques modulables du gel dans le domaine riche en lécithine ainsi que sa grande capacité de rétention d’eau, sont particulièrement intéressantes pour une application du gel clair dans le domaine de pharmaceutique et/ou cosmétique
This thesis project, carried out in collaboration with Medesis Pharma laboratory, is about the development of two pharmaceutical formulations, a reverse microemulsion and a colloidal gel, based on Pécéol®, lécithine, ethanol and water. The indicated lithium in the treatment of neurodegenerative diseases has been used as a hydrophilic principal active model for this project. This work started with the study of the phase behavior of the four component system Pécéol®/lecithin/éthanol/water, focusing primarily on the various parameters involved in phase transitions in order to determine the role of Pécéol® and lecithin in the structuring of the system.- The study of the structural properties of the reverse microemulsion, in the Pécéol® rich domain, showed that the system structure is not coherent with a classical model of spherical micelles, a hypothesis of a local lamellar structure was proposed. The solubilization properties of the microemulsion were evaluated following the development of a series of pseudo-ternary phase diagrams, by varying the ethanol/lecithin ratio. Optimal efficiency was obtained for an ethanol/lecithin ratio of 40/60. The optimized formulation is capable of effectively incorporating lithium (Li) to acceptable concentrations without altering the stability of the system. The study of the incorporation properties of Li in the microemulsion has shown that the encapsulation mechanism is compatible with drug-surfactant binding model. The results of the stability studies of the free and Li loaded microemulsion, conducted according to ICH conditions, are satisfactory.- The gel structuring was followed, in the lecithin rich domain, through rheological and optical microscopy analyses, according to lecithin/Pécéol® ratio. Results showed that the rheological properties of the gel can be modified by adjusting the lecithin/Pécéol® ratio. Moreover, the characterization of the gel structure through Small Angle X-Ray Scattering (SAXS) and Freeze Fracture-Transmission Electron Microscopy (FF-TEM) showed an inverse hexagonal phase H2. While, in the water rich region, an inverse hexagonal H2 and lamellar Lα phases were identified. The adjustable rheological properties of the clear gel, and its great water solubilisation capacity, are particularly interesting for the application of the gel in pharmaceutical and/or cosmetic fields
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Menad, Samia. „Assemblage permanent de micro-objets par diélectrophorèse associée à une méthode de couplage covalent“. Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0037/document.

Der volle Inhalt der Quelle
Annotation:
La réalisation de micro et nanomatériaux avec des propriétés contrôlées nécessite le développement de nouvelles voies d’élaboration dites ascendantes « ou Bottom-up ». Les travaux présentés dans ce manuscrit visent à maîtriser la formation d’agrégats de particules colloïdales et de cellules, avec des applications potentielles dans les domaines des biocapteurs, de la microélectronique, de l’optique et de l’ingénierie tissulaire. L’approche proposée pour assembler les particules en structures organisées se base sur l’emploi de la diélectrophorèse, reposant sur l’application d’un champ électrique non- uniforme. L’un des inconvénients de cette technique tient au caractère réversible des assemblages ainsi formés, l’annulation du champ électrique entrainant la redispersion des colloïdes. Afin d’apporter une solution à ce problème, il est possible de recourir à un couplage chimique pour maintenir la cohésion des structures formées dans le milieu liquide. Afin de mieux maîtriser le comportement diélectrophorétique et les réactions chimiques exploitées, des travaux de caractérisation électrique et chimique des particules manipulées ont été réalisés. D’autre part, différents types de microélectrodes ont été étudiées pour la génération du champ électrique nécessaire à l’assemblage. Une nouvelle filière technologique a été développée pour la réalisation de microélectrodes transparentes en ITO et leur intégration en système microfluidique, basée sur l’exploitation du pouvoir isolant d’une fine couche de PDMS micro-structurée. La méthode a été appliquée à la fabrication de microélectrodes « verticales » puis à la réalisation de matrices d’électrodes quadripolaires. Ces dernières ont permis d’obtenir des assemblages permanents de particules de polystyrène fluorescentes présentant des groupements carboxyliques en surface, en combinant l’emploi de la diélectrophorèse négative et l’utilisation d’un agent de couplage chimique (Jeffamine). Des agrégats de cellules HEK 293 ont également été réalisés par diélectrophorèse négative. Nous avons démontré qu’il était possible, sous certaines conditions, de préserver le caractère permanent des agrégats cellulaires après coupure du champ
The design of micro and nanomaterials with controlled properties requires the development of new bottom- up assembly approaches. The work presented in this manuscript aims to control the formation of aggregates of colloidal particles and cells, with potential applications in the fields of biosensors, microelectronics, optics and tissue engineering. The proposed approach for assembling colloids into organized structures is based on the use of dielectrophoresis, a phenomenon observed when polarizable particles are placed in a non-uniform electric field. One of the drawbacks of this technique is the reversibility of the assemblies thus formed, the cancellation of the electric field causing the redispersion of the colloids. As a solution to this problem, we proposed to use a coupling agent to maintain the cohesion of the structures formed in the liquid medium. In order to better control the dielectrophoretic behavior and the chemical reactions exploited, electrical and chemical characterizations of the manipulated particles were carried out. Moreover, different types of microelectrodes have been studied for the generation of the electric field required for the assembly. A new approach has been developed for the fabrication of transparent micro patterned ITO microelectrodes and their integration in microfluidic systems, based on the exploitation of a thin micro-structured PDMS membrane used as an insulating layer. The method has been applied to the fabrication of "vertical" microelectrodes and of quadrupolar electrode arrays. The latter were used to obtain permanent assemblies of carboxylic acid functionalized, fluorescent, polystyrene particles, by combining negative dielectrophoresis with the use of a chemical coupling agent (Jeffamine). HEK 293 cell aggregates were also produced by negative dielectrophoresis. We have demonstrated that it was possible, under certain conditions, to preserve the permanent character of the cell aggregates after field removal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Matioszek, Dimitri. „Conception de nouvelles espèces divalentes du groupe 14 (Ge, Sn) : réactivité et synthèse contrôlée de nano-objets“. Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1438/.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne la synthèse de nano-objets mono-élément (Ge, Sn) et d'alliages (SiGe, GeSn, SnSi) à partir de dérivés du groupe 14 spécialement conçus à cet effet. Ces espèces présentent un double enjeu : elles doivent être suffisamment stables pour les manipuler aisément tout en restant labiles pour les décomposer dans des conditions douces de température. Pour cela, deux séries d'espèces germaniées à basse valence (degré d'oxydation II) ont été préparées et caractérisées. La première présente des ligands N-chélatants (aminotroponiminate et amidinate) permettant une stabilisation par complexation intramoléculaire. Des réactions spécifiques d'oxydation en présence d'une ortho-quinone et de complexation avec des métaux de transition ont confirmé leur caractère divalent. Leur thermolyse en solution a permis l'obtention de nanoparticules photoluminescentes de 2. 5 à 5 nm de diamètre protégées de l'oxydation par un enrobage organique. La seconde série concerne des espèces divalentes di- et poly-métallées du groupe 14 (hypermétallyl-germylènes et -stannylènes) stabilisées par complexation inter- ou intra-moléculaire. Elles pourraient s'avérer être des précurseurs de choix d'alliages nanométriques possédant des propriétés tout à fait inédites
This work concerns the synthesis of single-element (Ge, Sn) and alloys (SiGe, GeSn, SnSi) nano-objects from group 14 derivatives specifically designed for this purpose. These species present a double challenge: they have to be stable enough to be handled easily and to remain labile to decompose in mild conditions of temperature. For this, two sets of low-coordinate germanium compounds (oxidation state II) have been prepared and characterized. The first one contains N-chelating ligands (aminotroponiminate and amidinate) which allow stabilization by intramolecular complexation. The oxidative reaction with an ortho-quinone and the complexation reaction with transition metals have confirmed their specific character of divalent sites. Their thermolysis in solution led to photoluminescent nanoparticles with a size in the range of 2. 5 to 5 nm surrounded by an organic layer that protected them from oxidation. The second set was devoted to the synthesis of di- and poly-metallated group 14 complexes (hypermetallyl-germylenes and -stannylenes) stabilized by inter- or intra-molecular complexation. They are potential precursors for group 14 nanoscale alloys with totally unique properties
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Perrusson, Gaële. „Caractérisation électromagnétique de structures au sein d'un sous-sol proche ou profond“. Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00837975.

Der volle Inhalt der Quelle
Annotation:
Je travaille sur la caractérisation d'objets enfouis en sous-sol proche ou profond avec deux partenaires principaux : le BRGM (Orléans) pour le cadre applicatif et des échanges de compétences; la Division de Mathématiques Appliquées (Patras , Grèce) pour les approches mathématiques des champs. Mes travaux se situent donc à l'interface de ces deux disciplines et consistent à fournir des modélisations pertinentes et robustes pour les réalités de terrain en jeu. Ils reposent tous sur des approximations dans le but d'obtenir des formulations analytiques des champs. Ce choix à pour objectif de réduire considérablement le temps de calcul numérique du problème de diffraction. Ceci assure un gain de temps lors de l'inversion de données pour localiser ou caractériser des amas. Les applications visées étant dans le domaine des basses fréquences, les modélisations traitent toujours de la forme ellipsoïdale. Les approches reposent sur les équations intégrales ou aux dérivées des champs auxquelles des développements asymptotiques (basse-fréquences ou petits objets) sont appliquées. Certaines approches sont à approfondir avant utilisation pour des données réelles, mais toutes ont été testées sur des données synthétiques obtenues avec des codes numériques lourds grâce à des collaborations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Carmignani, Corentin. „Conception, réalisation et caractérisation des propriétés électriques d'un capteur silicium micro-nano permettant une Co intégration CMOS / nano objets“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT043/document.

Der volle Inhalt der Quelle
Annotation:
Depuis le début du troisième millénaire, des domaines comme l’automobile, le médical, l’industrie agroalimentaire ou l’électronique grand public (smartphone, ordinateur, Hi-fi etc.) sont devenus de plus en plus demandeurs de puces électroniques. Les besoins ont évolué de sorte que la diversification des fonctions des puces électroniques est devenue le nouveau paradigme de la microélectronique. Dans le même temps, des objets biologiques ayant des propriétés très diverses et très spécifiques sont découverts et étudiés. Certains sont conceptuellement considérés comme des solutions ultimes pour répondre à certains défis de l’électronique moderne comme l’utilisation d’origami d’ADN pour la lithographie. De plus il existe une adéquation entre les dimensions des objets biologiques et les transistors les plus fins. Nous nous sommes donc posé la question de savoir si cette convergence d’échelle pouvait permettre la cohabitation de l’électronique et de la biologie pour créer des dispositifs hybrides. Nous avons d’abord étudié l’utilisation d’objets biologiques filiformes comme interconnexions nanométriques. Dans ces recherches des objets biologiques sont utilisés en substitution de matériaux classiques. Toutefois il est loin d’être évident de mesurer leurs propriétés électroniques (mobilité des charges, fiabilité) contrairement aux semi-conducteurs standards. Nous avons donc construit un dispositif de tests électriques facilement utilisable par les biologistes et les électroniciens pour la caractérisation électrique de ces objets biologiques nanométriques. Certains objets biologiques réalisent, de manière naturelle, des interactions ciblées avec des agents biologiques spécifiques parfois pathogènes ou dangereux, ils ont aussi l’avantage de pouvoir être fabriqués à façon comme les protéines. Cela permet d’ouvrir une nouvelle voie dans la fabrication de capteurs dans laquelle les objets biologiques seront interfacés avec les structures électroniques. Nous avons donc travaillé sur la fabrication d'un capteur hybride à base de nanofils de silicium pilotés par un circuit CMOS et permettant un interfaçage entre nanofil et objet biologique. Dans le domaine des capteurs il existe une application qui focalise actuellement beaucoup l’attention, la détection de charges électriques de faibles intensités. Il existe plusieurs techniques mais elles sont toutes perfectibles soit à cause de leur coût soit à cause du temps nécessaire à la réalisation du séquençage soit encore à cause de la difficulté de mise en œuvre du séquençage. Nous avons donc étudié la possibilité de détecter une charge électrique unique. Etant donné la complexité de la question nous avons décidé de répondre à l’aide d’une série de simulations
Since the beginning of the third millennium, domains such as automotive, medical, food industry or consumer electronics (smartphone, computer, Hi-Fi etc.) are increasingly demanding more electronics chips. Needs have evolved so that, chips have to embed multiple function and diversification has become the new paradigm of electronics researches. At the same time, new biological objects with very specific and diverse properties are discovered and studied. Some are considered as ultimate solution to answer new microelectronics challenges. Moreover, there is a scale similarity between the finest transistors and biological objects. We asked ourselves the question: Can we use this similarity to create hybrid device? First, we investigated the application of nano biological object as interconnections. Despite of research the electrical characterization of biological object is still difficult to manage unlike standard materials as semi-conductors, so we developed an easy to use electrical characterization platform. Some biological object naturally reacts with dangerous or pathogenic agents and could be custom manufactured as proteins. This kind of object can be useful to create new hybrid sensors. We worked on design, manufacturing and characterization of 3D hybrid sensors based on silicon nanowires driven by a CMOS circuit. Then we investigated, with a simulation study, the possibility to detect a fine electric charge with a silicone nanowire which is a current area of interest in sensors research
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Noudohouenou, José. „Prédiction de performance utilisant une caractérisation des applications orientée codelet“. Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0030.

Der volle Inhalt der Quelle
Annotation:
Comprendre l'interaction existante entre applications, compilateurs, et architecture est fondamentale pour fabriquer de meilleurs produits: applications, compilateurs, et processeurs. L'un des moyens traditionnels permettant d'aborder ce problème reste l'expérimentation. Cependant cette méthode utilisant des applications complètes présente plusieurs inconvénients majeurs: complexité des applications pour faire, par exemple, de la simulation, ou une analyse détaillée de la performance de l'application; impossibilité d'avoir une vue précise de l'interaction; et enfin difficulté à prédire la performance d'une autre application n'existant pas dans la collection initiale. Cette thèse effectue une caractérisation systématique des applications en quatre étapes: extraction de code, analyse de performance, caractérisation mémoire, et prédiction de performance au niveau matériel. Afin de prédire la performance d'un code à une autre fréquence, cette thèse combine analyses statique et dynamique, ainsi que de la caractérisation mémoire pour proposer l'outil Capacity, destiné à la prédiction de performance au niveau matériel et à la découverte de connaissance. L'outil proposé est à la fois plus précis et plus rapide que les simulations, plus informatif que de simples expériences ou micro-expériences. Il est également utile et instructif pour diagnostiquer les problèmes de performance de code. Aujourd'hui, cet outil est utilisé par la technologie Cape-sim d'Intel pour simuler la performance d'un code à une autre fréquence
Understanding the interaction between applications, compilers, and architecture is a fundamental issue to generate better products: applications, compilers, and processors. One of the traditional tools to approach this problem is benchmarking. However, this approach through full applications has several key drawbacks. First, full applications are complex and hard to use as test codes for simulation, or detailed performance analysis. Second, dealing with full applications does not allow having an accurate view of the interaction. In the end, it is fairly hard to predict the performance for another application, which is not present in the original benchmark suite. This thesis performs a systematic characterization of applications in four steps: code extraction, performance analysis, memory characterization, and hardware performance prediction. In order to predict a code's performance at another frequency, this thesis combines static and dynamic analysis with memory characterization to propose the Capacity tool, a framework for hardware performance prediction and knowledge discovery. The proposed tool is more accurate and faster than simulations, more informative than simple benchmarking, or micro-benchmarking. Furthermore, it is useful and enlightening for a range of performance investigations. Currently, the framework is used by the Intel Cape-sim technology to simulate a software system's performance at another frequency
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Raffournier, Christel. „Objets bicompartimentaux huile/eau : étude de mécanismes pouvant présider à leur formation : caractérisation des lipides impliqués : quantification liposomes-globules huileux“. Paris 11, 2005. http://www.theses.fr/2005PA114813.

Der volle Inhalt der Quelle
Annotation:
L'étude par cryomicroscopie d'émulsions cationiques submicroniques a révélé l'existence de nouveaux objets à deux compartiments : l'un aqueux délimité par une bicouche lipidique, l'autre huileux délimité par une monocouche. Notre objectif est de déterminer le mécanisme de formation de ces objets, baptisés " sacs à main " (SAM), pour à terme, les exploiter comme vecteur de médicaments. La présence des SAM est directement corrélée à la formulation des émulsions : notamment, la présence de stéarylamine (SA) favorise la formation des SAM. Nous avons supposé que l'insertion massive de triglycérides (TG) dans une bicouche lipidique pourrait être à l'origine de la formation des SAM et que la SA pourrait favoriser ce phénomène. Ainsi, nous avons étudié l'insertion de TG dans une bicouche lipidique contenant de la SA et montré qu'au lieu de la favoriser, la SA entre en compétition avec les TG au sein de l'espace disponible entre les phospholipides (PL). De plus, la SA forme, seule ou en mélange avec les PL, des phases lamellaires fondant à haute température suggérant une forte interaction entre les chaînes lipidiques. Enfin, la caractérisation des interfaces a été réalisée pour diverses formulations d'émulsion permettant de corréler la présence de SAM à une interface lipidique à la fois cohésive et malléable. Parallèlement, l'étude de mélanges TG/PL nous a permis de développer une nouvelle méthode pour quantifier les liposomes présents dans une émulsion.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Mahboubi, Amal Kheira. „Méthodes d'extraction, de suivi temporel et de caractérisation des objets dans les vidéos basées sur des modèles polygonaux et triangulés“. Nantes, 2003. http://www.theses.fr/2003NANT2036.

Der volle Inhalt der Quelle
Annotation:
La diversification des services multimédias et l'émergence du standatd MPEG4 au milieu des années 1990 a mis en évidence la nécessité de recherches approfondies sur les méthodes d'analyse de la vidéo numérique en vue de la représentation de son contenu. Cette thèse s'inscrit dans ce contexte. Nous cherchons à concevoir un système complet de représentation du contenu vidéo en prenant en compte ses aspects spatial et temporel. A cet effet, dans cette thèse nous présentons plusieurs méthodes pour le suivi des objets contenus dans des séquences vidéo génériques. Chaque objet plan noté 'VOP' (Video Object Plane) est représenté par un maillage triangulaire associé à un modèle polygonal hiérarchique et articulé. La segmentation, fondée sur des régions polygonales, permet de maintenir un découpage cohérent au cours du temps d'un VOP en zones à mouvements homogènes. . .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Marengo, Stéphanie. „Une porte optique intensificatrice picoseconde à gain élevé caractérisation et application potentielle en imagerie de petits objets placés dans des milieux diffusants“. Thèse, Université de Sherbrooke, 2003. http://savoirs.usherbrooke.ca/handle/11143/4183.

Der volle Inhalt der Quelle
Annotation:
Dans cette étude, nous avons développé un amplificateur à colorant possédant ces deux caractéristiques. Le colorant choisi, l'iodure de 3,3' -diméthyloxatricarbocyanine (méthyl-DOTCI), possède un épaulement dans la bande d'absorption à 620 nm ce qui convient bien à notre pompe femtoseconde. De plus, son maximum de fluorescence est à 720 nm ce qui est particulièrement intéressant dans le cas des études avec des tissus biologiques humains. En effet, la fenêtre dite"thérapeutique" se situe dans les longueurs d'onde rouge et proche infrarouge. Le phénomène d'amplification, qui se produit dans des conditions expérimentales précises, est en fait une émission stimulée du colorant qui est largement favorisée par rapport à sa fluorescence naturelle (émission spontanée). L'arrivée du signal incident, dont la longueur d'onde correspond au saut énergétique entre l'état fondamental et l'état excité où se trouvent les molécules, provoque une avalanche cohérente de celles-ci vers l'état fondamental générant ainsi l'émission stimulée. Une des conditions nécessaires pour l'obtention d'un gain élevé est que la durée de l'impulsion de pompe soit inférieure au temps de relaxation des molécules ainsi qu'inférieure au temps requis pour effectuer un trajet dans la cellule de colorant. Ceci nous a permis d'amplifier un signal incident par un facteur entre 10[indice supérieur 3] et 10[indice supérieur 4] . De plus, ce gain élevé n'est observé qu'à l'intérieur d'une fenêtre temporelle d'environ 10 picosecondes. Nous avons intégré cet amplificateur à notre montage de transillumination afin d'acquérir des images d'un patron de lignes opaques immergé dans un milieu diffusant liquide. Des images de lignes ayant une résolution spatiale de 200 [mu]m ont été obtenues. La cible était placée au centre d'un mélange contenant des proportions variables de lait et d'eau. Deux longueurs de trajet optique dans la solution ont été utilisées: 30 et 50 mm. Pour déterminer les propriétés optiques de notre milieu diffusant, nous avons mis au point une technique de caractérisation basée sur la distribution radiale des photons transmis à travers le milieu. Deux paramètres de transport, les coefficients de diffusion effectif ([mu]s' ) et d'absorption ([mu]a ), caractérisent la forme et l'amplitude du profil radial. Le fit des courbes expérimentales à des courbes simulées nous a permis d'extraire ces coefficients. Les courbes simulées ont été réalisées grâce à une simulation Monte Carlo qui incorpore les conditions expérimentales de notre montage de caractérisation"--Résumé abrégé par UMI.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Capri, Arnaud. „Caractérisation des objets dans une image en vue d'une aide à l'interprétation et d'une compression adaptée au contenu : application aux images échographiques“. Orléans, 2007. http://www.theses.fr/2007ORLE2020.

Der volle Inhalt der Quelle
Annotation:
Cette thèse, réalisée dans le cadre d’une convention CIFRE avec la société ECA-Sinters, se situe dans la continuité de projets de robotique télé-opérée pour des applications médicales non-invasives réalisés au laboratoire de Vision et Robotique ; l’application médicale télé-opérée concerne ici la télé-échographie. Notre travail a porté plus précisément sur le traitement des images ultrasonores sur lesquelles se base l’expert médical pour le contrôle à distance du robot porteur de la sonde échographique positionné sur le patient. Une étude des méthodes actuelles de segmentation d’image ainsi que sur les méthodes permettant d’évaluer un résultat de segmentation, nous conforte dans l’idée d’une non universalité des méthodes de segmentation. La difficulté de partitionner une image ultrasonore en composantes illustre cette affirmation. Nous proposons donc, via l’utilisation combinée d’approches floue et fractale, une caractérisation des divers objets présents au sein de l’image sans réelle segmentation. De plus, le lien démontré entre ces deux approches nous permet de prendre en compte, dans le calcul de la complexité des divers objets, le bruit initialement présent au sein de l’image ultrasonore. Ces résultats obtenus d’un point de vue théorique sont alors appliqués à différents domaines tels que la segmentation ou la compression d’images.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Nadir, Zia. „Caractérisation de plusieurs méthodes d'essais utilisées en compatibilité électromagnétique à partir de mesures pratiquées sur des objets respectant les propriétés des lignes de transmission couplées“. Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-257.pdf.

Der volle Inhalt der Quelle
Annotation:
La thèse traite de l'intercomparaison de différentes méthodes d'essai utilisées en compatibilité électromagnétique. Les méthodes concernées sont respectivement les cellules TEM et GTEM, l'illumination directe sous champ génère en chambre anéchoïque et en chambre réverbérante à brassage de modes. Ces méthodes ne couvrant pas toutes la même gamme de fréquence nous proposons de qualifier leur réalisme physique en comparant les résultats de mesure à des données issues de simulation théorique. Pour cela nous avons développé des éprouvettes de tests basées sur les propriétés des couplages électromagnétiques prévus par la théorie des lignes. Ces éprouvettes intégrables dans chaque moyen d'essai permettront de couvrir le large spectre de fréquences envisagé dans notre étude soit de quelques kHz à plusieurs GHz. La première partie concerne la description des différentes méthodes d'essais. Nous apportons quelques notions sur les phénomènes physiques mis en jeu. Ensuite quelques détails sont apportes sur la théorie des lignes couplées et sur la description des dispositifs soumis au champ électromagnétique qui sont élaborés spécialement pour les besoins de l'étude. Dans la deuxième partie, les résultats obtenus lors d'expériences pratiquées dans les trois première moyens d'essais (la cellule TEM, la cellule GTEM, la chambre anéchoïque) sont largement confrontés aux prévisions théoriques à partir de la théorie des lignes de transmission. La troisième partie est consacrée aux expériences entreprises dans la chambre réverbérante à brassage de modes (C. R. B. M. ). Compte tenu de la structure complexe de l'onde générée dans une CRBM, la théorie des lignes est aménagée pour intégrer de multiples incidences de l'onde. La dernière partie de la thèse regarde plus précisément les résultats obtenus en C. R. B. M. Au-dessus de 1 GHz.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Chabernaud, Camille. „Caractérisation des troubles cognitifs dans la neurofibromatose de type 1 : étude des relations avec les hamartomes cérébraux“. Thesis, Tours, 2010. http://www.theses.fr/2010TOUR3128/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Allabouche, Kaoutar. „Étude, conception et caractérisation de nouvelles topologies d’antennes à résonateurs diélectriques : application aux nouveaux systèmes de communications sans fil“. Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4119/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, la croissance du trafic d’informations entraine un développement technologique spectaculaire dans le domaine des télécommunications, qu'il s'agisse de réseau cellulaire, télévision, satellite, WIFI ou autres applications. Cette révolution a engendré d'énormes besoins et suscite une évolution technologique prodigieuse dans le domaine de la conception des antennes. Ces dernières se doivent de répondre aux différentes exigences, telles que la diminution de l’encombrement et des interférences électromagnétiques, la robustesse à l’environnement proche, l'augmentation du gain, l'élargissement de la bande passante, l’intelligence, etc. Les travaux menés dans cette thèse s’orientent surtout vers la conception de nouvelles topologies d’antennes simples, à faible encombrement, intelligentes, insensibles à l’environnement, large et ultra large bande… Notre intérêt s’est porté sur les antennes à résonateurs diélectriques (ARD). Dans le domaine de l’internet des objets, nous avons conçu et réalisé une antenne filtre, à base d’une jonction fente-résonateur diélectrique de forme rectangulaire en vue d’une intégration dans les dispositifs dédiés à ces applications. Pour des applications liées à la télémétrie, et plus précisément les compteurs intelligents, nous avons conçu et réalisé une antenne à base d’un résonateur diélectrique de forme cylindrique. Ces antennes intégrées dans des dispositifs où les sources de perturbations sont très présentes, ont montré une grande robustesse et une insensibilité à leur proche environnement. Par ailleurs, nous avons proposé deux nouvelles topologies d’antennes larges et ultra larges bandes. La première est un anneau cylindrique, constitué de quatre quartiers avec deux permittivités différentes. Un gap d’air a été introduit séparant le résonateur en deux. Cette structure innovante, confère à notre antenne une large bande et des caractéristiques de rayonnement stables. Cette antenne a servi comme élément de base pour proposer une antenne réseau agile en diagramme de rayonnement. La seconde, est dans la continuité de la première structure pour laquelle nous avons adopté une nouvelle technique d’alimentation ainsi qu’une diminution des dimensions du plan de masse. L’antenne obtenue propose alors des caractéristiques adaptées à des applications ultra large bande
Nowadays, the constant increase of information traffic leads to a spectacular technological development in the field of telecommunications, whether it is cellular network, television, satellite, WIFI or other applications. This revolution is creating new needs and is inspiring a phenomenal technological evolution in the field of antenna design. Modern antennas in fact must meet increasingly harder requirements in terms of compactness, electromagnetic interference reduction, robustness to environment, increased gain, broadband bandwidth, intelligence, etc. The work carried out in this thesis mainly focuses on the design of new simple antenna topologies of small size, intelligent, insensitive to environment, broad and ultra-wide band. In particular, our interest focused on antennas based on Dielectric Resonators (DRs). In the field of the Internet of Things (IoT), we designed and realized a high-Q filter antenna based on a slot loaded rectangular dielectric resonator suitable for integration in compact IoT devices. We also designed and characterized an antenna based on a cylindrical shaped dielectric resonator (CDR). This antenna, which has been proposed to be integrated in smart meter devices, where interference sources are very present, has shown a great robustness to the surrounding environment. In addition, we proposed two new broadband and ultra-wideband antenna topologies. The first one is based on a cylindrical ring resonator, divided in four quarters characterized by two different permittivities. An air gap was inserted separating the resonator in two parts. This innovative structure gives our antenna a wide band behavior and stability in terms of radiation pattern. This structure has been used in an array configuration to achieve a reconfigurable radiation pattern. Starting from this work, the second antenna achieves an ultra-wideband behavior by adopting a new feeding technique as well as a reduced ground plane
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Al, Hayek Marianne. „Modélisation optique de signatures spectrales et polarimétriques d'objets pour augmenter les performances d'un système de reconnaissance“. Electronic Thesis or Diss., Brest, 2023. http://www.theses.fr/2023BRES0101.

Der volle Inhalt der Quelle
Annotation:
L’imagerie conventionnelle, qui se limite aux formes et couleurs des objets, montre ses limites en matière de reconnaissance. Pour améliorer les performances des systèmes d’imagerie, l’imagerie hyperspectrale et polarimétrique apporte une richesse d’informations, notamment des grandeurs physiques difficiles à obtenir autrement. Cela permet d’améliorer la détection, la caractérisation quantitative et la classification des objets. Cependant, le traitement des données complexes de ces modalités reste un défi. L’objectif de ce travail est de proposer une méthodologie générique pour analyser les signaux optiques, en se concentrant sur l’imagerie hyperspectrale (HSI) en premier terme. Une classification originale des modèles hyperspectraux inversibles basés sur la physique est présentée, avec description des modèles variés les plus récents pour des applications diverses : MPBOM pour le biofilm d’algues et de bactéries, MARMIT pour le sol, PROSPECT pour les feuilles de plantes, Farrell pour les tissus biologiques turbides, Schmitt pour la peau humaine et Hapke pour les objets du système solaire. Une convergence entre les modèles PROSPECT et Farrell pour des objets intermédiaires (pomme verte et poireau) ouvrant la voie au développement d’une nouvelle modélisation générique et complète. Notamment dans le domaine de la biologie, par une collaboration avec le laboratoire de l’ANSES, nous avons procédé à une détection précoce suivie d’une quantification du biofilm qui se forme dans les bassins d’élevage de poissons en utilisant l’imagerie hyperspectrale et polarimétrique du fait que sa détection actuelle est visuelle et n’est pas assez efficace pour prévenir son accumulation et pour mettre en place des procédures de nettoyage et de désinfection. Ainsi une première version d’une modélisation physique propre nommée "DNA-HSI" a été mise en place
Conventional imaging, limited to object shapes and colors, faces limitations in object recognition. To enhance imaging system performance, hyperspectral and polarimetric imaging provides a wealth of information, includingchallenging-to-obtain physical parameters. This facilitates improved object detection, quantitative characterization, and classification. However, the processing of complex data from these modalities remains a challenge. The aim of this work is to propose a generic methodology for the analysis of optical signals, with a primary focus on hyperspectral imaging (HSI). An original classification of invertible physics-based hyperspectral models is presented, along with descriptions of recent diverse models for various applications: MPBOM for algae and bacteria biofilm, MARMIT for soil, PROSPECT for plant leaves, Farrell for turbid biological tissues, Schmitt for human skin, and Hapke for objects in the solar system. A convergence between the PROSPECT and Farrell models for intermediate objects (green apple and leek) paves the way for the development of a new generic and comprehensive modeling approach.Particularly in the field of biology, in collaboration with the ANSES laboratory, we conducted early detection ollowed by quantification of biofilms forming in fish farming basins using hyperspectral and polarimetric imaging. This is crucial as the current visual detection method is not efficient in preventing biofilm accumulation and implementingcleaning and disinfection procedures. Hence, an initial version of a dedicated physical modeling approach called "DNA-HSI" has been established
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Superina, Giulia. „Observation de noyaxu actifs de galaxies de type "blazar" avec les téléscopes H. E. S. S. : caractérisation de la variabilité au TeV du blazar PKS 2155-304“. Palaiseau, Ecole polytechnique, 2008. http://www.theses.fr/2008EPXX0068.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Farhat, Hadi. „Dispositif de détection et localisation basé sur un système RFID UHF intelligent : application au domaine de la grande distribution“. Thesis, Lille, 2019. http://www.theses.fr/2019LIL1I025.

Der volle Inhalt der Quelle
Annotation:
La technologie RFID UHF, également appelée RAIN RFID, est une technologie passive permettant l’identification automatique des objets. Elle comble ainsi le fossé entre les mondes physique et numérique en permettant à un objet de devenir « vivant » sur l'internet des objets grâce à des étiquettes RFID (tags) peu coûteuses et sans batterie. La technologie RFID UHF passive témoigne d’un développement significatif en raison de la croissance accélérée de dispositifs technologiques sophistiqués. Ce développement est en grande partie poussé par la chaîne d'approvisionnement et la grande distribution. Dans ces domaines, la RFID UHF passive de deuxième génération (Gen2), parmi d'autres solutions de traçage et d'identification possibles, constitue un choix logique compte tenu du faible coût des tags lorsqu’ils sont produits en gros volumes, de leur facilité d'impression et de l’absence de batterie.La principale préoccupation des revendeurs détaillants est la disponibilité du produit. Celle-ci peut être affectée par l’existence d’erreurs liées à la visibilité (écarts de stockage, vol, perte) et d’erreurs humaines. Il est donc nécessaire d'améliorer la visibilité et d'automatiser le processus. Malgré ses avantages, le déploiement de la technologie RFID dans la grande distribution est toujours confronté à de nombreux obstacles et défis. Dans cette thèse, nous nous sommes attachés à répertorier toutes les technologies de composants et de lecteurs proposées sur le marché ou encore à l’état de prototype, puis, après avoir identifié et analysé les différents défis liés à ce domaine particulier d’application, à élaborer et à tester de nouvelles solutions.En premier lieu, les distances maximales de lecture des tags passifs sont évaluées dans différents environnement afin d’identifier les facteurs les impactant. A l’issue de cette étude, une méthode de caractérisation alternative est proposée pour contrôler les performances des tags et identifier les objets tagués ayant de faibles performances. Deuxièmement, nous nous appuyant sur cette méthode pour proposer une nouvelle solution d’amélioration de la détection. Les algorithmes conçus et réalisés pour traduire cette solution permettent aux lecteurs de négocier leurs configurations avec l’environnement et entre eux. Enfin, un nouvel algorithme de localisation est proposé afin d’améliorer la précision. Son élaboration et son implémentation sont basées sur l’exploitation de la réponse des tags identifiés comme les plus fiables du milieu. Les solutions proposées sont particulièrement avantageuses car universelles, compatibles avec les lecteurs du marché et n’ajoutant aucun coût au matériel utilisé pour la détection
UHF RFID technology, also known as RAIN RFID, is a passive technology that enables the automatic identification of items. Thus, it bridges the gap between the physical and digital worlds by allowing an item to become alive on the Internet of things thanks to inexpensive and battery-free RFID tags. Passive UHF RFID technology has witnessed a significant development due to the accelerated growth of sophisticated technological devices. This development is largely driven by the supply chain and the retail industries. Passive UHF RFID Gen2, among other tracing and identification solutions, is the logical choice given the low costs of large-volume tags, ease of printing and being battery-free, the need for maintenance is completely eliminated.The main concern of resellers, the withdrawal of the product, is mainly affected by errors related to visibility (stock gap, theft, loss) and human errors. It is, therefore, necessary to improve visibility and automate the process. Despite its advantages, RFID deployment in supermarkets is still facing many obstacles and challenges. In this thesis, we focus on technological availability by defining and analyzing the different challenges and possibly proposing the appropriate solutions.First, the maximum reading distances of passive tags are evaluated in different environments in order to identify the factors impacting them. At the end of this study, an alternative characterization method is proposed to control tag performance and identify tagged objects with poor performance. Secondly, we will use this method to propose a new solution to improve detection. The algorithms behind this solution allow readers to negotiate their configurations with the environment and with each other. Finally, a new location algorithm is proposed to improve accuracy. This algorithm is based on the exploitation of the answers of the reliable tags of the medium. The proposed solutions are universal, compatible with market readers and add no cost to the hardware used for detection
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Nowik, Witold. „Mise au point d’une démarche analytique de caractérisation de mélanges naturels complexes à l’aide de méthodes chromatographiques sélectives et complémentaires : application à l’analyse des colorants anthraquinoniques présents sur les objets du patrimoine“. Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112196.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté constitue une contribution méthodologique dans la séparation des anthraquinoïdes par chromatographie en phase liquide à haute performance à polarité inversée de phases. Cette amélioration a pour but ultime une meilleure détectabilité et caractérisation des composés constituant les colorants anthraquinoniques présents dans les objets du patrimoine culturel.Une série de 40 composés témoins, représentant un large éventail des structures possibles d’anthraquinoïdes a été utilisée pour la modélisation du comportement chromatographique de cette famille de composés.La première partie de cette recherche présente une étude comparative des performances des phases stationnaires greffées alkyle (C18). Ces performances sont décrites par le nombre de paires critiques ainsi que la symétrie de pics. Tenant compte de la dispersion des symétries de pic des différents composés sur différentes phases stationnaires nous avons proposé un nouvel indice global, le paramètre de symétrie d(TF;1) qui nous a permis de classer la totalité de phases selon leurs performances, et trouver celles se montrant les plus satisfaisantes.Face à des faibles différences de sélectivités des phases greffées octadécyle. Nous avons décidé de mettre en jeu d’autres mécanismes de rétention des anthraquinoïdes offerts par les phases fonctionnalisées.Le potentiel séparatif de phases fonctionnalisées a été évalué comme pour les précédentes et les phases les plus performantes ont été désignées.La comparaison globale des différentes phases stationnaires, aussi bien celles greffées octadécyle que celles fonctionnalisées, a été faite avec le coefficient de pertinence de colonnes (CSc), paramètre permettant d’englober le nombre de paires critiques et la symétrie de pics d’une manière univoque. Les diagrammes obtenus par projection des points correspondant aux coordonnées : coefficient de symétrie (Sc) et coefficient de paires critiques (CPc) – ont permis de choisir les phases aux propriétés désirées.Les différences de sélectivités des phases stationnaires étudiées, nous ont conduit à examiner leur orthogonalité en vue de la construction de systèmes séparatifs bi-dimensionnels. En se basant sur le critère de la qualité de séparation, nous avons employé une méthode de calcul de distances minimales et les moyennes arithmétique et harmonique de ces distances permettant de décrire l’étendue et l’homogénéité de la dispersion des pics sur une surface 2D. Cette méthode à été comparée avec les méthodes, classiques ou récentes, d’évaluation de la dispersion. Cette nouvelle approche a démontré son applicabilité à l’évaluation de pouvoir séparatif des systèmes 2D.Le travail expérimental mené principalement sur les standards est enrichi par quelques applications concrètes aux échantillons de colorants trouves dans des textiles historiques.Les résultats de cette recherche sont directement transférables dans des laboratoires impliqués dans l’analyse des anthraquinoïdes dans le but de l’identification des sources des colorants utilisées dans les objets du patrimoine culturel, mais aussi dans la caractérisation de ces composés dans le cadre de la recherche phytochimique, phytopharmacologique et autres
This work contributes to the improvement in the separation of anthraquinoids by reversed phase high performance chromatography, the final target being setting down the detection limits and improving the characterisation of separated components of anthraquinoid dyes from the cultural heritage artefacts.A series of 40 standards representing large range of existing anthrquinoid structures was used for the modelling of chromatographic behaviour of that family of compounds.First part of that research show the comparative study of the performances of alkyl (C18) bonded stationary phases. These performances are expressed by number of critical pairs as well as by symmetry of peaks. Considering the dispersion of values of symmetry of various peaks on different stationary phases, we introduced a novel symmetry parameter d(TF;1), which allowed to range all stationary phases according to their “global” symmetry and to determine the most satisfactory ones.The selectivity of octadecyl bonded phases was little different each other, so it was decided to test the functionalised phases which could offer complementary retention mechanisms in the separation of anthraquinoid dyes in reversed phase systems.The separation efficiency of these phases was evaluated as before, and the most efficient phases were selected.The general comparison of all studied stationary phases, bonded with octadecyl and functionalised, was done with the column suitability coefficient (CSc), an univocal ranking parameter containing both descriptors: number of critical pairs and peaks’ symmetry. The diagrams obtained by projection of co-ordinates corresponding to the critical pairs’ coefficient (CPc) and symmetry coefficient (Sc) gives a choice of particular properties of phases.The different selectivity of several studied phases driven us to check out their orthogonality in the aim to built bi-dimensional separation systems. Using the separation efficiency criterion, we employed a minimal distances computation method as well as the arithmetic and harmonic means describing the extension and homogeneity of dispersion of peaks on 2D separation surface. This approach was compared with several other classical or recent methods of the evaluation of peak dispersion. It was demonstrated that our method is particularly useful in the comparison of separation power of 2D systems.The experimental work, mainly done with standards of anthraquinone derivatives, was illustrated by some applications to the real samples of dyestuffs found in historical textiles.The results of this research are directly transferable to the application laboratories involved in the analysis of anthraquinoids for the identification of sources of dyestuffs presents in cultural heritage artefacts, but also for their characterisation in phytochemistry, phytopharmacology and other research
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Dillmann, Philippe. „Diffraction X, microdiffraction X et microfluorescence X sous rayonnement synchrotron et analyses comparées pour la caractérisation des inclusions : application à l'étude de l'évolution historique des procédés d'élaboration des objets ferreux (procédés direct et indirect)“. Compiègne, 1998. http://www.theses.fr/1998COMP1109.

Der volle Inhalt der Quelle
Annotation:
En siderurgie contemporaine, le controle inclusionnaire dans les aciers est determinant pour les proprietes ulterieures du materiau. La caracterisation des inclusions (exogenes ou endogenes) est egalement primordiale en archeosiderurgie ou elle permet de relier l'objet archeologique au contexte de reduction et de transformation du metal (procede direct ou procede indirect - filiere fonte). Un des aspects de cette these concerne la mise en place de methodes specifiques de caracterisation analytique et structurale des inclusions basees sur l'utilisation du rayonnement synchrotron : diffraction x, microdiffraction x et microfluorescence x. L'application de ces methodes d'analyse a ete effectuee sur les inclusions d'un certain nombre d'objets siderurgiques representatifs de l'evolution des procedes de reduction, d'affinage et de transformation allant de la periode gallo-romaine a la fin du 19#e siecle. Les resultats ont permis de degager un certain nombre d'observations reproductibles sur la structure et la composition des inclusions et liees a l'un ou a l'autre des procedes (facteurs discriminants). Ainsi, la presence d'inclusions a forte teneur en silicium et faible teneur en fer, observees dans une matrice carburee semble etre propre au procede direct. Il en est de meme pour les inclusions contenant des phases aluminees du type hercynite et galaxite. La presence de phosphates serait, elle, liee au procede indirect, comme celle d'inclusions a forte teneurs en chrome, vanadium et titane, cristallisees parfois sous forme angulaire. Ceci peut etre explique en partie par la bonne separation metal/laitier en reduction indirecte et la concentration de certains elements au niveau de phases particulieres dans les fontes. Ces phases seraient a l'origine des inclusions typees dans la filiere indirecte lors de l'affinage. Pour le procede direct, ce sont les elements non reduits du minerai qui sont a l'origine des inclusions. Ces observations ont ete completees par l'analyse des inclusions d'objets ferreux issus de reductions directes dans des fourneaux reconstitues selon les donnees archeologiques de la periode gallo-romaine. Ces experimentations ont ete realisees en utilisant des minerais fortement types du point de vue de leur composition et en particulier le minerai oolithique lorrain. Les resultats obtenus concordent avec les observation faites sur les inclusions des objets archeologiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Defraiteur, Rémi. „Évaluation de systèmes d'aide à la conduite. Génération automatique de vérité terrain augmentée à partir d’un capteur haute résolution et d’une cartographie sémantique et 3D ; Evaluation de fonctions de perception tierces“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG040.

Der volle Inhalt der Quelle
Annotation:
Le véhicule autonome représente l'un des défis technologiques actuels majeurs dans le secteur automobile. Les véhicules actuels se complexifient et intègrent de nouveaux systèmes reposants sur des fonctionnalités clés telles que la perception. Permettant au véhicule d'appréhender l'environnement dans lequel il évolue, elle est exploitée sous différents aspects pour garantir une mobilité plus sûre. Étant donné le rôle essentiel de la perception dans le bon comportement d'un véhicule autonome, il est nécessaire de s'assurer que les solutions de perception utilisées soient suffisamment performantes pour garantir une circulation sécurisée. L’évaluation de telles solutions de perception reste cependant une tâche complexe et peu explorée. L’un des points critiques est la difficulté de produire et de disposer de données de référence suffisantes pour mener des évaluations pertinentes. L'objectif de cette thèse est de mettre au point un nouvel outil de validation permettant d'évaluer les performances et niveaux d'erreurs de différentes solutions de perception, tout en utilisant le minimum de traitements manuels. Via cet outil, il sera alors possible de mettre en concurrence différentes solutions en se basant sur des critères communs. La mise au point de cet outil se décompose selon deux parties principales qui sont : la génération automatisée de données de référence et la méthode d'évaluation des solutions de perceptions testées
Autonomous driving is one of the current major technological challenges in the automotive sector. Vehicles are becoming more complex and are integrating new systems relying on key functionalities such as perception. Perception is used in various ways to ensure safer mobility, allowing the main inboard system to understand the environment in which the vehicle evolves. Perception plays a critical role in the proper behavior of an autonomous vehicle. It is necessary to ensure that the embedded perception solutions are effective enough to meet safe driving requirements. However, the evaluation of such solutions remains a complex and little explored task. One of the critical issues is the difficulty of generating and having sufficient reference data to conduct relevant evaluations. The purpose of this thesis is to develop a new validation tool to evaluate the performances and error levels of different perception solutions, while minimizing the manual annotations. With this tool, it will be possible to lead benchmark studies on different solutions based on common criteria. The development of this tool is split into two main parts: the automated production of reference data and the evaluation method of the tested perception solutions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Talmoudi, Hanen. „Elaboration et caractérisation de nanofibres obtenues par l'électrofilage de mélanges polymère/nano-objet“. Thesis, Mulhouse, 2018. http://www.theses.fr/2018MULH2299/document.

Der volle Inhalt der Quelle
Annotation:
Au cours de la dernière décennie, une nouvelle classe de composés de coordination, à base de métaux et de ligands organiques de pontage, connus sous le nom de «Metal Organiques Frameworks (MOFs)» a été largement étudiée. Ces composés ont été popularisés par Yaghi et ses collaborateurs en 1995 et ont attiré l'attention considérablement en raison de leur structure hautement modulable, leur large gamme de tailles de pores avec une grande surface et leurs fonctionnalités facilement adaptables. Ces matériaux offrent un grand potentiel pour diverses applications, en particulier dans le domaine de la catalyse, du stockage et de séparation des gaz.Malgré leurs applications diverses, en particulier dans la séparation de gaz, il y a très peu de rapports concernant la croissance des MOFs sous forme des films minces ou de membranes synthétiques. Dans ce travail, nous décrivons l'utilisation de l'électrofilage pour construire des structures hiérarchiques et des membranes autosupportées de MOF. En fait, l'électrofilage est une technique simple et polyvalente pour produire des libres continues avec des diamètres moyens allant de quelques nanomètres à quelques micromètres.Deux stratégies, basées sur l'utilisation des nanofibres de différents polymères, ont été adoptées : pour produire des membranes auto­ supportées, différents composites polymère/MOF ont été d'abord électrofilés, puis les nanofibres obtenues ont été exposées à des différentes solutions contenant un mélange cation/linker. En conséquence, après la croissance des MOFs, des membranes auto­supportées ont été obtenues avec les nanofibres servant de matrice.D'autre part, pour construire des structures hiérarchiques, des mélanges polymère/cation ont été électrofilés et les nanofibres obtenues ont été immergées dans des solutions de linkers pour la croissance de différents MOFs sur les fibres. Les méthodes décrites ont été testées avec succès en utilisant deux polymères différents (PVA, PAN) et quelques MOFs (MOF-5, HKUST-1, ZIF-8). En effet, ces structures font partie des structures les plus représentatives de celle classe de composés hybrides. Enfin, les différents matériaux obtenus ont été caractérisés par la microscopie électronique à balayage (MEB), la spectroscopie infrarouge à transformée de Fourier, la diffraction des rayons X sur poudre et l'analyse thermogravimétrique
Ln the last decade, a novel class of coordination compounds comprising metal-based nodes and bridging organic linkers known as «Metal Organic Frameworks (MOFs) » has been extensively studied. These compounds were popularized by Yaghi et al. around 1995 and have attracted enormous attention due to their highly designable structure, their wide range of pore sizes with a large surface area and their easily tailorable functionalities. These materials offer a great potential for various applications especially in the field of catalysis, gas storage and gas separation. Despite the huge potential especially in the gas separation, there are few reports about the growth of MOFs as thin films or synthetic membranes.In this work, we describe the use of electrospinning for building hierarchical structures and auto-supported membranes of MOFs. ln fact, the electrospinning is a simple and versatile technique to produce continuous fibers with average diameters in the range of nanometers to a few micrometers.Two strategies were adopted: for producing auto-supported membranes, different polymer/MOF composites were firstly electrospun, then, the obtained nanofibers were exposed to solutions containing different cation/linker mixtures. Accordingly, after the MOFs' growth, auto-supported membranes were obtained with the nanofibers serving as backbone. ln another hand, for building hierarchical structures, polymer/cation mixtures were electrospun and the obtained nanofibers were immersed in linkers' solutions for growing different MOFs on the fibers. The described methods were successfully tested using 1\\0 polymers (PVA,P/\N) and different metal organic frameworks (MOF-5. I IKUST- 1 and ZIF-8). Indeed, these MOFs are among the most representative metal organic frameworks. Finally, the different obtained materials were characterized using scanning electron microscopy (SEM), Fourier transform infrared spectroscopy, powder X-ray diffraction and thermogravimetric analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Reguer, Solenn. „Phases chlorées sur les objets archéologiques ferreux corrodés dans les sols : caractérisations et mécanismes de formation“. Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00011748v2.

Der volle Inhalt der Quelle
Annotation:
L'investigation des mécanismes de corrosion du fer dans les sols en présence de chlore s'est appuyée sur une grande partie analytique consistant en une caractérisation locale et structurale des produits de corrosion chlorés sur un corpus d'objets archéologiques. Pour ce faire, différentes techniques d'analyses de caractérisation micro structurales ont été mises en œuvre, notamment des investigations de diffraction et d'absorption des rayons X sous rayonnement synchrotron. Ces travaux de recherche ont permis d'obtenir des résultats fondamentaux quant à la caractérisation des phases chlorées. Un certain nombre de mécanismes de formation de ces phases en fonction des conditions du milieu d'enfouissement ont été proposés. Ceci devra donc être pris en considération pour l'amélioration des méthodes de traitement des objets métalliques du patrimoine. Un second axe de l'étude a consisté à mieux comprendre la localisation du chlore dans l'akaganeite beta–FeOOH, qui est un composé considéré comme le principal responsable de la dégradation des objets archéologiques, car pouvant relâcher des chlorures. Seul le couplage de la caractérisation des produits de corrosion chlorés, à l'échelle microscopique, sur les échantillons archéologiques avec l'étude de phases synthétisées a permis de comprendre les systèmes complexes de corrosion à long terme du fer dans les sols en présence de chlore
For restoration and conservation of metallic artefacts of the cultural heritage, investigation of iron corrosion process in soil related to the presence of chloride was based on local and structural characterization of chlorinated corrosion products formed on archaeological artefacts. To unambiguously identify these corrosion products, some high-resolution techniques as µ-Raman spectroscopy and X Ray synchrotron radiation micro beam techniques, such as micro X-Ray Diffraction and micro X-Ray Absorption experiments, were used to obtain structural micro scale information. A second part of the study concern discussion on the exact location of chlorine anions in akaganeite beta-FeOOH structure. The fundamental results help to gain new insights concerning the influence of such phases in iron corrosion mechanism within their precise characterisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Bayle, Marine. „Déchloruration des objets archéologiques ferreux par le processus de stabilisation subcritique. Caractérisations physico-chimiques des systèmes transformés“. Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066656/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de corrosion du mobilier archéologique ferreux sous-marin et terrestre présentent des phases réactives et chlorurées. Leurs transformations au contact de l'air impliquent des dégradations majeures de l'objet en sortie de fouilles. Afin d'extraire le chlore en conservant l'intégrité des objets, des processus de stabilisation sont utilisés. Le traitement subcritique (NaOH, 180°C, 35 bars) accélère la déchloruration. Pour comprendre les transformations physico-chimiques induites un corpus d'objets archéologiques est étudié avant et après traitement par des techniques d'analyses complémentaires. La description multi-échelles de faciès de corrosion hétérogènes et complexes montre que la phase formée en milieu subcritique, dépend du degré d'oxydation de la phase d'origine. L'étude de systèmes modèles (oxyhydroxydes de fer synthétiques et archéologiques) montre que les tailles et formes de particules, les surfaces spécifiques, la composition chimique influencent leurs réactivités. Par ailleurs l'application d'une rampe de chauffe progressive conduit à un mélange goethite/hématite en-dessous de 150°C et d'hématite au-delà. L'étude de l'akaganéite, au taux de chlore variable, à différentes étapes de sa transformation, montre que le chlore adsorbé et une partie du chlore de structure est tout d'abord retiré. Ce phénomène, ajouté à une déshydroxylation sous l'effet de la température conduit dans un second temps, à la dissolution de la phase. Ces résultats permettent d'identifier la nature des transformations de phases et de proposer des mécanismes en vue d'améliorer les protocoles de stabilisation subcritique selon le type d'objet archéologique
Iron archaeological artefacts from submarine and terrestrial origins have developed reactive and chlorinated corrosion systems. After excavation, their transformations in contact with air involve severe damages to the artefacts. In order to extract the chlorine and to maintain the artefacts’ integrity, stabilization processes are used. The subcritical treatment (NaOH, 180°C, 35 bars) accelerates the dechlorination process. Several artefacts are studied before and after treatment with subcritical techniques. The multi-scale description of heterogeneous and complex corrosion system shows that the phase precipitation in subcritical conditions depends on the precursor chemistry. The study of model systems (synthetic and archaeological iron oxyhydroxides) shows that particle sizes and shapes, specific surface area, chemical composition change their reactivity. The application of a heating ramp leads to the precipitation of goethite/hematite below 150°C and hematite above. The study of akaganeite at various stages of its treatment shows that the adsorbed chlorides and part of the structure ones are first removed. Then, a dehydroxylation under the effect of temperature leads to the phase dissolution. These results allowed to identify the nature of phase transformations and to propose mechanisms in order to improve stabilization protocols of archaeological artefacts by subcritical treatment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Bayle, Marine. „Déchloruration des objets archéologiques ferreux par le processus de stabilisation subcritique. Caractérisations physico-chimiques des systèmes transformés“. Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066656.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de corrosion du mobilier archéologique ferreux sous-marin et terrestre présentent des phases réactives et chlorurées. Leurs transformations au contact de l'air impliquent des dégradations majeures de l'objet en sortie de fouilles. Afin d'extraire le chlore en conservant l'intégrité des objets, des processus de stabilisation sont utilisés. Le traitement subcritique (NaOH, 180°C, 35 bars) accélère la déchloruration. Pour comprendre les transformations physico-chimiques induites un corpus d'objets archéologiques est étudié avant et après traitement par des techniques d'analyses complémentaires. La description multi-échelles de faciès de corrosion hétérogènes et complexes montre que la phase formée en milieu subcritique, dépend du degré d'oxydation de la phase d'origine. L'étude de systèmes modèles (oxyhydroxydes de fer synthétiques et archéologiques) montre que les tailles et formes de particules, les surfaces spécifiques, la composition chimique influencent leurs réactivités. Par ailleurs l'application d'une rampe de chauffe progressive conduit à un mélange goethite/hématite en-dessous de 150°C et d'hématite au-delà. L'étude de l'akaganéite, au taux de chlore variable, à différentes étapes de sa transformation, montre que le chlore adsorbé et une partie du chlore de structure est tout d'abord retiré. Ce phénomène, ajouté à une déshydroxylation sous l'effet de la température conduit dans un second temps, à la dissolution de la phase. Ces résultats permettent d'identifier la nature des transformations de phases et de proposer des mécanismes en vue d'améliorer les protocoles de stabilisation subcritique selon le type d'objet archéologique
Iron archaeological artefacts from submarine and terrestrial origins have developed reactive and chlorinated corrosion systems. After excavation, their transformations in contact with air involve severe damages to the artefacts. In order to extract the chlorine and to maintain the artefacts’ integrity, stabilization processes are used. The subcritical treatment (NaOH, 180°C, 35 bars) accelerates the dechlorination process. Several artefacts are studied before and after treatment with subcritical techniques. The multi-scale description of heterogeneous and complex corrosion system shows that the phase precipitation in subcritical conditions depends on the precursor chemistry. The study of model systems (synthetic and archaeological iron oxyhydroxides) shows that particle sizes and shapes, specific surface area, chemical composition change their reactivity. The application of a heating ramp leads to the precipitation of goethite/hematite below 150°C and hematite above. The study of akaganeite at various stages of its treatment shows that the adsorbed chlorides and part of the structure ones are first removed. Then, a dehydroxylation under the effect of temperature leads to the phase dissolution. These results allowed to identify the nature of phase transformations and to propose mechanisms in order to improve stabilization protocols of archaeological artefacts by subcritical treatment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Rantoson, Rindra. „Numérisation 3D d'objets transparents par polarisation dans l'IR et par triangulation dans l'UV“. Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00692460.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire portent sur l'étude, la conception et le développement de deux nouveaux prototypes de reconstruction tridimensionnelle, spécifique aux objets transparents. La numérisation 3D d'objets opaques est abondamment traitée dans la littérature et de nombreux systèmes sont d'ailleurs commercialisés. Cependant, lorsqu'il s'agit de la numérisation 3D d'objets transparents, les publications se font rares et aucun système de scanning n'existe sur le marché. La technique de numérisation de surfaces transparentes demeure compliquée et non maîtrisée à l'heure actuelle. L'opacification de la surface avant le scanning s'avère être la solution retenue dans le domaine du contrôle qualité. Néanmoins, cette alternative n'est pas optimale en raison du coût de traitements et du manque de précision éventuellement engendré. Afin de solutionner les problèmes de la numérisation d'objets transparents, nous avons développé deux approches dites non conventionnelles en étendant les méthodes existantes (dans le visible) aux longueurs d'onde dans lesquelles les sujets apparaissent opaques (IR et UV). Les deux méthodes de mesure sans contact retenues sont : - la reconstruction par polarisation dans l'IR, en vue de s'affranchir des problèmes d'inter-réflexions; - le scanning par laser UV, pour satisfaire les contraintes industrielles (précision, rapidité et coût) tout en résolvant de manière efficace le problème de réfraction. La première approche est fondée sur la réflexion spéculaire de l'objet dans l'IR tandis que la seconde exploite la propriété de l'objet à fluorescer sous l'irradiation UV. L'inexistence des lentilles télécentriques dans l'IR nous a conduits à adapter la reconstruction par polarisation dans l'IR à l'aide d'une lentille non télécentrique. Pour ce faire, une méthode d'approximation du modèle orthographique a été développée et une méthode de validation visant à améliorer la précision des résultats a été en outre intégrée dans le processus de reconstruction après l'étape d'estimation des paramètres de Stokes. Nos résultats sont très satisfaisants et attestent la faisabilité de la reconstruction par polarisation dans l'IR. Quatre configurations de système de scanning par triangulation ont été déployées afin d'exploiter la propriété de fluorescence des objets transparents irradiés sous un rayonnement UV. Des expérimentations visant à caractériser la fluorescence induite à la surface des objets considérés et à vérifier l'éligibilité de notre approche ont été menées. Les mesures spectroscopiques nous ont permis d'élaborer des critères de "tracking" (détection et localisation) des points fluorescents en présence des bruits inhérents à l'acquisition. Nous avons également mis au point des méthodes de validation des paramètres du modèle de reconstruction 3D estimés lors de la calibration, permettant ainsi d'optimiser la configuration du système de scanning. Les méthodes de "tracking" et de validation ont contribué considérablement à l'amélioration de la précision des résultats. Par ailleurs, la précision obtenue n'a jamais été atteinte au regard de ce que l'on trouve dans la littérature.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Vauchamp, Stéphane. „Contribution à la caractérisation de sources fortes puissances : mesure instantanée de champ électromagnétique par signature d'un objet neutre (méthode MICHELSON)“. Limoges, 2008. https://aurore.unilim.fr/theses/nxfile/default/d0e6ae06-4109-48b1-9899-638d37f17210/blobholder:0/2008LIMO4038.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire présente le développement d’une nouvelle méthode de mesure de forts champs électromagnétiques, appelée méthode MICHELSON. Cette étude a été financée par la Délégation Générale pour l’Armement (DGA). Cette méthode repose sur un équipement simple composé d’une cible passive et d’une antenne de réception classique. La cible est éclairée par le champ à mesurer et le diffracte dans différentes directions, l’antenne de réception mesure le champ diffracté à un emplacement donné ; le but est de remonter au champ incident à partir de la tension relevée à la sortie de l’antenne. Le fait de déporter la mesure permet de ne récupérer qu’une fraction du champ incident, et une instrumentation bas niveau suffit pour mesurer le champ fort. Des collaborations avec le Centre d’Etudes de Gramat (CEG) et le Laboratoire de Génie Electrique (LGE) de Pau ont été menées pour valider la méthode sur des sources MFP bande étroite et large bande. Ces expérimentations forts niveaux ont permis d’établir les performances de la méthode MICHELSON et de les comparer à celles des capteurs spécifiques existants
This document presents the development of a new method for the high electromagnetic field measurement, called MICHELSON method. This study was supported by the French armament agency (DGA). This method is based on a simple equipment which is composed of a passive target and a classical receiving antenna. The target is illuminated by the field to measure and diffracts it in different directions, the receiving antenna measures the diffracted field in a given location; the purpose is to get the incident field from the receiving antenna output voltage. The fact to move the measurement permits to recover only a fraction of the incident field, permits to measure high fields from a low level instrumentation. Collaborations with the Centre d’Etudes de Gramat (CEG) and with the Laboratory of Electrical Engineering (LGE) of Pau have been led to validate the method on narrow band and wide band high power microwave sources. These high level experimentations have permitted to establish the performances of the MICHELSON method, which have been compared to those of the specific existing sensors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Camors, Damien. „Vision périphérique, caractérisation et suppléance de ses fonctions spatiales“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30115/document.

Der volle Inhalt der Quelle
Annotation:
La perte de vision périphérique (vision tubulaire) a pour conséquence de nombreux déficits qui réduisent fortement l'autonomie des personnes qui en sont atteintes et par conséquent leur qualité de vie. Nombre de ces déficits témoignent d'une cognition spatiale dégradée mettant en jeu des relations étroites entre vision périphérique et représentations spatiales. Le double objectif de ce travail de thèse consiste à mieux comprendre la nature de ces relations et, sur la base de ces connaissances, contribuer à l'émergence de dispositifs d'assistance plus adaptés et performants, capables de suppléer l'absence de vision périphérique. Dans un premier temps, je me suis intéressé au rôle de la vision périphérique dans la construction de représentations spatiales égocentrées. J'ai d'abord collaboré à une expérience de psychophysique impliquant la détection en vision périphérique de cibles visuelles situées soit droit-devant, soit excentrées par rapport à l'axe du corps. En mesurant les temps de réaction nous avons pu démontrer que les sujets humains répondaient plus rapidement aux cibles présentées droit-devant qu'aux cibles excentrées. J'ai pris en charge une deuxième étude complémentaire portant sur le lien entre ce traitement sensoriel privilégié du droit-devant en vision périphérique et la dynamique des saccades oculaires de recentrage. En comparant les dynamiques de pro-saccades et d'anti-saccades de recentrage ou d' " excentrage ", j'ai pu mettre en évidence que la supériorité dynamique des saccades de recentrage guidées par la vision périphérique reposait à la fois sur des facteurs sensoriels et oculomoteurs. Ces travaux révèlent l'intégration précoce de signaux visuels et oculomoteurs en vision périphérique, pouvant servir à localiser les éléments visuels par rapport à soi et à privilégier le traitement des éléments situés dans l'axe droit-devant. Dans un deuxième temps, mes travaux ont abordé l'influence de la vision périphérique dans les représentations spatiales allocentrées. Pour étudier l'implication de la vision périphérique dans le codage allocentré, j'ai réalisé une expérience impliquant une tâche de pointage vers des cibles visuelles en vision centrale, accompagnées ou non d'indices visuels à différentes distances en vision périphérique. Les résultats obtenus montrent que des indices visuels capturés par la vision périphérique peuvent effectivement contribuer au codage allocentré d'une cible fixée, et ce même lorsque ces indices périphériques doivent être extraits de scène visuelles complexes en moins de 200 ms. Dans une étude complémentaire, j'ai montré que l'utilisation de ces indices allocentrés situés en périphérie avait un véritable rôle fonctionnel, accélérant les recherches visuelles. Ainsi, ces travaux révèlent une implication fonctionnelle forte de la vision périphérique dans l'extraction des relations spatiales entre éléments présents dans l'environnement visuel. J'ai voulu, durant la dernière partie de ma thèse, initier le développement d'un dispositif d'assistance dont la finalité est de suppléer les fonctions spatiales, égocentrées et allocentrées, de la vision périphérique. Comme preuve de concept, mon travail a consisté à concevoir et développer un dispositif tactile placé sur le poignet et capable de communiquer la position spatiale d'objets d'intérêt pour en simplifier leurs recherches visuelles. Les résultats obtenus chez des sujets sains avec un champ visuel artificiellement réduit (10°) montrent que l'interface tactile permet d'accélérer par trois la vitesse de recherche visuelle. Des résultats similaires ont été observés chez une personne atteinte de glaucome (champ visuel de 10x15°). Ma thèse pluridisciplinaire permet d'apporter un nouvel éclairage sur l'implication de la vision périphérique dans la construction de représentations spatiales, et elle propose de nouvelles pistes pour le développement de dispositifs d'assistance adaptés aux personnes atteintes de vision tubulaire
The loss of peripheral vision (tunnel vision) leads to numerous deficits, reducing both independence and quality of life. These deficits reflect spatial cognition impairments, and highlight the close relationship between peripheral vision and spatial representations. This thesis has two main objectives: reaching a better understanding of the nature of these relationships, and using the acquired knowledge in order to propose adaptive, performant and innovative assistive devices able to overcome the peripheral loss. At first, I address the role of peripheral vision in egocentric space coding. I collaborated in a psychophysics experiment, involving detection of visual objects placed in peripheral vision. The visual objects formed similar images on the retina and differed only with respect to their egocentric location: either straight-ahead or eccentric with respect to the head/body midline. We found that straight-ahead objects elicit consistently shorter behavioral responses than eccentric objects. I took in charge a second study evaluating the link between the privileged sensory processing of the straight ahead direction and the dynamic of ocular saccades. Comparison between centripetal and centrifugal pro-saccades and anti-saccades revealed that the superior dynamic of centripetal saccades comes from both sensory and oculomotor factors. These works reveal the early integration of both visual and oculomotor signals in peripheral vision, leading to egocentric representations in which the straight ahead direction is highlighted. Secondly, I investigated the influence of peripheral vision in extracting allocentric spatial representations. In order to assess the role of peripheral vision in allocentric coding, I performed a memory-based pointing task toward previously gazed targets, which were briefly superimposed with visual cues placed at different eccentricities. The results showed that visual cues in peripheral (>10°) vision can contribute to the allocentric coding of a fixated target. A complementary experiment showed that these peripheral allocentric cues play a functional role, notably by facilitating visual searches. These works highlight the importance of peripheral vision in extracting functional spatial relationships between distant elements of the visual environment. Finally, I wanted to promote the development of new assistive devices, able to substitute both egocentric and allocentric spatial functions of the peripheral vision. As a proof of concept, I designed and evaluated a tactile interface mounted on wrist, communicating the spatial location of specific objects and facilitating visual search. Results showed that healthy subjects with artificial tunnel vision (10°) were able to increase by three visual search speeds thank to this tactile interface. Similar results were obtained on a glaucoma subject (field of view 10x15°). My multidisciplinary thesis highlights new roles of peripheral vision in spatial representations and proposes an innovative solution to develop assistive device for tunnel vision
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bellón, de la Cruz Beatriz. „Une approche multiscalaire par télédétection pour la cartographie et la caractérisation des systèmes agricoles à l’échelle régionale“. Thesis, Paris, AgroParisTech, 2018. http://www.theses.fr/2018AGPT0002.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte de planification de l’utilisation des terres à l’échelle régionale, la cartographie des systèmes agricoles - espèces cultivées et pratiques culturales - permet de suivre ce qui est produit, où et comment, et constitue donc un élément essentiel d’évaluation régionale de la production et de son impact sur l’environnement. La production d’information sur les systèmes agricoles nécessite généralement beaucoup de données et d’expertise. Cette information est donc très hétérogène en quantité et en qualité dans l'espace et le temps, la disponibilité et les mises à jour étant extrêmement variables selon les pays et les régions. La télédétection, de par sa capacité à fournir une information spatiale synoptique sur l’état et la dynamique de la végétation à partir des images satellitaires, constitue un outil précieux pour le suivi de l’agriculture. Toutefois, la conversion des images en produits cartographiques à l’échelle régionale reste encore du domaine de la recherche pour de nombreuses applications. Cette thèse propose des développements méthodologiques originaux dans une approche multiscalaire semi-automatique basée sur le traitement et l’analyse d’imagerie satellitaire optique pour la cartographie et la caractérisation des systèmes agricoles à l’échelle régionale. L’approche est composée de deux méthodes principales : (i) stratification régionale en unités de paysage et classification de ces unités pour produire une carte de systèmes d’utilisation agricole des terres ; (ii) segmentation à l’échelle de la parcelle et classification non supervisée des segments par une méthode de « landscape-clustering » pour produire une carte de systèmes de culture. Les méthodes ont été développées sur une région d’agriculture intensive, l’État brésilien du Tocantins, où le domaine cultivé, ainsi que les principaux systèmes d’utilisation agricole des terres et systèmes de culture ont été cartographiés avec succès à partir d’une série annuelle d’images NDVI-MODIS et d’une mosaïque d’images Landsat. La reproductibilité de l’approche a ensuite été évaluée au Burkina Faso, où les paysages sont façonnés par la petite agriculture familiale. Seul le domaine cultivé a pu être cartographié avec des résultats satisfaisants, mettant en évidence les limites de ces méthodes et de l’offre actuelle en imagerie satellitaire face aux spécificités contraignantes de ce type d’agriculture pour la télédétection. Les cartes résultantes ont été évaluées avec des données de vérité terrain et des statistiques agricoles, et comparées à d’autres produits cartographiques existants. Les résultats de cette thèse montrent le potentiel de la nouvelle méthode de stratification régionale en unités de paysage qui, à partir de séries temporelles de NDVI et combinée à la méthode de classification de « landscape-clustering », contribue à améliorer de façon significative la discrimination des espèces cultivées et des pratiques agricoles, et permet de représenter les systèmes agricoles à différents niveaux d’organisation spatiale. L’originalité des méthodes développées réside principalement dans la simplicité de leur mise en œuvre. Elles sont presque exclusivement basées sur des données satellitaires et nécessitent peu d’intervention « experte » et de données externes, ce qui leur confère un fort potentiel de reproductibilité. Cette thèse contribue ainsi, avec ces nouvelles méthodes, au développement d'outils génériques pour soutenir le suivi de l’agriculture à grande échelle et fournir des produits d’aide à la décision pour une planification raisonnée de l'utilisation des terres
: In a context of regional land-use planning, agricultural systems’ mapping - crop types and cropping practices – allows monitoring of what is being produced, where and how, and therefore represents a key element for regional assessment of the agricultural production and its environmental impact. The production of information on agricultural systems generally requires a lot of data and expertise. This information is thus very heterogeneous in quantity and quality in space and time, the availability and updates being extremely variable between countries and regions. Remote sensing, through its ability to retrieve synoptic spatial information on the state and dynamics of vegetation from satellite images, represents a valuable tool for agricultural monitoring. However, the conversion of images into regional-scale map products remains a field of research for many applications. This thesis presents original methodological developments in a semi-automatic multiscale approach based on the processing and analysis of optical satellite imagery for the mapping and characterization of agricultural systems at regional scale. The approach is composed of two main methods: (i) regional stratification into landscape units and classification of these units to produce a map of agricultural land-use systems; (ii) field-level segmentation and unsupervised classification of the segments by a “landscape-clustering” method to produce a cropping systems’ map. The methods were developed on a region of intensive agriculture, the Brazilian state of Tocantins, where the cultivated area, as well as the main agricultural land-use systems and cropping systems were successfully mapped from an annual NDVI-MODIS time series and a mosaic of Landsat images. The reproducibility of the approach was then assessed in Burkina Faso, where landscapes are shaped by the smallholder agriculture. Only the cultivated area could be mapped with satisfactory results, highlighting the limitations of these methods and the current offer in satellite imagery given the challenging specificities of this type of agriculture for remote sensing. The resulting maps were assessed with ground-truth data and agricultural statistics, and compared to other existing maps. The results of this thesis show the potential of the new method of regional stratification into landscape units which, based on NDVI time series and combined to the unsupervised “landscape-clustering” classification method, contributes to significantly improve discrimination of crop types and agricultural practices, and allows representing the agricultural systems at different levels of spatial organization. The originality of the developed methods lies mainly in the simplicity of their implementation. They are almost exclusively based on satellite data and require little “expert” intervention and external data, which gives them a high reproducibility potential. Thereupon, this thesis contributes, with these novel methods, to the development of generic tools to support large-scale monitoring of agriculture and to provide decision-support products for reasoned land-use planning
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Flasseur, Olivier. „Object detection and characterization from faint signals in images : applications in astronomy and microscopy“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES042.

Der volle Inhalt der Quelle
Annotation:
La détection et la caractérisation d’objets dans des images à faible rapport signal sur bruit est un problème courant dans de nombreux domaines tels que l’astronomie ou la microscopie. En astronomie, la détection des exoplanètes et leur caractérisation par imagerie directe depuis la Terre sont des sujets de recherche très actifs. Une étoile cible et son environnement proche (abritant potentiellement des exoplanètes) sont observés sur de courtes poses. En microscopie, l’holographie en ligne est une méthode de choix pour caractériser à faibles coûts les objets microscopiques. Basée sur l’enregistrement d’un hologramme, elle permet une mise au point numérique dans n’importe quel plan du volume 3-D imagé. Dans ces deux applications cibles, le problème est rendu difficile par le faible contraste entre les objets et le fond non stationnaire des images enregistrées.Dans cette thèse, nous proposons un algorithme non-supervisé dédié à la détection et à la caractérisation d’exoplanètes par une modélisation statistique des fluctuations du fond. Cette méthode est basée sur une modélisation de la distribution statistique des données à une échelle locale de patchs, capturant ainsi leur covariances spatiales. Testé sur plusieurs jeux de données de l’imageur haut-contraste SPHERE opérant au Très Grand Télescope Européen, cet algorithme atteint de meilleures performances que les méthodes de l’état de l’art. En particulier, les cartes de détection produites sont stationnaires et statistiquement fondées. La détection des exoplanètes peut ainsi être effectuée à probabilité de fausse alarme contrôlée. L’estimation de la distribution d’énergie spectrale des sources détectées est également non biaisée. L’utilisation d’un modèle statistique permet également de déduire des précisions photométriques et astrométriques fiables. Ce cadre méthodologique est ensuite adapté pour la détection de motifs spatialement étendus tels que les motifs de diffraction rencontrés en microscopie holographique qui sont également dominés par un fond non-stationnaire. Nous proposons aussi des approches robustes basées sur des stratégies de pondération afin de réduire l’influence des nombreuses valeurs aberrantes présentes sur les données réelles. Nous montrons sur des vidéos holographiques que les méthodes de pondération proposées permettent d’atteindre un compromis biais/variance. En astronomie, la robustesse améliore les performances de détection, en particulier à courtes séparations angulaires, où les fuites stellaires dominent. Les algorithmes développés sont également adaptés pour tirer parti de la diversité spectrale des données en plus de leur diversité temporelle, améliorant ainsi leurs performances de détection et de caractérisation. Tous les algorithmes développés sont totalement non-supervisés: les paramètres de pondération et/ou de régularisation sont estimés directement à partir des données. Au-delà des applications considérées en astronomie et en microscopie, les méthodes de traitement du signal introduites dans cette thèse sont générales et pourraient être appliquées à d’autres problèmes de détection et d’estimation
Detecting and characterizing objects in images in the low signal-to-noise ratio regime is a critical issue in many areas such as astronomy or microscopy. In astronomy, the detection of exoplanets and their characterization by direct imaging from the Earth is a hot topic. A target star and its close environment (hosting potential exoplanets) are observed on short exposures. In microscopy, in-line holography is a cost-effective method for characterizing microscopic objects. Based on the recording of a hologram, it allows a digital focusing in any plane of the imaged 3-D volume. In these two fields, the object detection problem is made difficult by the low contrast between the objects and the nonstationary background of the recorded images.In this thesis, we propose an unsupervised exoplanet detection and characterization algorithm based on the statistical modeling of background fluctuations. The method, based on a modeling of the statistical distribution of patches, captures their spatial covariances. It reaches a performance superior to state-of-the-art techniques on several datasets of the European high-contrast imager SPHERE operating at the Very Large Telescope. It produces statistically grounded and spatially-stationary detection maps in which detections can be performed at a constant probability of false alarm. It also produces photometrically unbiased spectral energy distributions of the detected sources. The use of a statistical model of the data leads to reliable photometric and astrometric accuracies. This methodological framework can be adapted to the detection of spatially-extended patterns in strong structured background, such as the diffraction patterns in holographic microscopy. We also propose robust approaches based on weighting strategies to reduce the influence of the numerous outliers present in real data. We show on holographic videos that the proposed weighting approach achieves a bias/variance tradeoff. In astronomy, the robustness improves the performance of our detection method in particular at close separations where the stellar residuals dominate. Our algorithms are adapted to benefit from the possible spectral diversity of the data, which improves the detection and characterization performance. All the algorithms developed are unsupervised: weighting and/or regularization parameters are estimated in a data-driven fashion. Beyond the applications in astronomy and microscopy, the signal processing methodologies introduced are general and could be applied to other detection and estimation problems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Sanders, Rindra. „Numérisation 3D d'objets transparents par polarisation dans l'IR et par triangulation dans l'UV“. Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOS039/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire portent sur l'étude, la conception et le développement de deux nouveaux prototypes de reconstruction tridimensionnelle, spécifique aux objets transparents. La numérisation 3D d'objets opaques est abondamment traitée dans la littérature et de nombreux systèmes sont d'ailleurs commercialisés. Cependant, lorsqu'il s'agit de la numérisation 3D d'objets transparents, les publications se font rares et aucun système de scanning n'existe sur le marché. La technique de numérisation de surfaces transparentes demeure compliquée et non maîtrisée à l'heure actuelle. L'opacification de la surface avant le scanning s'avère être la solution retenue dans le domaine du contrôle qualité. Néanmoins, cette alternative n'est pas optimale en raison du coût de traitements et du manque de précision éventuellement engendré. Afin de solutionner les problèmes de la numérisation d'objets transparents, nous avons développé deux approches dites non conventionnelles en étendant les méthodes existantes (dans le visible) aux longueurs d'onde dans lesquelles les sujets apparaissent opaques (IR et UV). Les deux méthodes de mesure sans contact retenues sont : - la reconstruction par polarisation dans l'IR, en vue de s'affranchir des problèmes d'inter-réflexions; - le scanning par laser UV, pour satisfaire les contraintes industrielles (précision, rapidité et coût) tout en résolvant de manière efficace le problème de réfraction. La première approche est fondée sur la réflexion spéculaire de l'objet dans l'IR tandis que la seconde exploite la propriété de l'objet à fluorescer sous l'irradiation UV. L'inexistence des lentilles télécentriques dans l'IR nous a conduits à adapter la reconstruction par polarisation dans l'IR à l'aide d'une lentille non télécentrique. Pour ce faire, une méthode d'approximation du modèle orthographique a été développée et une méthode de validation visant à améliorer la précision des résultats a été en outre intégrée dans le processus de reconstruction après l'étape d'estimation des paramètres de Stokes. Nos résultats sont très satisfaisants et attestent la faisabilité de la reconstruction par polarisation dans l'IR. Quatre configurations de système de scanning par triangulation ont été déployées afin d'exploiter la propriété de fluorescence des objets transparents irradiés sous un rayonnement UV. Des expérimentations visant à caractériser la fluorescence induite à la surface des objets considérés et à vérifier l'éligibilité de notre approche ont été menées. Les mesures spectroscopiques nous ont permis d'élaborer des critères de "tracking" (détection et localisation) des points fluorescents en présence des bruits inhérents à l'acquisition. Nous avons également mis au point des méthodes de validation des paramètres du modèle de reconstruction 3D estimés lors de la calibration, permettant ainsi d'optimiser la configuration du système de scanning. Les méthodes de "tracking" et de validation ont contribué considérablement à l'amélioration de la précision des résultats. Par ailleurs, la précision obtenue n'a jamais été atteinte au regard de ce que l'on trouve dans la littérature
Two non-conventional methods for the 3D digitization of transparent objects via non-contact measurement are reported in this thesis. 3D digitization is a well acknowledged technique for opaque objects and various commercial solutions based on different measurement approaches are available in the market offering different types of resolution at different prices. Since these techniques require a diffused or lambertian surface, their application to transparent surfaces fails. Indeed, rays reflected by the transparent surface are perturbed by diverse inter-reflections induced by the refractive properties of the object. Therefore, in industrial applications like quality control, the transparent objects are powder coated followed by their digitization. However, this method is expensive and can also produce inaccuracies. Among the rare methods suggested in the literature, shape from polarization provides reliable results even though their accuracy had to be improved by coping with the inter-reflections. The two proposed solutions handle the extension of the existing methods to wavelengths beyond visible ranges: - shape from polarization in Infra Red (IR) range to deal with the above-mentioned inter-reflections; - scanning by Ultra Violet (UV) laser (based on triangulation scheme) to overcome the refraction problem that can be feasibly applied in industrial applications. The characteristic physical properties of transparent objects led us to explore the IR and UV ranges; since, transparent glass has strong absorption bands in the IR and UV ranges and therefore has opaque appearance. The first approach exploits the specular reflection of the considered object surface in IR and the second one exploits the fluorescence property of the object when irradiated with UV rays. Shape from polarization traditionally based on telecentric lenses had to be adapted with non-telecentric lenses to be used in the IR range. Thus, an approximation of the orthographic model is developed in this thesis while a validation method is implemented and integrated in the reconstruction process after Stokes parameters estimation, in order to improve the accuracy of the results. Some results of digitized objects are presented, which prove the feasibility of the shape from polarization method in the IR range to be used for transparent objects. A total of four configurations of the triangulation system are implemented in this thesis to exploit fluorescence produced by the UV laser scanning of the second approach. Experimental investigations aimed at characterizing the fluorescence are done. A specific fluorescence tracking method is carried out to deal with the inherent noise in the acquisitions. The uniqueness of the method relies on the criteria that are derived from the analysis of spectroscopic results. A validation method is made to optimize the configuration system while reducing the accuracy of reconstruction error. The results of some object digitization are presented with accuracies better than previously reported works
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Saglam, Ayse. „Les équations différentielles en mathématiques et en physique : étude des conditions de leur enseignement et caractérisation des rapports personnels des étudiants de première année d'université à cet objet de savoir“. Grenoble 1, 2004. http://www.theses.fr/2004GRE10160.

Der volle Inhalt der Quelle
Annotation:
"Nées au 17ème siècle, les équations différentielles font partie des concepts qui assurent remarquablement la relation entre les mathématiques et la physique. Cette thèse tend à expliciter les caractéristiques de cette relation dans l'institution scolaire. Le questionnement initial est centré plus particulièrement sur les conditions de l'enseignement et de l'apprentissage de ce concept en première année universitaire. Nous menons tout d'abord une brève étude historique qui vise à déceler le rôle joué par les sciences physiques lors de l'émergence de ce concept et tout au long de son évolution historique. En nous plaçant dans le cadre de la théorie d'anthropologique de la didactique, nous étudions, dans un deuxième temps, le rapport institutionnel aux équations différentielles grâce à une analyse (écologique et praxéologique) des manuels scolaires de la classe de Terminale S et des polycopiés et des notes d'observation de cours de mathématiques et d'électrocinétique, en première année universitaire. Cette analyse nous a permis de décrire les caractéristiques générales de l'enseignement de ce concept dans les deux disciplines. Cette étude est complétée par une analyse des rapports personnels d'étudiants au concept d'équation différentielles en première année de l'université, via l'analyse de leurs productions à des tests que nous avons proposés en mathématiques et en sciences physiques. Les tâches proposées dans ces tests invitent les étudiants à travailler à la fois le statut "objet" et le statut "modèle" des équations différentielles respectivement en mathématiques et en sciences physiques. "
Established at the 17th century, differential equations are among the most important ones which form the relationships between mathematics and physics. This thesis aims to clarify the characteristics of these relationships in the current teaching. The main focus is on the teaching and learning conditions of this concept in first year of the university. First, a brief historical study which aims at distinguishing the role played by the physical sciences during the emergence of this concept and throughout its historical evolution has been done. Then, the "institutional relation" to differential equations is analysed based on the anthropological theory of didactics. For this purpose, both ecological and praxeological analyses are performed based on the handboobs of the last year of the secondary science teaching (in France). Furthermore, handouts and lecture notes from mathematics and physics courses of the first year of the university has been also used. This study enabled us to describe the general characteristics of the teaching of this concept in the two disciplines. Finally, this study is completed by an analysis of the "personal relation" of students to the differential equation. For this purpose, we analysed their score to some mathematics and physical science tests provided them. The so-called tests ask students to both consider the "object" and the "model" status of the differential equations, respectively in mathematics and physical sciences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Andia, Vera Gianfranco. „Analyse et exploitation des non linéarités dans les systèmes RFID UHF passifs“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT052/document.

Der volle Inhalt der Quelle
Annotation:
Avec l'explosion de l'Internet des Objets (IoT), de nouveaux dispositifs permettant de tagguer les objets sont nécessaires afin de permettre non seulement leur identification mais aussi d'assurer des communications fiables et de nouvelles fonctionnalités comme la détection, la localisation ou la capture d'informations. Cette tendance s'appuie sur la technologie bien établie qu'est la radiofréquence par identification (RFID) et donc l'utilisation d'étiquettes (ou tags) faibles coûts et télé-alimentés. Dans ce contexte, de nombreux travaux au niveau de la couche d'application se tournent vers la mise au point de traitements logiciels complémentaires visant à produire de nouveaux types d'information. D'autres travaux visent à améliorer la couche physique avec l'objectif de miniaturiser encore le tag mais aussi de le doter de nouvelles capacités. Jusqu'à présent, il n'existe quasiment pas de travaux concernant la transmission du signal et aucun sur l'exploitation du comportement non-linéaire des puces RFID. Cette thèse vise à étudier les phénomènes non-linéaires produits lors d'une communication RFID.Dans la première partie, deux plateformes de mesure et de caractérisation spécifiques ont été développées : la première vise à observer les signaux au cours d'une communication RFID, et alors caractériser et analyser les effets liés aux phénomènes non linéaires ; la seconde permet d'effectuer différentes mesures directement sur les puces et les caractériser en termes d'impédance, production d'harmoniques et sensibilité. Ces plateformes ont permis : 1) de mettre en évidence que les fréquences harmoniques sont porteuses d'informations qui peuvent être exploitées et même offrir de nouvelles fonctionnalités ; 2) d'obtenir de nombreuses informations sur les propriétés des puces et d'en établir un modèle électrique précis ; 3) de déterminer des critères permettant d'évaluer la performance des tags dans le contexte étudié.Dans la deuxième partie, plusieurs nouveaux tags RFID ont été conçus, fabriqués, mesurés et évalués. Ces nouveaux tags fonctionnent non seulement dans la bande UHF mais aussi sont adaptés à la troisième harmonique dans la bande des microondes. Une méthodologie et des lignes directives d'aide à la conception de ce type de tags ont été établies et s'appuient sur les deux plateformes développées afin de caractériser les différents éléments. Dans un même temps, les effets liés à la fabrication ont aussi été étudiés et des études paramétriques ont permis de mettre en évidence l'effet sur les performances de la géométrie de l'antenne et du type de puce utilisée.Dans une troisième partie, les études se sont focalisées à exploiter les effets non-linéaires des dispositifs de redressement. L'idée générale est de coupler la RFID passive avec les dispositifs de transferts de puissance et de récupération d'énergie avec pour objectifs 1) de maximiser l'efficacité de conversion RF – continu 2) et d'augmenter la distance de lecture des tags passifs. Plusieurs prototypes ont été réalisés et leurs performances ont été démontrées.L'ensemble de ces travaux a mis en évidence un nouveau concept de communication RFID exploitant les non-linéarités générées par les puces RFID. Ce concept ouvre la voie à de nouvelles applications. et a fait l'objet d'une demande de brevet international
Powered by the exploding popularity of the Internet-of-Things (IoT), the demand for tagged devices with labels capable to ensure a reliable communication with added functions beyond the identification, such as sensing, location, health-care, among others, is growing rapidly. Certainly this growing is headed by the well-established Radio Frequency Identification (RFID) technology, and the use of wireless low-cost self-powered tags, in other words passive RFID tags, is the most widespread used alternative. In the constant evolution on this field, usually new software treatments are offered at the application layer with the objective to processing data to produce some new information. Further works aimed at improving the physical layer around the tag antenna miniaturization and matching techniques. So far, little or no work had been done on the exploitation of the communication channel, and certainly none has been done on the exploitation of the non-linear behavior of RFID chips.After presenting the RFID technology and phenomena produced by Radio Frequency (RF) non-linear devices, and leaning in some nearby works on the field, the core of this thesis starts by exposing two characterization platforms for the evaluation of non-linear phenomena presented during the reader-tag communication. One is specialized in radiating measurements considering the whole tag (antenna and chip) under test. The other is specialized in conducted measurements directly over RFID chips, allowing performing different parametric studies (power dependency, impedance, harmonic production, sensitivity). The characterization results show that harmonic signals generated from the passive RFID chip carry information.By exploiting the characterization results and to verify the hypothesis of exploitation of non-linearities in RFID, i.e. the use of harmonic signals, the research is pursued by designing, fabricating, and measuring four different configurations of RFID tags. The new RFID tags operate at the fundamental frequency in the UHF band and at its $3^{rd}$ harmonic in the microwave band. Antenna design policies, fabrication details, and parametric studies on the performance of the new prototypes are presented. The parametric study takes special care in the antenna structure, kind of chip used, received power, and read range.Finally, some alternatives approaches for the exploitation of non-linear effects generated by rectifying devices are presented. Some theoretical aspects and experimental results are discussed linking the passive RFID technology to the theories of Wireless Power Transfer (WPT) and Electromagnetic Energy Harvesting (EEH). The solution takes advantage of the non-linear nature of rectifying elements in order to maximize the RF-to-DC conversion efficiency of EEH devices and increase the read range of passive RFID tags. The solution triggers on the design of a RF multi-device system. The design procedure and tests consider three non-linear phenomena: (1) the impedance power dependency, (2) the harmonic production, and (3) the rectifying dependence on the RF waveform
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Ruiz-Dominguez, German. „Caractérisation de l'activité de conception collaborative à distance : étude des effets de synchronisation cognitive“. Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00429652.

Der volle Inhalt der Quelle
Annotation:
La coopération est un aspect important dans les équipes de conception. L'ingénierie concourante a fait que les organisations industrielles évoluent d'une approche séquentielle à une approche intégrée pour réaliser ses processus de conception. Ainsi les processus de conception se réalisent de plus en plus à distance, où les concepteurs sont repartis dans des endroits différents. Pour étudier cette problématique, cette thèse analyse l'activité de conception à distance. En particulier elle s'attache à la caractérisation des activités de conception et à la modélisation du phénomène d'intercompréhension à travers des objets. A partir des résultats deux propositions sont faites : d'une part, un modèle d'activité qui prend en compte les aspects collectifs et cognitifs de la conception et d'autre part, un cadre pour l'analyse et le développement des outils pour l'assistance de l'activité collective de conception.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Ruiz-Dominguez, German Alonso. „Caractérisation de l'activité de conception collaborative à distance :Etude des effets de synchronisation cognitive“. Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00221509.

Der volle Inhalt der Quelle
Annotation:
La coopération est aujourd'hui un aspect important dans les équipes de conception. L'ingénierie concourante a conduit les organisations industrielles à évoluer d'une approche séquentielle vers une approche intégrée des processus de conception. Ainsi les processus de conception se déroulent de plus en plus à distance, et les concepteurs sont repartis dans des lieux différents. Pour étudier cette problématique, cette thèse analyse l'activité de conception collaborative à distance à travers des analyse de protocoles. En particulier elle s'attache à la caractérisation des activités de conception et à la modélisation du phénomène d'intercompréhension à travers des objets intermédiaires. A partir des résultats deux propositions sont faites : d'une part, un modèle d'activité qui prend en compte les aspects collectifs et cognitifs de la conception et d'autre part, un cadre pour l'analyse et le développement des outils pour l'assistance à l'activité collective de conception.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Bélanger, Mathieu. „Les objets logiques et l'invariance : le statut du programme d'Erlangen dans les approches contemporaines“. Thèse, 2004. http://hdl.handle.net/1866/14279.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Ingraham, Patrick. „Détection et caractérisation de naines brunes et exoplanètes avec un filtre accordable pour applications dans l'espace“. Thèse, 2013. http://hdl.handle.net/1866/9194.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
This thesis determines the capability of detecting faint companions in the presence of speckle noise when performing space-based high-contrast imaging through spectral differential imagery (SDI) using a low-order Fabry-Perot etalon as a tunable filter. The performance of such a tunable filter is illustrated through the Tunable Filter Imager (TFI), an instrument designed for the James Webb Space Telescope (JWST). Using a TFI prototype etalon and a custom designed test bed, the etalon’s ability to perform speckle-suppression through SDI is demonstrated experimentally. Improvements in contrast vary with separation, ranging from a factor of 10 at working angles greater than 11 lambda/D and increasing up to a factor of 60 at 5 lambda/D. These measurements are consistent with a Fresnel optical propagation model which shows the speckle suppression capability is limited by the test bed and not the etalon. This result demonstrates that a tunable filter is an attractive option to perform high-contrast imaging through SDI. To explore the capability of space-based SDI using an etalon, we perform an end-to-end Fresnel propagation of JWST and TFI. Using this simulation, a contrast improvement ranging from a factor of 7 to 100 is predicted, depending on the instrument’s configuration. The performance of roll-subtraction is simulated and compared to that of SDI. The SDI capability of the Near-Infrared Imager and Slitless Spectrograph (NIRISS), the science instrument module to replace TFI in the JWST Fine Guidance Sensor is also determined. Using low resolution, multi-band (0.85-2.4 um) multi-object spectroscopy, 104 objects towards the central region of the Orion Nebular Cluster have been assigned spectral types including 7 new brown dwarfs, and 4 new planetary mass candidates. These objects are useful for determining the substellar initial mass function and for testing evolutionary and atmospheric models of young stellar and substellar objects. Using the measured H band magnitudes, combined with our determined extinction values, the classified objects are used to create an Hertzsprung-Russell diagram for the cluster. Our results indicate a single epoch of star formation beginning 1 Myr ago. The initial mass function of the cluster is derived and found to be consistent with the values determined for other young clusters and the galactic disk.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Saglam-Arslan, Aysegul. „Les Équations Différentielles en Mathématiques et en Physique: Étude des conditions de leur enseignement et caractérisation des rapports personnels des étudiants de première année d'université à cet objet de savoir“. Phd thesis, 2004. http://tel.archives-ouvertes.fr/tel-00271402.

Der volle Inhalt der Quelle
Annotation:
Nées au 17ème siècle, les équations différentielles font partie des concepts qui assurent remarquablement la relation entre les mathématiques et la physique. Cette thèse tend à expliciter les caractéristiques de cette relation dans l'institution scolaire. Le questionnement initial est centré plus particulièrement sur les conditions de l'enseignement et de l'apprentissage de ce concept en première année universitaire.
Nous menons tout d'abord une brève étude historique qui vise à déceler le rôle joué par les sciences physiques lors de l'émergence de ce concept et tout au long de son évolution historique.
En nous plaçant dans le cadre de la théorie d'anthropologique de la didactique, nous étudions, dans un deuxième temps, le rapport institutionnel aux équations différentielles grâce à une analyse (écologique et praxéologique) des manuels scolaires de la classe de Terminale S et des polycopiés et des notes d'observation de cours de mathématiques et d'électrocinétique, en première année universitaire. Cette analyse nous a permis de décrire les caractéristiques générales de l'enseignement de ce concept dans les deux disciplines.
Cette étude est complétée par une analyse des rapports personnels d'étudiants au concept d'équation différentielle en première année de l'université, via l'analyse de leurs productions à des tests que nous avons proposés en mathématiques et en sciences physiques. Les tâches proposées dans ces tests invitent les étudiants à travailler à la fois le statut "objet" et le statut "modèle" des équations différentielles respectivement en mathématiques et en sciences physiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie