Siga este enlace para ver otros tipos de publicaciones sobre el tema: Détection du volume du couvert.

Tesis sobre el tema "Détection du volume du couvert"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 16 mejores tesis para su investigación sobre el tema "Détection du volume du couvert".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Mohammadi, Vahid. "Design, Development and Evaluation of a System for the Detection of Aerial Parts and Measurement of Growth Indices of Bell Pepper Plant Based on Stereo and Multispectral Imaging". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2022. http://www.theses.fr/2022UBFCK109.

Texto completo
Resumen
Au cours de la croissance des plantes, leur suivi apporte beaucoup d'avantages aux producteurs. Cette surveillance comprend la mesure des propriétés physiques, le comptage des feuilles des plantes, la détection des plantes et leur séparation des mauvaises herbes. Toutes ces techniques peuvent être réalisées de différentes manières, cependant, les techniques favorables sont non destructives car la plante est une créature très sensible que toute manipulation peut perturber sa croissance ou entraîner la perte de feuilles ou de branches. Les techniques d'imagerie sont les meilleures solutions pour le suivi de la croissance des plantes et les mesures géométriques. À cet égard, dans ce projet, l'utilisation de l'imagerie stéréo et des données multispectrales a été étudiée. L'imagerie stéréo active et passive a été utilisée pour l'estimation des propriétés physiques et le comptage des feuilles et des données multispectrales ont été utilisées pour la séparation des cultures et des mauvaises herbes. La plante de poivron a été utilisée pour des mesures d'imagerie pendant une période de 30 jours et pour la séparation culture/mauvaise herbe, les réponses spectrales du poivron et de cinq mauvaises herbes ont été mesurées. Neuf propriétés physiques des feuilles de poivre (c. Le système stéréo était composé de deux caméras LogiTech et d'un vidéoprojecteur. Tout d'abord, le système stéréo a été calibré à l'aide d'images d'échantillons d'un damier standard dans différentes positions et angles. Le système a été contrôlé à l'aide de l'ordinateur pour allumer une ligne lumineuse, enregistrer des vidéos des deux caméras pendant que la lumière est balayée sur la plante, puis arrêter la lumière. Les cadres ont été extraits et traités. L'algorithme de traitement a d'abord filtré les images pour supprimer le bruit, puis a seuillé les pixels indésirables de l'environnement. Ensuite, en utilisant la méthode de détection de pic du centre de masse, la partie principale et centrale de la ligne lumineuse a été extraite. Ensuite, les images ont été rectifiées en utilisant les informations d'étalonnage. Ensuite, les pixels correspondants ont été détectés et utilisés pour le développement du modèle 3D. Le nuage de points obtenu a été transformé en une surface maillée et utilisé pour la mesure des propriétés physiques. Pour les réponses spectrales des plantes, celles-ci ont été fraîchement déplacées au laboratoire, les feuilles ont été détachées des plantes et placées sur un fond sombre flou. Des lumières de type A ont été utilisées pour l'éclairage et les mesures spectrales ont été effectuées à l'aide d'un spectroradiomètre de 380 nm à 1000 nm. Pour réduire la dimensionnalité des données, l'ACP et la transformée en ondelettes ont été utilisées. Les résultats de cette étude ont montré que l'utilisation de l'imagerie stéréo peut proposer un outil bon marché et non destructif pour l'agriculture. Un avantage important de l'imagerie stéréo active est qu'elle est indépendante de la lumière et peut être utilisée pendant la nuit. Cependant, l'utilisation de la stéréo active pour le stade primaire de croissance fournit des résultats acceptables, mais après ce stade, le système sera incapable de détecter et de reconstruire toutes les feuilles et les parties de la plante. En utilisant l'ASI, les valeurs R2 de 0,978 et 0,967 ont été obtenues pour l'estimation de la surface foliaire et du périmètre, respectivement. Les résultats de la séparation des cultures et des mauvaises herbes à l'aide de données spectrales étaient très prometteurs et le classificateur, qui était basé sur un apprentissage en profondeur, pouvait complètement séparer le poivre des cinq autres mauvaises herbes
During the growth of plants, monitoring them brings much benefits to the producers. This monitoring includes the measurement of physical properties, counting plants leaves, detection of plants and separation of them from weeds. All these can be done different techniques, however, the techniques are favorable that are non-destructive because plant is a very sensitive creature that any manipulation can put disorder in its growth or lead to losing leaves or branches. Imaging techniques are of the best solutions for plants growth monitoring and geometric measurements. In this regard, in this project the use of stereo imaging and multispectral data was studied. Active and passive stereo imaging were employed for the estimation of physical properties and counting leaves and multispectral data was utilized for the separation of crop and weed. Bell pepper plant was used for imaging measurements for a period of 30 days and for crop/weed separation, the spectral responses of bell pepper and five weeds were measured. Nine physical properties of pepper leaves (i.e. main leaf diameters, leaf area, leaf perimeter etc.) were measured using a scanner and was used as a database and also for comparing the estimated values to the actual values. The stereo system consisted of two LogiTech cameras and a video projector. First the stereo system was calibrated using sample images of a standard checkerboard in different position and angles. The system was controlled using the computer for turning a light line on, recording videos of both cameras while light is being swept on the plant and then stopping the light. The frames were extracted and processed. The processing algorithm first filtered the images for removing noise and then thresholded the unwanted pixels of environment. Then, using the peak detection method of Center of Mass the main and central part of the light line was extracted. After, the images were rectified by using the calibration information. Then the correspondent pixels were detected and used for the 3D model development. The obtained point cloud was transformed to a meshed surface and used for physical properties measurement. Passive stereo imaging was used for leaf detection and counting. For passive stereo matching six different matching algorithms and three cost functions were used and compared. For spectral responses of plants, they were freshly moved to the laboratory, leaves were detached from the plants and placed on a blur dark background. Type A lights were used for illumination and the spectral measurements were carried out using a spectroradiometer from 380 nm to 1000 nm. To reduce the dimensionality of the data, PCA and wavelet transform were used. Results of this study showed that the use of stereo imaging can propose a cheap and non-destructive tool for agriculture. An important advantage of active stereo imaging is that it is light-independent and can be used during the night. However, the use of active stereo for the primary stage of growth provides acceptable results but after that stage, the system will be unable to detect and reconstruct all leaves and plant's parts. Using ASI the R2 values of 0.978 and 0.967 were obtained for the estimation leaf area and perimeter, respectively. The results of separation of crop and weeds using spectral data were very promising and the classifier—which was based on deep learning—could completely separate pepper from other five weeds
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Brigui, Frédéric. "Algorithmes d'imagerie SAR polarimétriques basés sur des modèles à sous-espace : application à la détection de cible sous couvert forestier". Paris 10, 2010. http://www.theses.fr/2010PA100171.

Texto completo
Resumen
Cette thèse traite du développement de nouveaux algorithmes de formation d'image SAR dédiés à la détection de cible sous couvert forestier. Pour cette application, l'imagerie SAR classique produit des images fortement bruitées dans lesquelles la cible a une réponse faible et les interférences, principalement les trocs des arbres, provoquent de nombreuses fausses alarmes. Pour pouvoir augmenter la détection de la cible et réduire les interférences, nous reconsidérons le principe de formation d'image SAR en utilisant des modèles qui prennent en compte les priorités de diffusion de la cible et des interférences. Ces modèles sont développés pour des signaux en simple polarisation et en double polarisation (HH et VV) et sont définis par des sous-espaces de rangs faibles générés à partir des réponses d'éléments canoniques. A partir de ces modélisations, nous développons de nouveaux algorithmes d'imagerie SAR. Nous nous concentrons d'abord sur la détection de la cible puis sur la réduction des interférences. Les performances de ces algorithmes en termes de détection et de réductions des fausses alarmes sont évaluées sur des données simulées mais réalistes et nous insistons l'apport de l'information polarimétrique pour l'amélioration de celles-ci. Nous appliquons également nous algorithmes sur des données réelles qui nous permettent d'analyser les images obtenues dans un cadre réel
This thesis deals with the development of new SAR processors for detection of targats under foliage. For this application, classical SAR images are very noisy; the target has a low response and there are a lot of false alarms due to the interferences which are mainly the trunks of the forest. To detect target and reduce interferences, we reconsider the way processing a SAR image by using models which take into account the scattering properties of the target and the interferences. These models are developed for signals in sigle polarisation and in double polarisation (HH and VV) and are defined with low-rank subspaces generated from the responses of canonical elements. From this modeling, we develop new SAR processors. First, we focus on the detection of the target and on the reduction of false alarms. The performances of these processors in terms of detection and false alarms reduction are evaluated with realistic simulated data and we emphasize on the interest of using a polimetric information. We also apply these algorithms to real data that allows us to analyze the images in real-life context
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hettak, Lydia. "Mise en œuvre d'un modèle électromagnétique 3D dédié à l'analyse de milieux forestiers et à la détection de cibles sous couvert". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066415/document.

Texto completo
Resumen
Dans ce rapport, un modèle électromagnétique dédié à l’analyse de la diffraction de cibles métalliques placées en milieux forestiers est développé. Le modèle est basé sur une formulation hybride (surface/volume) de la méthode des moments. Le modèle est d’abord développé pour traiter le cas d’une cible métallique placée en espace libre en se basant sur la formulation surfacique de l’équation intégrale du champ électrique. Ensuite, le modèle est modifié afin de prendre en compte la présence du sol en se basant sur la méthode des images couplée aux coefficients de réflexion de Fresnel. Enfin, le code obtenu est couplé à un modèle précédemment développé au laboratoire permettant d’analyser de larges zones forestières. Ce modèle est basé sur la formulation volumique de l’équation intégrale du champ électrique couplée à la méthode CBFM (Characteristics Basis Functions Method). Le code final obtenu permet de traiter le cas d’une cible métallique placée dans une large zone forestière. Le modèle réalisé est implémenté sous MATLAB et Fortran afin de comparer ses résultats avec ceux donnés par le logiciel commercial FEKO. Les résultats sont comparés pour plusieurs cas de figure: espace libre, avec sol et scène complexe. De plus, le code est utilisé afin de mettre en évidence les différents paramètres qui rentrent en jeu dans le mécanisme de diffraction. Enfin, une validation expérimentale réalisée en collaboration avec CCRM (Centre Commun de Ressources en Micro-ondes de Marseille) est présenté. Une mesure du champ diffractée est réalisée sur des maquettes à échelle réduite (1/25) et les résultats obtenus sont comparés avec ceux donnés par notre modèle
In this report, a model for the analysis of the scattering of metallic target placed in forested area is presented. The developed model is based on a hybrid (surface/volume) formulation of the method of moments. First, a model based on the surface formulation of the electric field integral equation is developed for the case of a metallic target placed in free space. The model is then modified in order to take into account the presence of a ground by using a complex image method coupled with the Fresnel reflection coefficients. Finally, the obtained code is coupled with a model treating the case of large forest areas that was previously developed in the laboratory. This model is based on a volume formulation of the electric field integral equation coupled with the Characteristics Basis Functions Method. The final hybrid model treats the case of metallic object placed in a large forested area. The model is then implemented on MATLAB and Fortran in order to compare its results with those of the commercial software FEKO. The results were compared different cases: free space, above ground and inside a forested area. The code was also used in order to different parameters affecting the diffraction mechanism. Finally, a numerical validation conducted in collaboration with CCRM (Centre Commun de Ressources en Micro-ondes de Marseille) is presented. A measurement complain of the diffracted field was achieve on scaled models (1/25) and the measurements were compared with the results given by the developed model
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

San, Emeterio Cabañes José Luis. "Désertification ou reverdissement ? Etude multiscalaire de l'évolution du couvert végétal en Afrique Sahélienne à partir de données de télédétection". Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC079.

Texto completo
Resumen
La région sahélienne est devenue l'archétype de la désertification et de la dégradation des terres depuis les grandes sécheresses qui l'ont ravagée dans les années 70 et 80. Cependant, la relative reprise des précipitations depuis le milieu des années 90 et l'observation subséquente d'un « reverdissement» du Sahel à partir d'indices de végétation extraits grâce au développement de la Télédétection Spatiale ont contribué à nuancer la thèse de l'avancée irréversible de la désertification. Le lien entre ces indices et la dégradation des terres demeure néanmoins très complexe et les conclusions tirées de leur analyse sont parfois contradictoires. En effet, les profondes mutations du paysage inhérentes à la croissance démographique ou la grande variabilité climatique sont autant de facteurs qui rendent délicat tout diagnostic définitif. La forte interdépendance des échelles spatiales et temporelles de la dégradation des terres au Sahel nous conduit à proposer une analyse multiscalaire, avec l'objectif initial de comprendre la situation actuelle et d'établir la méthode la mieux adaptée au suivi de ce phénomène à l'échelle régionale. Cette analyse est réalisée pour l'ensemble de la région sahélienne durant la période 1982-2011 à partir de l'indice de végétation NDVI GIMMS-3g et des produits de précipitations. Elle est ensuite transposée au sud-ouest nigérien, où l'évolution du couvert végétal est étudiée à partir du NDVI MODIS ainsi que des photographies aériennes et satellitaires des dernières décennies
The Sahel region has become the archetype of desertification and land degradation since the important droughts that took place during the 70s and 80s. However, the rainfall recovery since the middle of the 90s and the re-greening trend observed from remoting sensed vegetation indexes has challenged the view of an advancing desertification in the Sahel. Nevertheless, the relation between these indexes and land degradation is very complex and the conclusions made are sometimes contradictory. In fact, the high climate variability and the important landscape mutations, due to demographic growth, make of land degradation assessment a difficult task in this region. The strong interdependency between temporal and spatial scales of land degradation, led to carry out a multi-scalar analysis to understand; what is the actual situation of the Sahel concerning land degradation, and what is the most effective way to assess this phenomenon at a regional scale. This analysis has been done for the entire Sahel region during the period 1982-2011using the NDVI GIMMS-3g vegetation index and rainfall products. It has been later transposed to south-west Niger using the NDVI MODIS index and aerial and satellite photographs of the last decades
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Rabus, David. "Résonateur à ondes élastiques de volume à harmoniques élevés (HBARs) pour mesures gravimétriques : application à la détection de gaz". Phd thesis, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00923625.

Texto completo
Resumen
Le besoin d'appareils compacts et autonomes dédiés à la détection d'espèces chimiques pour des analyses de terrain est d'actualité dans un contexte international en rapide mutation (agroalimentaire, développement durable, sécurité, etc.). La thèse présentée au sein de ce manuscrit, financée par la Délégation Générale de l'Armement, développe de nouvelles solutions de capteurs résonants à ondes élastiques de volume à modes harmoniques élevés (HBARs) pour la détection de gaz et plus particulièrement de composés explosifs. Ces résonateurs de très haute compacité se composent d'un transducteur reporté ou déposé sur une cavité résonante multimode, produisant un spectre de raies modulant sa propre réponse fréquentielle. De nature dipolaire, ces résonateurs permettent toutefois la mise au point de quadripôles par couplage latéral de modes mis à profit dans nos travaux. L'étude théorique du comportement de résonateurs à base de niobate de lithium aminci et reporté sur quartz ou fondés sur un empilement de nitrure d'aluminium et de silicium a permis de déterminer les propriétés gravimétriques spécifiques de chaque combinaison de matériaux et des modes associés. Des méthodes de calibrage en phase liquide et gazeuse sont proposées pour valider l'analyse théorique et permettre le choix de la structure la mieux adaptée à une configuration expérimentale donnée. Les résultats obtenus, comparés à ceux d'une microbalance à ondes guidées sur quartz, mettent en évidence les forces (compacité, cinétique chimique réduite, nature multi-physique des mesures) et faiblesses (sensibilité gravimétrique imposant des structures d'épaisseur inférieure à 100 μm) de notre solution face à cette référence. Nous avons également développé une électronique de traitement en boucle ouverte des informations issues de nos dispositifs, permettant des modes de détection rapide ou de haute précision (quelques milli-degrés de variation de phase). L'électronique dédiée a pour vocation de fournir la flexibilité nécessire au suivi de nombreux modes à diverses fréquences fixes et de s'affranchir des temps longs de balayage en fréquence des analyseurs de réseaux généralistes. Une version à 8 voies permet enfin la manipulation de plusieurs capteurs ou l'étude en parallèle des modes de 2 HBARs, donnant ainsi lieu à un système multi-physique efficace associé à des capteurs capables de sonder plusieurs grandeurs dans un volume de très petite dimension (quelques mm3 ).La limite de détection est déterminée par le bruit de phase de l'oscillateur local. Le système ainsi réalisé est exploité pour la détection de gaz mais aussi pour le pilotage de grandeurs physiques telles que la température ou la viscosité (milieux aqueux) dans différents contextes expérimentaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Rabus, David. "Résonateurs à ondes élastiques de volume à modes harmoniques élevés (HBARs) pour mesures gravimétriques : application à la détection de gaz". Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2038/document.

Texto completo
Resumen
Le besoin d’appareils compacts et autonomes dédiés à la détection d’espèces chimiques pour des analyses de terrain est d’actualité dans un contexte international en rapide mutation (agroalimentaire, développement durable, sécurité, etc.). La thèse présentée au sein de ce manuscrit, financée par la Délégation Générale de l’Armement, développe de nouvelles solutions de capteurs résonants à ondes élastiques de volume à modes harmoniques élevés (HBARs) pour la détection de gaz et plus particulièrement de composés explosifs. Ces résonateurs de très haute compacité se composent d’un transducteur reporté ou déposé sur une cavité résonante multimode, produisant un spectre de raies modulant sa propre réponse fréquentielle. De nature dipolaire, ces résonateurs permettent toutefois la mise au point de quadripôles par couplage latéral de modes mis à profit dans nos travaux. L’étude théorique du comportement de résonateurs à base de niobate de lithium aminci et reporté sur quartz ou fondés sur un empilement de nitrure d’aluminium et de silicium a permis de déterminer les propriétés gravimétriques spécifiques de chaque combinaison de matériaux et des modes associés. Des méthodes de calibrage en phase liquide et gazeuse sont proposées pour valider l’analyse théorique et permettre le choix de la structure la mieux adaptée à une configuration expérimentale donnée. Les résultats obtenus, comparés à ceux d’une microbalance à ondes guidées sur quartz, mettent en évidence les forces (compacité, cinétique chimique réduite, nature multi-physique des mesures) et faiblesses (sensibilité gravimétrique imposant des structures d’épaisseur inférieure à 100 μm) de notre solution face à cette référence. Nous avons également développé une électronique de traitement en boucle ouverte des informations issues de nos dispositifs, permettant des modes de détection rapide ou de haute précision (quelques milli-degrés de variation de phase). L’électronique dédiée a pour vocation de fournir la flexibilité nécessaire au suivi de nombreux modes à diverses fréquences fixes et de s’affranchir des temps longs de balayage en fréquence des analyseurs de réseaux généralistes. Une version à8 voies permet enfin la manipulation de plusieurs capteurs ou l’étude en parallèle des modes de 2 HBARs, donnant ainsi lieu à un système multi-physique efficace associé à des capteurs capables de sonder plusieurs grandeurs dans un volume de très petite dimension (quelques mm3). La limite de détection est déterminée par le bruit de phase de l’oscillateur local. Le système ainsi réalisé est exploité pour la détection de gaz mais aussi pour le pilotage de grandeurs physiques telles que la température ou la viscosité (milieux aqueux) dans différents contextes expérimentaux
The demand for compact and autonomous systems devoted to field detection of gaseous compounds is still persisting in arapidly changing international context (food-processing, sustainable development, security, and so on). The thesis reportedin this manuscript, supported by the Délégation Générale de l’Armement, develops new resonant sensor solutions basedon high overtone bulk acoustic waves (so-called HBARs) for chemical compound detection and more specifically explosivesubstances. These high compactness resonators are built using a transducer bound or deposited onto a resonant cavity,yielding a comb spectrum modulating its own frequency response. They are used generally as dipoles, but a quadrupolestructure allowing for transverse mode coupling has been particularly used for our developments. A theoretical study ofthe behaviour of these devices based on lithium niobate-on-quartz or qluminum nitride-on-silicon material stack has beenachieved to determine the gravimetric properties of these configurations accounting for their mode specificities. Variouscalibration techniques have been implemented to confirm the theoretical analysis and to define the most appropriate structurefor a given application. The produced results have been compared to those of a quartz guided-wave micro-balance toemphasize the strength (compactness, reduced chemical kinetics, multiphysics measurements) and weakness (gravimetricsensitivity requiring device thickness less than 100 μm) of our devices. An embedded signal processing electronics alsohas been developed to treat the information provided by our sensors, offering fast or accurate (millidegree range) detectionprotocols. The dedicated electronics aims at providing the flexibility needed to track multiple modes at variaous fixed frquencieswhile getting rid of the long sweep time of general purpose network analyzers. A eight-channel version of thissystem has been set to process several sensor in parallel or to monitor several modes of two HBAR sensors for effectivemuti-physics measurements in a reduced analysis domain (a few cubic mm). Phase noise is the limiting factor determiningthe detection limit. The system has been deployed for gas detection as well as for monitoring other physical parameters suchas temperature or viscosity under various experimental condition including fluid media
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Bienaimé, Alex. "Microcapteur en arséniure de gallium pour la détection de molécules dans un fluide". Thesis, Besançon, 2012. http://www.theses.fr/2012BESA2025/document.

Texto completo
Resumen
La recherche de biomarqueurs pour le dépistage, le diagnostique ou le traitement de maladie requiert le développement de dispositifs hautement sensibles alliant un faible coût d’analyse, un faible encombrement et une réponse rapide. Dans ce cadre, nous développons un biocapteur acoustique utilisant des ondes de volume pour permettre la détection d’analyte particulière dans un milieu biologique complexe. La géométrie retenue est une membrane résonante à excitation et détection piézoélectriques intégrées vibrant sur un mode de cisaillement d’épaisseur généré par un champ latéral. Le transducteur utilise les propriétés particulières de l’arséniure de gallium pour assurer une détection sensible et sélective, aussi bien grâce à ses propriétés piézoélectriques que ses possibilités de microfabrication ou de biofonctionnalisation. Dans un premier temps, nous avons dimensionné le dispositif et modélisé son comportement. Une sensibilité à un ajout de masse a pu être estimée à environ 0.1 ng.Hz-1. Nous avons ensuite envisagé la microfabrication du capteur en utilisant uniquement des techniques de microfabrication à faible coût (gravure humide et photolithogravure). Ceci a permis d’obtenir des membranes épaisses (50 μm) de géométrie et d’état de surface maitrisés. Nous avons ensuite envisagé la réalisation de la biointerface grâce au développement d’une interface chimique spécifique permettant d’immobiliser covalemment une monocouche dense de protéine à la surface du GaAs. Cette monocouche a été caractérisée par une analyse originale couplant la microscopie à force atomique (AFM) et la spectrométrie de masse MALDI-TOF. Enfin, les interfaces fluidiques et électriques ont été mises au point et ont permis de tester le dispositif par une mesure d’impédance
The biomarkers detection for screening, diagnosis or treatment of disease requires the development of highly sensitive devices combining low cost of analysis, a small size and quick responses. In this context, we develop a biosensor using bulk acoustic wave to allow the detection of specific analyte in a complex biological medium. The geometry used is a piezoelectric resonant membrane using shear mode vibration excited by lateral field. The transducer uses the specific properties of gallium arsenide to provide a highly sensitive and selective detection thanks to its piezoelectric properties and also its microfabrication or biofonctionnalisation facilities. First, we dimensioned the device and modeled it behavior. A sensitivity to adding mass has been estimated at 0.1 ng.Hz-1. Then, we considered the sensor microfabrication using only low cost process (photolithography and wet etching). Through these processes, we obtained well formed thick membranes (50μm) with specific surface properties and microstructuration. Next, we realize the biointerface through the development of a specific chemical interface in order to immobilize a dense protein monolayer covalently attached to the GaAs surface. This monolayer was characterized by an original analysis coupling the atomic force microscopy and the mass spectroscopy MALDI-TOF. Finally, fluid and electrical interfaces have been developed and we tested the device by impedance measurements
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Bachelier, Elodie. "Modélisation électromagnétique des effets de diffusion de surface et de volume des sols par la méthode des différences finies". Toulouse, ENSAE, 1999. http://www.theses.fr/1999ESAE0017.

Texto completo
Resumen
L'interprétation des données radar relatives aux milieux naturels peut être grandement facilitée par la simulation partielle mais fine des interactions des ondes électromagnétiques avec ces milieux. Au cours de ce travail de thèse, nous avons adapté certains aspects de la méthode des différences finies en temporel au calcul de la diffraction électromagnétique par les sols, parmi lesquels l'introduction du champ accident, les conditions limites absorbantes et le calcul du champ lointain. Des codes ont été développés et validés en géométrie bi-dimensionnelle et tridimensionnelle. Nous avons également ouvert des perspectives sur une méthode multidomaines en temporel. L'objectif des outils de calcul réalisés est la simulation, dans les domaines temporels et fréquentiels, de la diffraction par les sols avec irrégularités de surface, hétérogénéité de volume et éventuellement présence de cibles. Ces aspects ont été introduits graduellement, d'abord par l'étude de sols rugueux homogènes, puis en prenant en compte l'hétérogénéité de volume liée à l'humidité et à la compacité, et enfin la présence d'objets enfouis. Ces différentes étapes ont permis d'étudier des problèmes variés pouvant difficilement trouver une réponse sans utiliser des méthodes numériques. En particulier, nous nous sommes intéressés à la pertinence de modèles de représentation des sols en surface vis à vis du coefficient de retrodiffusion, à l'influence des effets de volume sur la cohérence interférométrique et les réponses impulsionnelles, et à la caractérisation de cibles génériques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Li, Gengxiang. "Rehaussement et détection des attributs sismiques 3D par techniques avancées d'analyse d'images". Phd thesis, Université Michel de Montaigne - Bordeaux III, 2012. http://tel.archives-ouvertes.fr/tel-00731886.

Texto completo
Resumen
Les Moments ont été largement utilisés dans la reconnaissance de formes et dans le traitement d'image. Dans cette thèse, nous concentrons notre attention sur les 3D moments orthogonaux de Gauss-Hermite, les moments invariants 2D et 3D de Gauss-Hermite, l'algorithme rapide de l'attribut de cohérence et les applications de l'interprétation sismique en utilisant la méthode des moments.Nous étudions les méthodes de suivi automatique d'horizon sismique à partir de moments de Gauss-Hermite en cas de 1D et de 3D. Nous introduisons une approche basée sur une étude multi-échelle des moments invariants. Les résultats expérimentaux montrent que la méthode des moments 3D de Gauss-Hermite est plus performante que les autres algorithmes populaires.Nous avons également abordé l'analyse des faciès sismiques basée sur les caractéristiques du vecteur à partir des moments 3D de Gauss -Hermite, et la méthode de Cartes Auto-organisatrices avec techniques de visualisation de données. L'excellent résultat de l'analyse des faciès montre que l'environnement intégré donne une meilleure performance dans l'interprétation de la structure des clusters.Enfin, nous introduisons le traitement parallèle et la visualisation de volume. En profitant des nouvelles performances par les technologies multi-threading et multi-cœurs dans le traitement et l'interprétation de données sismiques, nous calculons efficacement des attributs sismiques et nous suivons l'horizon. Nous discutons également l'algorithme de rendu de volume basé sur le moteur Open-Scene-Graph qui permet de mieux comprendre la structure de données sismiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Lacour, Vivien. "Optimisation d'un microcapteur GaAs à ondes acoustiques et de sa biointerface pour la détection de pathogènes en milieu liquide". Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/10471.

Texto completo
Resumen
Cette thèse s’inscrit dans le cadre d’une cotutelle internationale entre l’institut FEMTO-ST à Besançon en France et l’université de Sherbrooke au Canada. Elle porte sur l’élaboration d’un biocapteur, potentiellement à bas coût, pour la détection de pathogènes dans les secteurs de l’agroalimentaire, de l’environnement et de la biosécurité. Le modèle biologique visé est la bactérie Escherichia coli, dont les souches pathogènes sont responsables, chaque année et partout dans le monde, de plusieurs crises sanitaires liées à une mauvaise gestion des produits de consommation ou des installations de conditionnement ou de traitements de ces produits. L’utilisation de biocapteurs pour une détection rapide, sensible et sélective d’organismes pathogènes répond ainsi aux inquiétudes quant aux risques d’infection pour la population. La structure du capteur consiste en une fine membrane en arséniure de gallium (GaAs) vibrant sur des modes de cisaillement d’épaisseur générés par champ électrique latéral via les propriétés piézoélectriques du matériau. Nous montrons dans ce travail que le biocapteur offre également des possibilités de microfabrication, de biofonctionnalisation et de régénération intéressantes pour la conception d’un dispositif à bas coût. Le transducteur a été réalisé via des technologies de microfabrication utilisées en salle blanche avec une mise en parallèle des méthodes d’usinage par voie chimique et par plasma, l’objectif étant d’obtenir des membranes minces, planes et avec un état de surface de haute qualité. Une interface fluidique a été mise au point de façon à approvisionner de manière homogène le capteur en fluide. Par ailleurs, nos études se sont portées sur la fonctionnalisation biochimique de l’interface de bioreconnaissance sur l’arséniure de gallium et sa caractérisation fine par les techniques de spectroscopie infrarouge à transformée de Fourier (FTIR). Les résultats de cette étude ont permis de progresser sur la compréhension fondamentale du phénomène d’auto-assemblage de molécules sur GaAs. Un effort particulier a été mis en œuvre pour développer des biointerfaces de haute densité offrant une immobilisation optimale des immunorécepteurs biologiques. Parmi les différentes méthodes de régénération de la biointerface, le procédé de photo-oxydation UV en milieu liquide a démontré un fort potentiel pour des applications de capteurs réutilisables. Enfin, le transducteur a été caractérisé électriquement sous différents environnements. L’impact sur la réponse du résonateur des paramètres électriques, mécaniques et thermiques de ces milieux a été évalué afin de simuler le comportement du dispositif en condition réelle.
Abstract : This PhD thesis was realized in the context of a cotutelle program between FEMTO-ST institute in France and the University of Sherbrooke in Canada. The thesis addresses the development of a potentially low cost sensor dedicated for detection of pathogens in food industry processing, environment and biosafety sectors. Such a sensor could serve detection of Escherichia coli bacteria whose pathogenic strains are the source of foodborne illnesses encountered worldwide every year. Hence, biosensor devices are needed for a rapid, sensitive and selective detection of pathogens to avert, as soon as possible, any sources of contamination and prevent outbreak risks. The design of the sensor consists of a resonant membrane fabricated in gallium arsenide (GaAs) crystal that operates at shear modes of bulk acoustic waves generated by lateral field excitation. In addition to the attractive piezoelectric properties, as shown in this work, fabrication of a GaAs-based biosensor benefits from a well-developed technology of microfabrication of GaAs, as well as biofunctionalization and the possibility of regeneration that should result in cost savings of used devices. The transducer element was fabricated by using typical clean room microfabrication techniques. Plasma and wet etching were investigated and compared for achieving thin membranes with high quality surface morphology. At the same time, we designed and fabricated fluidic elements that allowed the construction of a flow cell chamber integrated in the sensor. Extensive research was carried out with a Fourier transform infrared spectroscopy (FTIR) diagnostic tool to determine optimum conditions for biofunctionalization of the GaAs surface. This activity allowed to advance the fundamental knowledge of self-assembly formation and, consequently, fabrication of high density biointerfaces for efficient immobilization of selected bioreceptors. Among different biochip regeneration methods, it has been demonstrated that liquid UV photooxidation (liquid-UVPO) has a great potential to deliver attractive surfaces for re-usable biochips. Finally, operation of the transducer device was evaluated in air environment and in various liquid media, simulating real conditions for detection.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Emteu, Tchagou Serge Vladimir. "Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM051/document.

Texto completo
Resumen
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects
The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Timofeeva, Maria. "Sonde magnétique inductive de haute sensibilité et conditionneur adapté très faible impédance : Perspectives de détection mixte Electrique : Magnétique, sans contact, à haute sensibilité, pour impédance-métrie résolue en volume". Caen, 2012. http://www.theses.fr/2012CAEN2049.

Texto completo
Resumen
Le travail de cette thèse a été réalisé dans le cadre d’un contrat CIFFRE entre le laboratoire GREYC et l’entreprise Inphynix. L’objectif est l’étude et le développement de magnétomètres à hautes performances à base bobines de capture, et des conditionneurs associés, avec une perspective de mesure mixte des champs électrique E et magnétique H. Le cahier de charge du magnétomètre exige une grande bande passante, une grande dynamique et un faible encombrement. L’étude analytique, numérique et expérimentale de bobines de captures compactes dédiées à la magnétométrie a été réalisée. La résolution spatiale pour des bobines de différentes formes géométriques a été étudiée. Des conditionneurs différentiels amplificateur de courant ou à transconductance optimisés pour ce type d’utilisation ont été étudiés et modélisés en particulier pour la composante différentielle du signal et en bruit. Un magnétomètre original à base de deux bobines différentielles, couplées et fonctionnant en mode flux, connectées à un amplificateur à transimpédance a été développé. Les avantages d’utilisation des bobines couplés par rapport à deux bobines de captures séparées ont été démontrés : un volume réduit, une meilleure résolution spatiale, une amélioration des performances en bruit et une amélioration d’un facteur deux de la fréquence de coupure basse. La structure d’un capteur de champ mixte E-H original et son conditionneur ont été définis. Mot clés : Bobine de capture, Magnétomètre, Amplificateur à transimpédance, Amplificateur de courant différentiel, Résolution spatiale, Sonde mixte champ électrique –champ magnétique
This PhD thesis was carried out in the framework of a contract CIFRE between the GREYC laboratory and the company Inphynix. The objective is the study and development of high performance magnetometers, based on search coils and associated transimpedance amplifier with a perspective of simultaneous measurement of both Electric E and Magnetic H fields. The magnetometer specifications were a high bandwidth, a high dynamic range and a small volume occupancy. A theoretical and experimental study of compact search coils dedicated were performed. The spatial resolution for search coils with different geometrical forms was studied. Differential current amplifiers and transimpedance amplifiers optimized for this application were studied especially for differential signal mode transfer and noise. An original differential search coil based magnetometer, made of coupled coils, operating in flux mode and connected to a differential transimpedance amplifier has been developed. It was shown that this structure is better than two separated coils in terms of volume occupancy, spatial resolution, noise and low cut-off frequency. The structure of an original mixed E-H field sensor and its amplifier has been defined. Key words: Search coil sensor, Magnetometer, Transimpedance amplifier, Differentiel current amplifier, Spatial resolution, mixed E-H field sensor
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Himmelstein, Jesse Cooper. "Geometric operators for motion planning". Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000241/.

Texto completo
Resumen
Motion planning is building a considerable momentum within industrial settings. Whether for programming factory robots or calculating mechanical assembly sequences, motion planning through probabilistic algorithms has proved to be particularly efficient for solving complex problems that are difficult for human operators. This doctoral thesis, a collaborative work between the research laboratory LAAS‐CNRS and the startup company Kineo CAM, is aimed confronting motion planning problems encountered in the virtual factory. We have identified three domains that are of interest to industrial partners and we contribute to each: collision detection, swept volumes, and motion planning in collision. Collision detection is a critical operator for analyzing digital models within their environment. Motion planning algorithms rely so heavily on collision detection that it has become a performance bottleneck. This explains why such a large variety of collision detection algorithms exist, each specialized for a particular type of geometry, such as polyhedra or voxels. Such a diverse solution space is a barrier for integrating multiple geometry types into the same architecture. We propose a framework for performing proximity queries between heterogeneous geometries. While factoring out the algorithmic core common to spatial‐division and boundingvolume schemes, the framework allows specialized collision tests between a pair of geometric primitives. New geometry types can thus be added easily and without hurting performance. We validate our approach on a humanoid robot that navigates an unknown environment using vision. Swept volumes are a useful tool for visualizing the extent of a movement, such as the vibrations of an engine or the reaching of a digital human actor. The state‐of‐the‐art approach exploits graphics hardware to quickly approximate swept volumes with a high accuracy, but only applies to a single watertight object. To adapt this algorithm to handle computer‐aided design input, we modify its behavior to treat polygon soup models and discontinuous paths. We demonstrate its effectiveness on disassembly movements of mechanical pieces with a large number of triangles. It can be challenging to manipulate the volume described by a polygon soup. Starting with the swept volume algorithm, we introduce operators to change the size of discrete objects. At a basic level, we calculate the Minkowski sum of the object and a sphere in order to inflate the object, and the Minkowski difference to deflate it. We test these operators on both static and moving objects. Finally, we take on the problem of motion planning in collision. Although it may appear as a contradiction in terms, the ability to authorize a limited penetration during the planning process can be a powerful tool for certain difficult motion planning problems. For example, when calculating disassembly sequences, we can allow obstacles such as screws to move during the planning. In addition, by allowing collision we are able to solve forced passage problems. This is a difficult problem encountered in virtual mockups, where certain parts are slightly deformable or where we may be asked to find the “least‐worst path” when no non‐colliding path exists. In this doctoral work we develop several contributions that apply to industrial robotics and automation. By focusing on the strict functional and usability requirements of the domain, we hope that our algorithms are directly applicable as well as scientifically valuable. We try to expose the advantages as well as the disadvantages of our approach throughout the thesis
La planification du mouvement connait une utilisation croissante dans le contexte industriel. Qu’elle soit destinée à la programmation des robots dans l’usine ou au calcul de l’assemblage d’une pièce mécanique, la planification au travers des algorithmes probabilistes est particulièrement efficace pour résoudre des problèmes complexes et difficiles pour l’opérateur humain. Cette thèse CIFRE, effectuée en collaboration entre le laboratoire de recherche LAAS-CNRS et la jeune entreprise Kineo CAM, s’attache à résoudre la problématique de planification de mouvement dans l’usine numérique. Nous avons identifié trois domaines auxquels s’intéressent les partenaires industriels et nous apportons des contributions dans chacun d’eux: la détection de collision, le volume balayé et le mouvement en collision. La détection de collision est un opérateur critique pour analyser des maquettes numériques. Les algorithmes de planification de mouvement font si souvent appel à cet opérateur qu’il représente un point critique pour les performances. C’est pourquoi, il existe une grande variété d’algorithmes spécialisés pour chaque type de géométries possibles. Cette diversité de solutions induit une difficulté pour l’intégration de plusieurs types de géométries dans la même architecture. Nous proposons une structure algorithmique rassemblant des types géométriques hétérogènes pour effectuer les tests de proximité entre eux. Cette architecture distingue un noyau algorithmique commun entre des approches de division de l’espace, et des tests spécialisés pour un couple de primitives géométriques donné. Nous offrons ainsi la possibilité de facilement ajouter des types de données nouveaux sans pénaliser la performance. Notre approche est validée sur un cas de robot humanoïde qui navigue dans un environnement inconnu grâce à la vision. Concernant le volume balayé, il est utilisé pour visualiser l’étendue d’un mouvement, qu’il soit la vibration d’un moteur ou le geste d‘un mannequin virtuel. L’approche la plus innovante de la littérature repose sur la puissance du matériel graphique pour calculer une approximation du volume balayé très rapidement. Elle est toutefois limitée en entrée à un seul objet, qui luimême doit décrire un volume fermé. Afin d’adapter cet algorithme au contexte de la conception numérique, nous modifions son comportement pour traiter des « soupes de polygones » ainsi que des trajectoires discontinues. Nous montrons son efficacité sur les mouvements de désassemblage pour des pièces avec un grand nombre de polygones. Il est difficile de manipuler le volume décrit par une soupe de polygones. A partir du calcul du volume balayé, nous introduisons des opérateurs qui changent la taille de l’objet discret. Ces operateurs calculent la somme de Minkowski entre l’objet et une sphère afin d’agrandir l’objet, et la différence de Minkowski pour le rétrécir. Nous obtenons les résultats sur les objets statiques ainsi que dynamiques. Enfin, nous abordons le problème de la planification de mouvement en collision. Cette antilogie exprime la capacité d’autoriser une collision bornée pendant la recherche de trajectoire. Ceci permet de résoudre certains problèmes d’assemblage très difficiles. Par exemple, lors du calcul des séquences de désassemblage, il peut être utile de permettre à des « pièces obstacles » telles que les vis de se déplacer pendant la planification. De plus, en autorisant la collision, nous sommes capables de résoudre des problèmes de passage en force. Cette problématique se pose souvent dans la maquette numérique où certaines pièces sont « souples » ou si le problème consiste à identifier la trajectoire « la moins pire » quand aucun chemin sans collision n’existe. Nous apportons dans ce travail plusieurs contributions qui s’appliquent à la conception numérique pour la robotique industrielle. Nous essayons de marier une approche scientifique avec des critères de fonctionnalités strictes pour mieux s’adapter aux utilisateurs de la conception numérique. Nous cherchons à exposer les avantages et les inconvénients de nos approches tout au long du manuscrit
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Himmelstein, Jesse. "Geometric operators for motion planning". Phd thesis, INSA de Toulouse, 2008. http://tel.archives-ouvertes.fr/tel-00348010.

Texto completo
Resumen
La planification du mouvement connait une utilisation croissante dans le contexte industriel. Qu'elle soit destinée à la programmation des robots dans l'usine ou au calcul de l'assemblage d'une pièce mécanique, la planification au travers des algorithmes probabilistes est particulièrement efficace pour résoudre des problèmes complexes et difficiles pour l'opérateur humain. Cette thèse CIFRE, effectuée en collaboration entre le laboratoire de recherche LAAS-CNRS et la jeune entreprise Kineo CAM, s'attache à résoudre la problématique de planification de mouvement dans l'usine numérique. Nous avons identifié trois domaines auxquels s'intéressent les partenaires industriels et nous apportons des contributions dans chacun d'eux: la détection de collision, le volume balayé et le mouvement en collision. La détection de collision est un opérateur critique pour analyser des maquettes numériques. Les algorithmes de planification de mouvement font si souvent appel à cet opérateur qu'il représente un point critique pour les performances. C'est pourquoi, il existe une grande variété d'algorithmes spécialisés pour chaque type de géométries possibles. Cette diversité de solutions induit une difficulté pour l'intégration de plusieurs types de géométries dans la même architecture. Nous proposons une structure algorithmique rassemblant des types géométriques hétérogènes pour effectuer les tests de proximité entre eux. Cette architecture distingue un noyau algorithmique commun entre des approches de division de l'espace, et des tests spécialisés pour un couple de primitives géométriques donné. Nous offrons ainsi la possibilité de facilement ajouter des types de données nouveaux sans pénaliser la performance. Notre approche est validée sur un cas de robot humanoïde qui navigue dans un environnement inconnu grâce à la vision. Concernant le volume balayé, il est utilisé pour visualiser l'étendue d'un mouvement, qu'il soit la vibration d'un moteur ou le geste d'un mannequin virtuel. L'app roche la plus innovante de la littérature repose sur la puissance du matériel graphique pour approximer le volume balayé très rapidement. Elle est toutefois limitée en entrée à un seul objet, qui lui-même doit décrire un volume fermé. Afin d'adapter cet algorithme au contexte de la conception numérique, nous modifions son comportement pour traiter des " soupes de polygones " ainsi que des trajectoires discontinues. Nous montrons son efficacité sur les mouvements de désassemblage pour des pièces avec un grand nombre de polygones. Une soupe de polygones est plus difficile à manipuler qu'un volume bien formé. Le calcul du volume balayé introduit des opérateurs d'agrandissement et de rétrécissement des objets discrétisés. Le rétrécissement peut être utilisé pour d'autres applications dans la planification du mouvement à condition que la topologie de l'objet soit conservée pendant la transformation. Afin de préserver celle-ci, nous définissons le calcul du squelette qui préserve l'équivalence topologique. En gardant le squelette, nous employons l'opérateur de rétrécissement pour chercher les passages étroits des problèmes difficiles de planification de mouvement. Enfin, nous abordons le problème de la planification de mouvement en collision. Cette antilogie exprime la capacité d'autoriser une collision bornée pendant la recherche de trajectoire. Ceci permet de résoudre certains problèmes d'assemblage très difficiles. Par exemple, lors du calcul des séquences de désassemblage, il peut être utile de permettre à des "pièces obstacles" telles que les vis de se déplacer pendant la planification. De plus, en autorisant la collision, nous sommes capables de résoudre des problèmes de passage en force. Cette problématique se pose souvent dans la maquette numérique où certaines pièces sont " souples " ou si le problème consiste à identifier la trajectoire "la moins pire" quand aucun chemin sans collision n'existe. Nous apportons dans ce travail plusieurs contributions qui s'appliq uent à la conception numérique pour la robotique industrielle. Nous essayons de marier une approche scientifique avec des critères de fonctionnalités strictes pour mieux s'adapter aux utilisateurs de la conception numérique. Nous cherchons à exposer les avantages et les inconvénients de nos approches tout au long du manuscrit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Handouzi, Wahida. "Traitement d'information mono-source pour la validation objective d'un modèle d'anxiété : application au signal de pression sanguine volumique". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0237/document.

Texto completo
Resumen
La détection et l’évaluation des émotions sont des domaines qui suscitent un grand intérêt par de nombreuses communautés tant au niveau des sciences humaines que des sciences exactes. Dans cette thèse nous nous intéressons à la reconnaissance de l’anxiété sociale qui est une peur irrationnelle ressentie par une personne lors de toute forme de relation sociale. L’anxiété peut être révélée par un ensemble de traits physiques et physiologiques tels que l’intonation de la voix, les mimiques faciales, l’augmentation du rythme cardiaque, le rougissement… etc. L’avantage de l’utilisation des mesures physiologiques est que les individus ne peuvent pas les manipuler, c’est une source continue de données et chaque émotion est caractérisée par une variation physiologique particulière. Dans ce travail, nous proposons un système de mesure d’anxiété basé sur l’utilisation d’un seul signal physiologique « signal de pression sanguine volumique (Blood volume pulse BVP)». Le choix d’un seul capteur limite la gêne des sujets due au nombre de capteurs. De ce signal nous avons sélectionné des paramètres pertinents représentant au mieux les relations étroites du signal BVP avec le processus émotionnel de l’anxiété. Cet ensemble de paramètres est classé en utilisant les séparateurs à vastes marges SVM. Les travaux engagés dans le domaine de la reconnaissance des émotions utilisent fréquemment, pour support d’information, des données peu fiables ne correspondant pas toujours aux situations envisagées. Ce manque de fiabilité peut être dû à plusieurs paramètres parmi eux la subjectivité de la méthode d’évaluation utilisée (questionnaire, auto-évaluation des sujets, …etc.). Nous avons développé une approche d’évaluation objective des données basée sur les dynamiques des paramètres sélectionnés. La base de données utilisée a été enregistrée dans notre laboratoire dans des conditions réelles acquises sur des sujets présentant un niveau d’anxiété face aux situations sociales et qui ne sont pas sous traitement psychologique. L’inducteur utilisé est l’exposition à des environnements virtuels représentant quelques situations sociales redoutées. L’étape d’évaluation, nous a permis d’obtenir un modèle de données fiable pour la reconnaissance de deux niveaux d’anxiété. Ce modèle a été testé dans une clinique spécialisée dans les thérapies cognitives comportementales (TCC) sur des sujets phobiques. Les résultats obtenus mettent en lumière la fiabilité du modèle construit notamment pour la reconnaissance des niveaux d’anxiété sur des sujets sains ou sur des sujets phobiques ce qui constitue une solution au manque de données dont souffrent les différents domaines de reconnaissances
Detection and evaluation of emotions are areas of great interest in many communities both in terms of human and exact sciences. In this thesis we focus on social anxiety recognition, which is an irrational fear felt by a person during any form of social relationship. Anxiety can be revealed by a set of physical and physiological traits such as tone of voice, facial expressions, increased heart rate, flushing ... etc. The interest to the physiological measures is motivated by them robustness to avoid the artifacts created by human social masking, they are a continuous source of data and each emotion is characterized by a particular physiological variation. In this work, we propose a measurement system based on the use of a single physiological signal "Blood volume pulse BVP". The use of a single sensor limits the subjects’ discomfort. From the BVP signal we selected three relevant features which best represents the close relationship between this signal and anxiety status. This features set is classified using support vector machine SVM. The work undertaken in the field of emotion recognition frequently use, for information support, unreliable data do not always correspond to the situations envisaged. This lack of reliability may be due to several parameters among them the subjectivity of the evaluation method used (self-evaluation questionnaire, subjects…etc.). We have developed an approach to objective assessment of data based on the dynamics of selected features. The used database was recorded in our laboratory under real conditions acquired in subjects with a level of anxiety during social situations and who are not under psychological treatment. The used stimulus is the exposition to virtual environments representing some feared social situations. After the evaluation stage, we obtained a reliable model for the recognition of two levels of anxiety. The latter was tested in a clinic specializing in cognitive behavioral therapy (CBT) on phobic subjects. The results highlight the reliability of the built model specifically for the recognition of anxiety levels in healthy subjects or of phobic subjects, what constitutes a solution to the lack of data affecting different areas of recognition
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Ramah, Houerbi Khadija. "Mesures et Caractérisation du Trafic dans le Réseau National Universitaire (RNU)". Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00656376.

Texto completo
Resumen
Cette thèse porte sur la mesure et la caractérisation du trafic dans le Réseau National Universitaire (RNU) avec des applications à la détection des anomalies. Pour ce faire, une sonde de mesures passives a été déployée sur le réseau RNU. Plusieurs traces de trafic ont été collectées puis analysées, relevant ainsi les caractéristiques du trafic RNU en les comparant avec l'état de l'art. Par la suite, deux approches de détection d'anomalies basées sur des algorithmes non paramétriques et utilisant des données faciles à collecter sont proposées. La première considère comme anomalie, tout point excentrique dans les séries temporelles de métriques de volume et utilise l'analyse en composantes principales et la distance de Mahalanobis. La seconde traque les variations affectant les distributions du trafic de scan dans l'espace des adresses IP et des numéros de ports visités. Son évaluation face à des traces de trafic réelles et des traces artificiellement modifiées a montré que la divergence de Kullback-Leibler de la distribution conjointe permet d'exposer la présence de tous les scans aussi bien horizontaux que verticaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía