To see the other types of publications on this topic, follow the link: Détection de courbure.

Dissertations / Theses on the topic 'Détection de courbure'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 15 dissertations / theses for your research on the topic 'Détection de courbure.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Prevost, Coline. "Déformation membranaire et détection de courbure par des protéines à domaine I-BAR." Paris 7, 2014. http://www.theses.fr/2014PA077145.

Full text
Abstract:
Les membranes biologiques peuvent présenter un grand nombre de formes. Ces formes sont générées par des protéines possédant une courbure caractéristique, un domaine capable de s'insérer dans la bicouche lipidique, ou les deux. En outre, la présence d'une membrane courbée peut constituer un signal, dont la détection nécessite aussi des protéines spécialisées. Savoir si les mêmes protéines sont capables de remplir ces deux rôles reste une question ouverte. Par ailleurs, les membranes cellulaires peuvent se courber soit en direction du cytoplasme soit dans la direction opposée. Ainsi, des protéines cytosoliques peuvent faire face à une surface convexe (de courbure positive) ou concave (négative). Nous avons caractérisé quantitativement le domaine I-BAR de la protéine IRSp53, qui possède une interface de liaison à la membrane convexe, et interagit donc avec la courbure négative. Nous avons utilisé un système in vitro, où le domaine I-BAR est d'abord encapsulé dans des liposomes géants, de courbure négligeable. Un fin tube de membrane est ensuite tiré à partir d'un liposome, ce qui génère une interface courbée négativement pour le domaine encapsulé. Nous avons mesuré en fluorescence la redistribution du domaine, ainsi que son effet sur la mécanique du tube. Nous observons un comportement continu, où le domaine est surtout capable de détecter la courbure lorsqu'il est peu concentré à la membrane, et d'imposer une courbure préférentielle lorsqu'il est plus concentré. Nous avons aussi étudié le domaine I-BAR de ABBA, qui est similaire à celui d'IRSp53, mais possède une hélice amphipathique, un domaine qui est habituellement associé à la génération et détection de courbure positive
Biological membranes display a vast array of shapes. These shapes result in particular from the binding of proteins with characteristic curvature, or carrying motifs able to insert into the bilayer, or both. Moreover these shapes often provide geometrical cues, "informing" the cell on the stage of a budding reaction for instance. The detection of this peculiar signal again requires specialized proteins, and a current question is whether the same proteins or protein motifs are involved in performing both tasks in vivo. Additionally, cellular membranes may either bend toward or away from the cytoplasm, so that cytosolic proteins may either face the convex (of "positive" curvature) or concave (of "negative" curvature) side of the membrane. We quantitatively characterized the I-BAR domain of the protein IRSp53, which displays a convex membrane-binding interface, and therefore interacts preferentially with negative curvature. We used an in vitro assay in which the I-BAR is first encapsulated inside giant liposomes of practically zero curvature. A membrane nanotube is then pulled out of a single liposome, creating a negatively-curved interface for the encapsulated I-BAR. We measured the redistribution of the I-BAR, and how it affects the tube mechanics, as a function of tube curvature and protein area coverage on the membrane. We observe a continuous behavior where the I-BAR mostly detects curvature at low coverage, and imposes a preferred curvature at higher coverage. We have also studied the I-BAR domain of ABBA, which is similar to IRSp53 I-BAR, but additionally displays an amphipathic helix, a motif usually associated with the generation and detection of positive curvature
APA, Harvard, Vancouver, ISO, and other styles
2

Mérigot, Quentin. "Détection de structure géométrique dans les nuages de points." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00443038.

Full text
Abstract:
Cette thèse s'inscrit dans la problématique générale de l'inférence géométrique. Étant donné un objet qu'on ne connaît qu'à travers un échantillon fini, à partir de quelle qualité d'échantillonage peut-on estimer de manière fiable certaines de ses propriétés géométriques ou topologique? L'estimation de la topologie est maintenant un domaine assez mûr. La plupart des méthodes existantes sont fondées sur la notion de fonction distance. Nous utilisons cette approche pour estimer certaines notions de courbure dues à Federer, définies pour une classe assez générale d'objets non lisses. Nous introduisons une version approchée de ces courbures dont nous étudions la stabilité ainsi que calcul pratique dans le cas discret. Une version anisotrope de ces mesures de courbure permet en pratique d'estimer le lieu et la direction des arêtes vives d'une surface lisse par morceaux échantillonnée par un nuage de point. En chemin nous sommes amenés à étudier certaines propriétés de régularité de la fonction distance, comme le volume de l'axe médian. Un défaut des méthodes qui utilisent la fonction distance est leur extrême sensibilité aux points aberrants. Pour résoudre ce problème, nous sortons du cadre purement géométrique en remplaçant les compacts par des mesures de probabilité. Nous introduisons une notion de fonction distance à une mesure, robuste aux perturbations Wasserstein (et donc aux points aberrants) et qui partage certaines propriétés de régularité et de stabilité avec la fonction distance usuelle. Grâce à ces propriétés, il est possible d'étendre de nombreux théorèmes d'inférence géométrique à ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
3

Tremblais, Benoît. "De la résolution numérique des EDP à l'extraction de caractéristiques linéiques dans les images : application à la détection multi-échelles d'un arbre vasculaire." Poitiers, 2002. http://www.theses.fr/2002POIT2316.

Full text
Abstract:
Nos travaux ont été motivés par un problème pratique visant à étudier et à développer une méthode générale pour détecter les vaisseaux sanguins à partir de cinéangiographies. Il s'agit donc d'obtenir une bonne modélisation des vaisseaux, i. E. Une caractérisation précise de leurs lignes centrales et de leurs diamètres. Une solution à cette problématique consiste à générer un espace multi-échelle qui grâce à ses différents niveaux de détails permet de traiter des artères de diamètres divers. Ces méthodes sont généralement mises en oeuvre en utilisant le formalisme des équations aux dérivées partielles (EDP) et celui de la géométrie différentielle. Les contributions de cette thèse sont multiples. Nous centrons tout d'abord nos travaux théoriques autour des traitements relatifs à la résolution des EDP en considérant ces traitements sous l'angle des méthodes itératives dites de recherche de point fixe. Ensuite, nous résolvons l'équation de la chaleur par une méthode de résolution à pas adaptatif originale, dite lambda-résolution. Ceci nous permet, en contrôlant la vitesse de convergence du processus, d'obtenir un filtre de diffusion isotrope, qui a la particularité de préserver les contours. Nous utilisons alors ce processus à des fins de débruitage et de segmentation d'images en niveaux de gris et couleur. Par ailleurs, nous introduisons une nouvelle EDP de rehaussement d'images, inspirée des filtres de choc et de la morphologie mathématique que nous couplons à l'analyse multi-échelle précédente de manière à obtenir un filtre de restauration d'images. Par la suite, la définition de courbures d'images vectorielles nous permet de proposer à la fois, une nouvelle EDP de lissage par courbure moyenne et une nouvelle méthode de détection des lignes centrales que nous appliquons sur des images couleur. Finalement, nous présentons une stratégie de détection multi-échelle des lignes centrales et des contours de l'arbre coronarien.
APA, Harvard, Vancouver, ISO, and other styles
4

Wu, Zhi-Qian. "Caveolin in membrane nanotubes : curvature sensing and bulge formation." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLS007.

Full text
Abstract:
La cavéoline est l'un des principaux composants protéiques des cavéoles, qui sont de petites invaginations en forme de coupe dans la membrane plasmique. Il est synthétisé dans le réticulum endoplasmique d'une manière dépendante des particules de reconnaissance du signal et transporté vers l'appareil de Golgi via des vésicules recouvertes de COPII. Au niveau du réseau trans-Golgi (TGN), les complexes de cavéoline 8S s'oligomérisent davantage en complexes 70S avec la facilitation du cholestérol. Ils sont ensuite triés dans des transporteurs par un mécanisme inconnu et transportés vers la membrane plasmique. Le modèle structurel conventionnel de la cavéoline pourrait suggérer qu'il s'agit d'une protéine sensible à la courbure, basée sur sa forme moléculaire en épingle à cheveux. Cependant, un modèle de structure récemment découvert du complexe cavéoline 8S dans les micelles de détergent, basé sur la microscopie cryoélectronique, qui présente une géométrie de disque plat, soulève des questions sur sa sensibilité à la courbure. De plus, les cavins, un autre composant protéique majeur des cavéoles qui coopèrent avec les cavéolines pour plier la membrane pour former des cavéoles, ne s'associent pas aux cavéolines au niveau du TGN. Étant donné qu'aucun autre candidat connu, hormis les cavins, ne peut coopérer avec la cavéoline pour former des transporteurs au TGN, il devient difficile de savoir comment ces transporteurs de cavéoline y sont formés. Par conséquent, dans ce projet, nous avons cherché à élucider la sensibilité à la courbure et l’induction de la cavéoline. Nous avons résolu ces problèmes en reconstituant la cavéoline-1 (Cav1) dans la membrane de vésicules nilamellaires géantes (GUV) et en réalisant des expériences de tirage de tubes. Les résultats ont montré que la cavéoline est effectivement une protéine sensible à la courbure, les complexes de cavéoline 8S présentant une inclinaison d'environ 5 egrés par rapport à l'horizontale, ce qui leur confère une sensibilité à la courbure. De plus, nous avons montré que les complexes de cavéoline 8S peuvent générer collectivement une courbure de la membrane à basse tension et former des échafaudages sur les tubes à haute tension. En résumé, nos résultats ont montré que la cavéoline est une protéine détectant et induisant une courbure, suggérant la possibilité de son tri en transporteurs au TGN sur la base de ces propriétés. De manière intéressante, nous avons observé qu’au-dessus d’une certaine tension membranaire Tt qui dépend de la densité de Cav1, les nanotubes extraits des Cav1-GUV ne présentent plus un rayon constant et que les cavéolines forment des renflements sur le tube. Pour explorer comment Cav1 forme ces renflements, nous avons d'abord observé qu'en moyenne, la taille des renflements diminue avec l'augmentation de la tension membranaire. Nous avons constaté que la taille du renflement est proportionnelle à la quantité totale de cavéoline dans le renflement, ce qui suggère une densité Cav1 constante dans les renflements.De plus, une densité plus élevée de cavéoline dans la membrane favorise la formation de renflements et abaisse le Tt. Ces résultats suggèrent que lorsque le rayon du tube diminue, la cavéoline pourrait induire la formation de renflements pour relâcher les contraintes mécaniques dues à la géométrie tubulaire, mais un modèle et une imagerie haute résolution sont maintenant nécessaires pour expliquer ces observations
Caveolin is one of the major protein components of caveolae, which are small cup-shaped invaginations in the plasma membrane. It is synthesized in the endoplasmic reticulum in a signal recognition particle-dependent manner and transported to the Golgi apparatus via COPII-coated vesicles. At the trans-Golgi network (TGN), caveolin 8S complexes further oligomerize into 70S complexes with the facilitation of cholesterol. They are then sorted intotransport carriers through an unknown mechanism and transported to the plasma membrane. The conventional structural model of caveolin might suggest it is a curvature-sensing protein based on its hairpin molecular shape. However, a recently discovered structure model of the caveolin 8S complex in detergent micelles based on cryo-electron microscopy, which exhibits a flat disc geometry, raises questions about its curvature sensitivity.Furthermore, cavins, another major protein component of caveolae that cooperate with caveolins in bending the membrane to form caveolae, do not associate with caveolins at the TGN. Given that no other known candidate, apart from cavins, can cooperate with caveolin to form transport carriers at the TGN, it becomes unclear how these carriers for caveolin are formed there. Therefore, in this project, we aimed to elucidate the curvaturesensitivity and induction of caveolin. We addressed these issues by reconstituting caveolin-1 (Cav1) into the membrane of giant unilamellar vesicles (GUVs) and by performing tube-pulling experiments. The results showed that caveolin is indeed a curvature-sensing protein, with caveolin 8S complexes exhibiting approximately a 5 degree tilt from the horizontal, which endows them with curvature sensitivity. Furthermore, we showed that caveolin 8S complexes can collectively generate membrane curvature at low tension and form scaffolds on the tubes at high tension. In summary, our results showed that caveolin is a curvature-sensing and -inducing protein, suggesting the possibility of its sorting into transport carriers at the TGN based on these properties. Interestingly, we observed that above a certain membrane tension Tt that depends on Cav1 density, nanotubes pulled from Cav1-GUVs no longer exhibit a constant radius and that caveolins form bulges on the tube. To explore how Cav1 form these bulges, we first observed that on average, bulges' size decreases with an increase in membrane tension. We found that the bulge size is proportional to the total amount of caveolin in the bulge, suggesting a constant Cav1 density in the bulges. Additionally, higher density of caveolin in the membrane favors bulge formation and lowers Tt. These results suggest that when the tube radius decreases, caveolin might induce formation of bulges to relax mechanicalconstraints due to the tubular geometry, but a model and high resolution imaging are now needed to explain these observations
APA, Harvard, Vancouver, ISO, and other styles
5

Walter, Nicolas. "Détection de primitives par une approche discrète et non linéaire : application à la détection et la caractérisation de points d'intérêt dans les maillages 3D." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00808216.

Full text
Abstract:
Ce manuscrit est dédié à la détection et la caractérisation de points d'intérêt dans les maillages. Nous montrons tout d'abord les limitations de la mesure de courbure sur des contours francs, mesure habituellement utilisée dans le domaine de l'analyse de maillages. Nous présentons ensuite une généralisation de l'opérateur SUSAN pour les maillages, nommé SUSAN-3D. La mesure de saillance proposée quantifie les variations locales de la surface et classe directement les points analysés en cinq catégories : saillant, crête, plat, vallée et creux. Les maillages considérés sont à variété uniforme avec ou sans bords et peuvent être réguliers ou irréguliers, denses ou non et bruités ou non. Nous étudions ensuite les performances de SUSAN-3D en les comparant à celles de deux opérateurs de courbure : l'opérateur de Meyer et l'opérateur de Stokely. Deux méthodes de comparaison des mesures de saillance et courbure sont proposées et utilisées sur deux types d'objets : des sphères et des cubes. Les sphères permettent l'étude de la précision sur des surfaces différentiables et les cubes sur deux types de contours non-différentiables : les arêtes et les coins. Nous montrons au travers de ces études les avantages de notre méthode qui sont une forte répétabilité de la mesure, une faible sensibilité au bruit et la capacité d'analyser les surfaces peu denses. Enfin, nous présentons une extension multi-échelle et une automatisation de la détermination des échelles d'analyse qui font de SUSAN-3D un opérateur générique et autonome d'analyse et de caractérisation pour les maillages
APA, Harvard, Vancouver, ISO, and other styles
6

Mahmoudi, Saïd. "Indexation de formes planes : application à la reconnaissance multi-vues de modèles 3D." Lille 1, 2003. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2003/50376-2003-291.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l'indexation et de la reconnaissance des formes planes dans une base constituée d'objets contours, et son application dans l'indexation multi-vues des objets tridimensionnels. Notre approche permet de reconnaître les objets 3D à partir d'une requête qui peut être une forme 2D ou une vue arbitraire d'un objet tridimensionnel. Un des problèmes fondamentaux de l'indexation d'images par la forme réside dans le choix d'une description invariante de celle-ci. Pour cela, nous proposons l'utilisation du descripteur CSS, qui s'appuie sur une analyse multi-échelle du contour. Nous proposons une organisation de l'index extrait à partir du CSS par une structure d'arbre dite M-tree, qui est totalement paramétrisée par une fonction de distance et qui permet aussi en sauvegardant les distances intermédiaires d'améliorer considérablement les temps de calculs. Nous avons aussi introduit une technique probabiliste bayésienne de recherche de ressemblance entre formes. L'application proposée représente une nouvelle méthode d'indexation de modèles 3D. Cette méthode consiste à caractériser les objets 3D par un ensemble de sept vues caractéristiques (trois principales et quatre secondaires). Les angles de prise de vues principales sont choisis par le biais d'une analyse d'information présente sous forme de nuage de points sur l'objet 3D. Les vues secondaires sont déduites à partir des vues principales. L'index du modèle 3D est calculé à partir des index correspondants aux sept vues qui le caractérisent. De ce fait, nous utilisons l'approche de reconnaissance de formes proposée pour le procédé de reconnaissance des vues. Une méthode de vote bayésienne est proposée pour la sélection des objets 3D similaires à la requête.
APA, Harvard, Vancouver, ISO, and other styles
7

Christoff, Vesselinova Nicole. "Détection et caractérisation d'attributs géométriques sur les corps rocheux du système solaire." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0565/document.

Full text
Abstract:
L’un des défis de la science planétaire est la détermination de l’âge des surfaces des différents corps célestes du système solaire, pour comprendre leurs processus de formation et d’évolution. Une approche repose sur l’analyse de la densité et de la taille des cratères d’impact. En raison de l’énorme quantité de données à traiter, des approches automatiques ont été proposées pour détecter les cratères d’impact afin de faciliter ce processus de datation. Ils utilisent généralement les valeurs de couleur des images ou les valeurs d’altitude de "modèles numériques d’élévation" (DEM). Dans cette thèse, nous proposons une nouvelle approche pour détecter les bords des cratères. L’idée principale est de combiner l’analyse de la courbure avec une classification basée sur un réseau de neurones. Cette approche comporte deux étapes principales : premièrement, chaque sommet du maillage est étiqueté avec la valeur de la courbure minimale; deuxièmement, cette carte de courbure est injectée dans un réseau de neurones pour détecter automatiquement les formes d’intérêt. Les résultats montrent que la détection des formes est plus efficace en utilisant une carte en deux dimensions s’appuyant sur le calcul d’estimateurs différentiels discrets, plutôt qu’en utilisant la valeur de l’élévation en chaque sommet. Cette approche réduit significativement le nombre de faux négatifs par rapport aux approches précédentes basées uniquement sur une information topographique. La validation de la méthode est effectuée sur des DEM de Mars, acquis par un altimètre laser à bord de la sonde spatiale "Mars Global Surveyor" de la NASA et combinés avec une base de données de cratères identifiés manuellement
One of the challenges of planetary science is the age determination of the surfaces of the different celestial bodies in the solar system, to understand their formation and evolution processes. An approach relies on the analysis of the crater impact density and size. Due to the huge quantity of data to process, automatic approaches have been proposed for automatically detecting impact craters in order to facilitate this dating process. They generally use the color values from images or the elevation values from Digital Elevation Model (DEM). In this PhD thesis, we propose a new approach for detecting craters rims. The main idea is to combine curvature analysis with Neural Network based classification. This approach contains two main steps: first, each vertex of the mesh is labeled with the value of the minimal curvature; second, this curvature map is injected into a neural network to automatically detect the shapes of interest. The results show that detecting forms are more efficient using a two-dimensional map based on the computation of discrete differential estimators, than by the value of the elevation at each vertex. This approach significantly reduces the number of false negatives compared to previous approaches based on topographic information only. The validation of the method is performed on DEMs of Mars, acquired by a laser altimeter aboard NASA’s Mars Global Surveyor spacecraft and combined with a database of manually identified craters
APA, Harvard, Vancouver, ISO, and other styles
8

El, Guedri Mabrouka. "Caractérisation aveugle de la courbe de charge électrique : Détection, classification et estimation des usages dans les secteurs résidentiel et tertiaire." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00461671.

Full text
Abstract:
Le problème de caractérisation non-intrusive des usages dans des conditions réelles à partir de l'unique observation de la courbe de charge (CdC) générale résidentielle et tertiaire disponible (puissance moyenne quotidienne disponible en sortie du compteur) a été peu étudié. L'objectif de la thèse est d'explorer les possibilités et les méthodes permettant une caractérisation aveugle des composantes du mélange observé. Plus précisément, il s'agit d'extraire des descripteurs temporels, énergétiques ou encore événementiels à partir d'un mélange unique de sources non-stationnaires de nombre inconnu. Nous considérons quatre sous-problématiques sous-jacentes à la caractérisation de la CdC : la détection des usages, la classification des signaux de la CdC, l'estimation des paramètres des usages (énergie, amplitude, etc.) et la séparation des sources du mélange observé. Les algorithmes mis en œuvre sont évalués sur les données réelles. Les performances obtenues sont satisfaisantes. Outre les contributions de formalisation et algorithmiques, un des apports marquants de cette étude est une solution non-intrusive pour la segmentation automatique la CdC générale résidentielle et pour la cartographie de l'énergie quotidienne consommée en quatre composantes : le chauffage électrique, le chauffe-eau, le froid alimentaire et les autres usages. Au delà des améliorations algorithmiques et de l'étude de performance à poursuivre, nous proposons en perspective de cette thèse une approche générique pour décomposer une CdC quelconque fondée sur une modélisation stochastique de la série des événements de la CdC.
APA, Harvard, Vancouver, ISO, and other styles
9

Aziz, Usama. "Détection des défauts des éoliennes basée sur la courbe de puissance : Comparaison critique des performances et proposition d'une approche multi-turbines." Thesis, Université Grenoble Alpes, 2020. https://tel.archives-ouvertes.fr/tel-03066125.

Full text
Abstract:
Les éoliennes étant des générateurs d'électricité, la puissance électrique produite par une machine est une variable pertinente pour la surveillance et la détection d'éventuels défauts. Dans le cadre de cette thèse, une analyse bibliographique approfondie a d'abord été réalisée sur les méthodes de détection des défauts des éoliennes utilisant la puissance électrique produite. Elle a montré que, bien que de nombreuses méthodes aient été proposées dans la littérature, il est très difficile de comparer leurs performances de manière objective en raison de l'absence de données de référence, permettant de mettre en œuvre et d'évaluer toutes ces méthodes sur la base des mêmes données.Pour répondre à ce problème, dans un premier temps, une nouvelle approche de simulation réaliste a été proposée dans cette thèse. Elle permet de créer des flots de données simulées, couplant la puissante produite, la vitesse du vent et la température, dans des conditions normales et dans des situations défauts, de manière infinie. Les défauts qui peuvent être simulés sont ceux qui impactent la forme de la courbe de puissance. Les données simulées sont générées à partir de données réelles enregistrées sur plusieurs parcs éoliens français, situés sur des sites géographiques différents. Dans un deuxième temps, une méthode permettant l'évaluation des performances des méthodes de détection des défauts utilisant la puissance produite a été proposé.Cette nouvelle méthode de simulation a été mise en œuvre sur 4 situations de défauts affectant la courbe de puissance différents, à l’aide de données provenant de 5 parcs éoliens géographiquement éloignés. Un total de 1875 années de données SCADA 10 minutes a été généré et utilisé pour comparer les performances en détection de 3 méthodes de détection de défauts proposées dans la littérature. Ceci a permis une comparaison rigoureuse de leurs performances.Dans la deuxième partie de cette recherche, la méthode de simulation proposée a été étendue à une configuration multi-turbines. En effet, plusieurs stratégies multi-turbines ont été publiées dans la littérature, avec comme objectif de réduire l'impact des conditions environnementales sur les performances des méthodes de détection de défauts utilisant comme variable la température. Pour évaluer le gain de performance qu'une stratégie multi-turbines pourrait apporter, une implémentation hybride mono-multi-turbines des méthodes de détection de défauts basées sur la courbe de puissance a été proposée dans un premier temps. Ensuite, le cadre de simulation proposé pour évaluer les méthodes monoturbines a été étendu aux approches multi-turbines et une analyse expérimentale numérique des performances de cette implémentation hybride monoturbines-multi-turbines a été réalisée
Since wind turbines are electricity generators, the electrical power produced by a machine is a relevant variable for monitoring and detecting possible faults. In the framework of this thesis, an in-depth literature review was first performed on fault detection methods for wind turbines using the electrical power produced. It showed that, although many methods have been proposed in the literature, it is very difficult to compare their performance in an objective way due to the lack of reference data, allowing to implement and evaluate all these methods on the basis of the same data.To address this problem, as a first step, a new realistic simulation approach has been proposed in this thesis. It allows to create simulated data streams, coupling the power output, wind speed and temperature, in normal conditions and in fault situations, in an infinite way. The defects that can be simulated are those that impact the shape of the power curve. The simulated data are generated from real data recorded on several French wind farms, located on different geographical sites. In a second step, a method for evaluating the performance of fault detection methods using the power produced has been proposed.This new simulation method was implemented on 4 different fault situations affecting the power curve, using data from 5 geographically remote wind farms. A total of 1875 years of 10-minute SCADA data was generated and used to compare the detection performance of 3 fault detection methods proposed in the literature. This allowed a rigorous comparison of their performance.In the second part of this research, the proposed simulation method was extended to a multi-turbine configuration. Indeed, several multi-turbine strategies have been published in the literature, with the objective of reducing the impact of environmental conditions on the performance of fault detection methods using temperature as a variable. In order to evaluate the performance gain that a multi-turbine strategy could bring, a hybrid mono-multi-turbine implementation of fault detection methods based on the power curve was first proposed. Then, the simulation framework proposed to evaluate mono-turbine methods was extended to multi-turbine approaches and a numerical experimental analysis of the performance of this hybrid mono-multi-turbine implementation was performed
APA, Harvard, Vancouver, ISO, and other styles
10

Tremblais, Benoit. "De la résolution numérique des EDP à l'extraction de caractéristiques linéiques dans les images : application à la détection multi-échelles d'un arbre vasculaire." Phd thesis, Université de Poitiers, 2002. http://tel.archives-ouvertes.fr/tel-00349464.

Full text
Abstract:
Nos travaux ont été motivés par un problème pratique visant à étudier et à développer une méthode générale pour détecter les vaisseaux sanguins à partir de cinéangiographies. Il s'agit donc d'obtenir une bonne modélisation des vaisseaux, i.e. une caractér isation précise de leurs lignes centrales et de leurs diamètres. Une solution à cette problématique consiste à générer un espace multi-échelles qui grâce à ses différents niveaux de détails permet de traiter des artères de diamètres divers. Ces méthodes sont généralement mises en oeuvre en utilisant le formalisme des équations aux dérivées partielles (EDP) et celui de la géométrie différentielle. Les contributions de cette thèse sont multiples. Nous centrons tout d'abord nos travaux théoriques autour des traitements relatif s à la résolution des EDP en considérant ces traitements sous l'angle des méthodes itératives dites de recherche de point fixe. Ensuite, nous résolvons l'équation de la chaleur par une méthode de résolution à pas adaptatif originale, dite lambda-résolution. Ceci nous permet, en contrôlant la vitesse de convergence du processus, d'obtenir un filtre de diffusion isotrope, qui a la particularité de préserver les contours. Nous utilisons alors ce processus à des fins de débruitage et de segmentation d'images en niveaux de gris et couleur. Par ailleurs, nous introduisons une nouvelle EDP de rehaussement d'images, inspirée des filtres de choc et de la morphologie mathématique que nous couplons à l'analyse multi-échelles précédente de manière à obtenir un filtre de restauration d'images. Par la suite, la définition de courbures d'images vectorielles nous permet de proposer à la fois, une nouvelle {sc EDP} de lissage par courbure moyenne et une nouvelle méthode de détection des lignes centrales que nous appliquons sur des images couleur. Finalement, nous présentons une stratégie de détection multi-échelles des lignes centrales et des contours de l'arbre coronarien.
APA, Harvard, Vancouver, ISO, and other styles
11

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
12

Fadhel, Siwar. "Efficacité énergétique et surveillance d’un microgrid à courant continu alimenté par des panneaux photovoltaïques." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS001.

Full text
Abstract:
Les systèmes photovoltaïques (PV) sont régulièrement exposés à de nombreux défauts entraînant des pertes de production coûteuses. Le travail proposé dans cette thèse porte sur l’amélioration de l’efficacité énergétique d’un microgrid à courant continu en minimisant les pertes liées à l’apparition des défauts PV. D’abord, nous avons présenté un état de l’art sur les défauts les plus fréquents et les méthodes de leur diagnostic. L’analyse de la littérature nous a orienté vers le choix d’une approche de diagnostic pilotée par les données. Ensuite, la méthode de l’Analyse en Composantes Principales (ACP) a été proposée pour la détection et la classification du défaut d’ombrage pour un module PV de 250 Wc. Nous avons exploité dans un premier temps toute la courbe I(V) acquise en conditions climatiques réelles. Un taux de réussite minimal de classement de 87.38% est obtenu en phase d’apprentissage et un taux de 97% est obtenu en phase de test. En deuxième temps, nous avons appliqué l’ACP en utilisant seulement les coordonnées MPP pour la détection de l’ombrage. Les données sont discriminées avec un taux de classification de 100%. L’Analyse Linéaire Discriminante (ALD) a été optée pour la prédiction des classes des nouvelles mesures MPP. Finalement, une étude des effets de trois défauts typiques a été menée à l’échelle d’une centrale PV de 250 kWc. Elle s’est basée sur les courbes I(V) simulées en considérant plusieurs sévérités pour chaque défaut. La sensibilité de la courbe I(V) centrale a été notée pour la dégradation de contact entre les strings PV et pour le défaut d’ombrage partiel à partir de 10%. Le défaut de court-circuit des modules PV, pour toutes les sévérités simulées, affecte beaucoup plus les courbes I(V) des strings
Photovoltaic (PV) systems are frequently subjected to several faults leading to costly production losses. The proposed work focuses on the improvement of the energy efficiency of a DC micro-grid by minimizing the losses related to the occurrence of PV faults. First, we presented a state of the art on the most recurrent faults and their diagnosis methods. The literature review has led us to adopt a data-driven diagnosis approach. Then, the Principal Component Analysis (PCA) method was proposed for PV shading fault detection and classification for a PV module of 250 Wp. The PCA was first performed using the entire I(V) curve obtained under real climatic conditions. A minimum classification success rate of 87.38% is obtained in the training step and 97% is obtained in the validation step. PCA was then applied using only the MPP coordinates to detect the shading fault. The data is discriminated with a classification rate of 100%.Linear Discriminant Analysis (LDA) was opted to predict the new MPP outdoor measurements’classes. Finally, a faults effects analysis study was carried out for three typical faults on the scale of a PV array of 250 kWp. The study was based on the simulated I(V) curves, considering differents severities of each fault. The sensitivity of the I(V) curve of the whole PV plant was observed for both the contact degradation between PV strings and the partiel shading starting from a severity of 10%. The short-ciruit fault of the PV modules has considerably more effect on the strings’ I(V) curves
APA, Harvard, Vancouver, ISO, and other styles
13

Jhaidri, Mohamed Amine. "Techniques de synchronisation à très faible SNR pour des applications satellites." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0038/document.

Full text
Abstract:
Les transmissions numériques par satellite sont largement utilisées dans plusieurs domaines allant des applications commerciales en orbites terrestres aux missions d'exploration scientifiques en espace lointain (Deep Space). Ces systèmes de transmission fonctionnent sur des très grandes distances et ils disposent des ressources énergétiques très limitées. Cela se traduit par un très faible rapport signal à bruit au niveau de la station de réception terrestre. Une possibilité d'établir une liaison fiable dans ces conditions très défavorables, réside dans l'utilisation de codes correcteurs d'erreurs puissants tels que les Turbo codes et le LDPC. Cependant, les gains de codage sont conditionnés par le bon fonctionnement des étages de la démodulation cohérente en amont, notamment l'étage de synchronisation. L'opération de synchronisation consiste à estimer et compenser le décalage en phase et en fréquence entre le signal reçu et l'oscillateur local du récepteur. Ces décalages sont généralement provoqués par des imperfections matérielles et le phénomène d'effet Doppler. A très faible rapport signal à bruit, les systèmes de synchronisation actuels se trouvent limités et incapables d'assurer les performances requises. Notre objectif est de fiabiliser l'étage de synchronisation du récepteur dans des conditions très difficiles de faible rapport signal sur bruit, d'effet Doppler conséquent avec prise en compte d'un phénomène d'accélération (Doppler rate) et d'une transmission sans pilote. Cette thèse CIFRE traite du problème de la synchronisation porteuse pour la voie descendante d'une transmission Deep Space. Après la réalisation d'une étude de l'état de l'art des techniques de synchronisation, nous avons retenu les boucles à verrouillage de phase (PLL: Phase Locked Loop). Dans un contexte industriel, les PLL offrent le meilleur compromis entre complexité d'implémentation et performances. Plusieurs détecteurs de phase basés le critère du maximum de vraisemblance ont été considérés et modélisés par leurs courbes caractéristiques. En se basant sur les modèles équivalents, nous avons développé une nouvelle étude de la phase d'acquisition non-linéaire d'une PLL du deuxième ordre avec un détecteur de phase semi-sinusoïdal. La deuxième partie de la thèse a été consacrée à l'étude des techniques de combinaison d'antennes. Ces méthodes visent à exploiter la diversité spatiale et améliorer le bilan de liaison de la chaîne de transmission tout en offrant une flexibilité de conception ainsi qu'une réduction considérable du coût d'installation. A l'issue de cette partie, nous avons proposé un nouveau schéma de combinaison d'antenne qui améliore le seuil de fonctionnement des systèmes existants
In deep space communication systems, the long distance between the spacecraft and the ground station along with the limited capacity of the on-board power generator result a very low signal to noise ratio (SNR). However, such transmission still possible by using near Shannon limit error correction codes (Turbo code and LDPC code). Nevertheless, to take advantage of this coding gain, the coherent demodulation is mandatory, and the carrier phase synchronization must be reliable at more restrictive SNR. At very low SNR, current synchronization systems are limited and unable to provide the required performances. Our goal is to improve the reliability of the receiver synchronization stage under very difficult conditions of a very low SNR, a variable Doppler effect (Doppler rate) and a blind transmission. This thesis deals with the problem of carrier phase synchronization for the downlink of a Deep Space transmission. After the study of the existing solutions, we selected the phase locked loop (Phase Locked Loop: PLL). In an industrial context, PLL offers the best trade-off between complexity and performance. Several phase detectors based on the maximum likelihood criterion were considered and characterized by their S-curves. Based on the equivalent models, we have developed a new study of the non-linear acquisition phase of a second-order PLL with a semi-sinusoidal phase error detector. The second part of the thesis was dedicated to the antennas combining techniques. These methods aim to improve the link budget of the transmission and offer more flexibility. At the end of this part, we proposed a new antennas combining scheme that improves the operating threshold of existing systems
APA, Harvard, Vancouver, ISO, and other styles
14

Falade, Joannes Chiderlos. "Identification rapide d'empreintes digitales, robuste à la dissimulation d'identité." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC231.

Full text
Abstract:
La biométrie est de plus en plus utilisée à des fins d’identification compte tenu de la relation étroite entre la personne et son identifiant (comme une empreinte digitale). Nous positionnons cette thèse sur la problématique de l’identification d’individus à partir de ses empreintes digitales. L’empreinte digitale est une donnée biométrique largement utilisée pour son efficacité, sa simplicité et son coût d’acquisition modeste. Les algorithmes de comparaison d’empreintes digitales sont matures et permettent d’obtenir en moins de 500 ms un score de similarité entre un gabarit de référence (stocké sur un passeport électronique ou une base de données) et un gabarit acquis. Cependant, il devient très important de déterminer l'identité d'un individu contre une population entière en un temps très court (quelques secondes). Ceci représente un enjeu important compte tenu de la taille de la base de données biométriques (contenant un ensemble d’individus de l’ordre d’un pays). Par exemple, avant de délivrer un nouveau passeport à un individu qui en fait la demande, il faut faire une recherche d'identification sur la base des données biométriques du pays afin de s'assurer que ce dernier n'en possède pas déjà un autre mais avec les mêmes empreintes digitales (éviter les doublons). Ainsi, la première partie du sujet de cette thèse concerne l’identification des individus en utilisant les empreintes digitales. D’une façon générale, les systèmes biométriques ont pour rôle d’assurer les tâches de vérification (comparaison 1-1) et d’identification (1-N). Notre sujet se concentre sur l’identification avec N étant à l’échelle du million et représentant la population d’un pays par exemple. Dans le cadre de nos travaux, nous avons fait un état de l’art sur les méthodes d’indexation et de classification des bases de données d’empreintes digitales. Nous avons privilégié les représentations binaires des empreintes digitales pour indexation. Tout d’abord, nous avons réalisé une étude bibliographique et rédigé un support sur l’état de l’art des techniques d’indexation pour la classification des empreintes digitales. Ensuite, nous avons explorer les différentes représentations des empreintes digitales, puis réaliser une prise en main et l’évaluation des outils disponibles à l’imprimerie Nationale (IN Groupe) servant à l'extraction des descripteurs représentant une empreinte digitale. En partant de ces outils de l’IN, nous avons implémenté quatre méthodes d’identification sélectionnées dans l’état de l’art. Une étude comparative ainsi que des améliorations ont été proposées sur ces méthodes. Nous avons aussi proposé une nouvelle solution d'indexation d'empreinte digitale pour réaliser la tâche d’identification qui améliore les résultats existant. Les différents résultats sont validés sur des bases de données de tailles moyennes publiques et nous utilisons le logiciel Sfinge pour réaliser le passage à l’échelle et la validation complète des stratégies d’indexation. Un deuxième aspect de cette thèse concerne la sécurité. Une personne peut avoir en effet, la volonté de dissimuler son identité et donc de mettre tout en œuvre pour faire échouer l’identification. Dans cette optique, un individu peut fournir une empreinte de mauvaise qualité (portion de l’empreinte digitale, faible contraste en appuyant peu sur le capteur…) ou fournir une empreinte digitale altérée (empreinte volontairement abîmée, suppression de l’empreinte avec de l’acide, scarification…). Il s'agit donc dans la deuxième partie de cette thèse de détecter les doigts morts et les faux doigts (silicone, impression 3D, empreinte latente) utilisés par des personnes mal intentionnées pour attaquer le système. Nous avons proposé une nouvelle solution de détection d'attaque basée sur l'utilisation de descripteurs statistiques sur l'empreinte digitale. Aussi, nous avons aussi mis en place trois chaînes de détections des faux doigts utilisant les techniques d'apprentissages profonds
Biometrics are increasingly used for identification purposes due to the close relationship between the person and their identifier (such as fingerprint). We focus this thesis on the issue of identifying individuals from their fingerprints. The fingerprint is a biometric data widely used for its efficiency, simplicity and low cost of acquisition. The fingerprint comparison algorithms are mature and it is possible to obtain in less than 500 ms a similarity score between a reference template (enrolled on an electronic passport or database) and an acquired template. However, it becomes very important to check the identity of an individual against an entire population in a very short time (a few seconds). This is an important issue due to the size of the biometric database (containing a set of individuals of the order of a country). Thus, the first part of the subject of this thesis concerns the identification of individuals using fingerprints. Our topic focuses on the identification with N being at the scale of a million and representing the population of a country for example. Then, we use classification and indexing methods to structure the biometric database and speed up the identification process. We have implemented four identification methods selected from the state of the art. A comparative study and improvements were proposed on these methods. We also proposed a new fingerprint indexing solution to perform the identification task which improves existing results. A second aspect of this thesis concerns security. A person may want to conceal their identity and therefore do everything possible to defeat the identification. With this in mind, an individual may provide a poor quality fingerprint (fingerprint portion, low contrast by lightly pressing the sensor...) or provide an altered fingerprint (impression intentionally damaged, removal of the impression with acid, scarification...). It is therefore in the second part of this thesis to detect dead fingers and spoof fingers (silicone, 3D fingerprint, latent fingerprint) used by malicious people to attack the system. In general, these methods use machine learning techniques and deep learning. Secondly, we proposed a new presentation attack detection solution based on the use of statistical descriptors on the fingerprint. Thirdly, we have also build three presentation attacks detection workflow for fake fingerprint using deep learning. Among these three deep solutions implemented, two come from the state of the art; then the third an improvement that we propose. Our solutions are tested on the LivDet competition databases for presentation attack detection
APA, Harvard, Vancouver, ISO, and other styles
15

Dosso, Fangan Yssouf. "Contribution de l'arithmétique des ordinateurs aux implémentations résistantes aux attaques par canaux auxiliaires." Electronic Thesis or Diss., Toulon, 2020. http://www.theses.fr/2020TOUL0007.

Full text
Abstract:
Cette thèse porte sur deux éléments actuellement incontournables de la cryptographie à clé publique, qui sont l’arithmétique modulaire avec de grands entiers et la multiplication scalaire sur les courbes elliptiques (ECSM). Pour le premier, nous nous intéressons au système de représentation modulaire adapté (AMNS), qui fut introduit par Bajard et al. en 2004. C’est un système de représentation de restes modulaires dans lequel les éléments sont des polynômes. Nous montrons d’une part que ce système permet d’effectuer l’arithmétique modulaire de façon efficace et d’autre part comment l’utiliser pour la randomisation de cette arithmétique afin de protéger l’implémentation des protocoles cryptographiques contre certaines attaques par canaux auxiliaires. Pour l’ECSM, nous abordons l’utilisation des chaînes d’additions euclidiennes (EAC) pour tirer parti de la formule d’addition de points efficace proposée par Méloni en 2007. L’objectif est d’une part de généraliser au cas d’un point de base quelconque l’utilisation des EAC pour effectuer la multiplication scalaire ; cela, grâce aux courbes munies d’un endomorphisme efficace. D’autre part, nous proposons un algorithme pour effectuer la multiplication scalaire avec les EAC, qui permet la détection de fautes qui seraient commises par un attaquant que nous détaillons
This thesis focuses on two currently unavoidable elements of public key cryptography, namely modular arithmetic over large integers and elliptic curve scalar multiplication (ECSM). For the first one, we are interested in the Adapted Modular Number System (AMNS), which was introduced by Bajard et al. in 2004. In this system of representation, the elements are polynomials. We show that this system allows to perform modular arithmetic efficiently. We also explain how AMNS can be used to randomize modular arithmetic, in order to protect cryptographic protocols implementations against some side channel attacks. For the ECSM, we discuss the use of Euclidean Addition Chains (EAC) in order to take advantage of the efficient point addition formula proposed by Meloni in 2007. The goal is to first generalize to any base point the use of EAC for ECSM; this is achieved through curves with one efficient endomorphism. Secondly, we propose an algorithm for scalar multiplication using EAC, which allows error detection that would be done by an attacker we detail
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography