Siga este enlace para ver otros tipos de publicaciones sobre el tema: Extraction de forme SHACL.

Tesis sobre el tema "Extraction de forme SHACL"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 28 mejores tesis para su investigación sobre el tema "Extraction de forme SHACL".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Felin, Rémi. "Découverte évolutive de connaissance à partir de graphes de données RDF". Electronic Thesis or Diss., Université Côte d'Azur, 2024. https://theses.hal.science/tel-04874737.

Texto completo
Resumen
Les graphes de connaissance sont des collections de descriptions interconnectées d'entités (objets, événements ou concepts). Ils mettent les données en contexte par le biais de liens sémantiques, fournissant ainsi un cadre pour l'intégration, l'unification, l'analyse et le partage des données. Aujourd'hui, nous disposons d'un grand nombre de graphes de connaissance riches en données factuelles, dont la construction et l'enrichissement est une tâche relativement bien maîtrisée. Ce qui est plus difficile et plus coûteux, c'est de doter ces graphes de schémas, règles et contraintes qui permettent de vérifier leur cohérence et de déduire des connaissances implicites par raisonnement. Cette thèse présente une approche basée sur la technique d'évolution grammaticale pour la découverte automatique de nouvelles connaissances à partir d'un graphe de données représenté en RDF. Cette approche repose sur l'idée que les connaissances candidates sont générées à partir d'un mécanisme heuristique (exploitant les données du graphe), testés contre les données du graphe, et évoluent à travers un processus évolutionnaire de sorte à ce que seules les connaissances candidates les plus crédibles soient conservées. Dans un premier temps, nous nous sommes concentrés sur la découverte d'axiomes OWL qui permettent, par exemple, d'exprimer des relations entre concepts et d'inférer, à partir de ces relations, de nouvelles informations factuelles. Les axiomes candidats sont évalués à partir d'une heuristique existante basée sur la théorie des possibilités, permettant de considérer l'incomplétude des informations d'un graphe de données. Cette thèse présente les limites de cette heuristique et une série de contributions permettant une évaluation significativement moins coûteuse en temps de calcul. Cela a permis l'évaluation efficace d'axiomes candidats lors du processus évolutif, nous menant ainsi à la découverte d'un grand nombre d'axiomes candidats pertinents vis-à-vis d'un graphe de données RDF. Dans un second temps, nous avons proposé une approche pour la découverte de shapes SHACL qui expriment des contraintes que les données RDF doivent respecter. Elles sont utiles pour contrôler la cohérence (par exemple, structurelle) des données du graphe et facilitent l'intégration de nouvelles données. L'évaluation de shapes candidates repose sur l'évaluation SHACL des données vis-à-vis de ces formes, à laquelle nous ajoutons un cadre probabiliste pour prendre en compte les erreurs et l'incomplétude inhérente des graphes de données lors de l'évaluation de shapes candidates. Enfin, nous présentons RDFminer, une application Web open-source permettant d'exécuter notre approche pour découvrir des axiomes OWL ou des formes SHACL à partir d'un graphe de données RDF. L'utilisateur peut contrôler l'exécution et analyser les résultats en temps réels à travers une interface graphique interactive. Les résultats obtenus montrent que l'approche proposée permet de découvrir un large ensemble de nouvelles connaissances crédibles et pertinentes à partir de graphes de données RDF volumineux
Knowledge graphs are collections of interconnected descriptions of entities (objects, events or concepts). They provide context for the data through semantic links, providing a framework for integrating, unifying, analysing and sharing data. Today, we have many factual data-rich knowledge graphs, and building and enriching them is relatively straightforward. Enriching these graphs with schemas, rules or constraints that allow us to check their consistency and infer implicit knowledge by reasoning is more difficult and costly. This thesis presents an approach based on the Grammatical Evolution technique for automatically discovering new knowledge from the factual data of a data graph expressed in RDF. This approach is based on the idea that candidate knowledge is generated from a heuristic mechanism (exploiting the graph data), is tested against the graph data, and evolves through an evolutionary process so that only the most credible candidate knowledge is kept. First, we focused on discovering OWL axioms that allow, for example, the expression of relationships between concepts and the inference of new facts previously unknown from these relationships. Candidate axioms are evaluated using an existing heuristic based on possibility theory, which makes it possible to consider the incompleteness of information in a data graph. This thesis presents the limitations of this heuristic and a series of contributions allowing an evaluation that is significantly less costly in computation time, thus opening up the discovery of candidate axioms using this heuristic. Second, we propose discovering SHACL shapes that express constraints that RDF data must respect. These shapes are useful for checking the data graph's consistency (e.g., structural) and facilitating new data integration. The evaluation of candidate shapes is based on the SHACL evaluation mechanism, for which we proposed a probabilistic framework to take into account errors and the inherent incompleteness of the data graphs. Finally, we present RDFminer, an open-source Web application that executes our approach to discovering OWL axioms or SHACL shapes from an RDF data graph. Through an interactive interface, the user can also control the execution and analyse the results in real-time. The results show that the proposed approach can be used to discover a wide range of new, credible and relevant knowledge from large RDF data graphs
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Yang, Mingqiang. "Extraction d'attributs et mesures de similarité basées sur la forme". Phd thesis, INSA de Rennes, 2008. http://tel.archives-ouvertes.fr/tel-00335083.

Texto completo
Resumen
Dans le contexte de la reconnaissance de forme et de l'observation de similarité d'un objet parmi d'autres, les caractéristiques de forme extraites de son image sont des outils puissants. En effet la forme de l'objet est habituellement et fortement liée à sa fonctionnalité et son identité. S'appuyant sur cette forme, un éventail de méthodes par extraction de caractéristiques et mesures de similarité a été proposé dans la littérature. De nombreuses et diverses applications sont susceptibles d'utiliser ces caractéristiques de forme. L'invariance géométrique et la résistance aux déformations sont des propriétés importantes que doivent posséder ces caractéristiques et mesures de similarité. Dans cette thèse, trois nouveaux descripteurs de forme sont développés. Les deux premiers, celui par différence de surfaces et contrôlée par l'échelle (SCAD) et celui correspondant au vecteur de surfaces partielles normalisées (NPAV), sont fondés sur une normalisation "iso-surface" (IAN). SCAD est un vecteur dont les éléments sont les différences de surface entre les principaux segments du contour original et contour filtré. Ces segments sont définis par des ensembles de points entre chaque paire de points de courbure nulle, relative au contour filtré et au contour original. En nous appuyant sur deux théorèmes que nous proposons et en prenant en considération surface partielle, transformée affine et filtrage linéaire, nous avons défini le second descripteur, NPAV. Nous prouvons alors, que pour tout contour filtré linéairement, la surface d'un triangle, dont les sommets sont le barycentre du contour et une paire de points successifs sur le contour normalisé, reste linéaire sous toutes les transformations affines. Ainsi est établie une relation entre filtrage et transformation affine. Les deux descripteurs SCAD et NPAV ont la propriété d'invariance aux transformations affines. Comparant les deux approches SCAD et NPAV, SCAD s'avère plus compact que NPAV mais les performances de NPAV sont meilleures que celles de SCAD. La dernière approche proposée est la représentation par "contexte des cordes". Cette représentation décrit une distribution des longueurs de cordes selon une orientation. L'histogramme représentant ce contexte des cordes est compacté et normalisé dans une matrice caractéristique. Une mesure de similarité est alors définie sur cette matrice. La méthode proposée est insensible à la translation, à la rotation et au changement d'échelle; de plus, elle s'avère robuste aux faibles occultations, aux déformations élastiques et au bruit. En outre, son évaluation sur des objets réels souligne tous ses atouts dans le contexte des applications de la vision. Ces nouveaux descripteurs de forme proposés sont issus d'une recherche et d'études menées sur une quarantaine de techniques de la littérature. Contrairement à la classification traditionnelle, ici, les approches de descripteurs de forme sont classées selon leurs approches de traitement: ceci facilite ainsi le choix du traitement approprié. Une description et une étude de ces approches est ici fournie, et nous reprenons certaines d'entre elles dans une évaluation comparative avec les nôtres et ce sur différentes bases de données
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Thong, Deng Honda. "Extraction et mise en forme (en liposomes) de phospholipides issus d'un co-produit par voie supercritique". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14351/document.

Texto completo
Resumen
La demande en phospholipides ne cessent d'augmenter pour les applications alimentaires, cosmétiques et pharmaceutiques. A l'heure actuelle, les principales sources de phospholipides utilisées proviennent du soja et du jaune d’œuf. Elles sont obtenues par des procédés d'extraction utilisant des solvants organiques. Dans le contexte de la diversification des sources de phospholipides, d'une part, et le développement de techniques d'extraction plus respectueuses de l'environnement, d'autre part, l'ensemble des travaux réalisés a permis : 1) de valoriser les parties non comestibles de la coquille Saint Jacques comme une source de phospholipides, 2) d’identifier les étapes et les paramètres du procédé d'extraction par voie supercritique à l’aide de CO2 (pression, température, pourcentage de co-solvant, nature du co-solvant, type et dimension de réacteurs) sur les rendements d’extraction des phospholipides et la pureté des extraits obtenus, 3) d’étudier le développement d’un procédé supercritique continu couplant l’extraction de phospholipides d’une part et la formation de liposomes, d’autre part
The demand in phospholipids is increasing because of their use in defferent domains, i.e. pharmaceutics, food industry, and cosmetics. Nowadays, the main sources of phospholipids come from soya and egg yolk classically extracted using organic solvents. The present work was undertaken in order to add value to waste products of fishery and to extract the lipids using a green technology. We developed an alternative green technique for lipid extraction based on the use of GRAS solvents as CO2 and ethanol. The extractions were carried out by flowing supercritical CO2. Varying the operating conditions (pressure, temperature, proportion and nature of the co-solvent, type of reactors) allowed obtaining extracts with different purities and contents in phospholipids. Finally, we explored the possibility of producing liposomes by coupling the phospholipid extraction using supercritical fluids and the vesicle formation in a continuous process
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ferrato, Marc. "Extractions des auxiliaires organiques de mise en forme d'une poudre céramique à l'aide de fluides supercritiques". Limoges, 1995. http://www.theses.fr/1995LIMO0035.

Texto completo
Resumen
Un appareillage destine a l'etude de l'extraction des liants organiques utilises en technologie ceramique a ete concu et realise. Il a permis l'etude de la solubilisation des liants et plastifiants les plus frequemment utilises. L'approche empirique de hildebrand a ete utilisee pour prevoir la solubilite des auxiliaires organiques de mise en forme dans le solvant. Elle a ete confrontee a l'experience et a permis l'optimisation des conditions de solubilisation. Une composition de mise en forme, a base de polystyrene et de poudre d'alumine, adaptee au deliantage supercritique a ete developpee. La cinetique de l'extraction supercritique a ete modelisee. La diffusivite des especes organiques solubilisees au travers de la preforme ceramique impregnee de co2 supercritique a ete calculee dans differentes conditions de pressions et de temperatures
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Gutierrez, Alejandro. "Extraction et manipulation d'information structurée sous la forme de graphe à partir de sources de données existantes". Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0015.

Texto completo
Resumen
Des applications techniques telles que la gestion des réseaux routiers et électriques nécessitent de manipuler un grand volume d'information structurée sous la forme de graphe. Des problèmes typiques portent sur des parcours de chemins (par exemple, calcul du plus court chemin, du chemin avec la capacité maximale, du nombre de sous-composants d'un composant). Trois aspects principaux rendent difficile l'utilisation des algorithmes classiques pour résoudre ces problèmes a savoir, la taille des réseaux, la complexité de la structure des réseaux et la diversité des sources de données. Dans cette thèse, nous proposons un cadre base sur la notion de vue de graphe qui permet la définition des opérations de graphes et s'adapte à leur diversité de représentations. Une vue de graphe définit un graphe spécifique à partir des données stockées dans des sources différentes. La définition d'une vue de graphe consiste à établir une correspondance entre les éléments d'un graphe et les données sous-jacentes par l'intermédiaire de fonctions qui spécifient les éléments du graphe et la façon par laquelle le graphe peut être parcouru. Des opérateurs de dérivation sont proposes pour définir des nouvelles vues de graphes à partir de celles existantes. Ces opérateurs permettent la composition, dans une seule vue de graphe, de graphes contenant des étiquettes différentes de nœuds et des arcs et issus d'implémentations différentes. Des opérations de graphes telles que les parcours de chemins peuvent entre appliquées sur des vues de graphe de base et dérivées. La spécialisation d'un mécanisme de vue au problème spécifique de gestion de graphes, nous permet de proposer des stratégies adaptées au traitement des opérations de parcours de chemins. Nous validons le cadre proposé en supportant l'opération de fermeture transitive généralisée qui permet de résoudre une variété des problèmes de parcours de chemins. Une évaluation analytique des stratégies a été accomplie, nous permettant d'identifier les paramètres principaux qui influencent le comportement des stratégies pour le traitement de cette opération. Les résultats de cette évaluation ont été partiellement valides par un prototype qui implémente les idées principales du cadre proposé
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Sauvageau, Jean-François. "Récupération de métaux nobles sous forme de nanoparticules par traitement plasma à barrière diélectrique". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66299.

Texto completo
Resumen
Les métaux du groupe du platine (MGP) et les métaux nobles sont utilisés dans des secteurs industriels reliés aux catalyseurs automobiles, aux matériaux semi-conducteurs et même en médecine régénératrice. L’extraction ce ces métaux à partir de minerais et d’effluents est réalisée par divers procédés hydrométallurgiques, tels que la lixiviation et l’adsorption sur charbon activé. Ces procédés sont associés à plusieurs problématiques : les temps de production sont longs, l’extraction sélective des éléments d’intérêt nécessite des produits toxiques (e.g. cyanures) et l’utilisation de charbon activé est à l’origine de l’émission de gaz à effet de serre (GES). La demande croissante pour ces métaux motive le développement de nouvelles technologies permettant de les récupérer plus rapidement et efficacement, tout en minimisant l’impact environnemental de leur production. Les plasmas atmosphériques produits par décharge à barrière diélectrique (DBD) font partie des technologies novatrices qui permettraient de s’affranchir des désavantages reliés aux procédés de récupération conventionnels. En seulement quelques minutes, le traitement des effluents contenant des ions métalliques par l’application de décharges plasmas permet la récupération des métaux nobles sous forme de nanoparticules (NPs). Ce mémoire présente cette technique de récupération plasma appliquée à des effluents synthétiques, miniers, industriels et hospitaliers. En moins de 15 min d’opération, un réacteur plasma DBD permet de récupérer sélectivement 95% de l’or pour des effluents provenant des industries minières et des semi-conducteurs. Cette technologie présente également un potentiel pour la récupération du palladium, qui atteint 60% et ce pour des conditions pouvant être optimisées davantage. De plus, les réactions électrochimiques induites par les décharges plasma sont en mesure de dégrader des contaminants hautement toxiques tels que les cyanures. Ces résultats prometteurs ont motivé la prise de démarches pour implémenter cette technologie à l’échelle industrielle chez différentes compagnies partenaires du domaine minier et des semiconducteurs.
Platinum group metals (PGMs) and noble metals are used in industrial fields related to automotive catalysts, semiconductor materials and even regenerative medicine. The extraction of these metals from ores and effluents is performed by various hydrometallurgical processes, such as leaching and activated carbon adsorption. These processes are associated with several problems: the production times are long, the selective extraction of the elements of interest requires toxic products (e.g. cyanides) and the use of activated carbon is responsible for the emission of greenhouse gases (GHG). The growing demand for these metals stimulates the development of new technologies to recover them more quickly and efficiently, while minimizing the environmental impact of their production. Atmospheric plasmas produced by dielectric barrier discharge (DBD) are among the innovative technologies that can overcome disadvantages related to the conventional recovery processes. In a matter of minutes, the treatment of effluents containing metal ions by the application of plasma discharges allows the recovery of noble metals in the form of nanoparticles(NPs). This thesis presents this recovery technique applied to synthetic, mining, industrial and hospital effluents. In less than 15 min of operation, a DBD plasma treatment can be used to selectively recover 95% of gold from effluents produced by mining and semiconductor industries. This technology also has potential for the recovery of palladium, which reaches 60% for conditions that could be further optimized. Moreover, the electrochemical reactions induced by the plasma discharges can degrade highly toxic contaminants such as cyanides. These promising results stimulated the first steps for the implementation of this technology to the industrial scale in collaboration with various partner companies from the mining and semi-conductor fields.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Kulikova, Maria. "Reconnaissance de forme pour l'analyse de scène". Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00477661.

Texto completo
Resumen
Cette thèse est composée de deux parties principales. La première partie est dédiée au problème de la classification d'espèces d'arbres en utilisant des descripteurs de forme, en combainison ou non, avec ceux de radiométrie ou de texture. Nous montrons notamment que l'information sur la forme améliore la performance d'un classifieur. Pour ce faire, dans un premier temps, une étude des formes de couronnes d'arbres extraites à partir d'images aériennes, en infrarouge couleur, est eectuée en utilisant une méthodologie d'analyse de formes des courbes continues fermées dans un espace de formes, en utilisant la notion de chemin géodésique sous deux métriques dans des espaces appropriés : une métrique non-élastique en utilisant la reprèsentation par la fonction d'angle de la courbe, ainsi qu'une métrique élastique induite par une représentation par la racinecarée appelée q-fonction. Une étape préliminaire nécessaire à la classification est l'extraction des couronnes d'arbre. Dans une seconde partie, nous abordons donc le problème de l'extraction d'objets de forme complexe arbitraire, à partir d'images de télédétection à très haute résolution. Nous construisons un modèle fondé sur les processus ponctuels marqués. Son originalité tient dans sa prise en compte d'objets de forme arbitraire par rapport aux objets de forme paramétrique, e.g. ellipses ou rectangles. Les formes sélectionnées sont obtenues par la minimisation locale d'une énergie de type contours actifs avec diérents a priori sur la forme incorporé. Les objets de la configuration finale (optimale) sont ensuite sélectionnés parmi les candidats par une dynamique de naissances et morts multiples, couplée à un schéma de recuit simulé. L'approche est validée sur des images de zones forestières à très haute résolution fournies par l'Université d'Agriculture de Suède.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Delhomme, Eric. "Déliantage, par CO2 supercritique, de matériaux céramiques réfractaires mis en forme par injection basse pression". Limoges, 1999. http://www.theses.fr/1999LIMO0010.

Texto completo
Resumen
Ce travail, effectue avec un partenaire industriel, a concerne la mise au point d'une technique innovante d'elimination par co 2 supercritique, de liants organiques de mise en forme par injection basse pression. Cette technique presente de nombreux avantages par rapport a la technique classique de deliantage thermique. Un cycle de deliantage supercritique, permettant d'obtenir des pieces industrielles sans defauts en un temps court (4 a 6 heures pour des pieces de 12 a 15 mm d'epaisseur) a ete defini. Ce cycle est effectue a une temperature variant de 40\c a 120\c, sous une pression de 28 mpa. Il est associe a un lit support assurant le maintien des pieces sans degradation de l'etat de surface. L'homogeneite de la microstructure des echantillons crus s'est revelee avoir une influence notable sur l'apparition de defauts. Le deliantage supercritique ne peut s'appliquer avec succes que sur des pieces dont la microstructure est homogene (repartition uniforme du liant, absence de contraintes residuelles). En terme de cout, un pilote d'extraction industriel, comprenant deux enceintes d'extraction fonctionnant en alternance, conduit a un cout du deliantage equivalent voire inferieur a celui du deliantage thermique, avec l'avantage d'un cycle de quelques heures (4 a 6) compare a un cycle de plusieurs jours. Les mecanismes mis en jeu lors du deliantage supercritique ont ete determines. L'etude de la solubilite des liants (paraffines) dans le co 2 supercritique a abouti au developpement d'un modele specifique qui prend en compte la composition des paraffines. Ce modele permet de modeliser la solubilite de paraffines en fonction des conditions experimentales, et de determiner l'evolution de la composition de la paraffine subsistant dans la porosite. Une modelisation simple de la cinetique globale d'extraction a ete appliquee a l'aide d'un modele de diffusion a coefficient constant. Il permet d'estimer le temps necessaire a l'extraction des paraffines en fonction des dimensions des pieces traitees. Afin de developper un modele plus performant, une etude de deliantage a ete initiee, qui permettra d'etablir l'influence de la taille des pores et des molecules solubilisees sur la cinetique d'extraction. Les premiers essais ont montre la pertinence de cette technique qu'il reste maintenant a exploiter.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Fauconnier, Jean-Philippe. "Acquisition de liens sémantiques à partir d'éléments de mise en forme des textes : exploitation des structures énumératives". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30023.

Texto completo
Resumen
Ces dernières années de nombreux progrès ont été faits dans le domaine de l'extraction de relations à partir de textes, facilitant ainsi la construction de ressources lexicales ou sémantiques. Cependant, les méthodes proposées (apprentissage supervisé, méthodes à noyaux, apprentissage distant, etc.) n'exploitent pas tout le potentiel des textes : elles ont généralement été appliquées à un niveau phrastique, sans tenir compte des éléments de mise en forme. Dans ce contexte, l'objectif de cette thèse est d'adapter ces méthodes à l'extraction de relations exprimées au-delà des frontières de la phrase. Pour cela, nous nous appuyons sur la sémantique véhiculée par les indices typographiques (puces, emphases, etc.) et dispositionnels (indentations visuelles, retours à la ligne, etc.), qui complètent des formulations strictement discursives. En particulier, nous étudions les structures énumératives verticales qui, bien qu'affichant des discontinuités entre leurs différents composants, présentent un tout sur le plan sémantique. Ces structures textuelles sont souvent révélatrices de relations hiérarchiques. Notre travail est divisé en deux parties. (i) La première partie décrit un modèle pour représenter la structure hiérarchique des documents. Ce modèle se positionne dans la suite des modèles théoriques proposés pour rendre compte de l'architecture textuelle : une abstraction de la mise en forme et une connexion forte avec la structure rhétorique sont faites. Toutefois, notre modèle se démarque par une perspective d'analyse automatique des textes. Nous en proposons une implémentation efficace sous la forme d'une méthode ascendante et nous l'évaluons sur un corpus de documents PDF.(ii) La seconde partie porte sur l'intégration de ce modèle dans le processus d'extraction de relations. Plus particulièrement, nous nous sommes focalisés sur les structures énumératives verticales. Un corpus a été annoté selon une typologie multi-dimensionnelle permettant de caractériser et de cibler les structures énumératives verticales porteuses de relations utiles à la création de ressources. Les observations faites en corpus ont conduit à procéder en deux étapes par apprentissage supervisé pour analyser ces structures : qualifier la relation puis en extraire les arguments. L'évaluation de cette méthode montre que l'exploitation de la mise en forme, combinée à un faisceau d'indices lexico-syntaxiques, améliore les résultats
The past decade witnessed significant advances in the field of relation extraction from text, facilitating the building of lexical or semantic resources. However, the methods proposed so far (supervised learning, kernel methods, distant supervision, etc.) don't fully exploit the texts : they are usually applied at the sentential level and they don't take into account the layout and the formatting of texts. In such a context, this thesis aims at expanding those methods and makes them layout-aware for extracting relations expressed beyond sentence boundaries. For this purpose, we rely on the semantics conveyed by typographical (bullets, emphasis, etc.) and dispositional (visual indentations, carriage returns, etc.) features. Those features often substitute purely discursive formulations. In particular, the study reported here is dealing with the relations carried by the vertical enumerative structures. Although they display discontinuities between their various components, the enumerative structures can be dealt as a whole at the semantic level. They form textual structures prone to hierarchical relations. This study was divided into two parts. (i) The first part describes a model representing the hierarchical structure of documents. This model is falling within the theoretical framework representing the textual architecture : an abstraction of the layout and the formatting, as well as a strong connection with the rhetorical structure are achieved. However, our model focuses primarily on the efficiency of the analysis process rather than on the expressiveness of the representation. A bottom-up method intended for building automatically this model is presented and evaluated on a corpus of PDF documents. (ii) The second part aims at integrating this model into the process of relation extraction. In particular, we focused on vertical enumerative structures. A multidimensional typology intended for characterizing those structures was established and used into an annotation task. Thanks to corpus-based observations, we proposed a two-step method, by supervised learning, for qualifying the nature of the relation and identifying its arguments. The evaluation of our method showed that exploiting the formatting and the layout of documents, in combination with standard lexico-syntactic features, improves those two tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Filbois, Alain. "Contributions à la modélisation automatique d'objets polyédriques 3D : extraction des primitives 3D, facettes et segments". Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL075N.

Texto completo
Resumen
En étroite collaboration avec un autre doctorant Didier Gemmerle, notre travail de thèse traite de la reconstruction et de la modélisation d'objets à partir d'images de stéréovision trinoculaire. Les données de notre étude sont constituées d'une série d'images stéréoscopiques trinoculaires à niveaux de gris pris par les caméras du robot, la stratégie de ce dernier étant d'effectuer une révolution complète autour de chaque objet à modéliser. À partir de chacun de ces triplets, notre but est d'extraire un ensemble de primitives de modélisation, facettes et segments, puis de fusionner ces ensembles pour obtenir automatiquement le modèle 3D de l'objet. Notre système de modélisation se découpe en trois parties distinctes: le bas niveau, dont le rôle est d'extraire les primitives d'un triplet d'images. Ces primitives constituent la vue 3D. Le moyen niveau, effectuant l'appariement des primitives entre deux vues 3D consécutives. Le haut niveau, fusionnant les informations fournies par les bas et moyen niveaux et reconstruisant le modèle de l'objet. Ce manuscrit décrit la partie bas niveau de notre système. Les moyens et hauts niveaux sont décrits dans la thèse de D. Gemmerle intitulée: contributions à la modélisation d'objets polyédriques 3D: construction du modèle à partir de groupements perceptuels
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

ALAHMAD, MOUHAMAD. "Developpement de methodes de vision par ordinateur : extraction de primitives geometriques". Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR13192.

Texto completo
Resumen
Cette these concerne le developpement de methodes de vision par ordinateur, destinees a l'extraction de caracteristiques geometriques (barycentre, surface, perimetre, axe principal et orientation) pour identifier, localiser et comparer des objets a partir d'images en deux dimensions
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Vandenbossche, Maréchal Virginie. "Fractionnement des tiges et capitules de tournesol : hydrodistillation d'une huile essentielle odorante, extraction et modification chimique de pectines, et mise en forme d'agromatériaux biodégradables". Toulouse, INPT, 1998. http://www.theses.fr/1998INPT025C.

Texto completo
Resumen
La recherche de nouveaux debouches pour les co-produits de culture du tournesol, a ete motivee par les tonnages eleves de residus generes. Dans un premier temps, une etude approfondie des caracteristiques physico-chimiques des differentes parties de la plante, debarrassee de ses graines, nous a permis de cibler deux produits interessants : une huile essentielle fortement odorante utilisable en parfumerie, et des pectines, connues pour leur teneur elevee dans le capitule, mais egalement presentes dans la moelle de la tige. Un approfondissement de cette etude a permis d'identifier les principaux constituants de huile essentielle, jusqu'a present inconnue. Parallelement, l'analyse de l'evolution des pectines de capitule au cours de la croissance de la plante nous a amene a relier leur faible degre de methylation (deja connu), a l'activite accrue des pectines methylesterases (pme) en fin de maturation de la plante. Ceci a conduit a envisager une strategie transgenique, ayant pour but de controler l'action des pme afin d'obtenir des pectines de degre de methylation superieur, utilisables dans le domaine des gelifiants. Une autre voie de valorisation des pectines a egalement ete etudiee a travers leur modification chimique, par esterification, avec des alcools a longue chaine. Cette etude a abouti a la synthese, sous activation micro-ondes, de molecules tensioactives dont les proprietes pourront offrir de nouvelles opportunites dans des domaines tels que les detergents ou les peintures. Enfin, dans une derniere partie, l'ensemble du procede de valorisation est aborde, incluant : les problemes lies a l'organisation de la recolte, les procedes d'obtention des extraits a l'echelle pilote, et la fabrication, suivie de la caracterisation mecanique, de materiaux type carton ondule, ou de materiaux faible densite a base de moelle destines aux domaines du calage et de l'emballage. En conclusion, un schema global de valorisation des co-produits est propose.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Guiraud, Olivier. "Rhéologie des suspensions concentrées de fibres : application à la mise en forme des matériaux composites". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00680734.

Texto completo
Resumen
Cette étude porte sur la mise en forme des matériaux composites renforcés par des fibres ou des mèches de fibres courtes tels que les SMC ou les BMC. Un travail expérimental a dans un premier temps été réalisé à l'échelle macroscopique. Ce travail a permis de mettre au point un rhéomètre de compression lubrifiée ainsi que des méthodes d'essais et de dépouillement. Ceci permet de mieux caractériser la rhéologie des compounds SMC et BMC en traitant les problématiques de leur compressibilité et des frottements éventuels entre les parois du rhéomètre et la matière déformée. Un travail numérique a ensuite permis de simuler la mise en forme d'un BMC après l'identification des paramètres d'un modèle rhéologique simple à partir des données expérimentales obtenues sur le rhéomètre. Enfin, un travail expérimental à l'échelle microscopique a permis d'une part de caractériser finement les microstuctures de SMC modèles à partir de microtomographies à rayons X, et d'autre part de caractériser et de modéliser par le biais d'essais d'extraction de fibres les interactions entre les mèches formant le renfort fibreux de ces matériaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Gemmerlé, Didier. "Contributions à la modélisation automatique d'objets polyédriques 3D construction du modèle à partir de groupements perceptuels". Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL076N.

Texto completo
Resumen
En étroite collaboration avec un autre doctorant Alain Filbois, notre travail de thèse traite de la reconstruction et de la modélisation d'objets à partir d'images de stéréovision trinoculaire. Les données de notre étude sont constituées d'une série d'images stéréoscopiques trinoculaires à niveaux de gris pris par les cameras du robot, la stratégie de ce dernier étant d'effectuer une révolution complète autour de chaque objet à modéliser. À partir de chacun de ces triplets, notre but est d'extraire un ensemble de primitives de modélisation, facettes et segments, puis de fusionner ces ensembles pour obtenir automatiquement le modèle 3D de l'objet. Notre système de modélisation se découpe en trois parties distinctes: le bas niveau, dont le rôle est d'extraire les primitives d'un triplet d'images. Ces primitives constituent la vue 3D. Le moyen niveau, effectuant l'appariement des primitives entre deux vues 3D consécutives. Le haut niveau, fusionnant les informations fournies par les bas et moyen niveaux et reconstruisant le modèle de l'objet. Ce manuscrit décrit les parties moyen et haut niveaux de notre système. Le bas niveau est décrit dans la thèse de A. Filbois intitulée: Contributions à la modélisation d'objets polyédriques 3D: extraction des primitives 3D, facettes et segments
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Evon, Philippe Rigal Luc. "Nouveau procédé de bioraffinage du tournesol plante entière par fractionnement thermo-mécano-chimique en extrudeur bi-vis étude de l'extraction aqueuse des lipides et de la mise en forme du raffinat en agromatériaux par thermomoulage /". Toulouse : INP Toulouse, 2008. http://ethesis.inp-toulouse.fr/archive/00000668.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Xing, Xiaoliang. "Etude et realisation d'un systeme temps reel de vision par ordinateur". Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR13078.

Texto completo
Resumen
Etude et realisation d'un systeme temps reel de vision par ordinateur destine a l'assemblage, a l'inspection, a la classification et au tri des pieces industrielles. Description du systeme comportant un microordinateur conventionnel de structure classique et un ensemble de processeurs specialises concus pour le traitement d'images
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Peteri, Renaud. "Extraction de réseaux de rues en milieu urbain à partir d'images satellites à très haute résolution spatiale". Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://pastel.archives-ouvertes.fr/pastel-00000508.

Texto completo
Resumen
La disponibilité d'images satellites à très haute résolution spatiale au dessus de zones urbaines est récente. Elle constitue potentiellement un très grand apport pour la cartographie des villes à des échelles de l'ordre du 1:10 000. La très haute résolution spatiale permet une représentation réelle des rues sue une carte, mais engendre une augmentation significative du bruit. Dans cette thèse, nous proposons une méthode d'extraction des réseaux de rues en milieu urbain à partir des images à très haute résolution spatiale. Son objectif est de répondre à une forte demande dans la création automatisée de cartes. La méthode proposée n'utilise que l'image numérique comme source d'information. Elle est semi-automatique au niveau de la détection et exploite la coopération entre la représentation linéique de la rue et sa représentation surfacique. Le graphe topologique du réseau est d'abord extrait et est utilisé pour initialiser l'étape de reconstruction surfacique. Le résultat d'extraction peut alors servir à recaler le graphe précisément sur l'axe des rues. La méthode utilise des contraintes géométriques fortes afin de ne pas dépendre d'un modèle de profil radiométrique de la rue, trop variable en milieu urbain. Dans cette optique, un modèle de contours actif associé à la transformée en ondelettes, le DoubleSnake, a été développé. Son évolution dans un cadre multi-échelle permet d'extraire les sections de rues à bords parallèles dans un environnement bruité. Les positions finales des DoubleSnakes permettent ensuite l'extraction des intersections. La méthode a été appliquée à des images de différents capteurs et avec différents types d'urbanisation. Un protocole innovant d'évaluation quantitative des résultats par comparaison à l'interprétation humaine a permis de montrer le caractère générique de la méthode, ainsi que sa bonne robustesse vis-à-vis du bruit. Cette méthode constitue un pas vers une cartographie automatisée du réseau de rues urbain.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Evon, Philippe. "Nouveau procédé de bioraffinage du tournesol plante entière par fractionnement thermo-mécano-chimique en extrudeur bi-vis : étude de l'extraction aqueuse des lipides et de la mise en forme du raffinat en agromatériaux par thermomoulage". Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7723/1/evon.pdf.

Texto completo
Resumen
L'extraction aqueuse des lipides de la graine de tournesol est étudiée en contacteur agité. La diffusion à l'intérieur des particules est le facteur limitant de l'échange de matière. Les protéines sont impliquées dans l'entraînement et la stabilisation des lipides par l'eau. Le fractionnement de la plante entière est également étudié avec l'eau en extrusion bi-vis. Un extrait et un raffinat sont obtenus séparément et en une seule étape continue. Des rendements d'extraction en huile de 55 % peuvent être obtenus sous forme d'émulsions huile/eau. Leur stabilité est assurée par la présence à l'interface de tensioactifs : les phospholipides et les protéines voire les pectines. Les extraits se composent aussi d'une phase hydrophile. Prépondérante, elle contient des composés hydrosolubles (protéines, pectines…). Riches en fibres, les raffinats présentent une teneur significative en protéines au comportement thermoplastique. Ils peuvent être transformés en agromatériaux par thermomoulage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Chaumartin, François-Régis. "Antelope, une plate-forme de TAL permettant d'extraire les sens du texte : théorie et applications de l'interface syntaxe-sémantique". Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00803531.

Texto completo
Resumen
Créer rapidement un analyseur sémantique dédié à une tâche particulière n'est pas une tâche aisée. En effet, composants d'analyse et ressources linguistiques sont souvent définis avec des formats incompatibles entre eux, ce qui en rend l'assemblage complexe. Nous souhaitons apporter une réponse opérationnelle à ce problème avec la plate-forme de traitement linguistique Antelope, dont cette thèse décrit les principes de conception et de réalisation. En partie basée sur la Théorie Sens-Texte (TST), Antelope permet une analyse syntaxique et sémantique de corpus de volume important ; son objectif est de " rendre calculable " du texte tout-venant : avis de consommateurs, textes encyclopédiques, documents RH, articles de presse... Pour cela, Antelope intègre (i) plusieurs composants prêts à l'emploi, couvrant les principales tâches de TAL, qui interagissent au sein d'un modèle de données linguistiques unifié ; (ii) un lexique sémantique multilingue à large couverture constitué à partir de différentes sources. Un effort d'intégration permet d'offrir une plate-forme robuste et homogène ; l'ensemble constitue une interface syntaxe-sémantique opérationnelle. La thèse présente la plate-forme et la compare à d'autres projets de référence ; elle souligne les bonnes pratiques à prendre en termes d'architecture logicielle pour qu'un tel ensemble complexe reste maintenable ; elle introduit aussi une démarche semi-supervisée d'acquisition de connaissances à large échelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Sadikine, Mohamed Amine. "Deep vascular segmentation with geometric and topological constraints". Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0042.

Texto completo
Resumen
Dans le domaine de l’analyse d’images médicales, la segmentation des vaisseaux sanguins joue un rôle clé dans l’amélioration du diagnostic assisté par ordinateur et de la planification chirurgicale. Ce travail introduit trois contributions innovantes en segmentation automatique de structures vasculaires. Premièrement, nous présentons une méthodologie qui améliore les architectures inspirées de U-Net avec un auto-encodeur convolutif semi-surcomplet qui intègre des a priori de forme pour améliorer la délimitation des vaisseaux, avec un focus particulier sur la caractérisation des structures fines. Ensuite, notre recherche se prolonge pour affiner la segmentation à travers un mécanisme d’encodage préalable conjoint qui fusionne des contraintes géométriques et topologiques, fournissant un espace latent unifié qui capture les informations contextuelles et la connectivité des vaisseaux et répondant ainsi aux défis posés par leur variabilité anatomique. Enfin, nous présentons une approche supervisée multi-tâches incorporant des tâches auxiliaires spécifiques à l’échelle et un apprentissage contrastif. Ces avancées représentent un pas en avant dans la segmentation vasculaire automatisée, offrant ainsi le potentiel d’améliorer les résultats cliniques dans une large gamme d’applications
In the evolving field of medical image analysis, blood vessel segmentation plays a key role in improving computer-aided diagnosis and surgical planning. This work combines three innovative contributions to advance the automatic segmentation of vascular structures. Firstly, we introduce a novel methodology that enhances U-Net inspired architectures with a semi-overcomplete convolutional auto-encoder that integrates shape priors to improve the delineation of intricate vascular systems, with a specific emphasis on characterizing fine structures. Subsequently, our research delves into enhancing vessel delineation through a novel joint prior encoding mechanism that combines geometric and topological constraints, providing a unified latent space that captures contextual information and connectivity of blood vessels, thereby addressing the challenges posed by their anatomical variability. Finally, we present a novel clustering technique for scale decomposition, along with a multi-task supervised approach that incorporates scale-specific auxiliary tasks and contrastive learning. These advances represent a step forward in reliable automated vascular segmentation, offering the potential to enhance clinical outcomes in a wide range of applications in clinical routine
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Perez, Oramas Oliver. "Contribution à une méthodologie d'intégration de connaissances pour le traitement d'images : application à la détection de contours par règles linguistiques floues". Nancy 1, 2000. http://www.theses.fr/2000NAN10091.

Texto completo
Resumen
Dans ce mémoire, nous proposons une contribution à une méthodologie d'intégration de connaissances dans le traitement d'images que nous appliquons à la détection de contours. Nous avons esquissé cette méthodologie sous la base de la théorie de la granulation floue de l'information récemment proposée par L. A. Zadeh. Ainsi, nous construisons pour une application de détection de contours, un modèle contextuel qui incorpore de la connaissance relative à diverses parties du système d'acquisition telles que l'environnement, le montage d'observation et le produit, tenant compte des imprécisions des contours réels. Ce modèle est ensuite inséré dans le paradigme de traitement flou des images que nous avons proposé. Ce mémoire s'articule en quatre parties : la première présente notre point de vue d'un système de vision industrielle et cible le traitement d'images auquel nous nous intéressons. Nous introduisons ensuite la modélisation linguistique, servant de base théorique au raisonnement approximatif et la théorie de la granulation floue de l'information. La deuxième partie généralise des applications de traitement d' images en utilisant la théorie des ensembles flous par le paradigme de traitement flou des images. Nous particularisons ensuite ce paradigme pour le cas d'un système à base de règles floues pour construire notre opérateur de détection de contours FRED, Fuzzy Resoning Edge Detection. Le modèle générique complet de cet opérateur est constitué de cinq modules qui définissent l'image de contours de sortie à partir d'une image numérique d'entrée: une étape d' extraction des propriétés, une étape de fuzzification, une étape de raisonnement, une étape de défuzzification et un modèle contextuel lié à la base de connaissances. Sur la base de la théorie de la granulation floue de l'information, nous avons présenté une méthodologie pour construire le modèle contextuel, impliquant les étapes de granulation, d'attribution et de valuation. La troisième partie détaille l'implémentation de deux opérateurs de détection de contours sur la base de l'opérateur générique FRED. Bien que ces deux opérateurs utilisent la même structure générique et aient le même objectif de détection de contours, ils traduisent néanmoins deux contextes différents. Les résultats de ces deux opérateurs sont alors agrégés par un opérateur de fusion que nous avons développé en fonction de critères spécifiques. Dans la dernière partie, pour valider l'implémentation de nos deux opérateurs, nous avons utilisé les critères de Fram et Deutsch sur des images de synthèse, qui reflètent la robustesse de l'opérateur vis à vis du bruit et la continuité des points du segment de contour. Cette validation est illustrée sur des angiographies rénales par une application dans le domaine bio-médical concernant l'extraction de contours de sténoses
In this thesis, we propose a contribution to a methodology for knowledge integration in image processing that we apply to edge detection. We outlined this methodology under the base of the theory of fuzzy information granulation, recently suggested by L A. Zadeh. Thus, we built a contextual model, for an edge detection application, that incorporates knowledge about the elements relating to the acquisition system and that takes into account the imprecision of real contours. This model is inserted in a fuzzy image processing paradigm. This document is articulated in four parts. First, we present our point of view about an industrial vision system. Next, we introduce linguistic modeling as the theoretical base of approximate reasoning as same as the theory of the fuzzy information granulation. Second, we start with a generalization of image processing applications using fuzzy set theory through the paradigm of fuzzy image processing. Then we particularize this paradigm for fuzzy rules system case in order to construct our edge detection operator FRED, (Fuzzy Reasoning Edge Detection). FRED consists of five modules : the extraction of properties, the fuzzification, the reasoning, the defuzzification and the contextual model related to the knowledge base. On the ground of fuzzy information granulation, we presented a methodology to construct the contextual model, implying the stages of granulation, attribution and valuation. Third, we detail the implementation of two operators of detection of contours on the basis of FRED. Although these two operators use the same generic structure and have the same objective, edge detection, they translate nevertheless two different contexts. The results of these operators are then aggregated with a specific fusion operator that we have especially developed. And fourth, we validate the implementations of our two operators\ using Fram and Deutsch criteria on computergenerated images. These criteria reflect the robustness of the operator with respect to the noise and the continuity of the contour's segment. An application concerning a renal arteriography edge detection process ends this document
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Devinoy, Raymond Henri. "Contribution à l'extraction de primitives, à la classification et au diagnostic dans le domaine biomédical". Rouen, 1999. http://www.theses.fr/1999ROUES072.

Texto completo
Resumen
Cette thèse a pour but de contribuer à l'informatisation de deux applications biomédicales : l'analyse de la figure complexe de Rey-Osterrieth et la détection de mélanomes malins. Les études sur l'analyse de la figure complexe de Rey-Osterrieth cherchent à identifier, de façon précoce, les difficultés psychologiques chez les enfants. Il s'agit d'un test graphique ou il est demandé de copier, puis de restituer de mémoire un dessin : la figure de Rey. Le mélanome malin est un cancer cutané en nette progression depuis plusieurs années. Les méthodologies, ainsi que les outils d'analyses employés sont communs aux deux applications. Nous commençons par la mise au point des protocoles nous permettant d'obtenir des copies numériques des figures de Rey et des photographies de lésions. A partir de celles-ci, nous recherchons des caractéristiques numériques. A partir de ces données, deux méthodes de traitement sont proposées. La première consiste à rechercher des sous-ensembles dans les populations de l'étude. En effet, les populations d'éléments que nous étudions sont, de par nature, hétérogènes. Cette catégorisation est basée sur une classification ascendante. L'originalité vient de l'intégration d'un nouvel indice prenant en compte les densités locales au voisinage des éléments. La seconde est une méthode utilisée pour discriminer les éléments pathologiques des autres éléments. Elle est conçue pour être efficace lorsqu'une des populations est sous représentée. Les éléments du groupe sain servent de référence. Nous recherchons des caractéristiques pour lesquelles les éléments pathologiques s'écartent de cette référence. Nous appliquons ensuite un algorithme détectant un jeu réduit de caractéristiques discriminantes. Ces méthodes sont appliquées avec succès sur deux ensembles de données issus des applications étudiées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Rochery, Marie. "Contours actifs d´ordre supérieur et leur application à la détection de linéiques dans des images de télédétection". Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00010631.

Texto completo
Resumen
Cette thèse aborde le problème de l´introduction d´une connaissance a priori sur la géométrie de l´objet à détecter dans le cadre général de la reconnaissance de formes dans une image. L´application choisie pour illustrer ce problème est la détection de réseaux de linéiques dans des images satellitaires et aériennes. Nous nous placons dans le cadre des contours actifs et nous introduisons une nouvelle classe de contours actifs d´ordre supérieur. Cette classe permet la création de nouveaux modèles rendant possible l´incorporation d´informations géométriques fortes définissant plutôt qu´une forme spécifique, une famille générale de formes. Nous étudions un cas particulier d´énergie quadratique qui favorise des structures à plusieurs bras de largeur à peu près constante et connectés entre eux. L´énergie étudiée ainsi que des termes linéaires de longueur et d´aire sont utilisés comme termes d´a priori pour les modèles d´extraction de linéiques que nous proposons. Plusieurs termes d´attache aux données sont proposés dont un terme quadratique permettant de lier la géométrie du contour et les propriétés de l´image. Un modèle d´extraction permettant de gérer les occultations est également présenté. Pour permettre la minimisation de l´énergie, nous développons un cadre méthodologique utilisant les courbes de niveau. Les forces non locales sont calculées sur le contour extrait avant d´être étendues sur tout le domaine considéré. Finalement, afin de résoudre certaines difficultés rencontrées avec les contours actifs standards ainsi que les nouveaux modèles, nous proposons d´utiliser des modèles de champs de phase pour modéliser les régions. Cette méthodologie offre une alternative avantageuse aux techniques classiques et nous définissons des modèles d´extraction de linéiques similaires aux contours actifs d´ordre supérieur dans ce cadre. La pertinence de tous les modèles proposés est illustrée sur des images satellitaires et aériennes réelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Peng, Ting. "Nouveaux modèles de contours actifs d'ordre supérieur, formes «a priori» et analyse multi-échelle : leurs application à l'extraction de réseaux routiers à partir des images satellitaires à très haute résolution". Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00349768.

Texto completo
Resumen
L'objectif de cette thèse est de développer et de valider des approches robustes d'extraction semi-automatique de réseaux routiers en zone urbaine dense à partir d'images satellitaires optiques à très haute résolution (THR). Nos modèles sont fondés sur une modélisation par champs de phase des contours actifs d'ordre supérieur (CAOS). Le probléme est difficile pour deux raisons principales : les images THR sont intrinsèquement complexes, et certaines zones des réseaux peuvent prendre une topologie arbitraire. Pour remédier à la complexité de l'information contenue dans les images THR, nous proposons une modélisation statistique multi-résolution des données ainsi qu'un modèle multi-résolution contraint a priori. Ces derniers permettent l'intégration des résultats de segmentation de résolution brute et de résolution fine. De plus, dans le cadre particulier de la mise à jour de réseaux routiers, nous présentons un modèle de forme a priori spécifique, dérivé d'une ancienne carte numérique issue d'un SIG. Ce terme spécifique a priori équilibre l'effet de la connaissance a priori générique apportée par le modèle de CAOS, qui décrit la forme géométrique générale des réseaux routiers. Cependant, le modèle classique de CAOS souffre d'une limitation importante : la largeur des branches du réseau est contrainte à d'être similaire au maximum du rayon de courbure des branches du réseau, fournissant ainsi un modèle non satisfaisant dans le cas de réseaux aux branches droites et étroites ou aux branches fortement incurvées et larges. Nous résolvons ce problème en proposant deux nouveaux modèles : l'un contenant un terme additionnel, nonlocal, non-linéaire de CAOS, et l'autre contenant un terme additionnel, nonlocal, linéaire de CAOS. Ces deux termes permettent le contrôle séparé de la largeur et de la courbure des branches, et fournissent une meilleure prolongation pour une même largeur. Le terme linéaire a plusieurs avantages : d'une part il se calcule plus efficacement, d'autre part il peut modéliser plusieurs largeurs de branche simultanément. Afin de remédier à la difficulté du choix des paramètres de ces modèles, nous analysons les conditions de stabilité pour une longue barre d'une largeur donnée décrite par ces énergies, et montrons ainsi comment choisir rigoureusement les paramètres des fonctions d'énergie. Des expériences sur des images satellitaires THR et la comparaison avec d'autres modèles démontrent la supériorité de nos modèles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Simonetto, Elisabeth. "Extraction 3-D de structures industrielles sur des images RAMSES haute résolution par radargrammétrie". Phd thesis, 2002. http://tel.archives-ouvertes.fr/tel-00749513.

Texto completo
Resumen
Cette thèse concerne l'élaboration d'une chaîne de traitements radargrammétrique conduisant aux structures 3-D à partir d'images radar haute résolution. L'intérêt de la cartographie 3-D par imagerie RSO (Radar à Synthèse d'Ouverture) est que l'image radar peut être acquise par tout temps et de jour comme de nuit. Nous disposons d'images issues du capteur expérimental RAMSES de l'ONERA et représentant des scènes industrielles. Ces données contiennent de nombreux échos forts et les toits des structures sont peu visibles. Ces phénomènes rendent difficile l'interprétation des images et insuffisantes les méthodes classiques de reconstruction 3-D. Face à ces particularités, nous menons l'analyse radiométrique et géométrique des données. Cette analyse aboutit à la proposition d'une chaîne algorithmique adaptée qui vise à restituer les structures cylindriques et parallélépipédiques telles que cuves et bâtiments de forme simple. Dans la première partie concernant l'analyse, nous donnons l'interprétation simplifiée de l'image radar d'une structure et étudions les statistiques des images d'amplitude. L'opportunité de la radargrammétrie haute résolution est vérifiée théoriquement puis expérimentalement. La seconde partie présente la chaîne radargrammétrique. Notre approche comprend deux étapes principales : l'extraction des structures à partir des échos forts puis l'estimation du 3-D. L'extraction des structures fait l'objet d'un chapitre important de cette thèse. Nous proposons une méthode permettant la reconnaissance de la forme englobant la structure brillante, circulaire ou rectangulaire, par optimisation d'un critère surfacique. Nous la comparons avec des techniques plus classiques de traitement d'images et étudions plusieurs critères ainsi que l'apport de méthodes d'optimisation stochastique. Nous présentons ensuite une méthodologie pour obtenir les altitudes du sol entre les structures détectées et leur hauteur. Les résultats montrent la pertinence de l'approche lorsque la structure a été détectée et dans le cas favorable où un écho du toit est détectable.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Brunet, Sylvie. "Mesure du rapport d'embranchement de B → π⁰lv et extraction de l'élément |V[indice]u[indice]b| de la matrice CKM à l'expérience BABAR à l'aide de la technique des étiquettes B → D⁽*⁾lv". Thèse, 2007. http://hdl.handle.net/1866/6752.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Benjira, Mohammed Amine. "Classification automatique des diatomées". Thèse, 2019. http://depot-e.uqtr.ca/id/eprint/9407/1/eprint9407.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Simard, Martin. "Mesure du rapport d'embranchement des désintégrations B^0--> pi^- l^+v et B^+--> êta^(') l^+v, du spectre des facteurs de forme des désintégrations B^0--> pi^- l^+v et B^+--> êta l^+v, et extraction de |V_ub| dans l'expérience BABAR". Thèse, 2010. http://hdl.handle.net/1866/4991.

Texto completo
Resumen
Nous rapportons les résultats d'une étude des désintégrations semileptoniques non-charmées B^+--> êta^(') l^+v et B^0--> pi^- l^+v, mesurés par le détecteur BABAR avec une production d'environ 464 millions de paires de mésons BBbar issues des collisions e^+e^- à la résonance Upsilon(4S). L'analyse reconstruit les événements avec une technique relâchée des neutrinos. Nous obtenons les rapports d'embranchement partiels pour les désintégrations B^+--> êta l^+v et B^0--> pi^- l^+v en trois et douze intervalles de q^2, respectivement, à partir desquels nous extrayons les facteurs de forme f_+(q^2) et les rapports d'embranchement totaux B(B^+--> êta l^+v) = (3.39 +/- 0.46_stat +/- 0.47_syst) x 10^-5 et B(B^0--> pi^- l^+v) = (1.42 +/- 0.05_stat +/- 0.08_syst) x 10^-4. Nous mesurons aussi B(B^+--> êta' l^+v) = (2.43 +/- 0.80_stat +/- 0.34_syst) x 10^-5. Nous obtenons les valeurs de la norme de l'élément |V_ub| de la matrice CKM en utilisant trois calculs différents de la CDQ.
We report the results of a study of the exclusive charmless semileptonic decays, B^+--> êta^(') l^+v and B^0--> pi^- l^+v, undertaken with approximately 464 million BBbar pairs collected at the Upsilon(4S) resonance with the BABAR detector. The analysis uses events in which the signal B decays are reconstructed with a loose neutrino reconstruction technique. We obtain partial branching fractions for B^+--> êta l^+v and B^0--> pi^- l^+v decays in three and twelve bins of q^2, respectively, from which we extract the f_+(q^2) form-factor shapes and the total branching fractions B(B^+--> êta l^+v) = (3.39 +/- 0.46_stat +/- 0.47_syst) x 10^-5 and B(B^0--> pi^- l^+v) = (1.42 +/- 0.05_stat +/- 0.08_syst) x 10^-4. We also measure B(B^+--> êta' l^+v+) = (2.43 +/-0.80_stat +/- 0.34_syst) x 10^-5. We obtain values for the magnitude of the CKM matrix element |V_ub| using three different QCD calculations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía