Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Extraction de structures argumentatives.

Dissertationen zum Thema „Extraction de structures argumentatives“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Extraction de structures argumentatives" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Molinet, Benjamin. „Génération et évaluation d'explications argumentatives en langage naturel appliquées au domaine médical“. Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4063.

Der volle Inhalt der Quelle
Annotation:
L'Argument Mining, un domaine en pleine expansion du traitement automatique du langage naturel (TALN) et des modèles informatiques d'argumentation, vise à reconnaître automatiquement les structures d'argumentation (c'est-à-dire les composants et les relations) dans les ressources textuelles en langage naturel. Dans le domaine médicale, l'Argument Mining s'est avérée bénéfique en fournissant des méthodes pour détecter automatiquement les structures argumentatives afin de soutenir la médecine fondée sur des preuves. L'importance de ces approches repose sur le fait que, malgré la précision des modèles neuronaux dans la prédiction de diagnostic médical, l'explication de leurs résultats reste problématique. Cette thèse aborde cette question ouverte et se concentre sur la génération et l'évaluation d'explications argumentatives en langage naturel pour les prédictions de diagnostic, afin d'aider les cliniciens dans la prise de décision et l'apprentissage. Tout d'abord, j'ai proposé un nouveau pipeline complet pour générer automatiquement des explications en langage naturel d'examens (QCM) médicaux sur les diagnostics en s'appuyant sur une ontologie médicale et des entités cliniques à partir des textes d'examen. J'ai défini un système état de l'art de reconnaissance et de classification des entités médicales nommées (NERC) pour détecter les symptômes exprimés par les patients et les résultats médicaux que j'aligne sur les termes de l'ontologie afin de justifier le diagnostic d'un cas clinique fourni aux résidents en médecine. Le module NERC, appelé SYMEXP, permet à notre système de générer des explications argumentatives en langage naturel basées sur des templates afin de justifier pourquoi la bonne réponse est correcte et pourquoi les autres options proposées ne le sont pas. Deuxièmement, j'ai proposé un cadre d'évaluation des explications basées sur l'argumentation, appelé ABEXA, pour extraire automatiquement la structure argumentative d'un QCM médicale et mettre en évidence un ensemble de critères personnalisables pour caractériser l'explication clinique et l'argumentation du document. ABEXA aborde la question de l'évaluation des explications d'un point de vue argumentatif en définissant un ensemble de patterns sur un graphe argumentatif généré automatiquement. Troisièmement, j'ai contribué à la conception et au développement de la suite de logiciels ANTIDOTE, qui propose différents modules d'intelligence artificielle explicative guidée par l'argumentation pour la médecine. Notre système offre les fonctionnalités suivantes : analyse argumentative multilingue pour le domaine médical, explication, extraction et génération de diagnostics cliniques, modèles linguistiques multilingues pour le domaine médical, et le premier benchmark multilingue de QCM médicaux. En conclusion, dans cette thèse, j'explore comment l'intelligence artificielle combinée à la théorie de l'argumentation pourrait conduire à des systèmes de soins de santé plus transparents. Nous appliquons nos résultats au domaine critique de la médecine en montrant tout leur potentiel en termes de soutien à l'éducation, par exemple, des étudiants en médecine
Argument(ation) mining, a rapidly growing area of Natural Language Processing (NLP) and computational models of argument, aims at the automatic recognition of argument structures (i.e., components and relations) in natural language textual resources. In the healthcare domain, argument mining has proven beneficial in providing methods to automatically detect argumentative structures to support Evidence-Based Medicine (EBM). The importance of these approaches relies on the fact that, despite the accuracy of neural models in medical diagnosis, explanation of their outcomes remains problematic. The thesis tackles this open issue and focuses on generation and assessment of natural language argumentative explanations for diagnosis predictions, supporting clinicians in decision making and learning. First, I proposed a novel complete pipeline to automatically generate natural language explanations of medical question answering exams for diagnoses relying on a medical ontology and clinical entities from exam texts. I defined a state-of-the-art medical named entity recognition and classification (NERC) system to detect layperson symptoms and medical findings that I align to ontology terms so as to justify a diagnosis of a clinical case provided to medical residents. NERC module, called SYMEXP, allows our system to generate template-based natural language argumentative explanations to justify why the correct answer is correct and why the other proposed options are not. Second, I proposed an argument-based explanation assessment framework, called ABEXA, to automatically extract the argumentative structure of a medical question answering document and highlight a set of customisable criteria to characterise the clinical explanation and the document argumentation. ABEXA tackles the issue of explanation assessment from the argumentative viewpoint by defining a set of graph rules over an automatically generated argumentative graph. Third, I contributed to the design and development of the ANTIDOTE software tool, proposing different modules for argumentation-driven explainable Artificial Intelligence for digital medicine. Our system offers the following functionalities: multilingual argumentative analysis for the medical domain, explanation, extraction and generation of clinical diagnoses, multilingual large language models for the medical domain, and the first multilingual benchmark for medical question-answering. In conclusion, in this thesis, I explore how artificial intelligence combined with the argumentation theory could lead to more transparent healthcare systems. We apply our results to the critical domain of medicine showing all their potential in terms of support for education, for example, of clinical residents
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Megzari, Idriss El. „Représentation et évaluation de structures argumentatives“. Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/27547.

Der volle Inhalt der Quelle
Annotation:
Dans des domaines comme l'aéronautique, l'énergie, le médical ou encore les technologies de l'information en général, les besoins de formuler des arguments de sûreté, sécurité, confidentialité, etc. sont de plus en plus présents. Or, la représentation et l'évaluation de ces arguments n'est pas une chose aisée et fait l'objet de nombreux débats depuis les dix dernières années particulièrement. Une structure argumentative est une modélisation d'un argument ayant comme but d'expliciter les liens (l'argument) reliant une affirmation modélisant une propriété d'un système aux preuves qui la supportent. Les deux principaux défis reliés aux structures argumentatives sont les langages de représentation et les méthodes permettant d'évaluer le niveau de confiance que l'on peut attribuer à l'argument modélisé. S'intéressant à ces deux problématiques, ce mémoire investigue d'une part des langages permettant de représenter des structures argumentatives, et d'une autre part la théorie de l'évidence de Dempster-Shafer. En particulier, ce mémoire présente les langages GSN et TCL, la correspondance entre ces deux langages ainsi que de possibles extensions permettant d'en augmenter l'expressivité. La théorie de l'évidence de Dempster-Shafer y est aussi présentée et y fait l'objet d'une extension qui évite de traiter les cas limites comme des cas particuliers. La théorie de l'évidence de Dempster-Shafer permet de construire un modèle de confiance global à partir d'évaluations locales. Ces dernières sont obtenues en évaluant chaque composante d'une structure argumentative de façon indépendante. Des approches de construction des structures argumentatives ainsi que d'évaluation de leurs éléments sont développées et appliquées dans le cas de deux exemples provenant de deux contextes différents : la conformité avec l'exemple de l'ISO-27001 et la sûreté avec l'exemple d'une pompe à perfusion.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Lowe, Daniel Mark. „Extraction of chemical structures and reactions from the literature“. Thesis, University of Cambridge, 2012. https://www.repository.cam.ac.uk/handle/1810/244727.

Der volle Inhalt der Quelle
Annotation:
The ever increasing quantity of chemical literature necessitates the creation of automated techniques for extracting relevant information. This work focuses on two aspects: the conversion of chemical names to computer readable structure representations and the extraction of chemical reactions from text. Chemical names are a common way of communicating chemical structure information. OPSIN (Open Parser for Systematic IUPAC Nomenclature), an open source, freely available algorithm for converting chemical names to structures was developed. OPSIN employs a regular grammar to direct tokenisation and parsing leading to the generation of an XML parse tree. Nomenclature operations are applied successively to the tree with many requiring the manipulation of an in-memory connection table representation of the structure under construction. Areas of nomenclature supported are described with attention being drawn to difficulties that may be encountered in name to structure conversion. Results on sets of generated names and names extracted from patents are presented. On generated names, recall of between 96.2% and 99.0% was achieved with a lower bound of 97.9% on precision with all results either being comparable or superior to the tested commercial solutions. On the patent names OPSIN s recall was 2-10% higher than the tested solutions when the patent names were processed as found in the patents. The uses of OPSIN as a web service and as a tool for identifying chemical names in text are shown to demonstrate the direct utility of this algorithm. A software system for extracting chemical reactions from the text of chemical patents was developed. The system relies on the output of ChemicalTagger, a tool for tagging words and identifying phrases of importance in experimental chemistry text. Improvements to this tool required to facilitate this task are documented. The structure of chemical entities are where possible determined using OPSIN in conjunction with a dictionary of name to structure relationships. Extracted reactions are atom mapped to confirm that they are chemically consistent. 424,621 atom mapped reactions were extracted from 65,034 organic chemistry USPTO patents. On a sample of 100 of these extracted reactions chemical entities were identified with 96.4% recall and 88.9% precision. Quantities could be associated with reagents in 98.8% of cases and 64.9% of cases for products whilst the correct role was assigned to chemical entities in 91.8% of cases. Qualitatively the system captured the essence of the reaction in 95% of cases. This system is expected to be useful in the creation of searchable databases of reactions from chemical patents and in facilitating analysis of the properties of large populations of reactions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Patsias, Sophoclis. „Extraction of dynamic characteristics from vibrating structures using image sequences“. Thesis, University of Sheffield, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.341810.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Svolos, Andrew. „Space and time efficient data structures in texture feature extraction“. Thesis, University College London (University of London), 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.299379.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Adam, James G. „Designing emergence : automatic extraction of stigmergic algorithms from lattice structures“. Thesis, University of Essex, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.428979.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Siegwart, Michael. „The feasibility of electrochemical chloride extraction on prestressed concrete structures“. Thesis, University of Ulster, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.252423.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Vučković, Jelena Scherer Axel. „Photonic crystal structures for efficient localization or extraction of light /“. Diss., Pasadena, Calif. : California Institute of Technology, 2002. http://resolver.caltech.edu/CaltechETD:etd-08252004-130544.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Pelfrêne, Johann. „Extraction de mots approchés“. Rouen, 2004. http://www.theses.fr/2004ROUES013.

Der volle Inhalt der Quelle
Annotation:
La réprésentation des facteurs d'un texte s'effectue de différentes manières (arbre, table, automate des suffixes), cependant il n'est pas connu de structure d'index pour des mots contenant des erreurs. Nous proposons l'étude de mots approchés au sens du joker, dont un résultat récent montrait que le nombre de mots à jokers maximaux non redondants était linéaire en la taille du texte duquel ces mots sont extraits. Nous introduisons ainsi les mots primitifs, permettant de diminuer le nombre de mots à jokers d'intérêts. Comme les maximaux non redondants, les primitifs forment une base permettant de déduire les autres mots maximaux. Nous montrons cependant que le nombre de primitifs et conséquemment le nombre de maximaux non redondants n'est pas linéaire, mais exponentiel. Nous présentons des propriétés de ces mots, un algorithme d'extraction des mots primitifs, et un algorithme de décision de la primitivité étant donné un mot et un texte. Ces algorithmes sont étendus à l'extraction dans plusieurs textes, à la miseà jour après ajout d'un nouveau texte, et aux caractères ambigus. Nous introduisons une notion de score réduisant le nombre de mots retenus
Indexing structures are wellknown for exact subwords (suffix array, tree, automaton), however no indexing structure is known for approximate patterns. We study patterns with don't cares, for which a recent result proposed a linear bound of the number of maximal irredundant patterns with don't cares. We introduce the primitive patterns, allowing to reduce the number of interesting patterns that can be extracted from a given text. Like the maximal irredundant patterns, the primitive patterns form a basis for the maximal patterns. We show therefore that the number of primitive patterns, and consequently the number of maximal irredundant ones, is not linear but exponential. This work presents properties of such patterns, an extraction algorithm, and an algorithm which decides the primitivity without computing the basis. These algorithms are extended to the extraction in multiple texts, to the update after adding a new text, and to ambiguous characters for which the don't care character is a special case. We introduce a scoring scheme, reducing the number of conserved patterns
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Nguyen, Truc-Vien T. „End-to-End Relation Extraction via Syntactic Structures and Semantic Resources“. Doctoral thesis, Università degli studi di Trento, 2011. https://hdl.handle.net/11572/369167.

Der volle Inhalt der Quelle
Annotation:
Information Extraction (IE) aims at mapping texts into fixed structure representing the key information. A typical IE system will try to answer the questions like who are present in the text, what events happen and when these events happen. The task is making possible significant advances in applications that require deep understanding capabilities such as question-answering engines, dialogue systems, or the semantic web. Due to the huge effort and time consumation of developping extraction systems by domain experts, our approach focuses on machine learning methods that can accurately infer an extraction model by training on a dataset. The goal of this research is to design and implement models with improved performance by learning the combination of different algorithms or by inventing novel structures that are able to exploit kinds of evidence that have not been explored in the literature. A basic component of an IE system is named entity recognition (NER) whose purpose is to locate objects that can be referred by names, belonging to a predefined set of categories. We approach this task by proposing a novel reranking framework that employs two learning phases to pick the best candidate. The task is considered as sequence labelling with Conditional Random Fields (CRFs) is selected as the baseline algorithm. Our research employs novel kernels based on structured and unstructured features for reranking the N-best hypotheses from the CRFs baseline. The former features are generated by a polynomial kernel encoding entity features whereas tree kernels are used to model dependencies amongst tagged candidate examples. Relation Extraction (RE) is concerned with finding relationships between pairs of entities in texts. State-of-the-art relation extraction model is based on convolution kernel over the constituent parse tree. In our research, we employ dependency parses from dependency parsing in addition to phrase-structure parses from constituent parsing. We define several variations of dependency parses to inject additional information into the trees. Additionally, we provide an extensive ablation over various types of kernels by combining the tree, sequence, and polynomial kernels. These novel kernels are able to exploit learned correlations between phrase-structure parses and grammatical relations. A large amounts of wide-coverage semantic knowledge today exists in large repositories of unstructured or semi-structured text documents. The increased availability of online collaborative resources has attracted the attention of much work in the Artificial Intelligence (AI) community. Nevertheless, the ability to extract it using statistical machine learning techniques is hindered by well-known problems such as heavy supervision and scalability. These drawbacks can be alleviated by applying a form of weakly supervision, specifically named distant supervision (DS), to automatically derive explicit facts from the semi-structured part of Wikipedia. To learn relational facts from Wikipedia without any labeled example or hand-crafted pattern, we employ DS where the relation providers are external repositories, e.g., YAGO (a huge semantic knowledge base), and the training instances are gathered from Freebase (a huge semantic database). These allow for potentially obtaining larger training data and many more relations, defined in different sources. We apply state-of-the-art models for ACE RE, that are sentence level RE (SRLE), to Wikipedia. Based on a mapping table of relations from YAGO to ACE (according to their semantic definitions), we design a joint RE model of DS/ACE and tested it on ACE annotations (thus according to expert linguistic annotators). Moreover, we experiment with end-to-end systems for real-world RE applications. Consequently, our RE system is applicable to any document/sentence, i.e. another major improvement on previous work, which, to our knowledge, does not show experiments on end-to-end SLRE.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Nguyen, Truc-Vien T. „End-to-End Relation Extraction via Syntactic Structures and Semantic Resources“. Doctoral thesis, University of Trento, 2011. http://eprints-phd.biblio.unitn.it/594/1/TVNguyen_Dissertation_old.pdf.

Der volle Inhalt der Quelle
Annotation:
Information Extraction (IE) aims at mapping texts into fixed structure representing the key information. A typical IE system will try to answer the questions like who are present in the text, what events happen and when these events happen. The task is making possible significant advances in applications that require deep understanding capabilities such as question-answering engines, dialogue systems, or the semantic web. Due to the huge effort and time consumation of developping extraction systems by domain experts, our approach focuses on machine learning methods that can accurately infer an extraction model by training on a dataset. The goal of this research is to design and implement models with improved performance by learning the combination of different algorithms or by inventing novel structures that are able to exploit kinds of evidence that have not been explored in the literature. A basic component of an IE system is named entity recognition (NER) whose purpose is to locate objects that can be referred by names, belonging to a predefined set of categories. We approach this task by proposing a novel reranking framework that employs two learning phases to pick the best candidate. The task is considered as sequence labelling with Conditional Random Fields (CRFs) is selected as the baseline algorithm. Our research employs novel kernels based on structured and unstructured features for reranking the N-best hypotheses from the CRFs baseline. The former features are generated by a polynomial kernel encoding entity features whereas tree kernels are used to model dependencies amongst tagged candidate examples. Relation Extraction (RE) is concerned with finding relationships between pairs of entities in texts. State-of-the-art relation extraction model is based on convolution kernel over the constituent parse tree. In our research, we employ dependency parses from dependency parsing in addition to phrase-structure parses from constituent parsing. We define several variations of dependency parses to inject additional information into the trees. Additionally, we provide an extensive ablation over various types of kernels by combining the tree, sequence, and polynomial kernels. These novel kernels are able to exploit learned correlations between phrase-structure parses and grammatical relations. A large amounts of wide-coverage semantic knowledge today exists in large repositories of unstructured or semi-structured text documents. The increased availability of online collaborative resources has attracted the attention of much work in the Artificial Intelligence (AI) community. Nevertheless, the ability to extract it using statistical machine learning techniques is hindered by well-known problems such as heavy supervision and scalability. These drawbacks can be alleviated by applying a form of weakly supervision, specifically named distant supervision (DS), to automatically derive explicit facts from the semi-structured part of Wikipedia. To learn relational facts from Wikipedia without any labeled example or hand-crafted pattern, we employ DS where the relation providers are external repositories, e.g., YAGO (a huge semantic knowledge base), and the training instances are gathered from Freebase (a huge semantic database). These allow for potentially obtaining larger training data and many more relations, defined in different sources. We apply state-of-the-art models for ACE RE, that are sentence level RE (SRLE), to Wikipedia. Based on a mapping table of relations from YAGO to ACE (according to their semantic definitions), we design a joint RE model of DS/ACE and tested it on ACE annotations (thus according to expert linguistic annotators). Moreover, we experiment with end-to-end systems for real-world RE applications. Consequently, our RE system is applicable to any document/sentence, i.e. another major improvement on previous work, which, to our knowledge, does not show experiments on end-to-end SLRE.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Cromie, James Alexander. „Modelling the electrochemical rehabilitation of chloride contaminated reinforced concrete bridge structures“. Thesis, University of Ulster, 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.342317.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Giuliani, Chiara. „Alteration of ocean waves by periodic submerged structures for renewable energy extraction“. Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Den vollen Inhalt der Quelle finden
Annotation:
Questa tesi si concentra sul comportamento di strutture immerse e sulla loro interazione con fenomeni ondosi oceanici allo scopo di modificarne l’ampiezza in superficie. Si suppone che queste strutture siano disposte sul fondale marino secondo schemi geometrici ricorrenti, per esempio lenti. Opportune disposizioni strutturali possono indurre un’interferenza costruttiva sulle onde di superficie, le quali presentano tipicamente un carattere pseudo-periodico nel tempo e nello spazio aumentandone così l’ampiezza. Noto che l’energia delle onde di superficie è proporzionale alla loro ampiezza, i risultati proposti in questa ricerca possono essere utilizzati per migliorare, in maniera del tutto sostenibile, l’efficienza dei dispositivi che sfruttano il moto ondoso per l’estrazione di energia rinnovabile, anche noti come energy harvesters. Per questi ultimi infatti l’efficienza della conversione dell’energia dipende dalla variazione altimetrica fra la cresta e il ventre dell’onda. Nello studio del problema, si considereranno le equazioni classiche di Navier-Stokes applicate al caso di fondali medio bassi (shallow waters). Successivamente teorie complesse per lo studio di sistemi periodici (già utilizzate in altri campi come la fisica quantistica e l’elettromagnetismo), verranno applicate per descrivere l’interazione tra le onde e il fondale periodico. Tale formulazione consentirà di progettare le strutture sul fondale capaci ottimizzare l’ampiezza dell’onda rispetto al caso di fondale indisturbato.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Gupta, Vikrant. „Linear amplification analysis for extraction of coherent structures in wall-bounded turbulent flows“. Thesis, University of Cambridge, 2015. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.708610.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Wang, Junfeng 1971. „A new surface integral formation of EMQS impedance extraction for 3-D structures“. Thesis, Massachusetts Institute of Technology, 1999. http://hdl.handle.net/1721.1/80210.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Chen, Wei-Liang Yin Shizhuo. „Investigation of optical structures for enhancing the light extraction efficiency of white LED“. [University Park, Pa.] : Pennsylvania State University, 2009. http://etda.libraries.psu.edu/theses/approved/PSUonlyIndex/ETD-4437/index.html.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Labauze, Hélène. „Synthèse de structures furaniques à partir de glucose cellulosique en système diphasique eau-CO2 supercritique“. Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0042/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail présente l’étude d’un procédé de production de 5-hydroxymethylfurfural (HMF), une molécule plateforme prometteuse pour la production de carburants et de polymères biosourcés. La première partie de ce travail a consisté à développer la synthèse du HMF à partir d’hexoses lignocellulosiques dérivés de la biomasse, plus particulièrement du fructose, en milieu diphasique CO2-H2O haute pression, une technologie efficace et respectueuse de l’environnement pour le traitement de la biomasse. À partir d'expériences cinétiques et de leur modélisation, l'effet du CO2 comme catalyseur acide réversible a été évalué. Par ailleurs, le rendement en HMF s'est avéré limité en raison de réactions de dégradation. Un moyen pertinent d’augmenter le rendement en HMF en empêchant sa dégradation a consisté à coupler sa synthèse avec son extraction simultanée par le CO2 supercritique, ce qui a conduit à un procédé de réaction extractive. Dans ce contexte, des coefficients de partage de HMF entre le CO2 supercritique et l’eau ont été évalués expérimentalement, en supposant que l'équilibre soit atteint à tout moment dans le dispositif d'extraction. Les données expérimentales ont permis l’application de modèles thermodynamiques pour décrire le système ternaire CO2-HMF-H2O afin de trouver des conditions de fonctionnement favorables au procédé. Le couplage de la modélisation cinétique et du procédé d'extraction par le CO2, basé sur l'équilibre thermodynamique du mélange, a rendu possible la prédiction des meilleures conditions de fonctionnement du procédé de réaction extractive du HMF à partir de sucres issus de biomasse lignocellulosique. Ce mode de fonctionnement a permis d'exploiter tous les avantages de l'utilisation du CO2 pour les réactions de conversion de la biomasse : catalyseur acide réversible et solvant d'extraction
This work aims at developing a new production process for 5-hydroxymethylfurfural (HMF), a promising bio-based platform chemical for the production of fuels and renewably sourced polymers. In the first part of this work, synthesis of HMF from lignocellulosic biomass-derived hexoses, and more particularly fructose, was carried out in a two-phase high-pressure CO2-H2O system, regarded as an efficient and eco-friendly technology in biomass processing. From kinetic experiments and their modeling, the effect of CO2 as a potential reversible acid catalyst was assessed. Also, HMF yield was shown to be limited due to sequential degradation reactions. Arelevant way to increase HMF yield by preventing its degradation has consisted in coupling its synthesis with simultaneous extraction by supercritical CO2, leading to a one-pot extractive reaction process. In that context, partition coefficients of HMF between supercritical CO2 and water have been experimentally evaluated, assuming that equilibrium is achieved at any time in the extraction device. Experimental data has enabled the application of thermodynamic models to describe the ternary CO2-HMF-H2O system in order to find favourable operating conditions for the process. Coupling the kinetic modelling with the CO2 extracting process modelling, based on the thermodynamic equilibrium of the mixture, has provided the theoretical tool allowing prediction of the best operating conditions for the one pot extractive process of HMF production from sugars issued from lignocellulosic biomass. This operating mode allowed exploiting all advantages of the use of CO2 for such reactions of biomass conversion: reversible acid catalyst and extracting solvent
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Johansson, Gunnar. „Local Level Set Segmentation with Topological Structures“. Thesis, Linköping University, Department of Science and Technology, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-6904.

Der volle Inhalt der Quelle
Annotation:

Locating and segmenting objects such as bones or internal organs is a common problem in medical imaging. Existing segmentation methods are often cumbersome to use for medical staff, since they require a close initial guess and a range of different parameters to be set appropriately. For this work, we present a two-stage segmentation framework which relies on an initial isosurface interactively extracted by topological analysis. The initial isosurface seldom provides a correct segmentation, so we refine the surface using an iterative level set method to better match the desired object boundary. We present applications and improvements to both the flexible isosurface interface and level set segmentation without edges.

APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Simonetto, Elisabeth. „Extraction 3-D de structures industrielles sur des images ramsès haute résolution par radargrammétrie“. Rennes 1, 2002. https://tel.archives-ouvertes.fr/tel-00749513.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne l'élaboration d'une chaîne de traitements radargrammétrique conduisant aux structures 3-D à partir d'images radar haute résolution. L'intérêt de la cartographie 3-D par imagerie RSO (Radar à Synthèse d'Ouverture) est que l'image radar peut être acquise par tout temps et de jour comme de nuit. Nous disposons d'images issues du capteur expérimental RAMSES de l'ONERA et représentant des scènes industrielles. Ces données contiennent de nombreux échos forts et les toits des structures sont peu visibles. Ces phénomènes rendent difficile l'interprétation des images et insuffisantes les méthodes classiques de reconstruction 3-D. Face à ces particularités, nous menons l'analyse radiométrique et géométrique des données. Cette analyse aboutit à la proposition d'une chaîne algorithmique adaptée qui vise à restituer les structures cylindriques et parallélépipédiques telles que cuves et bâtiments de forme simple. Dans la première partie concernant l'analyse, nous donnons l'interprétation simplifiée de l'image radar d'une structure et étudions les statistiques des images d'amplitude. L'opportunité de la radargrammétrie haute résolution est vérifiée théoriquement puis expérimentalement. La seconde partie présente la chaîne radargrammétrique. Notre approche comprend deux étapes principales : l'extraction des structures à partir des échos forts puis l'estimation du 3-D. L'extraction des structures fait l'objet d'un chapitre important de cette thèse. Nous proposons une méthode permettant la reconnaissance de la forme englobant la structure brillante, circulaire ou rectangulaire, par optimisation d'un critère surfacique. Nous la comparons avec des techniques plus classiques de traitement d'images et étudions plusieurs critères ainsi que l'apport de méthodes d'optimisation stochastique. Nous présentons ensuite une méthodologie pour obtenir les altitudes du sol entre les structures détectées et leur hauteur, dans le cas favorable où un écho du toit est détectable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Zarhloul, Redouane. „Halogéno complexes du ruthénium : les complexes halogéno-nitrosyl, formation en solution aqueuse- structures-extraction“. Lyon 1, 1991. http://www.theses.fr/1991LYO10170.

Der volle Inhalt der Quelle
Annotation:
Les complexes nitrosyl-ruthenium sont un facteur perturbant lors du processus de retraitement des dechets nucleaires. Note travail se consacre a l'etude de la formation de ces complexes en solution, leurs structures et leur extraction par le tributyl-phosphate. Les reactions entre les chlorocomplexes du ruthenium et les oxydes d'azote (no#2 et no) ont ete etudiees a temperature ambiante et a 100c. Les conditions de temperature et d'acidite ont une grande influence sur les chemins reactionnels. Seuls les chlorocomplexes dinucleaires ne reagissent pas avec no par suite de la persistance des formes dinucleaires ru-o-ru. Dans tous les autres cas, le produit ultime d'une serie de reactions (oxydoreduction, echange de coordinats) est du type runo(h#2o)cl#4#2#. Dans des conditions tres douces, on observe la formation de runo(no#3)cl#4#2#. Dans ces conditions tres douces, on observe la formation de runo(no#3)cl#4# qui peut aussi bien evoluer vers les chlorocomplexes simples, que vers les chlorocomplexes du nitrosyl-ruthenium. La formation de cette espece (runo(no#3)cl#4#) favorise l'hypothese d'un passage possible par runo#4#+. Les structures cristallines des complexes k#2runox#5(x=cl, br et i) ont ete resolues et comparees avec des resultats trouves dans la bibliographie, avec en particulier des chlorocomplexes simples k#4ru#2ocl#1#0, k#3rui2nocl#8(h#2o)#2 et k#2osncl#5. La comparaison des geometries de tous ces complexes fait apparaitre beaucoup de similitudes. Une hypothese est developpee a partir de cette geometrie et des orbitales moleculaires. Un calcul de repartition des charges apporte quelques elements supplementaires pour critiquer le modele ru(ii)-no#+. Les solutions nitriques preparees selon le mode preparatoire mis au point au laboratoire, ont permis de tester l'efficacite de l'extraction du ruthenium par le tributyl-phosphate dans les conditions les plus habituelles. L'existence d'especes polynucleaires hautement extractibles est tres probable. L'etude de l'extraction du ruthenium des solutions bromhydriques de k#2runobri5 par le tributyl-phosphate peut etre abordee par spectrometrie raman dans la mesure ou ces solutions s'y pretent, mais les resultats encore partiels, ne permettent pas d'elicider completement le mecanisme d'extraction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Manzke, Yori. „Non-local, local, and extraction spin valves based on ferromagnetic metal/GaAs hybrid structures“. Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät, 2015. http://dx.doi.org/10.18452/17230.

Der volle Inhalt der Quelle
Annotation:
Im Gebiet der Spin-Elektronik wird der Spin des Elektrons zusätzlich zu seiner Ladung für Bauelementkonzepte ausgenutzt. Hierbei ist die effiziente elektrische Erzeugung einer Spinakkumulation in einem halbleitenden Material von großer Bedeutung. Die Erzeugung der Spinakkumulation kann mithilfe eines ferromagnetischen Metall-Kontaktes erfolgen. Wird eine elektrische Spannung an die Grenzfläche zwischen dem ferromagnetischen Metall und dem Halbleiter so angelegt, dass spinpolarisierte Elektronen vom Metall in den Halbleiter fließen, spricht man von elektrischer Spininjektion. Bei einer Umkehrung der Spannung werden bevorzugt Elektronen der entgegengesetzten Spinorientierung aus dem halbleitenden Material entfernt. Dieser Prozess wird als Spinextraktion bezeichnet. In dieser Arbeit wird die elektrische Erzeugung einer Spinakkumulation in lateral strukturierten, epitaktischen Hybridstrukturen bestehend aus ferromagnetischen Metallkontakten auf n-dotiertem GaAs untersucht. Allgemein ist neben der Spinpolarisation im Ferromagneten auch die spinunabhängige elektrische Charakteristik eines Kontaktes von zentraler Bedeutung für die effiziente Spinerzeugung. Hier wird gezeigt, dass die gewöhnlichen Strom-Spannungs-Kennlinien die Spininjektionseigenschaften dominieren können. Außerdem wird ein neuartiges Bauelementkonzept vorgestellt und experimentell untersucht. Hierbei handelt es sich um ein lokales Spin-Ventil, welches Spinextraktion statt Spininjektion als Spinerzeugungsprozess verwendet. Im Gegensatz zum gewöhnlichen lokalen Spin-Ventil kann ein solches Extraktions-Spin-Ventil als Baustein eines erweiterten Bauelements angesehen werden, welches auf mehreren, aufeinanderfolgenden Extraktionsprozessen beruht. Die Eigenschaften des Extraktions-Spin-Ventils werden diskutiert und es wird gezeigt, wie seine Funktionalität beispielsweise für das Auslesen der Daten in magnetischen Speichern angewendet werden kann.
The efficient electrical generation of a spin accumulation inside a semiconductor (SC) utilizing the interface with a ferromagnetic metal (FM) is essential for the realization of many spintronic device concepts, in which the spin of the electron is exploited in addition to its charge for computational and memory purposes. At FM/n-type SC hybrid contacts, the application of a reverse bias leads to the injection of spin-polarized electrons into the SC. Alternatively, an applied forward bias can be used to generate a spin accumulation of opposite sign due to the extraction of electrons with a particular spin orientation. In this work, the electrical generation and detection of a spin accumulation is studied using epitaxial and laterally structured ferromagnetic metal/n-type GaAs hybrid systems in various measurement geometries. To achieve a high spin generation efficiency, the spinindependent electrical properties of the contact have to be considered in addition to the choice of the injector material with respect to its degree of spin polarization. Here, it is shown that the current-voltage characteristics can even constitute the dominating design parameter with respect to the spin injection properties. In addition, a novel device concept is presented and studied experimentally. This approach essentially relies on spin extraction as the spin generation process in a local spin valve geometry. In contrast to local spin valves based on spin injection, the presented extraction spin valve can be regarded as a building block of an extended device comprising multiple extraction events along the lateral spin transport channel. It is shown how such multiple extraction spin valves allow for an intriguing functionality, which can be used, for example, for the read-out of data in magnetic memory applications.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Trieu, Simeon S. „Enhanced Light Extraction Efficiency from GaN Light Emitting Diodes using Photonic Crystal Grating Structures“. DigitalCommons@CalPoly, 2010. https://digitalcommons.calpoly.edu/theses/329.

Der volle Inhalt der Quelle
Annotation:
Gallium nitride (GaN) light emitting diodes (LED) embody a large field of research that aims to replace inefficient, conventional light sources with LEDs that have lower power, higher luminosity, and longer lifetime. This thesis presents an international collaboration effort between the State Key Laboratory for Mesoscopic Physics in Peking University (PKU) of Beijing, China and the Electrical Engineering Department of California Polytechnic State University, San Luis Obispo. Over the course of 2 years, Cal Poly’s side has simulated GaN LEDs within the pure blue wavelength spectrum (460nm), focusing specifically on the effects of reflection gratings, transmission gratings, top and bottom gratings, error gratings, 3-fold symmetric photonic crystal, and 2-fold symmetric nano-imprinted gratings. PKU used our simulation results to fabricate GaN high brightness LEDs from the results of our simulation models. We employed the use of the finite difference time domain (FDTD) method, a computational electromagnetic solution to Maxwell’s equations, to measure light extraction efficiency improvements of the various grating structures. Since the FDTD method was based on the differential form of Maxwell’s equations, it arbitrarily simulated complex grating structures of varying shapes and sizes, as well as the reflection, diffraction, and dispersion of propagating light throughout the device. We presented the optimized case, as well as the optimization trend for each of the single grating structures within a range of simulation parameters on the micron scale and find that single grating structures, on average, doubled the light extraction efficiency of GaN LEDs. Photonic crystal grating research in the micron scale suggested that transmission gratings benefit most when grating cells tightly pack together, while reflection gratings benefit when grating cells space further apart. The total number of grating cells fabricated on a reflection grating layer still affects light extraction efficiency. For the top and bottom grating structures, we performed a partial optimization of the grating sets formed from the optimized single grating cases and found that the direct pairing of optimized single grating structures decreases overall light extraction efficiency. However, through a partial optimization procedure, top and bottom grating designs could improve light extraction efficiency by 118% for that particular case, outperforming either of the single top or bottom grating cases alone. Our research then explored the effects of periodic, positional perturbation in grating designs and found that at a 10-15% randomization factor, light extraction efficiency could improve up to 230% from the original top and bottom grating case. Next, in an experiment with PKU, we mounted a 2-fold symmetric photonic crystal onto a PDMS hemi-cylinder by nano-imprinting to measure the transmission of light at angles from near tangential to normal. Overall transmission of light compared with the non-grating design increases overall light extraction efficiency when integrated over the range of angles. Finally, our research focused on the 3-fold symmetric photonic crystal grating structure and employed the use of 3-D FDTD methods and incoherent light sources to better study the effects of higher-ordered symmetry in grating design. Grating cells were discovered as the source of escaping light from the GaN LED model. The model revealed that light extraction efficiency and the far-field diffraction pattern could be estimated by the position of grating cells in the grating design.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Tommasi, Marc. „Structures arborescentes et apprentissage automatique“. Habilitation à diriger des recherches, Université Charles de Gaulle - Lille III, 2006. http://tel.archives-ouvertes.fr/tel-00117063.

Der volle Inhalt der Quelle
Annotation:
Le programme de recherches présenté dans cette synthèse s'inscrit dans la double problématique de l'étude des langages d'arbres et de l'apprentissage automatique à partir de données arborescentes.
À la base de ce travail se trouve la question de l'accès et de la manipulation automatique d'informations au format XML au sein d'un réseau d'applications réparties dans internet. La réalisation de ces applications est toujours du ressort de programmeurs spécialistes d'XML et reste hors de portée de l'utilisateur final. De plus, les développements récents d'internet poursuivent l'objectif d'automatiser les communications entre applications s'échangeant des flux de données XML. Le recours à des techniques d'apprentissage automatique est une réponse possible à cette situation.
Nous considèrons que les informations sont décrites dans un langage XML, et dans la perspective de ce mémoire, embarquées dans des données structurées sous forme arborescente. Les applications sont basées alors sur des opérations élémentaires que sont l'interrogation ou les requêtes dans ces documents arborescents ou encore la transformation de tels documents.
Nous abordons alors la question sous l'angle de la réalisation automatique de programmes d'annotation d'arbres, permettant de dériver des procédures de transformation ou d'exécution de requêtes. Le mémoire décrit les contributions apportées pour la manipulation et l'apprentissage d'ensembles d'arbres d'arité non bornée (comme le sont les arbres XML), et l'annotation par des méthodes de classification supervisée ou d'inférence statistique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Kampeera, Wannachai. „Analyse linguistique et formalisation pour le traitement automatique de la paraphrase“. Thesis, Besançon, 2013. http://www.theses.fr/2013BESA1011/document.

Der volle Inhalt der Quelle
Annotation:
Les relations paraphrastiques entre plusieurs ensembles de paraphrasespeuvent se décrire en termes de suites de transformations textuelles. Pour qu’il aitparaphrase, il faut qu’une substitution lexicale noyau se mette en route entrainantd’autres modifications syntaxiques, lexicales et morphologiques.Après avoir décrit les mécanismes de paraphrasage récurrents, nous avons proposédeux formalisations. La première est théorique et explique les différentes relationsparaphrastiques entretenues par les paraphrases entre-elles. La deuxième,tournée vers des applications, formalise les structures paraphrastiques sous-formede prédicats-arguments. Nous considérons cette dernière adaptée au traitementautomatique de la paraphrase.Nous avons à la suite implémenté un système d’extraction de structures paraphrastiques.Il s’agit d’un système opérationnel appliqué à un volume de donnéesrelevant de notre domaine d’étude, et dont le but est de donner un exemple concretd’emploi possible de notre formalisation.Mots-clés : paraphrase, structures paraphrastiques, traitement automatique dela paraphrase, extraction des structures paraphrastiques
The relations between sets of paraphrases can be described as seriesof textual transformations. To rephrase, an initial lexical substitution starts, thentriggers other syntactic, lexical and morphological changes.After having described the frequent paraphrasing mechanisms in our corpus,we propose two formalisations. The first one is theoretical, explaining the differentparaphrasing relationships maintained by the paraphrases between each other. Thesecond formalises paraphrase structures as predicate-argument ones. We considerthe latter suitable for paraphrase processing.Finally we have implemented a paraphrase structures extraction system. Thisis a compact operational system for the volume of data within our domain, the aimof which is to provide a concrete example of a possible use of our formalisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Quilici, Laeticia. „Le carbone organique dans les mâchefers d'incinération d'ordures ménagères : extraction, structures et rôle sur l'environnement“. Toulon, 2001. http://www.theses.fr/2001TOUL0010.

Der volle Inhalt der Quelle
Annotation:
En France, l'incinération(avec ou sans récupération d'énergie)traite près de 50% des déchets ménagers. Le principal sous-produit (en poids)issu de l'incinération est le mâchefer. Le stockage dans des centres d'enfouissement technique ou la valorisation de ces mâchefers pose un problème écologique et économique aux industriels du déchet, mais également aux collectivités locales. Cette étude porte sur la caractérisation de la fraction organique des mâchefers ainsi que sur l'influence qu'elle peut avoir sur la caractérisation de la fraction organique des mâchefers ainsi que sur l'infleuce qu'elle peut avoir dans leur comportement à court et à long terme. La calorimétrie différentielle à balayage (DSC) est utilisée pour une spéciation et une évaluation du carbone dans les résidus. Il s'agit d'une apporche globale originale permettant de metrre en évidence et de doser les différents typers de matériel carbonés présents dans les mâchefers : le carbone organique labile (COL) et et le carbone réfractaire (CR). La caractérisation et le dosage des principales familles organiques (alcanes, acides carboxyliques, hydrocarbures aromatiques polycycliques) ont été réalisées grâce à l'utilisation de divers procédés d'extraction (par solvant à chaud Soxhlet et par fluide supercritique SFE) et d'identification (chrmatographie gazeuse couplée à la spectrométrie de masse GC/MSD). Cette carctérisation fine de la fraction organique a permis d'évaluer le réservoir organique dispoinible et mobilisable à court et à long terme, et également de mettre en évidence la possiblilité de complexation de certains métaux lours avec les acides carboxyliques présents dans les mâchefers en quantité non négligeable. Par ailleurs, des tests d'écotoxicité réalisés sur les mâchefers étudiés apportent une nouvelle approche de la carctérisation du mâchefer. Il est difficile d'effectuer une corrélation directe entre les carctéristiques physico-chimiques du mâchefer (habituellement étudiées) et lerus réponses aux biotests. Par contre, il existerait une relation entre la teneur en acides carboxyliques et l'indice écotoxique de chacun des mâchefers
Ln France, about 50 % of municipal solid wastes are incinerated (with or without energy recuperation). The main solid residue from incineration process is bottom ash. Municipal Solid Waste Incineration (MSWI) bottom ash storage or valorisation poses an ecological and economic problem for industrials and local communities. This study is about characterisation of organic fraction present in MSWI bottom ash as well as its influence in short and long term behaviour of bottom ash. Differentia] Scanning Calorimetry (DSC) is applied to speciation and evaluation of carbon in MSWI residues. This innovative recognition approach highlights and quantifies different types of carboned materials in bottom ash: Labile Organic Carbon (LOG) and Refractory Carbon (RC). Characterisation and dosage of organic compounds (paraffins, carboxylic acids, polycyclic aromatic hydrocarbons) are realised with various extraction (traditional extraction (Soxhlet) and Supercritical Fluid Extraction (SFE)) and identification (Gas Chromatography coupled with mass spectrometer detector (GC-MSD)) methods. This fine characterisation of organic matter has permitted to evaluate the short and long term available and mobilisable organic reservoir, and also the complexation possibility of some metals with carboxylic acids generously present in bottom ash. Moreover, any ecotoxicity tests performed on studied residues gets a new approach of bottom ash characterisation. A direct correlation with bottom ash physico-chemical parameters (usually studied) and its biotests responses is not possible. In opposite, a relation with carboxylic acids content and ecotoxic indice bottom ash is highlight
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Lescoute-Philipps, Aurélie. „Extraction de contraintes structurales à partir de comparaisons de séquences et de structures tridimensionnelles d'ARN“. Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/LESCOUTE-PHILIPPS_Aurelie_2006.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Lescoute-Philipps, Aurélie Westhof Eric. „Extraction de contraintes structurales à partir de comparaisons de séquences et de structures tridimensionnelles d'ARN“. Strasbourg : Université Louis Pasteur, 2006. http://eprints-scd-ulp.u-strasbg.fr:8080/549/01/LESCOUTE_PHILIPPS2006.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Montreuil, Florent. „Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits“. Phd thesis, Rouen, 2011. http://www.theses.fr/2011ROUES047.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la variabilité de structure des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs,. . . ) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes,. . . ) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique,. . . ) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures
The automatic processing of written documents is a very active field in the industry. Indeed, due to the mass of written documents to process, the automatic analysis becomes a necessity, but the performance of current systems is highly variable according to the types of documents processed. For example, treatment of unconstrained handwritten documents remains an unsolved issue because two technological obstacles that hinder the development of reliable automatic processing of handwritten documents : - the first is the recognition of handwritten in those documents - the second is related to the existence of widely variability in the document structures. This thesis focuses on solving the second bolt in the case of unconstrained handwritten documents. For this, we have developed reliable and robust methods to analyze document structures based on the use of Conditional Random Fields. The choice of Conditional Random Fields is motivated by the ability of these graphical models to take into account the relationships between the various entities of the document (words, phrases, blocks,. . . ) and integrate contextual knowledge. In addition, the use of probabilistic modeling gifted learning overcomes the inherent variability of the documents to be processed. The originality of the thesis also addresses the proposal of a hierarchical approach for extracting joint physical (segmentation of the document into blocks, lines, ldots) and logical (functional interpretation of the physical structure) structures by combining low-level physical features (position, graphic,. . . ) and high-level logical (keyword spotting). The experiments carried out on handwritten letters show that the proposed model represents an interesting solution because of its discriminatory character and his natural ability to integrate and contextualize the characteristics of different kinds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Montreuil, Florent. „Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscrits“. Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00652301.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la reconnaissance des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs, ...) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes, ...) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique, ...) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Gutierrez, Alejandro. „Extraction et manipulation d'information structurée sous la forme de graphe à partir de sources de données existantes“. Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0015.

Der volle Inhalt der Quelle
Annotation:
Des applications techniques telles que la gestion des réseaux routiers et électriques nécessitent de manipuler un grand volume d'information structurée sous la forme de graphe. Des problèmes typiques portent sur des parcours de chemins (par exemple, calcul du plus court chemin, du chemin avec la capacité maximale, du nombre de sous-composants d'un composant). Trois aspects principaux rendent difficile l'utilisation des algorithmes classiques pour résoudre ces problèmes a savoir, la taille des réseaux, la complexité de la structure des réseaux et la diversité des sources de données. Dans cette thèse, nous proposons un cadre base sur la notion de vue de graphe qui permet la définition des opérations de graphes et s'adapte à leur diversité de représentations. Une vue de graphe définit un graphe spécifique à partir des données stockées dans des sources différentes. La définition d'une vue de graphe consiste à établir une correspondance entre les éléments d'un graphe et les données sous-jacentes par l'intermédiaire de fonctions qui spécifient les éléments du graphe et la façon par laquelle le graphe peut être parcouru. Des opérateurs de dérivation sont proposes pour définir des nouvelles vues de graphes à partir de celles existantes. Ces opérateurs permettent la composition, dans une seule vue de graphe, de graphes contenant des étiquettes différentes de nœuds et des arcs et issus d'implémentations différentes. Des opérations de graphes telles que les parcours de chemins peuvent entre appliquées sur des vues de graphe de base et dérivées. La spécialisation d'un mécanisme de vue au problème spécifique de gestion de graphes, nous permet de proposer des stratégies adaptées au traitement des opérations de parcours de chemins. Nous validons le cadre proposé en supportant l'opération de fermeture transitive généralisée qui permet de résoudre une variété des problèmes de parcours de chemins. Une évaluation analytique des stratégies a été accomplie, nous permettant d'identifier les paramètres principaux qui influencent le comportement des stratégies pour le traitement de cette opération. Les résultats de cette évaluation ont été partiellement valides par un prototype qui implémente les idées principales du cadre proposé
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Darlay, Julien. „Analyse combinatoire de données : structures et optimisation“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00683651.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur des problèmes d'exploration de données avec le point de vue de la recherche opérationnelle. L'exploration de données consiste en l'apprentissage de nouvelles connaissances à partir d'observations contenues dans une base de données. La nature des problèmes rencontrés dans ce domaine est proche de celle des problèmes de la recherche opérationnelle: grandes instances, objectifs complexes et difficulté algorithmique. L'exploration de données peut aussi se modéliser comme un problème d'optimisation avec un objectif partiellement connu. Cette thèse se divise en deux parties. La première est une introduction à l'exploration de données. Elle présente l'Analyse Combinatoire de Données (ACD), une méthode d'exploration de données issue de l'optimisation discrète. Cette méthode est appliquée à des données médicales originales et une extension aux problèmes d'analyse de temps de survie est proposée. L'analyse de temps de survie consiste à modéliser le temps avant un événement (typiquement un décès ou une rechute). Les heuristiques proposées utilisent des techniques classiques de recherche opérationnelle telles que la programmation linéaire en nombres entiers, la décomposition de problème, des algorithmes gloutons. La seconde partie est plus théorique et s'intéresse à deux problèmes combinatoires rencontrés dans le domaine de l'exploration de données. Le premier est un problème de partitionnement de graphes en sous-graphes denses pour l'apprentissage non supervisé. Nous montrons la complexité algorithmique de ce problème et nous proposons un algorithme polynomial basé sur la programmation dynamique lorsque le graphe est un arbre. Cet algorithme repose sur des résultats de la théorie des couplages. Le second problème est une généralisation des problèmes de couverture par les tests pour la sélection d'attributs. Les lignes d'une matrice sont coloriées en deux couleurs. L'objectif est de trouver un sous-ensemble minimum de colonnes tel que toute paire de lignes avec des couleurs différentes restent distinctes lorsque la matrice est restreinte au sous-ensemble de colonnes. Nous montrons des résultats de complexité ainsi que des bornes serrées sur la taille des solutions optimales pour différentes structures de matrices.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Grove, Alewyn Petrus. „Development of a finite element based nominal stress extraction procedure for fatigue analysis of welded structures“. Diss., University of Pretoria, 2006. http://upetd.up.ac.za/thesis/available/etd-12182007-125836/.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Hartono, Dennis. „Development of time-frequency analysis for extraction of dynamic characteristics for rotating machinery and bridge structures“. Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/52358/.

Der volle Inhalt der Quelle
Annotation:
This work is aimed at developing a new signal processing technology based on time-frequency analysis to extract the dynamic characteristics of rotating machinery and bridge structure. Therefore, the work can be divided into two parts, the condition monitoring of the gearbox and the structural health monitoring of the bridges. The first part of the work aims: (i) to propose a Joint Time-Frequency Analysis (JTFA) method for gear fault diagnosis by using the combined autoregressive (AR) model-based filtering and Reassigned Smoothed Pseudo Wigner-Ville Distribution (RSPWVD) methods; (ii) to investigate the use of both vibration and acoustic measurements for fault diagnosis of a gear system by using the proposed fault diagnosis method. To the best of the author’s knowledge, such RSPWVD method has not been utilized for gearbox applications due to problems with the complexity of signals generated by the gearbox. For this purpose, experiments on a single-stage spur gearbox were carried out on a gearbox test-rig using a single-defect with two different severity levels and double-defect gear tooth faults, utilizing vibration and non-contact acoustic sensing. It was experimentally demonstrated that the proposed fault diagnosis method performed better compared to the Continuous Wavelet Transform, the Smoothed Pseudo Wigner-Ville Distribution and even with the newly introduced parameterized time-frequency method, the General Linear Chirplet Transform. The proposed method can provide a more accurate indication of faults in a gearbox, even for the case of multiple gear defects using both acoustic and vibration measurements. The results demonstrate the potential of using non-contact acoustic measurement using the proposed signal processing method as an alternative sensing method for gear condition monitoring applications. Conversely, another focus of this research is on the structural health monitoring of a bridge with GNSS (Global Navigation Satellite System) measurements. However, the implementation of the time-frequency analysis methods utilized in the condition monitoring of a gearbox is not possible to apply directly due to the large scale of the data set from GNSS measurements. The restriction from the duration-bandwidth principle does not permit accurate tracking of the variation of the natural frequencies in every single epoch measurement from the lengthy data in GNSS measurements. Therefore, a simple yet efficient algorithm using the Fast Fourier Transform (FFT) method is proposed to capture the shifting phenomena of the natural frequencies of the bridge during three-day measurements. It is shown that a GNSS sensor can provide useful information regarding the shifting of natural frequencies that are affected by the variation of the ambient temperature during the field test.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Olofsson, Karl-Johan. „Black-box optimization of simulated light extraction efficiency from quantum dots in pyramidal gallium nitride structures“. Thesis, Linköpings universitet, Matematiska institutionen, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-162235.

Der volle Inhalt der Quelle
Annotation:
Microsized hexagonal gallium nitride pyramids show promise as next generation Light Emitting Diodes (LEDs) due to certain quantum properties within the pyramids. One metric for evaluating the efficiency of a LED device is by studying its Light Extraction Efficiency (LEE). To calculate the LEE for different pyramid designs, simulations can be performed using the FDTD method. Maximizing the LEE is treated as a black-box optimization problem with an interpolation method that utilizes radial basis functions. A simple heuristic is implemented and tested for various pyramid parameters. The LEE is shown to be highly dependent on the pyramid size, the source position and the polarization. Under certain circumstances, a LEE over 17% is found above the pyramid. The results are however in some situations very sensitive to the simulation parameters, leading to results not converging properly. Establishing convergence for all simulation evaluations must be done with further care. The results imply a high LEE for the pyramids is possible, which motivates the need for further research.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Voisin, Bruno. „Approche extraction de connaissance de l'analyse de données astronomiques : application à l'identification croisée multi-[lambda]“. Toulon, 2002. http://www.theses.fr/2002TOUL0011.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Nguyen, Tien Sy. „Extraction de structures fines sur des images texturées : application à la détection automatique de fissures sur des images de surface de chaussées“. Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00592482.

Der volle Inhalt der Quelle
Annotation:
La dernière décennie a vu l'exploitation d'application d'inspection automatique dans plusieurs domaines grâce à l'avancé des capteurs de vision et des méthodes d'analyse de texture et de segmentation d'images. Cependant, la nature difficile des images de chaussées (fortement texturée), la petite taille des défauts (fissures) conduisent au constat que l'inspection dans ce domaine est réalisée manuellement. Chaque année, en France, des opérateurs doivent visualiser des milliers de kilomètres d'images de route pour y relever des dégradations. Cette façon de faire est couteuse, lente et a un résultat plutôt subjectif. L'objectif de ce travail de thèse est de développer une méthode permettant la détection et la classification des fissures automatiquement sur ces images de chaussées. Le coeur de la thèse est une nouvelle méthode de segmentation, la Free Form Anisotropy (FFA). D'une part, elle permet de prendre en compte simultanément les attributs concernant la forme et l'intensité des pixels d'une fissure pour la détection. D'autre part, une nouvelle modélisation est utilisée en recherchant des chemins minima dans des graphes (images) afin de trouver la forme de la fissure dès qu'elle est présente dans l'image. Après la segmentation, l'extraction et la classification de défauts sont réalisées par une transformée de Hough et par le calcul de l'orientation locale des pixels. Les résultats expérimentaux ont été obtenus à partir de plusieurs bases d'images et compares avec des méthodes existantes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Liu, Wenduo. „Alternative structures for integrated electromagnetic passives“. Diss., Virginia Tech, 2006. http://hdl.handle.net/10919/27419.

Der volle Inhalt der Quelle
Annotation:
The demand for high power density keeps driving the development of electromagnetic integration technologies in the field of power electronics. Based on planar homogeneous integrated structures, the mechanism of the electromagnetic integration of passives has been investigated with distributed-parameter models. High order modeling of integrated passives has been developed to investigate the electromagnetic performance. The design algorithm combining electromagnetic design and loss models has been developed to optimize and evaluate the spiral winding structure. High power density of 480 W/in3 has been obtained on the prototype. Due to the structural limitation, the currently applied planar spiral winding structure does not sufficiently utilize the space, and the structure is mechanically vulnerable. The improvement on structures is necessary for further application of integrated passives. The goal of this research is to investigate and evaluate alternative structures for high-power-density integrated passives. The research covers electromagnetic modeling, constructional study, design algorithm, loss modeling, thermal management and implementation technology The symmetric single layer structure and the stacked structure are proposed to overcome the disadvantages of the currently applied planar spiral winding structure. Because of the potential of high power density and low power loss, the stacked structure is selected for further research. The structural characteristics and the processing technologies are addressed. By taking an integrated LLCT module as the study case, the general design algorithm is developed to find out a set of feasible designs. The obtained design maps are used to evaluate the constraints from spatial, materials and processing technologies for the stacked structure. Based on the assumption of one-dimensional magnetic filed on the cross-section and linear current distribution along the longitudinal direction of the stacked structure, the electromagnetic field distribution is analyzed and the loss modeling is made. The experimental method is proposed to measure the loss and to verify the calculation. The power loss in the module leads to thermal issues, which limit the processed power of power electronics modules and thus limit the power density. To further improve the power handling ability of the module, the thermal management is made based on loss estimation. The heat extraction technology is developed to improve the heat removal ability and further improve the power density of integrated passives. The experimental results verify the power density improvement from the proposed stacked structure and the applied heat extraction technology. The power density of 1147 W/in3 (70 W/cm3) is achieved in the implemented LLCT module with the efficiency of 97.8% at output power of 1008W.
Ph. D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Saidi, Rabie. „Motif extraction from complex data : case of protein classification“. Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22272/document.

Der volle Inhalt der Quelle
Annotation:
La classification est l’un des défis important en bioinformatique, aussi bien pour les données protéiques que nucléiques. La présence de ces données en grandes masses, leur ambiguïté et en particulier les coûts élevés de l’analyse in vitro en termes de temps et d’argent, rend l’utilisation de la fouille de données plutôt une nécessité qu’un choix rationnel. Cependant, les techniques fouille de données, qui traitent souvent des données sous le format relationnel, sont confrontés avec le format inapproprié des données biologiques. Par conséquent, une étape inévitable de prétraitement doit être établie. Cette thèse traite du prétraitement de données protéiques comme une étape de préparation avant leur classification. Nous présentons l’extraction de motifs comme un moyen fiable pour répondre à cette tâche. Les motifs extraits sont utilisés comme descripteurs, en vue de coder les protéines en vecteurs d’attributs. Cela permet l’utilisation des classifieurs connus. Cependant, la conception d’un espace appropié d’attributs, n’est pas une tâche triviale. Nous traitons deux types de données protéiques à savoir les séquences et les structures 3D. Dans le premier axe, i:e:; celui des séquences, nous proposons un nouveau procédé de codage qui utilise les matrices de substitution d’acides aminés pour définir la similarité entre les motifs lors de l’étape d’extraction. En utilisant certains classifieurs, nous montrons l’efficacité de notre approche en la comparant avec plusieurs autres méthodes de codage. Nous proposons également de nouvelles métriques pour étudier la robustesse de certaines de ces méthodes lors de la perturbation des données d’entrée. Ces métriques permettent de mesurer la capacité d’une méthode de révéler tout changement survenant dans les données d’entrée et également sa capacité à cibler les motifs intéressants. Le second axe est consacré aux structures protéiques 3D, qui ont été récemment considérées comme graphes d’acides aminés selon différentes représentations. Nous faisons un bref survol sur les représentations les plus utilisées et nous proposons une méthode naïve pour aider à la construction de graphes d’acides aminés. Nous montrons que certaines méthodes répandues présentent des faiblesses remarquables et ne reflètent pas vraiment la conformation réelle des protéines. Par ailleurs, nous nous intéressons à la découverte, des sous-structures récurrentes qui pourraient donner des indications fonctionnelles et structurelles. Nous proposons un nouvel algorithme pour trouver des motifs spatiaux dans les protéines. Ces motifs obéissent à un format défini sur la base d’une argumentation biologique. Nous comparons avec des motifs séquentiels et spatiaux de certains travaux reliés. Pour toutes nos contributions, les résultats expérimentaux confirment l’efficacité de nos méthodes pour représenter les séquences et les structures protéiques, dans des tâches de classification. Les programmes développés sont disponibles sur ma page web http://fc.isima.fr/~saidi
The classification of biological data is one of the significant challenges inbioinformatics, as well for protein as for nucleic data. The presence of these data in hugemasses, their ambiguity and especially the high costs of the in vitro analysis in terms oftime and resources, make the use of data mining rather a necessity than a rational choice.However, the data mining techniques, which often process data under the relational format,are confronted with the inappropriate format of the biological data. Hence, an inevitablestep of pre-processing must be established.This thesis deals with the protein data preprocessing as a preparation step before theirclassification. We present motif extraction as a reliable way to address that task. The extractedmotifs are used as descriptors to encode proteins into feature vectors. This enablesthe use of known data mining classifiers which require this format. However, designing asuitable feature space, for a set of proteins, is not a trivial task.We deal with two kinds of protein data i:e:, sequences and tri-dimensional structures. In thefirst axis i:e:, protein sequences, we propose a novel encoding method that uses amino-acidsubstitution matrices to define similarity between motifs during the extraction step. Wedemonstrate the efficiency of such approach by comparing it with several encoding methods,using some classifiers. We also propose new metrics to study the robustness of some ofthese methods when perturbing the input data. These metrics allow to measure the abilityof the method to reveal any change occurring in the input data and also its ability to targetthe interesting motifs. The second axis is dedicated to 3D protein structures which are recentlyseen as graphs of amino acids. We make a brief survey on the most used graph-basedrepresentations and we propose a naïve method to help with the protein graph making. Weshow that some existing and widespread methods present remarkable weaknesses and do notreally reflect the real protein conformation. Besides, we are interested in discovering recurrentsub-structures in proteins which can give important functional and structural insights.We propose a novel algorithm to find spatial motifs from proteins. The extracted motifsmatch a well-defined shape which is proposed based on a biological basis. We compare withsequential motifs and spatial motifs of recent related works. For all our contributions, theoutcomes of the experiments confirm the efficiency of our proposed methods to representboth protein sequences and protein 3D structures in classification tasks.Software programs developed during this research work are available on my home page http://fc.isima.fr/~saidi
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Fortin, Frédéric. „Etude de structures couplées adaptées aux composants hyperfréquences intégrables“. Chambéry, 2000. http://www.theses.fr/2000CHAMS027.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Morariu, Cosmin Adrian [Verfasser], und Josef [Akademischer Betreuer] Pauli. „Extraction of Complex Fine Structures in 3D & 2D Medical Image Data / Cosmin Adrian Morariu ; Betreuer: Josef Pauli“. Duisburg, 2019. http://d-nb.info/1191692256/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

ZEKRI, Dorsaf. „Agrégation et extraction des connaissances dans les réseaux inter-véhicules“. Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-00826971.

Der volle Inhalt der Quelle
Annotation:
Les travaux réalisés dans cette thèse traitent de la gestion des données dans les réseaux inter-véhiculaires (VANETs). Ces derniers sont constitués d'un ensemble d'objets mobiles qui communiquent entre eux à l'aide de réseaux sans fil de type IEEE 802.11, Bluetooth, ou Ultra Wide Band (UWB). Avec de tels mécanismes de communication, un véhicule peut recevoir des informations de ses voisins proches ou d'autres plus distants, grâce aux techniques de multi-sauts qui exploitent dans ce cas des objets intermédiaires comme relais. De nombreuses informations peuvent être échangées dans le contexte des "VANETs", notamment pour alerter les conducteurs lorsqu'un événement survient (accident, freinage d'urgence, véhicule quittant une place de stationnement et souhaitant en informer les autres, etc.). Au fur et à mesure de leurs déplacements, les véhicules sont ensuite " contaminés " par les informations transmises par d'autres. Dans ce travail, nous voulons exploiter les données de manière sensiblement différente par rapport aux travaux existants. Ces derniers visent en effet à utiliser les données échangées pour produire des alertes aux conducteurs. Une fois ces données utilisées, elles deviennent obsolètes et sont détruites. Dans ce travail, nous cherchons à générer dynamiquement à partir des données collectées par les véhicules au cours de leur trajet, un résumé (ou agrégat) qui fourni des informations aux conducteurs, y compris lorsqu'aucun véhicule communicant ne se trouve pas à proximité. Pour ce faire, nous proposons tout d'abord une structure d'agrégation spatio-temporelle permettant à un véhicule de résumer l'ensemble des événements observés. Ensuite, nous définissons un protocole d'échange des résumés entre véhicules sans l'intermédiaire d'une infrastructure, permettant à un véhicule d'améliorer sa base de connaissances locale par échange avec ses voisins. Enfin, nous définissons nos stratégies d'exploitation de résumé afin d'aider le conducteur dans la prise de décision. Nous avons validé l'ensemble de nos propositions en utilisant le simulateur " VESPA " en l'étendant pour prendre en compte la notion de résumés. Les résultats de simulation montrent que notre approche permet effectivement d'aider les conducteurs à prendre de bonnes décisions, sans avoir besoin de recourir à une infrastructure centralisatrice
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Jang, Do Young. „Transport properties and low-frequency noise in low-dimensional structures“. Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT096/document.

Der volle Inhalt der Quelle
Annotation:
Les propriétés électriques et physiques de structures à faible dimensionalité ont été étudiées pour des applications dans des domaines divers comme l’électronique, les capteurs. La mesure du bruit bruit à basse fréquence est un outil très utile pour obtenir des informations relatives à la dynamique des porteurs, au piègeage des charges ou aux mécanismes de collision. Dans cette thèse, le transport électronique et le bruit basse fréquence mesurés dans des structures à faible dimensionnalité comme les dispositifs multi-grilles (FinFET, JLT…), les nanofils 3D en Si/SiGe, les nanotubes de carbone ou à base de graphène sont présentés. Pour les approches « top-down » et « bottom-up », l’impact du bruit est analysé en fonction de la dimensionalité, du type de conduction (volume vs surface), de la contrainte mécanique et de la présence de jonction metal-semiconducteur
Electrical and physical properties of low-dimensional structures have been studied for the various applications such as electronics, sensors, and etc. Low-frequency noise measurement is also a useful technique to give more information for the carrier dynamics correlated to the oxide traps, channel defects, and scattering. In this thesis, the electrical transport and low-frequency noise of low-dimensional structure devices such as multi-gate structures (e.g. FinFETs and Junctionless FETs), 3-D stacked Si/SiGe nanowire FETs, carbon nanotubes, and graphene are presented. From the view point of top-down and bottom-up approaches, the impacts of LF noise are investigated according to the dimensionality, conduction mechanism (surface or volume conduction), strain technique, and metal-semiconductor junctions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Brudieux, Véronique. „Extraction, modification enzymatique et caractérisation chimique de nouvelles structures pectiques : application de la relation structure/activité à la dermocosmétique“. Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/7d830b54-6fee-461e-8c54-9cd84e773544/blobholder:0/2007LIMO4060.pdf.

Der volle Inhalt der Quelle
Annotation:
Les polysaccharides et plus particulièrement les pectines sont des molécules d'intérêt biologique dont nos travaux démontrent qu'elles peuvent être utilisées par l'industrie dermocosmétique. C'est sur ce thème que la société SILAB et le Laboratoire de Chimie des Substances Naturelles ont décidé d'engager une étude prospective. Dans une première partie, nous nous sommes intéressés au rhamnogalacturonane de type I dont la variabilité chimique a été approchée après screening réalisé sur 11 matières végétales. Les protocoles ont été transférés puis optimisés à une échelle permettant, pour trois de ces matières (son de châtaigne, marc de pomme et marc de raisin) leur industrialisation, et pour l'une d'elles (son de châtaigne), leur commercialisation. La structure chimique des RG-I testés explique par ailleurs leur capacité à moduler la prolifération de kératinocytes. Dans une deuxième partie, un galacturonane substitué de la famille des apiogalacturonanes est étudié. Extrait de Zostera marina, sa structure a été caractérisée par spectroscopie RMN et ses propriétés précisées dans le domaine de l'oncologie cellulaire et moléculaire
Polysaccharides and, more particularly, pectins are molecules of biological interest that, as exemplified by the present work, can be used by the dermocosmetic industry. The SILAB company and the Laboratoire de Chimie des Substances Naturelles mounted a joint prospective study on this theme. Firstly, we studied the chemical variability of type I rhamnogalacturonans (RG-I) extracted from 11 different plant materials. Experimental protocols designed for three of these materials (chestnut bran, apple marc and grape marc) have been transferred and optimised at a scale allowing their industrialization and, for one of them (chestnut bran), its marketing. The chemical structure of the tested RG-I explained their ability to modulate keratinocyte proliferation. In a second part, we studied a substituted galacturonan of the apiogalacturonan family, extracted from the seaweed Zostera marina. We characterized the chemical structure of this polysaccharide by the means of NMR spectroscopy and we studied its properties in relation to cellular and molecular oncology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Soussou, Assawer. „Modeling and characterization of electrical effects of Ge integration in Metal/High-k/SiGe MOS structures“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT018/document.

Der volle Inhalt der Quelle
Annotation:
L'introduction du SiGe dans les pMOS (Bulk et FDSOI) exige un bon contrôle de la tension de seuil (VT). Ceci nécessite une extraction précise des paramètres électriques ainsi qu'une compréhension des effets électriques du Ge dans de tels dispositifs. Dans cette thèse, nous avons d'abord proposé des méthodes pour une identification précise des paramètres électriques du « gate stack »: VT, la tension de bande plate (VFB) et l'épaisseur équivalente d'oxyde (EOT). Ces méthodes ont été validées avec des simulations Poisson-Schrödinger (PS) et appliquées avec succès aux mesures. Dans un second temps, nous avons étudié les effets électriques du Ge sur les paramètres du « gate stack » des pMOS. La comparaison des caractérisations électriques (C-V) avec les simulations PS a montré un décalage supplémentaire du travail de sortie effectif qui croit avec le Ge. Des caractérisations STEM, EELS et SIMS ont prouvé que ce décalage est due à la présence de dipôles à l'interface SiGe/oxyde
Maintaining good threshold voltage (VT) centering is a paramount challenge for CMOS technology. The SiGe introduction in bulk and FDSOI pFETs requires VT control for such devices. To this end, we have to extract accurately electrical parameters and to understand Ge integration effects in SiGe based pFETs. In this thesis, first, we have proposed extraction methods to determine VT, flat band voltage (VFB) and equivalent oxide thickness (EOT) parameters in bulk and FDSOI transistors. The extraction methods have been validated via Poisson-Schrodinger (PS) simulations and successfully applied to measurements. Second, we have highlighted and explained electric effects of Ge on pMOS gate stack parameters. Electrical characterizations compared with PS simulations have evidenced an additional effective work function increase, induced by Ge, related to interfacial dipoles. STEM, EELS and SIMS characterizations have demonstrated that dipoles are located at SiGe/IL interface
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Termier, Alexandre. „Extraction d'arbres fréquents dans un corpus hétérogène de données semi-structurées : application à la fouille de document XML“. Paris 11, 2004. http://www.theses.fr/2004PA11A002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Schwartz, Uwe [Verfasser], und Gernot [Akademischer Betreuer] Längst. „Functional Chromatin Extraction: A method to study DNA accessibility in higher-order structures of chromatin / Uwe Schwartz ; Betreuer: Gernot Längst“. Regensburg : Universitätsbibliothek Regensburg, 2021. http://d-nb.info/1238897096/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Olivier, Ségolène. „Nouvelles structures miniatures dans des cristaux photoniques bidimensionnels planaires pour les fonctions de l'optique intégrée“. Paris 6, 2002. http://www.theses.fr/2002PA066454.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Slomka, Stefan. „Multiple classifier structures for automatic speaker recognition under adverse conditions“. Thesis, Queensland University of Technology, 1999.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Fauconnier, Jean-Philippe. „Acquisition de liens sémantiques à partir d'éléments de mise en forme des textes : exploitation des structures énumératives“. Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30023.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années de nombreux progrès ont été faits dans le domaine de l'extraction de relations à partir de textes, facilitant ainsi la construction de ressources lexicales ou sémantiques. Cependant, les méthodes proposées (apprentissage supervisé, méthodes à noyaux, apprentissage distant, etc.) n'exploitent pas tout le potentiel des textes : elles ont généralement été appliquées à un niveau phrastique, sans tenir compte des éléments de mise en forme. Dans ce contexte, l'objectif de cette thèse est d'adapter ces méthodes à l'extraction de relations exprimées au-delà des frontières de la phrase. Pour cela, nous nous appuyons sur la sémantique véhiculée par les indices typographiques (puces, emphases, etc.) et dispositionnels (indentations visuelles, retours à la ligne, etc.), qui complètent des formulations strictement discursives. En particulier, nous étudions les structures énumératives verticales qui, bien qu'affichant des discontinuités entre leurs différents composants, présentent un tout sur le plan sémantique. Ces structures textuelles sont souvent révélatrices de relations hiérarchiques. Notre travail est divisé en deux parties. (i) La première partie décrit un modèle pour représenter la structure hiérarchique des documents. Ce modèle se positionne dans la suite des modèles théoriques proposés pour rendre compte de l'architecture textuelle : une abstraction de la mise en forme et une connexion forte avec la structure rhétorique sont faites. Toutefois, notre modèle se démarque par une perspective d'analyse automatique des textes. Nous en proposons une implémentation efficace sous la forme d'une méthode ascendante et nous l'évaluons sur un corpus de documents PDF.(ii) La seconde partie porte sur l'intégration de ce modèle dans le processus d'extraction de relations. Plus particulièrement, nous nous sommes focalisés sur les structures énumératives verticales. Un corpus a été annoté selon une typologie multi-dimensionnelle permettant de caractériser et de cibler les structures énumératives verticales porteuses de relations utiles à la création de ressources. Les observations faites en corpus ont conduit à procéder en deux étapes par apprentissage supervisé pour analyser ces structures : qualifier la relation puis en extraire les arguments. L'évaluation de cette méthode montre que l'exploitation de la mise en forme, combinée à un faisceau d'indices lexico-syntaxiques, améliore les résultats
The past decade witnessed significant advances in the field of relation extraction from text, facilitating the building of lexical or semantic resources. However, the methods proposed so far (supervised learning, kernel methods, distant supervision, etc.) don't fully exploit the texts : they are usually applied at the sentential level and they don't take into account the layout and the formatting of texts. In such a context, this thesis aims at expanding those methods and makes them layout-aware for extracting relations expressed beyond sentence boundaries. For this purpose, we rely on the semantics conveyed by typographical (bullets, emphasis, etc.) and dispositional (visual indentations, carriage returns, etc.) features. Those features often substitute purely discursive formulations. In particular, the study reported here is dealing with the relations carried by the vertical enumerative structures. Although they display discontinuities between their various components, the enumerative structures can be dealt as a whole at the semantic level. They form textual structures prone to hierarchical relations. This study was divided into two parts. (i) The first part describes a model representing the hierarchical structure of documents. This model is falling within the theoretical framework representing the textual architecture : an abstraction of the layout and the formatting, as well as a strong connection with the rhetorical structure are achieved. However, our model focuses primarily on the efficiency of the analysis process rather than on the expressiveness of the representation. A bottom-up method intended for building automatically this model is presented and evaluated on a corpus of PDF documents. (ii) The second part aims at integrating this model into the process of relation extraction. In particular, we focused on vertical enumerative structures. A multidimensional typology intended for characterizing those structures was established and used into an annotation task. Thanks to corpus-based observations, we proposed a two-step method, by supervised learning, for qualifying the nature of the relation and identifying its arguments. The evaluation of our method showed that exploiting the formatting and the layout of documents, in combination with standard lexico-syntactic features, improves those two tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Jara-Almonte, J. „Extraction of eigen-pairs from beam structures using an exact element based on a continuum formulation and the finite element method“. Diss., Virginia Polytechnic Institute and State University, 1985. http://hdl.handle.net/10919/54300.

Der volle Inhalt der Quelle
Annotation:
Studies of numerical methods to decouple structure and fluid interaction have reported the need for more precise approximations of higher structure eigenvalues and eigenvectors than are currently available from standard finite elements. The purpose of this study is to investigate hybrid finite element models composed of standard finite elements and exact-elements for the prediction of higher structure eigenvalues and eigenvectors. An exact beam-element dynamic-stiffness formulation is presented for a plane Timoshenko beam with rotatory inertia. This formulation is based on a converted continuum transfer matrix and is incorporated into a typical finite element program for eigenvalue/vector problems. Hybrid models using the exact-beam element generate transcendental, nonlinear eigenvalue problems. An eigenvalue extraction technique for this problem is also implemented. Also presented is a post-processing capability to reconstruct the mode shape each of exact element at as many discrete locations along the element as desired. The resulting code has advantages over both the standard transfer matrix method and the standard finite element method. The advantage over the transfer matrix method is that complicated structures may be modeled with the converted continuum transfer matrix without having to use branching techniques. The advantage over the finite element method is that fewer degrees of freedom are necessary to obtain good approximations for the higher eigenvalues. The reduction is achieved because the incorporation of an exact-beam-element is tantamount to the dynamic condensation of an infinity of degrees of freedom. Numerical examples are used to illustrate the advantages of this method. First, the eigenvalues of a fixed-fixed beam are found with purely finite element models, purely exact-element models, and a closed-form solution. Comparisons show that purely exact-element models give, for all practical purposes, the same eigenvalues as a closed-form solution. Next, a Portal Arch and a Verdeel Truss structure are modeled with hybrid models, purely finite element, and purely exact-element models. The hybrid models do provide precise higher eigenvalues with fewer degrees of freedom than the purely finite element models. The purely exact-element models were the most economical for obtaining higher structure eigenvalues. The hybrid models were more costly than the purely exact-element models, but not as costly as the purely finite element models.
Ph. D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie