Siga este enlace para ver otros tipos de publicaciones sobre el tema: Génération de données de synthèse.

Tesis sobre el tema "Génération de données de synthèse"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Génération de données de synthèse".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Molinari, Isabelle. "Test de génération de thrombine sur ACL7000 (développement d'un programme de traitement des données sur Microsoft Excel et éléments d'analyse de l'intérêt du test dans les états d'hypercoagulabilité)". Bordeaux 2, 1999. http://www.theses.fr/1999BOR23102.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Pazat, Jean-Louis. "Génération de code réparti par distribution de données". Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Baez, miranda Belen. "Génération de récits à partir de données ambiantes". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Texto completo
Resumen
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Morisse, Pierre. "Correction de données de séquençage de troisième génération". Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR043/document.

Texto completo
Resumen
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain
The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Khalili, Malika. "Nouvelle approche de génération multi-site des données climatiques". Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/580/1/KHALILI_Malika.pdf.

Texto completo
Resumen
Les générateurs de climat sont des outils statistiques permettant de générer de longues séries temporelles de variables climatiques et de simuler le climat futur en tenant compte des scénarios de changements climatiques. La dépendance spatiale est une propriété primordiale des données climatiques négligée par les générateurs de climat uni-site. La présente thèse a permis de développer une approche de génération multi-site des données climatiques basée sur le concept d'autocorrélation spatiale. L'approche a permis de reproduire simultanément dans les séries générées de données climatiques, les autocorrélations spatiales observées sur l'ensemble des stations météorologiques et les corrélations observées entre les couples de stations. L'approche est appliquée avec succès au bassin versant de la rivière Péribonca situé dans la province du Québec, Canada Une étude hydrologique a permis de confirmer la performance du générateur multi-site développé et sa capacité à évaluer avec plus de précision et de fiabilité les impacts des changements climatiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Genestier, Richard. "Vérification formelle de programmes de génération de données structurées". Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2041/document.

Texto completo
Resumen
Le problème général de la preuve de propriétés de programmes impératifs est indécidable. Pour deslangages de programmation et de propriétés plus restrictifs, des sous-problèmes décidables sontconnus. En pratique, grâce à des heuristiques, les outils de preuve de programmes automatisent despreuves qui sortent du cadre théorique de ces sous-problèmes décidables connus. Nous illustronscette réussite pratique en construisant un catalogue de preuves, pour des programmes et despropriétés de nature similaire et de complexité croissante. Ces programmes sont principalementdes générateurs de cartes combinatoires.Ainsi, ce travail contribue aux domaines de recherche de la combinatoire énumérative et dugénie logiciel. Nous distribuons une bibliothèque C de générateurs exhaustifs bornés de tableauxstructurés, formellement spécifiés en ACSL et vérifiés avec le greffon WP de la plateforme d’analyseFrama-C. Nous proposons également une méthodologie de test qui facilite la preuve interactive enCoq, une étude formelle des cartes originale, et de nouveaux résultats en combinatoire énumérative
The general problem of proving properties of imperative programs is undecidable. Some subproblems– restricting the languages of programs and properties – are known to be decidable. Inpractice, thanks to heuristics, program proving tools sometimes automate proofs for programs andproperties living outside of the theoretical framework of known decidability results. We illustrate thisfact by building a catalog of proofs, for similar programs and properties of increasing complexity. Mostof these programs are combinatorial map generators.Thus, this work contributes to the research fields of enumerative combinatorics and softwareengineering. We distribute a C library of bounded exhaustive generators of structured arrays, formallyspecified in ACSL and verified with the WP plugin of the Frama-C analysis platform. We also proposea testing-based methodology to assist interactive proof in Coq, an original formal study of maps, andnew results in enumerative combinatorics
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hattab, Z'hour. "Synthèse d'hétérocycles phosphorylés dérivés d'acides aminés : Application à la synthèse d'antitumoraux de nouvelle génération". Paris 13, 2010. http://www.theses.fr/2010PA132033.

Texto completo
Resumen
Les oxazaphosphorinanes sont des agents alkylants utilisés en chimiothérapie mais présentant des effets indésirables et une certaine toxicité. D’autre part, les bisphosphonates sont des composés utilisés dans le traitement de l’ostéoporose et des métastases osseuses. Ils présentent également des effets secondaires non-négligeables et une faible biodisponibilité lorsqu’ils sont administrés par voie orale, due à leur faible lipophilie. Notre étude a donc porté sur la synthèse d’hétérocycles phosphorylés dérivés d’acides aminés du type oxazaphospholidinones et sur leur couplage avec des bisphosphonates afin d’obtenir des molécules antitumorales de nouvelle génération. Elles devraient être alors plus efficaces à plus faible dose, afin de diminuer les effets secondaires engendrés. Dans un premier temps, il a fallu synthétiser, à partir de dérivés d’amino-alcools, des oxazaphospholidinones protégées sur l’atome d’azote. Différents groupes protecteurs ont été introduits : benzyl, tert-butyloxycarbonyl (Boc) ou benzyloxycarbonyl (Cbz). Ces composés ont été obtenus sous forme de mélange de deux diastéréoisomères (P2S,C4S et P2R,C4S ; la configuration C4S étant fixée par la configuration de l’amino-acide de départ). Ils ont pu être séparés par chromatographie sur colonne ou cristallisation. Les diastéréoisomères ont été caractérisés par spectroscopies IR et RMN et spectrométrie de masse et ont fait l’objet d’études cristallographiques. La deuxième partie de notre travail présente la déprotection du groupement benzyloxycarbonyl (Cbz), mais également les essais d’hydrogénolyse ou d’oxydation du groupe benzyl qui n’ont pas abouti. Enfin, les essais de couplage du bisphosphonate sur l’oxazaphospholidine protégée n’ont malheureusement pas permis d’obtenir les composés ciblés
Oxazaphosphorinanes are alkylant agents used in chemotherapy but showing undesirable effects and toxicity. On the other hand, bisphosphonates are compounds used in the treatment of osteoporosis and bone metastases. They generate some side effects and have a poor bioavailability by oral absorption, due to their poor lipophilicity. Our study consisted in synthesize phosphorylated heterocycles derivated from aminoacids called oxazaphospholidinones and their coupling with bisphosphonates in order to obtain new antitumoral molecules. They could be more efficient with less undesirable effects. In a first part, we have synthesized nitrogen-protected oxazaphospholidinones from amino-alcohols. Different protective groups have been studied : benzyl, tert-butyloxycarbonyl (Boc) or benzyloxycarbonyl (Cbz). These compounds were obtained as a mixture of two diastereoisomers (P2S,C4S and P2R,C4S ; the configuration C4S was fixed by the configuration of the starting aminoacid). They were separated by column chromatography or crystallization. Diastereoisomers were characterized by IR and NMR spectroscopies and mass spectrometry and a crystallographic study was realized. In the second part, we present the deprotection of the benzyloxycarbonyl group (Cbz) and the unsuccessful hydrogenolysis or oxidation assays of benzyl group. Lastly, coupling of bisphosphonate with protected oxazaphospholidine unfortunately failed
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Texto completo
Resumen
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Effantin, dit Toussaint Brice. "Colorations de graphes et génération exhaustive d'arbres". Dijon, 2003. http://www.theses.fr/2003DIJOS021.

Texto completo
Resumen
Les travaux de recherche présentés dans ce mémoire montrent deux approches de la théorie des graphes. Dans un premier temps, nous caractérisons certains graphes en utilisant la coloration de graphes. Ainsi nous étudions deux paramètres de coloration qui maximisent le nombre de couleurs utilisées et mettent en évidence certains ensembles dominants de sommets pour les graphes étudiés (graphes puissances, somme cartésienne de graphes). Dans un second temps, nous étudions divers algorithmes de génération pour des arbres binaires particuliers. En effet, le morphing de polygones (problème sous-jacent au morphing d'images) peut être réalisé par une suite de rotations d'arbres binaires étiquetés. Nous présentons également des algorithmes de génération des arbres binaires étiquetés et des arbres binaires non ordonnés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Chevrier, Christine. "Génération de séquences composées d'images de synthèse et d'images vidéo". Nancy 1, 1996. http://www.theses.fr/1996NAN10121.

Texto completo
Resumen
Les études d'impact en architecture sont réalisées jusqu'à présent sur la base de dessins, de photographies retouchées, de maquettes ou plus récemment encore d'images de synthèse. Mais ces techniques sont coûteuses et peu réalistes. La synthèse d'image seule nécessite une modélisation tridimensionnelle non seulement de la future construction mais aussi de son environnement (immeubles, rues, ouvrages d'art, végétation, etc). Cette façon de procéder s'avère longue et fournit des images peu réalistes eu égard à la complexité du monde réel et à l'impossibilité d'en modéliser tous les détails. La composition d'images de synthèse et de photographies peut être un autre moyen de représentation plus fiable et plus rapide. L'incrustation d'images de synthèse de projets dans leur site réel que l'on a préalablement photographié est une technique prometteuse à la fois du point de vue temps car elle ne nécessite pas de modélisation détaillée de l'environnement existant, et du point de vue réalisme car celui-ci est garanti par la photographie même. Une telle technique où la réalité est «augmentée» par l'addition d'images d'objets qui ne sont encore que virtuels (puisqu'à l'état de projet) pose néanmoins de nombreux problèmes qu'il convient de résoudre pour obtenir une cohérence au niveau de l'image, à la fois du point de vue géométrique et du point de vue photométrique. Pour ce faire, la conception et la mise en oeuvre de modèles d'analyse et de synthèse d'images sont nécessaires. Appliquée dans le cadre du calcul d'une séquence d'images (ou film vidéo) et non plus dans celui d'une seule image, cette technique peut augmenter le réalisme d'une simulation de façon spectaculaire. L’objectif de ce travail était la mise au point, le test et l'intégration de diverses méthodes d'analyse et de synthèse pour la composition réaliste d'images de synthèse et d'images vidéo dans le cadre de la simulation de projets d'architecture et de projets urbains. Ce mémoire présente les différentes étapes nécessaires à l'incrustation réaliste d'objets virtuels dans un environnement réel. Pour chacune de ces étapes, diverses méthodes ont été proposées, mises en oeuvre et testées afin de sélectionner la ou les solutions les plus adaptées et de les intégrer dans la plate-forme de développement de l'équipe. L'application de cette étude a été la simulation du projet d'éclairage du Pont Neuf à Paris dans une séquence vidéo. Parallèlement à ce travail d'intégration, je me suis plus particulièrement intéressée au problème posé par la génération de séquences d'images de synthèse afin d'accélérer le processus d'incrustation de ces images dans des films vidéo. Une nouvelle technique d'interpolation d'images de synthèse est ainsi présentée (dans le cas où un observateur se déplace dans une scène statique). Cette méthode est générale (non limitée aux environnements parfaitement diffus) et ne requiert aucune approximation du mouvement de la caméra. De plus, cette méthode permet d'interpoler des images entrelacées comme le sont les images vidéo, dans le but d'un meilleur résultat visuel
The visual impact assessment of architectural projects in urban environments is usually based on manual drawings, paintings on photographs, scale models or computer-generated images. These techniques are either too expensive or not realistic enough. Strictly using computer images means requiring an accurate 3D model of the environment. Computing such a model takes a long time and the results lack of visual accuracy. Our technique of overlaying computer generated images onto photographs of the environment is considerably more effective and reliable. This method is a promising solution regarding computation time (no accurate 3D model of the environment) as weIl as visual realism (provided by the photograph itself). Such a solution requires nevertheless to solve lots of problems in order to get geometrical and photometrical coherence in the resulting image. To this end, image analysis and image synthesis methods have to be designed and developed. The method is generalized to produce an animated film, and can furthermore greatly increase the realism of the simulation. My Ph. D. Work was to test and integrate various image analysis and synthesis techniques for the composition of computer generated images with pictures or video film. This report explains the steps required for a realistic encrustation. For each of these steps, various techniques were tested in order to be able to choose the most suitable solutions according to the state of the most recent researches and to the applications we were dealing with (architectural and urban projects). The application of this work was the simulation of the Paris Bridges illumination projects. Concurrently to this work, I present a new method for the interpolation of computer images for the generation of a sequence of images. This method requires no approximation of the camera motion. Since video images are interlaced, sequences of computer images need to be interleaved too. The interpolation technique we propose is capable of doing this
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Lagrange, Jean-Philippe. "Ogre : un système expert pour la génération de requêtes relationnelles". Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090035.

Texto completo
Resumen
Le but du travail présenté ici est d'affranchir le développeur de programmes d'application de la nécessité de construire ses requêtes en fonction du schéma logique de la base de données. La démarche retenue est de proposer un langage d'interrogation ne faisant référence qu'au schéma conceptuel, le système assurant la construction des requêtes au SGBD à partir de spécifications écrites dans ce langage. Par ailleurs, un des objectifs vises, par opposition aux travaux antérieurs, est d'imposer le moins de contraintes possible pour le schéma logique (relationnel) et pour le schéma conceptuel associe. Pour cela on propose: une mise en correspondance souple entre le schéma relationnel et un schéma conceptuel exprime en fonction d'un modèle d'une grande puissance d'expression; de faire assurer la génération des requetés par un système à base de connaissances, qui s'appuie sur des connaissances relatives à la base de données, une méta-base, et sur des connaissances déductives, des règles d'analyse et de génération des requêtes. On trouvera ici une analyse de l'état de l'art dans le domaine des interfaces de requêtes, une définition du modèle conceptuel er#+, et du langage de requête de ogre, et une description des trois principaux modules du système: constitution de la méta-base, analyse et reformulation des spécifications et enfin génération des requêtes
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Prost-Boucle, A. "Génération rapide d'accélérateurs matériels par synthèse d'architecture sous contraintes de ressources". Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01071661.

Texto completo
Resumen
Bien que les FPGA soient très attrayants pour leur performance et leur faible consommation, leur emploi en tant qu'accélérateurs matériels reste marginal. Les logiciels de développement existants ne sont en effet accessibles qu'à un public expert en conception de circuits. Afin de repousser leurs limites, une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée. En appliquant des transformations successives à une solution initiale, le processus converge rapidement et permet de respecter strictement des contraintes matérielles, notamment en ressources. Un logiciel démonstrateur, AUGH, a été construit, et des expérimentations ont été menées sur plusieurs applications reconnues. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Prost-Boucle, Adrien. "Génération rapide d'accélerateurs matériels par synthèse d'architecture sous contraintes de ressources". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT039/document.

Texto completo
Resumen
Dans le domaine du calcul générique, les circuits FPGA sont très attrayants pour leur performance et leur faible consommation. Cependant, leur présence reste marginale, notamment à cause des limitations des logiciels de développement actuels. En effet, ces limitations obligent les utilisateurs à bien maîtriser de nombreux concepts techniques. Ils obligent à diriger manuellement les processus de synthèse, de façon à obtenir une solution à la fois rapide et conforme aux contraintes des cibles matérielles visées.Une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée afin de repousser ces limites. L'exploration des solutions consiste en l'application de transformations itératives à un circuit initial, ce qui accroît progressivement sa rapidité et sa consommation en ressources. La rapidité de ce processus, ainsi que sa convergence sous contraintes de ressources, sont ainsi garanties. L'exploration est également guidée vers les solutions les plus pertinentes grâce à la détection, dans les applications à synthétiser, des sections les plus critiques pour le contexte d'utilisation réel. Cette information peut être affinée à travers un scénario d'exécution transmis par l'utilisateur.Un logiciel démonstrateur pour cette méthodologie, AUGH, est construit. Des expérimentations sont menées sur plusieurs applications reconnues dans le domaine de la synthèse d'architecture. De tailles très différentes, ces applications confirment la pertinence de la méthodologie proposée pour la génération rapide et autonome d'accélérateurs matériels complexes, sous des contraintes de ressources strictes. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques. Ces travaux constituent donc une avancée significative pour une plus large adoption des FPGA comme accélérateurs matériels génériques, afin de rendre les machines de calcul simultanément plus rapides et plus économes en énergie
In the field of high-performance computing, FPGA circuits are very attractive for their performance and low consumption. However, their presence is still marginal, mainly because of the limitations of current development tools. These limitations force the user to have expert knowledge about numerous technical concepts. They also have to manually control the synthesis processes in order to obtain solutions both fast and that fulfill the hardware constraints of the targeted platforms.A novel generation methodology based on high-level synthesis is proposed in order to push these limits back. The design space exploration consists in the iterative application of transformations to an initial circuit, which progressively increases its rapidity and its resource consumption. The rapidity of this process, along with its convergence under resource constraints, are thus guaranteed. The exploration is also guided towards the most pertinent solutions thanks to the detection of the most critical sections of the applications to synthesize, for the targeted execution context. This information can be refined with an execution scenarion specified by the user.A demonstration tool for this methodology, AUGH, has been built. Experiments have been conducted with several applications known in the field of high-level synthesis. Of very differen sizes, these applications confirm the pertinence of the proposed methodology for fast and automatic generation of complex hardware accelerators, under strict resource constraints. The proposed methodology is very close to the compilation process for microprocessors, which enable it to be used even by users non experts about digital circuit design. These works constitute a significant progress for a broader adoption of FPGA as general-purpose hardware accelerators, in order to make computing machines both faster and more energy-saving
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Al, Lakiss Louwanda. "Synthèse de gallophosphates microstructurés par génération in situ de l’agent structurant". Mulhouse, 2006. http://www.theses.fr/2006MULH0842.

Texto completo
Resumen
Cette thèse traite de la synthèse de nouveaux gallophosphates et fluorogallophosphates microporeux. Durant ce travail, une nouvelle procédure de synthèse de matériaux gallophosphates a été testée. Elle consiste en la génération in situ de l’agent structurant (SDA) à partir des alkylformamides. Ces molécules se décomposent in situ au cours de la synthèse, générant ainsi l’amine correspondante. La génération in situ de l’amine durant la synthèse semble être une étape clé pour la cristallisation des matériaux gallophosphates. En effet, les synthèses réalisées par introduction directe de l’amine ont abouti à la cristallisation de phases différentes. La synthèse par génération situ de l’alkylamine a été favorable à la cristallisation des gallophosphates ; plusieurs nouvelles phases ont été obtenues (Mu-30, Mu-34, Ea-TREN GaPO, Mu-35, Mu-37 et Mu-38). La détermination structurale (sur poudre ou sur monocristal) ainsi que la caractérisation complète de ces matériaux sont présentées dans le manuscrit
The present thesis deals with the synthesis of new microporous gallophosphates and fluorogallophosphates. In this work, a new synthesis route for gallophosphate materials has been studied. It consists in the in situ generation of the structure-directing agent (SDA) from alkylformamide. These molecules decompose into alkylamines in the synthesis media. The in situ release of the amine during the synthesis appears to be a key step in the crystallization of the gallophosphate materials. Indeed, experiments using alkylamine in the starting mixture directly did not lead to the crystallization of the same materials. The in situ generation of the alkylamine has been very successful, several new materials have been obtained i. E. Mu-30, Mu-34, Ea-TREN GaPO, Mu-35, Mu-37 and Mu-38. The materials obtained were then characterized by powder XRD, SEM, elemental and thermal analyses and solid state NMR spectroscopy. Some structures were solved from single crystal XRD, or from XRD powder pattern by using Rietveld method
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau". Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Leroux, (zinovieva) Elena. "Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données". Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Texto completo
Resumen
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Uribe, Lobello Ricardo. "Génération de maillages adaptatifs à partir de données volumiques de grande taille". Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Texto completo
Resumen
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Xue, Xiaohui. "Génération et adaptation automatiques de mappings pour des sources de données XML". Phd thesis, Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0019.

Texto completo
Resumen
L’intégration de l’information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d’information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d’un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération et l’adaptation automatiques de mappings pour des sources de données XML. Nous proposons une approche de génération en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chaque sous-arbre et enfin (iii) la génération de mappings pour l’ensemble du schéma cible à partir de ces mappings partiels. Nous avons également proposé une approche d’adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible. Nous avons développé un outil pour supporter ces approches
The integration of information originating from multiple heterogeneous data sources is required by many modern information systems. In this context, the applications’ needs are described by a target schema and the way in-stances of the target schema are derived from the data sources is expressed through mappings. In this thesis, we address the problem of mapping generation for multiple XML data sources and the adaptation of these mappings when the target schema or the sources evolve. We propose an automatic generation approach that first decom-poses the target schema into subtrees, then defines mappings, called partial mappings, for each of these subtrees, and finally combines these partial mappings to generate the mappings for the whole target schema. We also propose a mapping adaptation approach to keep existing mappings current if some changes occur in the target schema or in one of the sources. We have developed a prototype implementation of a tool to support these proc-esses
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Xue, Xiaohui. "Génération et adaptation automatiques de mappings pour des sources de données XML". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00324429.

Texto completo
Resumen
L'intégration de l'information fournie par de multiples sources de données hétérogènes est un besoin croissant des systèmes d'information actuels. Dans ce contexte, les besoins des applications sont décrits au moyen d'un schéma cible et la façon dont les instances du schéma cible sont dérivées à partir des sources de données est exprimée par des mappings. Dans cette thèse, nous nous intéressons à la génération automatique de mappings pour des sources de données XML ainsi qu'à l'adaptation de ces mappings en cas de changements survenant dans le schéma cible ou dans les sources de données.
Nous proposons une approche de génération de mappings en trois phases : (i) la décomposition du schéma cible en sous-arbres, (ii) la recherche de mappings partiels pour chacun de ces sous-arbres et enfin (iii) la génération de mappings pour l'ensemble du schéma cible à partir de ces mappings partiels. Le résultat de notre approche est un ensemble de mappings, chacun ayant une sémantique propre. Dans le cas où l'information requise par le schéma cible n'est pas présente dans les sources, aucun mapping ne sera produit. Dans ce cas, nous proposons de relaxer certaines contraintes définies sur le schéma cible pour permettre de générer des mappings. Nous avons développé un outil pour supporter notre approche. Nous avons également proposé une approche d'adaptation des mappings existants en cas de changement survenant dans les sources ou dans le schéma cible.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Tawbi, Khouloud. "Synthèse de métallophosphates microstructurés obtenus par génération in situ de l'agent structurant". Phd thesis, Université de Haute Alsace - Mulhouse, 2012. http://tel.archives-ouvertes.fr/tel-00833362.

Texto completo
Resumen
Une nouvelle voie de synthèse de matériaux microstructurés à base de phosphore est présentée. Elle permet de réduire le nombre de réactifs et consiste à utiliser un composé phosphoré servant à la fois de source de phosphore et de précurseur d'agent structurant. Ce dernier est généré in situ dans le milieu de synthèse. Nous présentons le cas de l'utilisation de l'hexaméthylphosphoramide, l'oxyde de tripyrrolidinophosphine, l'hexaéthyltriaminophosphine et la trimorpholinophosphine dont la décomposition a fait l'objet d'une étude par RMN liquide 1H et 31P. Suite aux analyses effectuées à partir de mélanges de composition molaire différente, il apparait qu'une élévation de température, la présence d'ions H3O+ et de l'éthylène glycol soient des critères qui favorisent la décomposition des molécules d'alkylphosphoramides. Les synthèses réalisées en présence d'une source de gallium ont conduit à la cristallisation de gallophosphates de structure connue. De façon inattendue, deux agents structurants sont identifiés dans le fluorogallophosphate ULM-3 : la diméthylamine et NH4+. Les synthèses réalisées en présence d'une source d'aluminium ont conduit à la cristallisation d'une nouvelle phase dont la structure est en cours de résolution et à la cristallisation d'aluminophosphates de structure connue. Les analyses par RMN liquide 1H et 31P nous ont permis de proposer des mécanismes de décomposition d'alkylphosphoramides dans les différents milieux de synthèse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Di, Cristo Philippe. "Génération automatique de la prosodie pour la synthèse à partir du texte". Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11050.

Texto completo
Resumen
Cette these a pour theme la problematique de la synthese vocale et propose de decrire la realisation de deux systemes complets de synthese de la parole a partir du texte. La visee ultime de notre etude est de produire un signal dont le niveau de qualite prosodique puisse etre comparable a celui d'une voix humaine. La qualite de la prosodie est en effet essentielle pour la comprehension, ainsi que pour l'acceptabilite de la synthese, en particulier dans le cas de longs textes lus. Notre objectif est egalement de contribuer a l'elaboration d'un systeme de synthese independant de la langue, bien que notre these soit consacree a la synthese du francais. Nous presentons donc dans cette these l'elaboration de deux systemes complets de generation de la prosodie pour la synthese de la parole. Le premier est base sur une approche probabiliste tandis que le deuxieme s'appuie des representations linguistiques (phonologiques et phonetiques) de l'accentuation, du rythme et de l'intonation. Pour permettre, dans des experimentations futures, l'etude de la complementarite de ces deux methodes, nous nous proposons d'avoir recours a une methode commune de codage de la prosodie, en l'occurrence le systeme intsint. Nous pensons, en effet et bien que cela reste a demontrer, qu'un systeme a base de connaissances linguistiques peut etre applique sur les resultats d'un modele probabiliste (qui necessite pour sa part peu d'informations prosodiques) afin d'ameliorer les performances de la synthese a partir du texte. Nous proposons d'ailleurs en conclusion de ce travail, un prolongement possible qui contribuerait a etendre les possibilites des systemes actuels. Nous presentons egalement un environnement pour le traitement de textes. Il se compose d'un segmenteur (dont le but est de decouper le texte en constituants : mots, phrases, paragraphes), d'un module d'acces lexical (permettant d'acceder aux categories morpho-syntaxique du texte), d'un desambiguisateur morpho-syntaxique (dont le role est de selectionner une categorie parmi le choix possible en fonction du contexte) et d'un module de phonemisation (dont la tache est de transcrire les elements du texte en alphabet phonetique).
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Zinovieva-Leroux, Eléna. "Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données". Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Texto completo
Resumen
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Moinard, Matthieu. "Codage vidéo hybride basé contenu par analyse/synthèse de données". Phd thesis, Telecom ParisTech, 2011. http://tel.archives-ouvertes.fr/tel-00830924.

Texto completo
Resumen
Les travaux de cette thèse sont destinés à la conception d'outils algorithmiques permettant d'accroître le facteur de compression des standards actuels de codage vidéo, tels que H.264/AVC. Pour cela, une étude préalable portant sur un ensemble de méthodes de restauration d'image a permis d'identifier et d'inspecter deux axes de recherche distincts. La première partie est fondée sur des méthodes d'analyse et de synthèse de texture. Ce type de procédé, aussi connu sous le nom de template matching, est couramment utilisé dans un contexte de codage vidéo pour prédire une portion de la texture de l'image suite à l'analyse de son voisinage. Nous avons cherché à améliorer le modèle de prédiction en prenant en compte les spécificités d'un codeur vidéo de type H.264/AVC. En particulier, la fonction débit/distorsion utilisée dans les schémas de codage vidéo normatifs se base sur une mesure objective de la qualité. Ce mécanisme est par nature incompatible avec le concept de synthèse de texture, dont l'efficacité est habituellement mesurée selon des critères purement perceptuels. Cette contradiction a motivé le travail de notre première contribution. La deuxième partie des travaux de cette thèse s'inspire des méthodes de régularisation d'image basée sur la minimisation de la variation totale. Des méthodes ont été élaborées originellement dans le but d'améliorer la qualité d'une image en fonction de la connaissance a priori des dégradations qu'elle a subies. Nous nous sommes basés sur ces travaux pour concevoir un modèle de prédiction des coefficients transformés obtenus à partir d'une image naturelle, qui a été intégré dans un schéma de codage vidéo conventionnel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Combaz, Jean. "Utilisation de phénomènes de croissance pour la génération de formes en synthèse d'images". Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00528689.

Texto completo
Resumen
La modélisation des formes naturelles reste un enjeu majeur pour le réalisme en synthèse d'images. Ces formes sont souvent complexes et leur modélisation avec les outils classiques nécessitent généralement une masse de travail considérable pour le graphiste. Les phénomènes de croissance sont très courants dans la nature. Ils engendrent souvent des formes complexes, même quand le mécanisme mis en jeu reste simple. Recréer de telles formes par des simulations physiques n'est pas toujours très pratique, du fait du manque de contrôle sur le résultat. Nous proposons dans cette thèse un nouveau genre de modeleur, basé sur la croissance d'une surface, qui permet de recréer des formes de croissance. Le modeleur présente des contrôles supplémentaires par rapport à un simulateur physique, et il n'est pas uniquement limité à la simulation de phénomènes naturels : il permet de rajouter interactivement des détails à une surface, tel que des plis des cloques, et même des branches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Denhez, Clément. "Nouvelles méthodes de génération et d'activation de complexes zirconocènes : Synthèse de composés azotés". Reims, 2006. http://theses.univ-reims.fr/exl-doc/GED00000440.pdf.

Texto completo
Resumen
Ce mémoire concerne le développement de nouvelles méthodes d’activation de complexes zirconocènes reposant sur une coopération bimétallique. Cette démarche a été appliquée à la synthèse de composés azotés. La première partie de ce travail est consacrée au développement d’une réaction hautement chimiosélective de carboalumination d’aldimines sous catalyse au zirconium. Cette réaction met en jeu des alanes en tant que source de groupements alkyls et procède via l’établissement d’un complexe bimétallique. Dans le cas des imines dérivées de l’aniline une réaction d’acylation régiosélective en position ortho, également catalysée par le zirconium, peut être mise en oeuvre. Dans la deuxième partie, nous avons développé une synthèse diastéréosélective de pyrrolidines substituées en position 2- et 2,5-. Celles-ci sont obtenues à partir de Nallyloxazolidines optiquement pures selon une séquence d’hydrozirconation / cyclisation activée par un acide de Lewis. Au cours du troisième chapitre, nous avons développé une méthode de préparation stéréosélective de γ-lactames via une réaction de couplage intramoléculaire de carbamates homoallyliques impliquant la chimie du zirconium(II). Enfin, la dernière partie de cette thèse a été consacrée au développement d’un nouveau réactif, équivalent synthétique du zirconocène(II). Celui-ci est obtenu par réduction du dichlorure de zirconocène par un alliage de lanthanides, le mischmetall. Ce nouveau réactif a montré un fort potentiel synthétique dans de nombreux couplages et a notamment permis d’utiliser, pour la première fois, des alcynes vrais et de réaliser la première trimérisation d’alcynes catalysée par le zirconium
This memory deals with the development of new methods for activation of zirconocene complexes through a bimetallic co-operation. New syntheses of nitrogencontaining compounds have been developed on this basis. The first part of this work is devoted to the highly chemoselective carboalumination of aldimines under zirconium catalysis. This reaction involves alanes as alkyl promotors and proceeds through metallacycles involving a bimetallic polarisation. In the case of imines derived from aniline, a zirconium-catalyzed regioselective acylation at the ortho position can be carried out. In the second part, we developed a new diastereoselective synthesis of 2- and 2,5- substituted pyrrolidines starting from optically pure N-allyloxazolidines, according to a hydrozirconation/ Lewis acid-catalyzed cyclization sequence. The third chapter presents a stereoselective synthesis of γ-lactams from N-homoallylcarbamates, by using a zirconium (II)-mediated intramolecular coupling reaction. Finally, the last part of this thesis was devoted to the development of a new reagent, synthetic equivalent of zirconocene(II). This reagent is obtained by reduction of dichlorozirconocene with a lanthanide alloy, the mischmetall. This new reagent possesses an important synthetic potential in many couplings. In particular, the first coupling involving 1- alkynes and the first zirconium catalyzed trimerisation of alkynes have been carried out
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Turgeon, Josyane. "Synthèse d'une nouvelle génération de polymères conducteurs autodopés pour applications en électronique organique". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69046.

Texto completo
Resumen
L'utilisation d'appareils électroniques est en constante évolution et s'adapte sans cesse aux besoins des consommateurs. Dans le domaine agroalimentaire, ce besoin concerne, entre autres, le développement d'emballages intelligents capables de maintenir l'intégrité des produits de consommation tout au long de la chaîne de froid. C'est pourquoi il y a un intérêt à livrer un dispositif léger, flexible et abordable, capable de détecter des facteurs problématiques à la chaîne de froid. Il est important que ce dispositif contienne un circuit électronique permettant de signaler tous problèmes dans le but de prévenir des dommages irréparables aux produits de consommation. Ce projet de maîtrise porte ainsi sur le développement d'une nouvelle génération de polymères conducteurs autodopés pouvant remplacer les composantes métalliques dans les circuits électroniques imprimés destinés aux emballages intelligents. En ce moment, un inconvénient majeur lié à l'utilisation de plus en plus répandue de l'électronique imprimée est que les matériaux conducteurs utilisés pour ce genre d'applications sont souvent des métaux coûteux, comme l'argent, qui génèrent des déchets polluants à la fin du cycle de vie des dispositifs. Une alternative intéressante pour remplacer les conducteurs métalliques est d'utiliser des polymères conducteurs. C'est pourquoi ce projet de maîtrise se penche sur la synthèse de polymères conducteurs autodopés. Pourquoi autodopés? Parce que l'état de l'art dans le domaine des polymères conducteurs, à l'heure actuelle, est une matrice de deux polymères, soit le poly(3,4- éthylènedioxythiophène) (PEDOT) et le polystyrène sulfonate (PSS). Même si le PSS est nécessaire à la dispersion aqueuse du PEDOT, celui-ci est responsable d'une baisse significative de la conductivité du matériau. Des polymères autodopés par voie acide seraient donc intéressants à étudier dans le but de s'affranchir du PSS et ainsi maximiser les conductivités obtenues et faciliter la mise en œuvre de ces polymères.
The use of electronic devices is constantly evolving and adapting to consumer needs. In the food industry, this need concerns, among other things, the development of intelligent packaging capable of maintaining the integrity of consumer products throughout the cold chain. This is why there is an interest in delivering a lightweight, flexible and affordable device capable of detecting problematic factors in the cold chain. It is important that this device contains an electronic circuit that can signal any problems in order to prevent irreparable damage to consumer products. This master's project is therefore focused on the development of a new generation of self-doped conductive polymers that can replace metallic components in printed electronic circuits for smart packaging. A major disadvantage of the increasing use of printed electronics is that the conductive materials used for such applications are often expensive metals, such as silver, which generate polluting waste at the end of the devices' life cycle. An interesting alternative to replace metallic conductors is the use of conductive polymers. That is why this master's project is looking at the synthesis of self-doped conductive polymers. Why self-doped? Because the current state of the art in the field of conductive polymers is a matrix of two polymers, poly(3,4-ethylenedioxythiophene) (PEDOT) and polystyrene sulfonate (PSS). Although PSS is essential for the aqueous dispersion of PEDOT, it is responsible for a significant decrease in the conductivity of the material. Acid self-doped polymers would therefore be interesting to study in order to free themselves from PSS and thus maximize the conductivities obtained and facilitate the processing of these polymers.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Joffres, Benoît. "Synthèse de bio-liquide de seconde génération par hydroliquéfaction catalytique de la lignine". Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10223.

Texto completo
Resumen
Actuellement, la transformation de la biomasse en bio-carburant ou molécules pour l'industrie chimique fait l'objet de nombreuses recherches. La lignine, en tant que coproduit de l'industrie papetière et de l'éthanol cellulosique, est une ressource des plus disponibles qui pourait être utilisée pour la production d'aromatiques ou de composés phénoliques. Cependant, cette macromolécule constituée d'unités propylphénoliques liées par des liaisons éthers nécessite d'être dépolymérisée. Ce travail porte sur la compréhension des mécanismes de liquéfaction par hydroconversion catalytique d'une lignine de paille de blé extraite par un procédé papetier à la soude. Dans un premier temps, nous avons mené une caractérisation poussée de cette lignine à l'aide de diverses techniques qui nous a permis de proposer une structure modèle. Ensuite, nous avons mis en place un mode opératoire de conversion et un protocole de récupération des produits. La réaction est réalisée en réacteur semi-ouvert à 350°C en présence d'H2 (8MPa), d'un solvant donneur d'hydrogène (tétraline) et d'un catalyseur d'hydrotraitement NiMoP/Al2O3 sulfuré. Les produits se répartissent en une phase liquide (liquéfiat), une phase gaz, une lignine résiduelle et des solides non-solubles dans le THF. Un taux de conversion a été défini comme le rendement en produits non-solides et les valeurs maximales atteintes sont de 81% pds après 28h de réaction avec un excellent bilan matière. Les fractions récupérées ont ensuite été caractérisées en détail avec des techniques d'analyse adaptées. Grâce à ce protocole d'analyse, nous avons pu observer que le solvant permet d'éviter la formation de solides et que le catalyseur intervient principalement sur l'hydrodésoxygénation et l'hydrogénation des molécules issues de la dépolymérisation de la charge. Enfin, nous avons suivis la réaction au cours du temps, ce qui nous a permis de présenter une ébauche de schéma réactionnel. Les premières étapes de conversion sont la décarboxylation, l'hydrogénolyse des OH aliphatiques et la rupture des liaisons éthers entre les unités élémentaires de la lignine, qui entraînent sa dépolymérisation. Puis des processus plus lent se produisent comme l'élimination des groupes méthoxy, principalement par déméthylation suivi de déshydroxylation. Ainsi, les principaux produits obtenus sont des composés phénoliques et des composés désoxygénés
Nowadays, the transformation of lignocellulosic biomass is deeply investigated in order to provide biofuels and chemicals. Lignin, a by-product of pulp and bio-ethanol industry, is an available resource which could be used for the production of aromatic and phenolic compounds. However, this macromolecule mainly made of propylphenolic units linked by ether functions needs to be depolymerized. This work focuses on the study of liquefaction mechanisms by catalytic hydroconversion of wheat straw lignin extracted by a soda pulping. In the first part of this study, an in-depth characterization of this lignin was carried out using techniques. A structure of our lignin was proposed as a result. Then, a procedure was developed to perform the catalytic hydroconversion and recover the products. Catalytic experiments were carried out in a semi-batch reactor at 350°C, using H2 (8 MPa), a hydrogen donor solvent (tetralin) and a sulfide NiMoP/Al2O3 catalyst. The recovered products were separated into a liquid phase, gases, a lignin residue and THF insoluble solids. A conversion of 81 wt% of lignin into non-solid products was reached after 28h of reaction with an excellent mass balance. The characterization of the different fractions was carried out using techniques. Thanks to this protocol, we were able to point out the role of the H-donor solvent for preventing solid formation as well as the role of the catalyst for hydrodeoxygenation and hydrogenation of the depolymerized products. Finally, the catalytic hydroconversion of the lignin was carried out with the different residence times, which helps understanding the transformations occurring during the conversion. At the beginning of the reaction, we observed decarboxylation, hydrogenolysis of aliphatic OH and cleavage of ether linkages between the phenolic units of the lignin. Then, we observed elimination of methoxy groups, mainly by demethylation followed by dehydroxylation. Finally, the main products obtained during the reaction were phenolic and deoxygenated compounds such as aromatics, naphthenes and alkanes
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Stéphan, Véronique. "Construction d'objets symboliques par synthèse des résultats de requêtes SQL". Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090019.

Texto completo
Resumen
Avec l’augmentation des sources d’informations, l’accumulation des données de toutes sortes s’intensifie. L’objectif de notre travail est de synthétiser un ensemble d’informations stocké dans une base de données relationnelle (BDR). Il est alors possible dans un second temps d’effectuer des analyses ultérieures non pas sur les données initiales mais sur les résultats obtenus par synthèse. Pour ce faire, nous nous intéressons au mode de sélection d’une information statistique à partir d’une BDR et au choix d’une méthode de généralisation, efficace pour la synthèse de l’information. Dans le cadre de notre travail, la notion de généralisation est fondée sur le pouvoir de recouvrement d’une description par rapport aux données initiales. Notre problématique peut s’inscrire naturellement au sein du data mining. La synthèse d’informations que nous effectuons donne lieu à une base de connaissances, décrite dans le formalisme des objets symboliques. Ce formalisme, défini par Edwin Diday dans le cadre de l’analyse des données symboliques, permet de prendre en compte la notion de variabilité dans chaque donnée du tableau. Les méthodes d’analyse prennent alors en entrée, des tableaux de données complexes où chaque donnée peut être un intervalle ou encore une distribution. Dans notre thèse, nous définissons les opérateurs utiles pour l’élaboration d’une telle base de connaissances à partir d’informations sélectionnées par des requêtes SQL. Nous introduisons les notions statistiques de population, d’échantillon, de taxinomie et de généralisation dans le contexte base de données. La spécificité de notre approche pour la généralisation réside dans le choix d’un bon compromis entre la réduction du volume de données à traiter et la perte d’informations qu’elle induit. Pour ce faire, nous définissons un critère de qualité d’une généralisation. Nous présentons deux approches pour améliorer la description généralisante par rapport aux données initiales. Une première méthode réduit la description en éliminant les valeurs atypiques. Elle vise ainsi à améliorer l’homogénéité de la répartition des individus par rapport à la description obtenue. L’autre méthode résume les observations par une structure classificatoire obtenue en maximisant l’adéquation de chaque classe avec sa description par élimination des associations entre variables.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Sibottier, Emilie. "Génération électro-assistée de films à base de silice : fonctionnalisation, mésostructuration et applications analytiques". Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10101/document.

Texto completo
Resumen
L’étude menée concerne divers aspects d’une nouvelle voie de synthèse sol-gel : la génération électro-assistée de films à base de silice fonctionnalisée et/ou mésostructurée, ainsi que leurs applications en électrochimie analytique. Des films à base de silice fonctionnalisée par des groupements amine ou thiol ont été déposés sur électrode d’or par catalyse électrochimiquement assistée de la polycondensation. La formation d’une monocouche auto-assemblée partielle de mercaptopropyltriméthoxysilane permet une très bonne adhésion du film silicaté sur la surface d’or. Le processus d’électro-dépôt est caractérisé par deux étapes successives de vitesse différente. A une étape de dépôt lent et régulier succède une croissance bien plus rapide du film. L’utilisation des électrodes modifiées a été envisagée en tant que capteur de Cu2+. En introduisant un tensioactif dans le sol de synthèse, il est possible d’électrogénérer des films à base de silice mésoporeuse de structure hexagonale avec les pores orientés perpendiculairement par rapport au substrat (difficile à obtenir par d’autres méthodes). Il semblerait que l’électrochimie permette à la fois un contrôle de la structure du tensioactif à la surface de l’électrode et la croissance simultanée du film sol-gel. Cette méthode d’électrogénération permet aussi d’obtenir des films fins homogènes sur des surfaces non planes ou présentant des hétérogénéités de conductivité. Enfin, une approche préliminaire a été proposée visant à appliquer le processus d’électrogénération, couplé à la technique de microscopie électrochimique à balayage, pour déposer localement des films à base de silice sous forme de plots de taille micrométrique sur or
The study deals with various aspects of a novel method of sol-gel synthesis : the electro-assisted generation of functionalized and/or mesostructured silica thin films, and their applications in analytical electrochemistry. Sol-gel-derived silica films functionnalized with amine or thiol groups have been electrogenerated on gold electrodes. The formation of a partial self-assembled monolayer of mercaptopropyltrimethoxysilane (MPTMS) on gold led to a silica film adhering well to the electrode surface owing to the MPTMS acting as a « molecular glue ». The whole process was characterized by two successive distinct rates, starting by a slow deposition stage leading to thin deposits, which was followed by a much faster film growing in the form of macroporous coatings. The use of these modified electrodes was considered as a voltammetric sensor for copper(II). By adding a surfactant in the synthesis medium, it’s possible to electrogenerate mesostructured silica films with hexagonal structure with pore channels oriented perpendiculary to the substrate (which is difficult to get by other methods). The electrochemically-induced-self-assembly of surfactant-templated silica thin films can be applied to various conducting supports. The broad interest of the novel method was demonstrated by its ability to produce homogeneous deposits of silica on non-planar surfaces or heterogeneous substrates, what is difficult by the traditional techniques of film deposition. Finally, a preliminary approach has been proposed in order to apply the electrodeposition process coupled with a scanning electrochemical microscope in order to get localized sol-gel deposits at the micrometric size level on gold
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Kieu, Van Cuong. "Modèle de dégradation d’images de documents anciens pour la génération de données semi-synthétiques". Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS029/document.

Texto completo
Resumen
Le nombre important de campagnes de numérisation mises en place ces deux dernières décennies a entraîné une effervescence scientifique ayant mené à la création de nombreuses méthodes pour traiter et/ou analyser ces images de documents (reconnaissance d’écriture, analyse de la structure de documents, détection/indexation et recherche d’éléments graphiques, etc.). Un bon nombre de ces approches est basé sur un apprentissage (supervisé, semi supervisé ou non supervisé). Afin de pouvoir entraîner les algorithmes correspondants et en comparer les performances, la communauté scientifique a un fort besoin de bases publiques d’images de documents avec la vérité-terrain correspondante, et suffisamment exhaustive pour contenir des exemples représentatifs du contenu des documents à traiter ou analyser. La constitution de bases d’images de documents réels nécessite d’annoter les données (constituer la vérité terrain). Les performances des approches récentes d’annotation automatique étant très liées à la qualité et à l’exhaustivité des données d’apprentissage, ce processus d’annotation reste très largement manuel. Ce processus peut s’avérer complexe, subjectif et fastidieux. Afin de tenter de pallier à ces difficultés, plusieurs initiatives de crowdsourcing ont vu le jour ces dernières années, certaines sous la forme de jeux pour les rendre plus attractives. Si ce type d’initiatives permet effectivement de réduire le coût et la subjectivité des annotations, reste un certain nombre de difficultés techniques difficiles à résoudre de manière complètement automatique, par exemple l’alignement de la transcription et des lignes de texte automatiquement extraites des images. Une alternative à la création systématique de bases d’images de documents étiquetées manuellement a été imaginée dès le début des années 90. Cette alternative consiste à générer des images semi-synthétiques imitant les images réelles. La génération d’images de documents semi-synthétiques permet de constituer rapidement un volume de données important et varié, répondant ainsi aux besoins de la communauté pour l’apprentissage et l’évaluation de performances de leurs algorithmes. Dans la cadre du projet DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) financé par l’ANR (Agence Nationale de la Recherche), nous avons mené des travaux de recherche relatifs à la génération d’images de documents anciens semi-synthétiques. Le premier apport majeur de nos travaux réside dans la création de plusieurs modèles de dégradation permettant de reproduire de manière synthétique des déformations couramment rencontrées dans les images de documents anciens (dégradation de l’encre, déformation du papier, apparition de la transparence, etc.). Le second apport majeur de ces travaux de recherche est la mise en place de plusieurs bases d’images semi-synthétiques utilisées dans des campagnes de test (compétition ICDAR2013, GREC2013) ou pour améliorer par ré-apprentissage les résultats de méthodes de reconnaissance de caractères, de segmentation ou de binarisation. Ces travaux ont abouti sur plusieurs collaborations nationales et internationales, qui se sont soldées en particulier par plusieurs publications communes. Notre but est de valider de manière la plus objective possible, et en collaboration avec la communauté scientifique concernée, l’intérêt des images de documents anciens semi-synthétiques générées pour l’évaluation de performances et le ré-apprentissage
In the last two decades, the increase in document image digitization projects results in scientific effervescence for conceiving document image processing and analysis algorithms (handwritten recognition, structure document analysis, spotting and indexing / retrieval graphical elements, etc.). A number of successful algorithms are based on learning (supervised, semi-supervised or unsupervised). In order to train such algorithms and to compare their performances, the scientific community on document image analysis needs many publicly available annotated document image databases. Their contents must be exhaustive enough to be representative of the possible variations in the documents to process / analyze. To create real document image databases, one needs an automatic or a manual annotation process. The performance of an automatic annotation process is proportional to the quality and completeness of these databases, and therefore annotation remains largely manual. Regarding the manual process, it is complicated, subjective, and tedious. To overcome such difficulties, several crowd-sourcing initiatives have been proposed, and some of them being modelled as a game to be more attractive. Such processes reduce significantly the price andsubjectivity of annotation, but difficulties still exist. For example, transcription and textline alignment have to be carried out manually. Since the 1990s, alternative document image generation approaches have been proposed including in generating semi-synthetic document images mimicking real ones. Semi-synthetic document image generation allows creating rapidly and cheaply benchmarking databases for evaluating the performances and trainingdocument processing and analysis algorithms. In the context of the project DIGIDOC (Document Image diGitisation with Interactive DescriptiOn Capability) funded by ANR (Agence Nationale de la Recherche), we focus on semi-synthetic document image generation adapted to ancient documents. First, we investigate new degradation models or adapt existing degradation models to ancient documents such as bleed-through model, distortion model, character degradation model, etc. Second, we apply such degradation models to generate semi-synthetic document image databases for performance evaluation (e.g the competition ICDAR2013, GREC2013) or for performance improvement (by re-training a handwritten recognition system, a segmentation system, and a binarisation system). This research work raises many collaboration opportunities with other researchers to share our experimental results with our scientific community. This collaborative work also helps us to validate our degradation models and to prove the efficiency of semi-synthetic document images for performance evaluation and re-training
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Benalia, Akram Djellal. "HELPDraw : un environnement visuel pour la génération automatique de programmes à parallélisme de données". Lille 1, 1995. http://www.theses.fr/1995LIL10095.

Texto completo
Resumen
Le parallélisme de données consiste à appliquer simultanément le même traitement sur un ensemble de données homogènes. De part la conservation d'un unique flux d'instructions, il est devenu de fait un modèle de programmation largement répandu et qui autorise facilement l'accès à la puissance théorique des machines parallèles pour le calcul scientifique. L'objectif de cette thèse est de montrer qu'il est possible de programmer dans ce modèle sans contrainte de syntaxe ou d'architecture, tout en gardant le maximum de performances. Nous proposons un environnement de programmation visuelle : HELPDraw. Il permet de traduire la pensée et la conception du programmeur en un code data-parallèle source. HELPDraw se base sur un modèle de programmation géométrique. Les structures de données définies par l'utilisateur sont regroupées et alignées au sein d'un hyper-espace (machine virtuelle), référentiel de toute manipulation. Le modèle géométrique offre deux vues clairement distinctes : la vue microscopique permet l'expression du parallélisme de calcul ; la vue macroscopique permet les communications parallèles à travers l'hyper-espace par une modélisation à base de primitives géométriques. Le modèle géométrique offre un support naturel pour la programmation visuelle. Le programmeur développe son algorithme data-parallèle en interagissant avec les éditeurs graphiques de HELPDraw. Les objets data-parallèles représentés par des formes géométriques sont manipulés à travers des migrations et des changements de formes à l'intérieur de l'hyper-espace. Le programmeur construit graphiquement et interactivement ses instructions ou blocs d'instructions. HELPDraw les traduit au fur et à mesure dans le langage data-parallèle cible. Nous étudions dans cette thèse la génération automatique des codes C-HELP (un langage mis en oeuvre dans notre équipe) et HPF le nouveau fortran data-parallèle. Pour C-HELP qui se base lui-même sur le modèle géométrique, cette génération est assez naturelle. Pour HPF elle est cependant plus complexe, nous proposons une solution permettant de compiler une description géométrique vers une description par les indices.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Nesvijevskaia, Anna. "Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Texto completo
Resumen
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Brusson, Jean-Michel. "Génération électrochimique de catalyseurs Ziegler-Natta pour la polymérisation de l'éthylène". Lille 1, 1988. http://www.theses.fr/1988LIL10125.

Texto completo
Resumen
Synthèse de systèmes catalytiques Ziegler-Natta par des techniques électrochimiques. Les systèmes obtenus ont une bonne activité et le polyéthylène est standard. Les systèmes sont caractérisés par spectrométrie rmn et rpe
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Roquier, Ghislain. "Etude de modèles flux de données pour la synthèse logicielle multiprocesseur". Rennes, INSA, 2004. http://www.theses.fr/2008ISAR0020.

Texto completo
Resumen
Le parallélisme est une caractéristique importante des plates-formes modernes de calcul, et ce, depuis les processeurs multi-cœurs jusqu'aux circuits logiques programmables. Le paradigme de programmation séquentielle jusqu'à présent utilisé dans le cadre logiciel n'est plus adapté. Les travaux présentés dans ce mémoire trouvent leurs fondements dans la méthodologie AAA basée sur les graphes qui permet la construction à haut-niveau de programmes parallèles. Ces travaux ont permis d'élargir le spectre des applications modélisables par la spécification d’un nouveau formalisme de graphe. De plus, ces travaux ont été mis à profit dans le cadre de la norme MPEG RVC. Les travaux présentés dans ce mémoire montrent la contribution à cet environnement par la spécification et le développement d'un outil de synthèse logicielle
Parallelism is a universal characteristic of modern computing platforms, from multi-core processorsto programmable logic devices. The sequential programming paradigm is no longer adapted in thecontext of parallel and distributed architectures. The work presented in this thesis document findtheir foundation in the AAA methodology to build parallel programs based on an high-level representationsof both application and architecture. This work has enabled to extend the class of applications that can be modelled by the specification of new graph formalism. The final part of the document shows our involvement in the MPEG RVC framework. The RVC standard intends to facilitate for building the reference codecs offuture MPEG standards, which is based on dataflow to build decoder using a new dataflow languagecalled CAL. This work has enabled to specify and develop a software synthesis tool that enables anautomatic translation of dataflow programs written in CAL
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Mehira, Djamel. "Bases de données images : application à la réutilisation en synthèse d'images". La Rochelle, 1998. http://www.theses.fr/1998LAROS017.

Texto completo
Resumen
L’objectif de la thèse consiste à construire un système de recherche d'informations (SRI) adapté à une base d'images de synthèse. Les SRI sont des systèmes qui permettent l'indexation et la recherche de documents satisfaisant un besoin d'information de l'usager. Les premiers SRI ont été utilisés dans la recherche documentaire. Leur champ d'application s'élargit à cause de la masse et de la nature (multimédia) des informations à stocker de nos jours. Nous ne pouvons réutiliser telles quelles les solutions proposées dans ce domaine de recherche. Les SRI actuellement construits pour les bases de données d'images utilisent les connaissances exogènes fournies par un expert pour construire la structure d'indexation. Ces connaissances concernent le contenu de l'image. Nous désirons construire un SRI avec construction automatique de la structure d'indexation (ou descripteur) en utilisant le texte source qui a permis la construction de l'image de synthèse. L’utilisation du SRI ainsi construit n'a pas pour objectif uniquement la recherche du document adéquat. L’objectif final est de réduire le temps de production (plusieurs heures parfois) d'une image de synthèse. Pour le réduire les travaux en cours dans le domaine de synthèse d'images, consistent le plus souvent à définir de nouveaux algorithmes plus efficaces et à profiter de la montée en puissance des machines. Pour satisfaire l'augmentation de la demande en images de synthèse, nous choisissons de faciliter la réutilisation d'images déjà produites. Les descripteurs et les contenus des modèles géométriques des composants réutilisables sont stockés dans une base de données. La stratégie de réutilisation que nous proposons consiste à construire à partir du texte source de l'image de synthèse à produire, le descripteur correspondant ; à utiliser ce descripteur pour rechercher dans la base de données le contenu du modèle géométrique ; à remplacer dans le texte source de l'image cible, le calcul du modèle géométrique par la lecture de ce contenu. Le texte source, à partir duquel est générée l'image, est construit en utilisant une bibliothèque de fonctions prédéfinies fournies par l'environnement de développement choisi. Il peut comporter des modules spécifiques. Dans un premier temps notre dispositif de réutilisation s'appuie sur les modèles géométriques. Ces modèles ont une structure de base indépendante de l'environnement de développement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Abdollahzadeh, Ali Akbar. "Validation de données par équilibrage de bilans : synthèse et nouvelles approches". Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL118N.

Texto completo
Resumen
La conduite et la surveillance d'un processus nécessite de disposer de données fiables représentant d'une manière pertinente son état du fonctionnement. Malheureusement, l'ensemble des mesures prélevées sur ce processus ne constitue pas une représentation exacte de son fonctionnement parce que les mesures sont sujettes à des erreurs de différentes natures. Il est donc nécessaire de tester la cohérence des mesures acquises avant de les utiliser. La validation des données à partir d'équilibrage de bilan matière ou de bilan énergétique est l'une des procédures utilisables permettant de détecter l'incohérence des mesures, de localiser les défaillances, d'estimer les grandeurs vraies et de déduire la valeur des grandeurs non mesurées. Dans le premier chapitre de ce mémoire, nous présentons brièvement la théorie de la réconciliation de données basée sur la méthode du maximum de vraisemblance. Ensuite la résolution globale du problème d'estimation et la résolution utilisant des fonctions de pénalisation est présentée. Une partie de ce chapitre traite le cas de systèmes incomplètement mesurés à partir des concepts d'observabilité et de redondance. Les algorithmes de détection et de localisation de défauts basés sur les équations de redondance et les termes correctifs sont également abordés dans ce chapitre. L’extension du problème d'estimation au cas de systèmes non-linéaires statiques et au cas de systèmes dynamiques est présentée dans le deuxième chapitre. Au cours de ce chapitre, nous présentons une nouvelle technique de réconciliation de mesures basée sur le respect de contraintes inégalité caractérisant le domaine dans lequel est situe l'état probable du système concerné. L’étude de la possibilité d'application de la méthode de validation de données concernant la surveillance d'un réseau de distribution d'eau potable est développée dans le troisième chapitre. Cette surveillance a comme objectif essentiel la détection et la localisation des capteurs défaillants ou la détection d'aléas pouvant survenir sur le réseau (fuites, casses) à partir de l'analyse des grandeurs mesurées sur ce réseau (écarts de fermeture des équations de bilan) et celle des grandeurs estimées (termes correctifs normalisés).
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Thiéblin, Elodie. "Génération automatique d'alignements complexes d'ontologies". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30135.

Texto completo
Resumen
Le web de données liées (LOD) est composé de nombreux entrepôts de données. Ces données sont décrites par différents vocabulaires (ou ontologies). Chaque ontologie a une terminologie et une modélisation propre ce qui les rend hétérogènes. Pour lier et rendre les données du web de données liées interopérables, les alignements d'ontologies établissent des correspondances entre les entités desdites ontologies. Il existe de nombreux systèmes d'alignement qui génèrent des correspondances simples, i.e., ils lient une entité à une autre entité. Toutefois, pour surmonter l'hétérogénéité des ontologies, des correspondances plus expressives sont parfois nécessaires. Trouver ce genre de correspondances est un travail fastidieux qu'il convient d'automatiser. Dans le cadre de cette thèse, une approche d'alignement complexe basée sur des besoins utilisateurs et des instances communes est proposée. Le domaine des alignements complexes est relativement récent et peu de travaux adressent la problématique de leur évaluation. Pour pallier ce manque, un système d'évaluation automatique basé sur de la comparaison d'instances est proposé. Ce système est complété par un jeu de données artificiel sur le domaine des conférences
The Linked Open Data (LOD) cloud is composed of data repositories. The data in the repositories are described by vocabularies also called ontologies. Each ontology has its own terminology and model. This leads to heterogeneity between them. To make the ontologies and the data they describe interoperable, ontology alignments establish correspondences, or links between their entities. There are many ontology matching systems which generate simple alignments, i.e., they link an entity to another. However, to overcome the ontology heterogeneity, more expressive correspondences are sometimes needed. Finding this kind of correspondence is a fastidious task that can be automated. In this thesis, an automatic complex matching approach based on a user's knowledge needs and common instances is proposed. The complex alignment field is still growing and little work address the evaluation of such alignments. To palliate this lack, we propose an automatic complex alignment evaluation system. This system is based on instances. A famous alignment evaluation dataset has been extended for this evaluation
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Zerroukhi, Amar. "Synthèse et caractérisation de copolymères en vue de leurs applications en optique non linéaire". Lyon 1, 1993. http://www.theses.fr/1993LYO10126.

Texto completo
Resumen
De nouveaux copolymeres pour l'optique non lineaire (onl) ont ete synthetises. Ces copolymeres ont ete prepares a partir du styrene et d'un comonomere actif en onl (colorant). Ces colorants ou chromophores ont ete prepares a partir du chloromethylstyrene par diverses reactions de substitution au niveau du chlore benzylique. Le styrene a ete choisi comme comonomere en raison des proprietes filmogenes et optiques du polymere resultant. Les copolymeres prepares comprennent 3 familles de colorants: a) de type stilbene, b) de type imine, c) de type azoique, et leurs incorporations dans les copolymeres est d'environ 10%. Tous ces produits ont ete caracterises (rmn, mesures des masses, temperatures de transition vitreuse) et les coefficients d#3#3 de ces copolymeres ont ete egalement determines
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Bonnel, Nicolas. "Génération dynamique de présentations interactives en multimédia 3D, de données, pour les applications en ligne". Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00532641.

Texto completo
Resumen
La recherche d'information textuelle fait partie des principales tâches liées au Web. Elle se fait majoritairement par des moteurs de recherche qui sont rapidement devenus incontournables. En effet, lorsque les utilisateurs ont une nouvelle tâche à accomplir sur le Web, ils démarrent - 88% du temps - par l'utilisation d'un moteur de recherche. Cependant, face à l'augmentation des informations disponibles sur le Web et à l'absence d'évolution significative du processus de recherche, la quantité de résultats obtenus pour une requête devient très importante. Il est alors difficile pour l'utilisateur d'interpréter efficacement tous ces résultats. Cette problématique est abordée en se plaçant du côté de la restitution des résultats de recherche à l'utilisateur via des interfaces utilisateur d'information (IUI). De nombreux travaux ont déjà été réalisés sur la visualisation des résultats de recherche au cours des dernières années, sans réelle influence sur les interfaces grand public. L'objectif de notre approche est de créer dynamiquement des présentations 3D interactives et basées sur des métaphores de visualisation adaptées à la fois à l'utilisateur, à la tâche à réaliser et aux données. Pour cela, nous avons développé un prototype - SmartWeb - proposant des interfaces hybrides (2D/3D) de visualisation de résultats de recherche. Il utilise le langage X-VRML qui permet d'exprimer efficacement les métaphores 3D de visualisation et de générer automatiquement des contenus 3D interactifs. Nous proposons alors une métaphore 3D cognitive permettant d'utiliser une représentation spatiale plus riche afin d'aider efficacement l'utilisateur dans sa tâche. Il s'agit d'une ville virtuelle dans laquelle les résultats sont organisés d'après le calcul d'une carte auto-organisatrice. Une étude utilisateur de cette interface est réalisée et une réflexion plus générale sur l'évaluation des IUI est proposée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Texto completo
Resumen
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Desbois-Bédard, Laurence. "Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copules". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27748.

Texto completo
Resumen
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance.
Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Genevaux, Jean-David. "Représentation, modélisation et génération procédurale de terrains". Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22013/document.

Texto completo
Resumen
Cette thèse (qui a pour intitulé "Représentation, modélisation et génération procédurale de terrains") a pour cadre la génération de contenus numériques destinés aux films et aux jeux-vidéos, en particulier les scènes naturelles. Nos travaux visent à représenter et à générer des terrains. Nous proposons, en particulier, un nouveau modèle de représentation qui s'appuie sur un arbre de construction et qui va permettre à l'utilisateur de manipuler des morceaux de terrain de façon intuitive. Nous présentons également des techniques pour visualiser ce modèle avec un maximum d'efficacité. Enfin nous développons un nouvel algorithme de génération de terrains qui construit de très grands reliefs possédant des structures hiérarchiques découlant d'un réseau hydrographique : le relief généré est conforme aux grands principes d'écoulement des eaux sans avoir besoin d'utiliser de coûteuses simulations d'érosion hydrique
This PhD (entitled "Representation, modelisation and procedural generation of terrains") is related to movie and videogames digital content creation, especially natural scenes.Our work is dedicated to handle and to generate landscapes efficently. We propose a new model based on a construction tree inside which the user can handle parts of the terrain intuitively. We also present techniques to efficently visualize such model. Finally, we present a new algorithm for generating large-scale terrains exhibiting hierarchical structures based on their hydrographic networks: elevation is generated in a broad compliance to water-tansport principles without having to resort on costly hydraulic simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Kou, Huaizhong. "Génération d'adaptateurs web intelligents à l'aide de techniques de fouilles de texte". Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0011.

Texto completo
Resumen
Cette thèse définit un système d'informations Web d'intégration sémantique, appelé SEWISE qui peut intégrer des informations textuelles provenant de différentes sources Web. Dans SEWISE les adaptateurs Web sont construits autour de différents sites Web pour extraire automatiquement des informations intéressantes. Des technologies de fouille de texte sont alors employées pour découvrir des sémantiques abordées dans les documents. SEWISE peut assister à la recherche des informations sur le Web. Trois problèmes liés à la catégorisation de document sont étudiés. Premièrement, nous étudions les approches de sélection de termes et nous proposons deux approches CBA et IBA pour choisir ces termes. Puis, pour estimer des associations statistiques entre termes, un modèle mathématique est proposé. Finalement, les algorithmes de calculs de scores de catégories employées par des classificateurs k-NN sont étudiés. Deux algorithmes pondérés CBW et IBW pour calculer des scores de catégories sont proposés
This thesis defines a system framework of semantically integrating Web information, called SEWISE. It can integrate text information from various Web sources belonging to an application domain into common domain-specific concept ontology. In SEWISE, Web wrappers are built around different Web sites to automatically extract interesting information from. Text mining technologies are then used to discover the semantics Web documents talk about. SEWISE can ease topic-oriented information researches over the Web. Three problems related to the document categorization are studied. Firstly, we investigate the approaches to feature selection and proposed two approaches CBA and IBA to select features. To estimate statistic term associations and integrate them within document similarity model, a mathematical model is proposed. Finally, the category score calculation algorithms used by k-NN classifiers are studied. Two weighted algorithms CBW and IBW to calculate category score are proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Cao, Wenjie. "Modélisation et prototypage d'une méthodologie de génération intégrant les informations pragmatiques, syntaxiques et de contrôle de prosodie". Grenoble INPG, 2007. http://www.theses.fr/2007INPG0088.

Texto completo
Resumen
Le thème de la thèse est l'amélioration de la synthèse de parole en partant de représentations décrivant le contenu propositionnel d'une part, et des informations pragmatiques d'autre part (affect, émotions, contexte dialogique éventuellement). La thèse montre qu'on peut améliorer le "naturel" d'une voix de synthèse non seulement en insérant dans le texte à prononcer des annotations (en SSML ou SABLE, instances de XML) contrôlant divers paramètres (énergie, type de voix, prosodie), mais aussi, si on peut partir d'une représentation abstraite du contenu, en paramétrant la génération (linguistique) de l'énoncé par certains des paramètres prosodiques (choix de la syntaxe, choix lexicaux)
The topic of the thesis is to ameliorate the speech synthesis by starting from abstract semantic representations, and pragmatic information (affect, emotions, and maybe dialogue context). The thesis shows that the naturalness of synthesized speech can be ameliorate by directly inserting annotations (in the format of SSML, SABLE or XML) into the text to be pronounced in order to control various parameters (energy, voice type, prosody); but also through parameterizing the procedure of natural language generation, starting from an abstract representation, integrating the selection of lexicon and of syntax, as well as the control of prosody
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Moyse, Gilles. "Résumés linguistiques de données numériques : interprétabilité et périodicité de séries". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066526.

Texto completo
Resumen
Nos travaux s'inscrivent dans le domaine des résumés linguistiques flous (RLF) qui permettent la génération de phrases en langage naturel, descriptives de données numériques, et offrent ainsi une vision synthétique et compréhensible de grandes masses d'information. Nous nous intéressons d'abord à l'interprétabilité des RLF, capitale pour fournir une vision simplement appréhendable de l'information à un utilisateur humain et complexe du fait de sa formulation linguistique. En plus des travaux existant à ce sujet sur les composants élémentaires des RLF, nous proposons une approche globale de l'interprétabilité des résumés vus comme un ensemble de phrases et nous intéressons plus spécifiquement à la question de leur cohérence. Afin de la garantir dans le cadre de la logique floue standard, nous introduisons une formalisation originale de l'opposition entre phrases de complexité croissante. Ce formalisme nous permet de démontrer que les propriétés de cohérence sont vérifiables par le choix d'un modèle de négation spécifique. D'autre part, nous proposons sur cette base un cube en 4 dimensions mettant en relation toutes les oppositions possibles entre les phrases d'un RLF et montrons que ce cube généralise plusieurs structures d'opposition logiques existantes. Nous considérons ensuite le cas de données sous forme de séries numériques et nous intéressons à des résumés linguistiques portant sur leur périodicité : les phrases que nous proposons indiquent à quel point une série est périodique et proposent une formulation linguistique appropriée de sa période. La méthode d’extraction proposée, nommée DPE pour Detection of Periodic Events, permet de segmenter les données de manière adaptative et sans paramètre utilisateur, en utilisant des outils issus de la morphologie mathématique. Ces segments sont ensuite utilisés pour calculer la période de la série temporelle ainsi que sa périodicité, calculée comme un degré de qualité sur le résultat renvoyé mesurant à quel point la série est périodique. Enfin, DPE génère des phrases comme « Environ toutes les 2 heures, l'afflux de client est important ». Des expériences sur des données artificielles et réelles confirment la pertinence de l'approche. D’un point de vue algorithmique, nous proposons une implémentation incrémentale et efficace de DPE, basée sur l’établissement de formules permettant le calcul de mises à jour des variables. Cette implémentation permet le passage à l'échelle de la méthode ainsi que l'analyse en temps réel de flux de données. Nous proposons également une extension de DPE basée sur le concept de périodicité locale permettant d'identifier les sous-séquences périodiques d'une série temporelle par l’utilisation d’un test statistique original. La méthode, validée sur des données artificielles et réelles, génère des phrases en langage naturel permettant d’extraire des informations du type « Toutes les deux semaines sur le premier semestre de l'année, les ventes sont élevées »
Our research is in the field of fuzzy linguistic summaries (FLS) that allow to generate natural language sentences to describe very large amounts of numerical data, providing concise and intelligible views of these data. We first focus on the interpretability of FLS, crucial to provide end-users with an easily understandable text, but hard to achieve due to its linguistic form. Beyond existing works on that topic, based on the basic components of FLS, we propose a general approach for the interpretability of summaries, considering them globally as groups of sentences. We focus more specifically on their consistency. In order to guarantee it in the framework of standard fuzzy logic, we introduce a new model of oppositions between increasingly complex sentences. The model allows us to show that these consistency properties can be satisfied by selecting a specific negation approach. Moreover, based on this model, we design a 4-dimensional cube displaying all the possible oppositions between sentences in a FLS and show that it generalises several existing logical opposition structures. We then consider the case of data in the form of numerical series and focus on linguistic summaries about their periodicity: the sentences we propose indicate the extent to which the series are periodic and offer an appropriate linguistic expression of their periods. The proposed extraction method, called DPE, standing for Detection of Periodic Events, splits the data in an adaptive manner and without any prior information, using tools from mathematical morphology. The segments are then exploited to compute the period and the periodicity, measuring the quality of the estimation and the extent to which the series is periodic. Lastly, DPE returns descriptive sentences of the form ``Approximately every 2 hours, the customer arrival is important''. Experiments with artificial and real data show the relevance of the proposed DPE method. From an algorithmic point of view, we propose an incremental and efficient implementation of DPE, based on established update formulas. This implementation makes DPE scalable and allows it to process real-time streams of data. We also present an extension of DPE based on the local periodicity concept, allowing the identification of local periodic subsequences in a numerical series, using an original statistical test. The method validated on artificial and real data returns natural language sentences that extract information of the form ``Every two weeks during the first semester of the year, sales are high''
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles". Nantes, 2001. http://www.theses.fr/2001NANT2099.

Texto completo
Resumen
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Cheaib, Rouba. "Les carboxymethyl glycosides lactones : synthèse et application à l'imagerie membranaire". Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0056/these.pdf.

Texto completo
Resumen
La carboxyméthyl 3,4,6-tri-O-acétyl-α-D-glucopyranoside 2-0-lactone, préparée à partir de l'isomaltulose, est un bon "donneur de glycoside" pour la synthèse de composés ciblés soit pour leur intérêt biologique soit pour leurs propriétés physico-chimiques potentielles tels que des pseudo-oligosaccharides, pseudo-glycoaminoacides, et pseudo-glycolipides. Dans ce contexte, de nouvelles stratégies de synthèse ont été mise au point pour l'obtention de ces lactones construites sur des systèmes mono- et disaccharidiques avec des groupements protecteurs variés. D'autre part, la fonctionnalisation de la position 2 sélectivement libérée après ouverture de cette lactone par des agentrs nucléophiles, a été effectuée pour la synthèse de systèmes multifonctionnels. Une application de cette stratégie a aussi été étudiée pour la synthèse de produits amphiphiles pour la conception de sondes membranaires hydrosolubles pour l'imagerie membranaire par microscopie optique non linéaire
The carboxymethyl 3,4,6-tri-O-acétyl-α-D-glucopyranoside 2-0-lactone,, prepared starting from isomaltulose, has shown to be a good “glycoside donor” for the synthesis of compounds targeted either for their biological interest or for their potential physicochemical properties such as pseudo-oligosaccharides, pseudo-glycoaminoacids, and pseudo-glycolipids. New strategies of synthesis for obtaining carboxymethyl glycoside lactones based on mono- and disaccharidic systems with varied protective groups are now presented. In addition, the fonctionnalisation of position 2 selectively released after opening of these lactones by nucleophilic agents allowed the synthesis of multifunctionnalised systems. An application of this strategy was also studied for the synthesis of amphiphilic products for the design of water-soluble membrane probes for the membrane imagery by non linear optical microscopy
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Platzer, Auriane. "Mécanique numérique en grandes transformations pilotée par les données : De la génération de données sur mesure à une stratégie adaptative de calcul multiéchelle". Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0041.

Texto completo
Resumen
La mécanique numérique est aujourd'hui au cœur d'un important flux de données. D'un côté, l'identification des lois de comportement utilisées dans les simulations éléments finis repose sur de riches données expérimentales (mesures de champs). D'un autre côté, les calculs multiéchelles fournissent un très grand nombre de valeurs discrètes de champs de déplacement, déformation et contrainte, dont on extrait des connaissances sur la réponse effective du matériau. Entre ces données, la loi de comportement apparaît comme un goulot contraignant le champ des possibles. En rupture avec cette approche, Kirchdoerfer et Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) ont proposé un paradigme de mécanique numérique sans modèle, appelé data-driven computational mechanics. La réponse matériau y est uniquement représentée par une base de données (couples déformation-contrainte). Le problème mécanique est alors reformulé comme une mini- misation sous contrainte de la distance entre (i) l'état déformation-contrainte mécanique de la structure, et (ii) la base de données matériau. Ces travaux de thèse se concentrent sur la question de la couverture de l'espace par les données matériau, notamment dans le cadre des grandes transformations. Ainsi, l'approche data-driven est d'abord étendue à la mécanique non linéaire : nous considérons deux formulations différentes et proposons pour chacune d'elles un solveur éléments finis. Nous explorons ensuite la génération de base de données sur mesure, grâce à une méthode d'échantillonnage mécaniquement motivée. Nous évaluons l'approche au moyen d'analyses éléments finis de structures complexes en grandes déformations. Enfin, nous proposons une première stratégie de calcul multiéchelle pilotée par les données, qui permet d'enrichir de façon adaptative la base de données matériau
Computational mechanics is a field in which a large amount of data is both consumed and produced. On the one hand, the recent developments of experimental measurement techniques have provided rich data for the identification process of constitutive models used in finite element simulations. On the other hand, multiscale analysis produces a huge amount of discrete values of displacements, strains and stresses from which knowledge is extracted on the overall material behavior. The constitutive model then acts as a bottleneck between upstream and downstream material data. In contrast, Kirchdoerfer and Ortiz (Computer Methods in Applied Mechanics and Engineering, 304, 81-101) proposed a model-free computing paradigm, called data-driven computational mechanics. The material response is then only represented by a database of raw material data (strain-stress pairs). The boundary value problem is thus reformulated as a constrained distance minimization between (i) the mechanical strain-stress state of the body, and (ii) the material database. In this thesis, we investigate the question of material data coverage, especially in the finite strain framework. The data-driven approach is first extended to a geometrically nonlinear setting: two alternative formulations are considered and a finite element solver is proposed for both. Second, we explore the generation of tailored databases using a mechanically meaningful sampling method. The approach is assessed by means of finite element analyses of complex structures exhibiting large deformations. Finally, we propose a prototype multiscale data-driven solver, in which the material database is adaptively enriched
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Zaher, Noufal Issam al. "Outils de CAO pour la génération d'opérateurs arithmétiques auto-contrôlables". Grenoble INPG, 2001. http://www.theses.fr/2001INPG0028.

Texto completo
Resumen
Les chemins de données sont des parties logiques essentielles dans les microprocesseurs et les microcontrôleurs. La conception de chemins de données fiables est donc un pas important vers la réalisation de circuits intégrés plus sûrs. Nous avons, d’abord, étudié des multiplieurs auto-contrôlables basés sur le code résidu. Nous avons montré qu’on peut avoir des multiplieurs sûrs en présence de fautes de type collage logique avec un surcoût très faible, notamment pour les multiplieurs de grande taille (de 10 à 15 % pour les multiplieurs de taille 32x32). Dans la deuxième partie, nous avons généralisé des solutions auto-contrôlables existantes d’opérateurs arithmétiques basés sur la parité. Les nouvelles versions ont plusieurs bits de parité et permettent d’augmenter sensiblement la couverture de fautes transitoires. Les solutions développées sont intégrées dans un outil informatique. Cet outil donne une grande flexibilité de choix d’opérateurs arithmétiques et logiques auto contrôlables permettant ainsi de faciliter la tâche des concepteurs non spécialisés
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Thiessard, Frantz. "Détection des effets indésirables des médicaments par un système de génération automatisée du signal adapté à la base nationale française de pharmacovigilance". Bordeaux 2, 2004. http://www.theses.fr/2004BOR21184.

Texto completo
Resumen
L'évaluation et l'amélioration du rapport bénéfice/risque des médicaments, passe par la surveillance de leurs effets indésirables après leur mise sur le marché. La pharmacovigilance a pour principal objectif la détection des effets indésirables médicamenteux et repose essentiellement sur les notifications spontanées de ces effets. La pharmacovigilance française est confrontée à un flux de données très important sans qu'aucune méthode automatique ne permette d'éditer une liste de cas potentiellement suspects. Huit méthodes ont été étudiées : le "Proportional Reporting Ratio" (PRR), le "Reporting Odds Ratio" (ROR), le "Yule's Q", le "Sequential Probability Ration Test" (SPRT2), les probabilités de Poisson, le X2, l'"Information Component" (IC) et l'"Empirical Bayes Method" (EBAM). Les signaux obtenus avec chaque méthode ont été comparés à partir de données simulées, puis à partir des données réelles de la pharmacovigilance française
Evaluation and improvement of drugs risk/benefit ratio in population implies their adverse reactions surveillance after marketing. Pharmacovigilance main objective is to detect drugs adverse reactions relied mainly on spontaneous notifications. The French pharmacovigilance is faced to a very large data flow while no automatic method is available to edit a list of potentially suspected drug/adverse drug reaction associations. Eight methods were studied : Proportional Reporting Ratio (PRR), Reporting Odds Ratio (ROR), Uule's Q, Sequential Probability Ratio Test (SPRT2), Poisson's probabilities, X2, Information Component (IC), and Empirical Baye's Method (EBAM). Signals obtained with each method were compared through simulated data, then through real data from the French pharmacovigilance database
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía