Academic literature on the topic 'Plongements de documents'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Plongements de documents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Plongements de documents"

1

Konstantinovskaya, Elena, Gennady Ivanov, Jean-Louis Feybesse, and Jean-Luc Lescuyer. "Structural Features of the Central Labrador Trough: A Model for Strain Partitioning, Differential Exhumation and Late Normal Faulting in a Thrust Wedge under Oblique Shortening." Geoscience Canada, March 29, 2019, 5–30. http://dx.doi.org/10.12789/geocanj.2019.46.143.

Full text
Abstract:
The west-verging fold and thrust belt of the Central Labrador Trough originated as a part of the New Quebec Orogen from rift inversion as a result of oblique collision and dextral transpression between the Archean Superior craton and the Archean block of the Core Zone during the Trans-Hudson orogeny (1.82−1.77 Ga). The structures associated with dextral transpression are well established in the northern segment of the orogen but not in the central part. We present new field structural observations along the ca. 70 km long W−E Minowean-Romanet transect that include not only elements of thrust tectonics but also previously undocumented examples of strike-slip shear zones and late brittle, semi-brittle and ductile extensional structures which occurred both in the frontal and rear parts of the thrust wedge. The newly described low-angle mineral lineation, axes of cylindrical folds and dextral mylonitic shear zones in the footwall of the Romanet Fault are oriented subparallel to the orogen and reflect the early phase of oblique convergence. Mineral lineations and striations on planes of normal faults in the hanging wall of the Romanet Fault are oriented orthogonal to the orogen and correspond to a later phase of exhumation driven by the combined effects of erosion and underplating. To explain the increase in the degree of exhumation along the orogen in the study area from NW to SE, we propose a model of strain partitioning and differential exhumation that resulted from longitudinal variations of shortening and erosion under an oblique convergence setting.RÉSUMÉLa partie centrale de la ceinture de plissement et de chevauchement de la Fosse du Labrador de vergence vers l’ouest fait partie intégrante de l’Orogène du Nouveau-Québec, et résulte de la collision oblique avec transpression dextre entre le craton Supérieur archéen et le bloc archéen de la Zone noyau pendant l’Orogenèse trans-hudsonienne (1.82−1.77 Ga). Les structures associées à la transpression dextre sont bien établies dans la partie nord de l’orogène mais pas dans la partie centrale. Nous présentons de nouvelles observations structurales de terrain le long de la traverse ouest−est Minowean-Romanet d’environ 70 km de long, qui comprennent non seulement des évidences de tectonique de chevauchement, mais également des exemples encore non documentés de zones de cisaillement ductile et de structures d’extension fragiles, demi-fragiles et ductiles à la fois dans les parties frontales et arrière du prisme d’accrétion tectonique. La linéation minérale à faible plongement récemment décrite, les axes de plis cylindriques et les zones de cisaillement mylonitique dextre dans le compartiment inférieur de la faille de Romanet sont subparallèles à l’orogène et reflètent une phase précoce de la convergence oblique. La linéation et les stries minérales sur les plans des failles normales dans le compartiment supérieur de la faille de Romanet sont orientées orthogonalement à l’orogène et correspondent à la phase ultérieure d’exhumation induite par les effets combinés de l’érosion et de l’accrétion basale. Pour expliquer l’augmentation du degré d’exhumation le long de l’orogène du nord-ouest au sud-est dans la zone d’étude, nous proposons un modèle de partitionnement de la déformation et de l’exhumation différentielle résultant des variations longitudinales du raccourcissement et de l’érosion dans un contexte de convergence oblique.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Plongements de documents"

1

Mazoyer, Béatrice. "Social Media Stories. Event detection in heterogeneous streams of documents applied to the study of information spreading across social and news media." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASC009.

Full text
Abstract:
Les réseaux sociaux, et Twitter en particulier, sont devenus une source d'information privilégiée pour les journalistes ces dernières années. Beaucoup effectuent une veille sur Twitter, à la recherche de sujets qui puissent être repris dans les médias. Cette thèse vise à étudier et à quantifier l'effet de ce changement technologique sur les décisions prises par les rédactions. La popularité d’un événement sur les réseaux sociaux affecte-t-elle sa couverture par les médias traditionnels, indépendamment de son intérêt intrinsèque ?Pour mettre en évidence cette relation, nous adoptons une approche pluridisciplinaire, à la rencontre de l'informatique et de l'économie : tout d’abord, nous concevons une approche inédite pour collecter un échantillon représentatif de 70% de tous les tweets en français émis pendant un an. Par la suite, nous étudions différents types d'algorithmes pour découvrir automatiquement les tweets qui se rapportent aux mêmes événements. Nous testons différentes représentation vectorielles de tweets, en nous intéressants aux représentations vectorielles de texte, et aux représentations texte-image. Troisièmement, nous concevons une nouvelle méthode pour regrouper les événements Twitter et les événements médiatiques. Enfin, nous concevons un instrument économétrique pour identifier un effet causal de la popularité d'un événement sur Twitter sur sa couverture par les médias traditionnels. Nous montrons que la popularité d’un événement sur Twitter a un effet sur le nombre d'articles qui lui sont consacrés dans les médias traditionnels, avec une augmentation d'environ 1 article pour 1000 tweets supplémentaires
Social Media, and Twitter in particular, has become a privileged source of information for journalists in recent years. Most of them monitor Twitter, in the search for newsworthy stories. This thesis aims to investigate and to quantify the effect of this technological change on editorial decisions. Does the popularity of a story affects the way it is covered by traditional news media, regardless of its intrinsic interest?To highlight this relationship, we take a multidisciplinary approach at the crossroads of computer science and economics: first, we design a novel approach to collect a representative sample of 70% of all French tweets emitted during an entire year. Second, we study different types of algorithms to automatically discover tweets that relate to the same stories. We test several vector representations of tweets, looking at both text and text-image representations, Third, we design a new method to group together Twitter events and media events. Finally, we design an econometric instrument to identify a causal effect of the popularity of an event on Twitter on its coverage by traditional media. We show that the popularity of a story on Twitter does have an effect on the number of articles devoted to it by traditional media, with an increase of about 1 article per 1000 additional tweets
APA, Harvard, Vancouver, ISO, and other styles
2

Morbieu, Stanislas. "Leveraging textual embeddings for unsupervised learning." Electronic Thesis or Diss., Université Paris Cité, 2020. http://www.theses.fr/2020UNIP5191.

Full text
Abstract:
Les données textuelles constituent un vivier d'information exploitable pour de nombreuses entreprises. En particulier, le web fournit une source quasiment inépuisable de données textuelles qui peuvent être utilisées à profit pour des systèmes de recommandation, de veille, de recherche d'information, etc. Les récentes avancées en traitement du langage naturel ont permit de capturer le sens des mots dans leur contexte afin d'améliorer les systèmes de traduction, de résumés, ou encore le regroupement de documents suivant des catégories prédéfinies. La majorité de ces applications reposent cependant souvent sur une intervention humaine non négligeable pour annoter des corpus : Elle consiste, par exemple, à fournir aux algorithmes des exemples d'affectation de catégories à des documents. L'algorithme apprend donc à reproduire le jugement humain et l'applique pour de nouveaux documents. L'objet de cette thèse est de tirer profit des dernières avancées qui capturent l'information sémantique du texte pour l'appliquer dans un cadre non supervisé. Les contributions s'articulent autour de trois axes principaux. Dans le premier, nous proposons une méthode pour transférer l'information capturée par un réseau neuronal pour de la classification croisée textuelle. Elle consiste à former simultanément des groupes de documents similaires et des groupes de mots cohérents. Ceci facilite l'interprétation d'un grand corpus puisqu'on peut caractériser des groupes de documents par des groupes de mots, résumant ainsi une grande volumétrie de texte. Plus précisément nous entraînons l'algorithme Paragraph Vectors sur un jeu de données augmenté en faisant varier les différents hyperparamètres, classifions les documents à partir des différentes représentations vectorielles obtenues et cherchons un consensus sur des différentes partitions. Une classification croisée contrainte de la matrice de co-occurrences termes-documents est ensuite appliquée pour conserver le partitionnement consensus obtenu. Cette méthode se révèle significativement meilleure en qualité de partitionnement des documents sur des corpus variés et a l'avantage de l'interprétation offerte par la classification croisée. Deuxièmement, nous présentons une méthode pour évaluer des algorithmes de classification croisée en exploitant des représentation vectorielles de mots appelées word embeddings. Il s’agit de vecteurs construits grâce à de gros volumes de textes, dont une caractéristique majeure est que deux mots sémantiquement proches ont des word embeddings proches selon une distance cosinus. Notre méthode permet de mesurer l'adéquation entre les partitions de documents et de mots, offrant ainsi de manière totalement non supervisée un indice de la qualité de la classification croisée. Troisièmement, nous proposons un système qui permet de recommander des petites annonces similaires lorsqu'on en consulte une. Leurs descriptions sont souvent courtes, syntaxiquement incorrectes, et l'utilisation de synonymes font qu'il est difficile pour des systèmes traditionnels de mesurer fidèlement la similarité sémantique. De plus, le fort renouvellement des annonces encore valides (produit non vendu) implique des choix permettant d’avoir un faible temps de calcul. Notre méthode, simple à implémenter, répond à ce cas d'usage et s'appuie de nouveau sur les word embeddings. L'utilisation de ceux-ci présente certains avantages mais impliquent également quelques difficultés : la création de tels vecteurs nécessite de choisir les valeurs de certains paramètres, et la différence entre le corpus sur lequel les word embeddings ont été construit et celui sur lequel ils sont utilisés fait émerger le problème des mots qui n'ont pas de représentation vectorielle. Nous présentons, pour palier ces problèmes, une analyse de l'impact des différents paramètres sur les word embeddings ainsi qu'une étude des méthodes permettant de traiter le problème de « mots en dehors du vocabulaire »
Textual data is ubiquitous and is a useful information pool for many companies. In particular, the web provides an almost inexhaustible source of textual data that can be used for recommendation systems, business or technological watch, information retrieval, etc. Recent advances in natural language processing have made possible to capture the meaning of words in their context in order to improve automatic translation systems, text summary, or even the classification of documents according to predefined categories. However, the majority of these applications often rely on a significant human intervention to annotate corpora: This annotation consists, for example in the context of supervised classification, in providing algorithms with examples of assigning categories to documents. The algorithm therefore learns to reproduce human judgment in order to apply it for new documents. The object of this thesis is to take advantage of these latest advances which capture the semantic of the text and use it in an unsupervised framework. The contributions of this thesis revolve around three main axes. First, we propose a method to transfer the information captured by a neural network for co-clustering of documents and words. Co-clustering consists in partitioning the two dimensions of a data matrix simultaneously, thus forming both groups of similar documents and groups of coherent words. This facilitates the interpretation of a large corpus of documents since it is possible to characterize groups of documents by groups of words, thus summarizing a large corpus of text. More precisely, we train the Paragraph Vectors algorithm on an augmented dataset by varying the different hyperparameters, classify the documents from the different vector representations and apply a consensus algorithm on the different partitions. A constrained co-clustering of the co-occurrence matrix between terms and documents is then applied to maintain the consensus partitioning. This method is found to result in significantly better quality of document partitioning on various document corpora and provides the advantage of the interpretation offered by the co-clustering. Secondly, we present a method for evaluating co-clustering algorithms by exploiting vector representations of words called word embeddings. Word embeddings are vectors constructed using large volumes of text, one major characteristic of which is that two semantically close words have word embeddings close by a cosine distance. Our method makes it possible to measure the matching between the partition of the documents and the partition of the words, thus offering in a totally unsupervised setting a measure of the quality of the co-clustering. Thirdly, we are interested in recommending classified ads. We present a system that allows to recommend similar classified ads when consulting one. The descriptions of classified ads are often short, syntactically incorrect, and the use of synonyms makes it difficult for traditional systems to accurately measure semantic similarity. In addition, the high renewal rate of classified ads that are still valid (product not sold) implies choices that make it possible to have low computation time. Our method, simple to implement, responds to this use case and is again based on word embeddings. The use of these has advantages but also involves some difficulties: the creation of such vectors requires choosing the values of some parameters, and the difference between the corpus on which the word embeddings were built upstream. and the one on which they are used raises the problem of out-of-vocabulary words, which have no vector representation. To overcome these problems, we present an analysis of the impact of the different parameters on word embeddings as well as a study of the methods allowing to deal with the problem of out-of-vocabulary words
APA, Harvard, Vancouver, ISO, and other styles
3

Liu, Guogang. "Sur les lacets positifs des plongements legendriens lâches." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4045/document.

Full text
Abstract:
Dans la thèse, on a étudié le problème des isotopies legendriennes positif. C’est-à-dire que les isotopies préservent le structure de contact et les fonctions Hamiltoniennes associés sont positif. On a montré que si une sou-variété legendrienne est lâche, il existe un lacet positif des plongements legendriennes basé sur lui. On a le trait en deux cas, le cas en dimension un et deux, l’autre en grandes dimensions. Dans les cas en bases dimensions, on a construit des lacets positive par la main. Dans les autres cas, on a utilisé les techniques de h-principe avancé, c’est-à-dire, la approximation holonome ridé et la intégration convexe pour les relations «non-ample». Avec la approximation holonome ridé, on a obtenue un lacet de plongements Legendriennes qui est positive sauf que en un ensemble fini des discs. Puis, on a le deformé à un lacet positif par l’idée de la intégration convexe. Ce resulat a deux applications immédiates. On donne une simple démonstration sans les techniques de courbes holomorphes pour le Théorème : les espaces des éléments de contact, muni de la structure standard sont tendues. On a aussi montré le produit contact de une variété de contact vrillées est vrillées et la diagonale est lâche, de puis la diagonal est dans un lacet positif. Isotopies positif legendriennes relient aux ordres de le revêtement universel de la groupe de contactomorphisme. On a définit un ordre par isotopies positif legendriennes dan le produit contact. Il nous aide de étudié les propriétés de contactomorphisme en manière de isotopies positif legendriennes
In the thesis, we have studied the problem of positive Lengendrian isotopies. That is to say, the isotopies preservepo the contact structure and the hamiltonnian functions of the isotopies are positive. We have proved that for a loose Legendrian there exists a positive loop of Legendrian embeddings based in it. We treated this result in two cases. In lower dimensions cases, we constructed positive loops by hand. In higher dimensions cases, we applied the advanced h-principle techniques. Given a loose Legendrian embedding, firstly, by the holonomic approximation, we constructed a loop of Legendrian embeddings based in it which is positive away from a finite number of disks. Secondly, we deformed it to a positive loop by the idea of convex integration. The result has two immediate applications. Firstly, we reprove the theorem that the spaces of contact elements are tight without holomorphic curves techniques. Secondly, we proved the contact product of an overtwisted contact manifold is overtwisted and the diagonal is loose, furthermore, the diagonal is in positive loop. In the end, we have defined a partial order on the universal cover of the contactomorphism group by positive Legendrian isotopies in the contact product. It will help us to study the properties of contactomorphism via positive Legendrian isotopies
APA, Harvard, Vancouver, ISO, and other styles
4

Gaillard, Loïc. "Espaces de Müntz, plongements de Carleson, et opérateurs de Cesàro." Thesis, Artois, 2017. http://www.theses.fr/2017ARTO0406/document.

Full text
Abstract:
Pour une suite ⋀ = (λn) satisfaisant la condition de Müntz Σn 1/λn < +∞ et pour p ∈ [1,+∞), on définit l'espace de Müntz Mp⋀ comme le sous-espace fermé de Lp([0, 1]) engendré par les monômes yn : t ↦ tλn. L'espace M∞⋀ est défini de la même façon comme un sous-espace de C([0, 1]). Lorsque la suite (λn + 1/p)n est lacunaire avec un grand indice, nous montrons que la famille (gn) des monômes normalisés dans Lp est (1 + ε)-isométrique à la base canonique de lp. Dans le cas p = +∞, les monômes (yn) forment une famille normalisée et (1 + ε)-isométrique à la base sommante de c. Ces résultats sont un raffinement asymptotique d'un théorème bien connu pour les suites lacunaires. D'autre part, pour p ∈ [1, +∞), nous étudions les mesures de Carleson des espaces de Müntz, c'est-à-dire les mesures boréliennes μ sur [0,1) telles que l'opérateur de plongement Jμ,p : Mp⋀ ⊂ Lp(μ) est borné. Lorsque ⋀ est lacunaire, nous prouvons que si les (gn) sont uniformément bornés dans Lp(μ), alors μ est une mesure de Carleson de Mq⋀ pour tout q > p. Certaines conditionsgéométriques sur μ au voisinage du point 1 sont suffsantes pour garantir la compacité de Jμ,p ou son appartenance à d'autres idéaux d'opérateurs plus fins. Plus précisément, nous estimons les nombres d'approximation de Jμ,p dans le cas lacunaire et nous obtenons même des équivalents pour certaines suites ⋀. Enfin, nous calculons la norme essentielle del'opérateur de moyenne de Cesàro Γp : Lp → Lp : elle est égale à sa norme, c'est-à-dire à p'. Ce résultat est aussi valide pour l'opérateur de Cesàro discret. Nous introduisons les sous-espaces de Müntz des espaces de Cesàro Cesp pour p ∈ [1, +∞]. Nous montrons que la norme essentielle de l'opérateur de multiplication par Ψ est égale à ∥Ψ∥∞ dans l'espace deCesàro, et à |Ψ(1)| dans les espaces de Müntz-Cesàro
For a sequence ⋀ = (λn) satisfying the Müntz condition Σn 1/λn < +∞ and for p ∈ [1,+∞), we define the Müntz space Mp⋀ as the closed subspace of Lp([0, 1]) spanned by the monomials yn : t ↦ tλn. The space M∞⋀ is defined in the same way as a subspace of C([0, 1]). When the sequence (λn + 1/p)n is lacunary with a large ratio, we prove that the sequence of normalized Müntz monomials (gn) in Lp is (1 + ε)-isometric to the canonical basis of lp. In the case p = +∞, the monomials (yn) form a sequence which is (1 + ε)-isometric to the summing basis of c. These results are asymptotic refinements of a well known theorem for the lacunary sequences. On the other hand, for p ∈ [1, +∞), we investigate the Carleson measures for Müntz spaces, which are defined as the Borel measures μ on [0; 1) such that the embedding operator Jμ,p : Mp⋀ ⊂ Lp(μ) is bounded. When ⋀ is lacunary, we prove that if the (gn) are uniformly bounded in Lp(μ), then for any q > p, the measure μ is a Carleson measure for Mq⋀. These questions are closely related to the behaviour of μ in the neighborhood of 1. Wealso find some geometric conditions about the behaviour of μ near the point 1 that ensure the compactness of Jμ,p, or its membership to some thiner operator ideals. More precisely, we estimate the approximation numbers of Jμ,p in the lacunary case and we even obtain some equivalents for particular lacunary sequences ⋀. At last, we show that the essentialnorm of the Cesàro-mean operator Γp : Lp → Lp coincides with its norm, which is p'. This result is also valid for the Cesàro sequence operator. We introduce some Müntz subspaces of the Cesàro function spaces Cesp, for p ∈ [1, +∞]. We show that the value of the essential norm of the multiplication operator TΨ is ∥Ψ∥∞ in the Cesàaro spaces. In the Müntz-Cesàrospaces, the essential norm of TΨ is equal to |Ψ(1)|
APA, Harvard, Vancouver, ISO, and other styles
5

Catusse, Nicolas. "Spanners pour des réseaux géométriques et plongements dans le plan." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22119/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à plusieurs problèmes liés à la conception de réseaux géométriques et aux plongements isométriques dans le plan.Nous commençons par étudier la généralisation du problème du réseau de Manhattan classique aux plans normés. Étant donné un ensemble de terminaux, nous recherchons le réseau de longueur totale minimum qui connecte chaque paire de terminaux par un plus court chemin dans la métrique définie par la norme. Nous proposons un algorithme d'approximation facteur 2.5 pour ce problème en temps O(mn^3) avec n le nombre de terminaux et m le nombre de directions de la boule unitaire. Le deuxième problème étudié est une version orientée des réseaux de Manhattan dont le but est de construire un réseau orienté de taille minimum dans lequel pour chaque paire de terminaux u, v est relié par un plus court chemin rectilinéaire de u vers v et un autre de v vers u. Nous proposons un algorithme d'approximation facteur 2 pour ce problème en temps O(n^3) où n est le nombre de terminaux.Nous nous intéressons ensuite à la recherche d'un spanner (un sous-graphe approximant les distances) planaire pour les graphes de disques unitaires (UDG) qui modélise les réseaux ad hoc sans fils. Nous présentons un algorithme qui construit un spanner planaire avec un facteur d'étirement constant en terme de distance de graphe pour UDG. Cet algorithme utilise uniquement des propriétés locales et peut donc être implémenté de manière distribuée.Finalement nous étudions le problème de la reconnaissance des espaces plongeables isométriquement dans le plan l_1 pour lequel nous proposons un algorithme en temps optimal O(n^2) pour sa résolution, ainsi que la généralisation de ce problème aux plans normés dont la boule unitaire est un polygone convexe central symétrique
In this thesis, we study several problems related to the design of geometric networks and isometric embeddings into the plane.We start by considering the generalization of the classical Minimum Manhattan Network problem to all normed planes. We search the minimum network that connects each pair of terminals by a shortest path in this norm. We propose a factor 2.5 approximation algorithm in time O(mn^3), where n is the number of terminals and m is the number of directions of the unit ball.The second problem presented is an oriented version of the minumum Manhattan Network problem, we want to obtain a minimum oriented network such that for each pair u, v of terminals, there is a shortest rectilinear path from u to v and another path from v to u.We describe a factor 2 approximation algorithm with complexity O(n^3) where n is the number of terminals for this problem.Then we study the problem of finding a planar spanner (a subgraph which approximates the distances) of the Unit Disk Graph (UDG) which is used to modelize wireless ad hoc networks. We present an algorithm for computing a constant hop stretch factor planar spanner for all UDG. This algorithm uses only local properties and it can be implemented in distributed manner.Finally, we study the problem of recognizing metric spaces that can be isometrically embbed into the rectilinear plane and we provide an optimal time O(n^2) algorithm to solve this problem. We also study the generalization of this problem to all normed planes whose unit ball is a centrally symmetric convex polygon
APA, Harvard, Vancouver, ISO, and other styles
6

Netillard, François. "Plongements grossièrement Lipschitz et presque Lipschitz dans les espaces de Banach." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD020/document.

Full text
Abstract:
Le thème central de cette thèse est l'étude de plongements d'espaces métriques dans des espaces de Banach. La première étude concerne les plongements grossièrement Lipschitz entre les espaces de James Jp pour p≻1 et p fini. On obtient que, pour p,q différents, Jq ne se plonge pas grossièrement Lipschitz dans Jp. Nous avons également obtenu, dans le cas où q≺p, une majoration de l'exposant de compression de Jq dans Jp par q/p. La question naturelle qui se pose ensuite est de savoir si le résultat obtenu pour les espaces de James est vrai aussi en ce qui concerne leurs duaux. Nous obtenons que, pour p,q différents, Jp* ne se plonge pas grossièrement lipschitz dans Jq*. Suite à ce travail, on établit des résultats plus généraux sur la non-plongeabilité des espaces de Banach q-AUS dans les espaces de Banach p-AMUC pour p≺q. On en déduit aussi, à l'aide d'un théorème de renormage, un résultat sur les indices de Szlenk. Par ailleurs, on obtient un résultat sur la plongeabilité quasi-Lipschitz dont la définition diffère légèrement de la plongeabilité presque Lipschitz : pour deux espaces de Banach X et Y, si, pour C≻1, X est C-finiment crûment représentable dans tout sous-espace vectoriel de codimension finie de Y, alors tout sous-espace propre M de X se plonge quasi-Lipschitz dans Y. Pour conclure, on obtient le corollaire suivant : soient X et Y deux espaces de Banach tels que X est localement minimal et Y est finiment crûment représentable dans X. Alors, pour M sous-espace propre de Y, M se plonge quasi-Lipschitz dans X
The central theme of this thesis is the study of embeddings of metric spaces into Banach spaces.The first study focuses on the coarse Lipschitz embeddings between James Spaces Jp for p≻1 and p finite. We obtain that, for p,q different, Jq does not coarse Lipschitz embed into Jp. We also obtain, in the case where q≺p, that the compression exponent of Jq in Jp is lower or equal to q/p. Another natural question is to know whether we have similar results for the dual spaces of James spaces. We obtain that, for p,q different, Jp* does not coarse Lipschitz embed into Jq*. Further to this work, we establish a more general result about the coarse Lipschitz embeddability of a Banach space which has a q-AUS norm into a Banach space which has a p-AMUC norm for p≺q. With the help of a renorming theorem, we deduce also a result about the Szlenk index. Moreover, after defining the quasi-Lipschitz embeddability, which is slightly different to the almost Lipschitz embeddability, we obtain the following result: For two Banach spaces X, if X is crudely finitely representable with constant C (where C≻1) in any subspace of Y of finite codimension, then every proper subset M of X quasi-Lipschitz embeds into Y. To conclude, we obtain the following corollary: Let X be a locally minimal Banach space, and Y be a Banach space which is crudely finitely representable in X. Then, for M a proper subspace of Y, M quasi-Lipschitz embeds into X
APA, Harvard, Vancouver, ISO, and other styles
7

Dutailly, Bruno. "Plongement de surfaces continues dans des surfaces discrètes épaisses." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0444/document.

Full text
Abstract:
Dans le contexte des sciences archéologiques, des images tridimensionnelles issues de scanners tomodensitométriques sont segmentées en régions d’intérêt afin d’en faire une analyse. Ces objets virtuels sont souvent utilisés dans le but d’effectuer des mesures précises. Une partie de ces analyses nécessite d’extraire la surface des régions d’intérêt. Cette thèse se place dans ce cadre et vise à améliorer la précision de l’extraction de surface. Nous présentons dans ce document nos contributions : tout d’abord, l’algorithme du HMH pondéré dont l’objectif est de positionner précisément un point à l’interface entre deux matériaux. Appliquée à une extraction de surface, cette méthode pose des problèmes de topologie sur la surface résultante. Nous avons donc proposé deux autres méthodes : la méthode du HMH discret qui permet de raffiner la segmentation d’objet 3D, et la méthode du HMH surfacique qui permet une extraction de surface contrainte garantissant l’obtention d’une surface topologiquement correcte. Il est possible d’enchainer ces deux méthodes sur une image 3D pré-segmentée afin d’obtenir une extraction de surface précise des objets d’intérêt. Ces méthodes ont été évaluées sur des acquisitions simulées d’objets synthétiques et des acquisitions réelles d’artéfacts archéologiques
In the context of archaeological sciences, 3D images produced by Computer Tomography scanners are segmented into regions of interest corresponding to virtual objects in order to make some scientific analysis. These virtual objects are often used for the purpose of performing accurate measurements. Some of these analysis require extracting the surface of the regions of interest. This PhD falls within this framework and aims to improve the accuracy of surface extraction. We present in this document our contributions : first of all, the weighted HMH algorithm whose objective is to position precisely a point at the interface between two materials. But, applied to surface extraction, this method often leads to topology problems on the resulting surface. So we proposed two other methods : The discrete HMH method which allows to refine the 3D object segmentation, and the surface HMH method which allows a constrained surface extraction ensuring a topologically correct surface. It is possible to link these two methods on a pre-segmented 3D image in order to obtain a precise surface extraction of the objects of interest These methods were evaluated on simulated CT-scan acquisitions of synthetic objects and real acquisitions of archaeological artefacts
APA, Harvard, Vancouver, ISO, and other styles
8

Boroş, Emanuela. "Neural Methods for Event Extraction." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS302/document.

Full text
Abstract:
Du point de vue du traitement automatique des langues (TAL), l’extraction des événements dans les textes est la forme la plus complexe des processus d’extraction d’information, qui recouvrent de façon plus générale l’extraction des entités nommées et des relations qui les lient dans les textes. Le cas des événements est particulièrement ardu car un événement peut être assimilé à une relation n-aire ou à une configuration de relations. Alors que la recherche en extraction d’information a largement bénéficié des jeux de données étiquetés manuellement pour apprendre des modèles permettant l’analyse des textes, la disponibilité de ces ressources reste un problème important. En outre, de nombreuses approches en extraction d’information fondées sur l’apprentissage automatique reposent sur la possibilité d’extraire à partir des textes de larges en sembles de traits définis manuellement grâce à des outils de TAL élaborés. De ce fait, l’adaptation à un nouveau domaine constitue un défi supplémentaire. Cette thèse présente plusieurs stratégies pour améliorer la performance d’un système d’extraction d’événements en utilisant des approches fondées sur les réseaux de neurones et en exploitant les propriétés morphologiques, syntaxiques et sémantiques des plongements de mots. Ceux-ci ont en effet l’avantage de ne pas nécessiter une modélisation a priori des connaissances du domaine et de générer automatiquement un ensemble de traits beaucoup plus vaste pour apprendre un modèle. Nous avons proposé plus spécifiquement différents modèles d’apprentissage profond pour les deux sous-tâches liées à l’extraction d’événements : la détection d’événements et la détection d’arguments. La détection d’événements est considérée comme une sous-tâche importante de l’extraction d’événements dans la mesure où la détection d’arguments est très directement dépendante de son résultat. La détection d’événements consiste plus précisément à identifier des instances d’événements dans les textes et à les classer en types d’événements précis. En préalable à l’introduction de nos nouveaux modèles, nous commençons par présenter en détail le modèle de l’état de l’art qui en constitue la base. Des expériences approfondies sont menées sur l’utilisation de différents types de plongements de mots et sur l’influence des différents hyperparamètres du modèle en nous appuyant sur le cadre d’évaluation ACE 2005, standard d’évaluation pour cette tâche. Nous proposons ensuite deux nouveaux modèles permettant d’améliorer un système de détection d’événements. L’un permet d’augmenter le contexte pris en compte lors de la prédiction d’une instance d’événement (déclencheur d’événement) en utilisant un contexte phrastique, tandis que l’autre exploite la structure interne des mots en profitant de connaissances morphologiques en apparence moins nécessaires mais dans les faits importantes. Nous proposons enfin de reconsidérer la détection des arguments comme une extraction de relation d’ordre supérieur et nous analysons la dépendance de cette détection vis-à-vis de la détection d’événements
With the increasing amount of data and the exploding number data sources, the extraction of information about events, whether from the perspective of acquiring knowledge or from a more directly operational perspective, becomes a more and more obvious need. This extraction nevertheless comes up against a recurring difficulty: most of the information is present in documents in a textual form, thus unstructured and difficult to be grasped by the machine. From the point of view of Natural Language Processing (NLP), the extraction of events from texts is the most complex form of Information Extraction (IE) techniques, which more generally encompasses the extraction of named entities and relationships that bind them in the texts. The event extraction task can be represented as a complex combination of relations linked to a set of empirical observations from texts. Compared to relations involving only two entities, there is, therefore, a new dimension that often requires going beyond the scope of the sentence, which constitutes an additional difficulty. In practice, an event is described by a trigger and a set of participants in that event whose values are text excerpts. While IE research has benefited significantly from manually annotated datasets to learn patterns for text analysis, the availability of these resources remains a significant problem. These datasets are often obtained through the sustained efforts of research communities, potentially complemented by crowdsourcing. In addition, many machine learning-based IE approaches rely on the ability to extract large sets of manually defined features from text using sophisticated NLP tools. As a result, adaptation to a new domain is an additional challenge. This thesis presents several strategies for improving the performance of an Event Extraction (EE) system using neural-based approaches exploiting morphological, syntactic, and semantic properties of word embeddings. These have the advantage of not requiring a priori modeling domain knowledge and automatically generate a much larger set of features to learn a model. More specifically, we proposed different deep learning models for two sub-tasks related to EE: event detection and argument detection and classification. Event Detection (ED) is considered an important subtask of event extraction since the detection of arguments is very directly dependent on its outcome. ED specifically involves identifying instances of events in texts and classifying them into specific event types. Classically, the same event may appear as different expressions and these expressions may themselves represent different events in different contexts, hence the difficulty of the task. The detection of the arguments is based on the detection of the expression considered as triggering the event and ensures the recognition of the participants of the event. Among the difficulties to take into account, it should be noted that an argument can be common to several events and that it does not necessarily identify with an easily recognizable named entity. As a preliminary to the introduction of our proposed models, we begin by presenting in detail a state-of-the-art model which constitutes the baseline. In-depth experiments are conducted on the use of different types of word embeddings and the influence of the different hyperparameters of the model using the ACE 2005 evaluation framework, a standard evaluation for this task. We then propose two new models to improve an event detection system. One allows increasing the context taken into account when predicting an event instance by using a sentential context, while the other exploits the internal structure of words by taking advantage of seemingly less obvious but essentially important morphological knowledge. We also reconsider the detection of arguments as a high-order relation extraction and we analyze the dependence of arguments on the ED task
APA, Harvard, Vancouver, ISO, and other styles
9

Bérard, Alexandre. "Neural machine translation architectures and applications." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I022/document.

Full text
Abstract:
Cette thèse est centrée sur deux principaux objectifs : l'adaptation de techniques de traduction neuronale à de nouvelles tâches, et la reproduction de travaux de recherche existants. Nos efforts pour la reproductibilité ont résulté en la création de deux ressources : MultiVec, un outil permettant l'utilisation de plusieurs techniques liées au word embeddings; ainsi qu'un outil proposant plusieurs modèles pour la traduction automatique et d’autres tâches similaires (par ex. post-édition automatique). Nous travaillons ensuite sur plusieurs tâches liées à la traduction : la Traduction Automatique (TA), Traduction Automatique de la Parole, et la Post-Édition Automatique. Pour la tâche de TA, nous répliquons des travaux fondateurs basés sur les réseaux de neurones, et effectuons une étude sur des TED Talks, où nous avançons l'état de l'art. La tâche suivante consiste à traduire la parole dans une langue vers le texte dans une autre langue. Dans cette thèse, nous nous concentrons sur le problème inexploré de traduction dite « end-to-end », qui ne passe pas par une transcription intermédiaire dans la langue source. Nous proposons le premier modèle end-to-end, et l'évaluons sur deux problèmes : la traduction de livres audio, et d'expressions de voyage. Notre tâche finale est la post-édition automatique, qui consiste à corriger les sorties d'un système de traduction dans un scénario « boîte noire », en apprenant à partir de données produites par des post-éditeurs humains. Nous étendons des résultats publiés dans le cadre des tâches de WMT 2016 et 2017, et proposons de nouveaux modèles pour la post-édition automatique dans un scénario avec peu de données
This thesis is centered on two main objectives: adaptation of Neural Machine Translation techniques to new tasks and research replication. Our efforts towards research replication have led to the production of two resources: MultiVec, a framework that facilitates the use of several techniques related to word embeddings (Word2vec, Bivec and Paragraph Vector); and a framework for Neural Machine Translation that implements several architectures and can be used for regular MT, Automatic Post-Editing, and Speech Recognition or Translation. These two resources are publicly available and now extensively used by the research community. We extend our NMT framework to work on three related tasks: Machine Translation (MT), Automatic Speech Translation (AST) and Automatic Post-Editing (APE). For the machine translation task, we replicate pioneer neural-based work, and do a case study on TED talks where we advance the state-of-the-art. Automatic speech translation consists in translating speech from one language to text in another language. In this thesis, we focus on the unexplored problem of end-to-end speech translation, which does not use an intermediate source-language text transcription. We propose the first model for end-to-end AST and apply it on two benchmarks: translation of audiobooks and of basic travel expressions. Our final task is automatic post-editing, which consists in automatically correcting the outputs of an MT system in a black-box scenario, by training on data that was produced by human post-editors. We replicate and extend published results on the WMT 2016 and 2017 tasks, and propose new neural architectures for low-resource automatic post-editing
APA, Harvard, Vancouver, ISO, and other styles
10

Mabrouki, Mbarka. "Etude de la préservation des propriétés temporelles des réseaux de régulation génétique au travers du plongement : vers une caractérisation des systèmes complexes par l'émergence de propriétés." Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0039/document.

Full text
Abstract:
La thèse propose un cadre générique pour dénoter les spécifications des systèmes à base de composants et pour caractériser les systèmes complexes par la présence de propriétés émergentes, qui soit entrent en conflit avec les propriétés attachées aux sous-systèmes le constituant, soit sont directement issues de la coopération des sous-systèmes. Ce cadre générique a été décliné pour les cas des systèmes réactifs et des réseaux de régulation génétique
The thesis proposes a generic framework to denote specifications of basic system components and to characterize the notion of complex system by the presence of emergent property, that are either in conflict with the properties attached to the subsystems the constituent, either are directly due to the cooperation of the subsystems. The framework is declined for the cases of the relative systems and genetic regulatory network
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography