Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Domaines de données.

Dissertationen zum Thema „Domaines de données“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Domaines de données" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Alia, Mourad. „Canevas de domaines pour l'intégration de données“. Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00010341.

Der volle Inhalt der Quelle
Annotation:
Beaucoup de travaux de recherche autour des systèmes d'intégration de données se sont concentrés sur les problémes liés aux schémas, aux langages et au traitement de requÍtes. Dans cette thèse, nous nous intéressons à la problématique de construction de tels systèmes. Nous appliquons les concepts architecturaux des systèmes répartis, notamment de canevas et de composant logiciel, pour proposer un intergiciel d'intégration de données offrant quatre niveaux d'adaptabilité. Au niveau architectural, nous définissons le canevas de domaine de données qui est le composant central de l'intégration. Un système d'intégration de données est défini par la composition de domaines de données. Au niveau modèle de données, nous adoptons un modèle hybride doté d'un typage flexible, associé au langage d'expression des vues de domaines, qui permet de prendre en compte l'hétérogénéité structurelle des sources (ou domaines) de données à intégrer. Au niveau langage de requêtes, nous proposons un canevas d'expression qui permet de décrire les requêtes à la fois pour l'intégration et pour l'interrogation de domaines, indépendamment d'une syntaxe particulière. Au niveau optimisation, nous proposons un canevas d'optimisation de requêtes adaptable, dans le sens ou il permet de construire et de supporter diverses stratÈgies de recherche. Le canevas d'expression et le canevas d'optimisation de requÍte ont été implantés dans le cadre du consortium ObjectWeb. Ces implantations ont été utilisÈes dans la mise en oeuvre de deux standards de persistance d'objets Java, à savoir JDO (Java Data Object) et EJB-CMP (Container Managed Persistance). Dans le contexte de recherche de composants pour des besoins d'administration des systèmes à large échelle, nous avons proposé une utilisation de notre intergiciel pour proposer un service de requête qui permette de rechercher des composants dans un gisement et dans des systèmes en cours d'exécution, par introspection associative.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lenfant, Nicolas. „L'interactome des domaines PDZ de Caenorhabditis elegans“. Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX22038/document.

Der volle Inhalt der Quelle
Annotation:
Le domaine PDZ participe aux réseaux moléculaires à l’origine de fonctions cellulaires touchées lors de pathologies diverses. L’exploration de ce réseau par double hybride a permis d’attribuer de nouvelles fonctions putatives aux ligands protéiques des domaines PDZ du ver Caenorhabditis elegans. Les interactions ont laissé apparaitre une proportion inattendue de ligands atypiques interagissant par une séquence interne. Nous avons ensuite validé fonctionnellement in silico des groupes d’interactions de notre interactome qui forment des micro-réseaux co-exprimés par l’intégration de données de profils d’expression. Finalement, ce travail a permis la construction d’un outil exploratoire, le PIPE (PDZ Interacting Protein Explorer) qui permet de cribler l’ensemble des domaines PDZ du ver à la recherche d’interactions avec une protéine d’intérêt révélant déjà de nombreuses interactions supplémentaires entre domaines PDZ et ligands
PDZ domains allow the organization of molecular networks responsible for cellular functions essential for multicellularity as polarization or transduction of extracellular signals. Exploration of this network by two-hybrid revealed a functional diversity for ligands of Caenorhabditis elegans’s PDZ domains. New putative functions were being observed through GO-terms and an unexpected proportion of internal ligands appeared, confirmed by Co-IP. We then functionally validated in silico groups of interactions that form our interactome microarrays co-expressed by the integration of data from expression profiles. Finally, this work has enabled the construction of an exploratory tool, the PIPE (PDZ Interacting Protein Explorer) that allows screening of all PDZ domains looking for interactions with a protein of interest and had already showed many additional interactions between PDZ domains and ligands
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nasser, Bassem. „Organisation virtuelle : gestion de politique de contrôle d'accès inter domaines“. Toulouse 3, 2006. http://www.theses.fr/2006TOU30286.

Der volle Inhalt der Quelle
Annotation:
Les besoins de collaboration entre organisations et les facilités technologiques donnent aujourd'hui naissance à une nouvelle forme d'organisation et de coopération que l'on nomme « Virtuelle ». Contrairement aux organisations traditionnelles, les frontières de l'organisation virtuelle restent ambiguës. Ces frontières sont définies par la stratégie de chacune des organisations pour réaliser les tâches qui lui sont confiées. La concrétisation du concept d'organisation virtuelle passe forcément par la définition d'une politique de sécurité qui précise « qui a le droit de faire quoi aussi bien au niveau utilisateur-ressource qu'au niveau administration ». Le travail dans cette thèse répond aux questions suivantes. Comment définir une politique de contrôle d'accès transorganisationnelle ? Comment spécifier une politique de contrôle d'accès propre à chaque collaboration tout en respectant l'autorité de chaque organisation sur ses utilisateurs et ressources ? Comment minimiser l'effet de la structure interne de l'organisation membre sur la coopération dans l'OV ? Pour modéliser la politique de contrôle d'accès abstraite nous nous sommes appuyés sur le modèle OrBAC qui intègre aussi la notion d'organisation. Nous avons été amenés à étendre ce modèle en exprimant les relations inter-organisationnelles. Par ailleurs, nous avons défini les entités qu'il faut rajouter à AdOrBAC, le modèle d'administration d'OrBAC, pour permettre la gestion de ces nouvelles relations. Finalement, nous avons analysé les aspects de déploiement de l'organisation virtuelle selon notre modèle. Nous proposons une architecture pour l'authentification et l'autorisation en s'appuyant sur la complémentarité de deux solutions : Shibboleth et Permis
Information technology offers a flexible support on which new organisational and collaboration structures, called Virtual Organisation (VO), can be built. Contrary to a classical organisation, the VO doesn't have a physical presence where its boundaries are flexible and even fuzzy, defined by its constituent members. These boundaries are defined within each organisation according to its strategy on how its services should be supplied. The deployment of the “Virtual Organisation” requires the definition of a security policy that indicates “who can do what” at the user-resource level as well as the administration level. This research work treats access control issues within the VO mainly addressing how to define a trans-organisational access control policy, how to specify a collaboration access control policy where entities (users and resources) are managed by independent partner organisations, and how to dissociate the partner internal structure from the VO structure to support multiple VOs simultaneously. For an unambiguous specification of access control policy, formal security models are of particular interest where formal tools may serve to reason about and verify the policy coherence. We argue that OrBAC (Organisation Based Access Control model) is an appropriate model for the VO environment. The major contribution of this thesis constitutes a new access control and administration model for virtual organisations on the top of OrBAC. A prototype is implemented to validate the proposal. The prototype integrates “Identity Federation” notion (using Shibboleth) and authorization infrastructure (using modified PERMIS) for enforcing access control within a Virtual Organisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Li, Yubing. „Analyse de vitesse par migration quantitative dans les domaines images et données pour l’imagerie sismique“. Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM002/document.

Der volle Inhalt der Quelle
Annotation:
Les expériences sismiques actives sont largement utilisées pour caractériser la structure de la subsurface. Les méthodes dites d’analyse de vitesse par migration ont pour but la détermination d’un macro-modèle de vitesse, lisse, et contrôlant la cinématique de propagation des ondes. Le modèle est estimé par des critères de cohérence d’image ou de focalisation d’image. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. Des résultats récents proposent de coupler l’inversion asymptotique, qui donne des images beaucoup plus propres en pratique, avec l’analyse de vitesse pour la version offset en profondeur. Cette approche cependant demande des capacités de calcul et de mémoire importantes et ne peut actuellement être étendue en 3D.Dans ce travail, je propose de développer le couplage entre l’analyse de vitesse et la migration plus conventionnelle par point de tir. La nouvelle approche permet de prendre en compte des modèles de vitesse complexes, comme par exemple en présence d’anomalies de vitesses plus lentes ou de réflectivités discontinues. C’est une alternative avantageuse en termes d’implémentation et de coût numérique par rapport à la version profondeur. Je propose aussi d’étendre l’analyse de vitesse par inversion au domaine des données pour les cas par point de tir. J’établis un lien entre les méthodes formulées dans les domaines données et images. Les méthodologies sont développées et analysées sur des données synthétiques 2D
Active seismic experiments are widely used to characterize the structure of the subsurface. Migration Velocity Analysis techniques aim at recovering the background velocity model controlling the kinematics of wave propagation. The first step consists of obtaining the reflectivity images by migrating observed data in a given macro velocity model. The estimated model is then updated, assessing the quality of the background velocity model through the image coherency or focusing criteria. Classical migration techniques, however, do not provide a sufficiently accurate reflectivity image, leading to incorrect velocity updates. Recent investigations propose to couple the asymptotic inversion, which can remove migration artifacts in practice, to velocity analysis in the subsurface-offset domain for better robustness. This approach requires large memory and cannot be currently extended to 3D. In this thesis, I propose to transpose the strategy to the more conventional common-shot migration based velocity analysis. I analyze how the approach can deal with complex models, in particular with the presence of low velocity anomaly zones or discontinuous reflectivities. Additionally, it requires less memory than its counterpart in the subsurface-offset domain. I also propose to extend Inversion Velocity Analysis to the data-domain, leading to a more linearized inverse problem than classic waveform inversion. I establish formal links between data-fitting principle and image coherency criteria by comparing the new approach to other reflection-based waveform inversion techniques. The methodologies are developed and analyzed on 2D synthetic data sets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Li, Yubing. „Analyse de vitesse par migration quantitative dans les domaines images et données pour l’imagerie sismique“. Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM002.

Der volle Inhalt der Quelle
Annotation:
Les expériences sismiques actives sont largement utilisées pour caractériser la structure de la subsurface. Les méthodes dites d’analyse de vitesse par migration ont pour but la détermination d’un macro-modèle de vitesse, lisse, et contrôlant la cinématique de propagation des ondes. Le modèle est estimé par des critères de cohérence d’image ou de focalisation d’image. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. Des résultats récents proposent de coupler l’inversion asymptotique, qui donne des images beaucoup plus propres en pratique, avec l’analyse de vitesse pour la version offset en profondeur. Cette approche cependant demande des capacités de calcul et de mémoire importantes et ne peut actuellement être étendue en 3D.Dans ce travail, je propose de développer le couplage entre l’analyse de vitesse et la migration plus conventionnelle par point de tir. La nouvelle approche permet de prendre en compte des modèles de vitesse complexes, comme par exemple en présence d’anomalies de vitesses plus lentes ou de réflectivités discontinues. C’est une alternative avantageuse en termes d’implémentation et de coût numérique par rapport à la version profondeur. Je propose aussi d’étendre l’analyse de vitesse par inversion au domaine des données pour les cas par point de tir. J’établis un lien entre les méthodes formulées dans les domaines données et images. Les méthodologies sont développées et analysées sur des données synthétiques 2D
Active seismic experiments are widely used to characterize the structure of the subsurface. Migration Velocity Analysis techniques aim at recovering the background velocity model controlling the kinematics of wave propagation. The first step consists of obtaining the reflectivity images by migrating observed data in a given macro velocity model. The estimated model is then updated, assessing the quality of the background velocity model through the image coherency or focusing criteria. Classical migration techniques, however, do not provide a sufficiently accurate reflectivity image, leading to incorrect velocity updates. Recent investigations propose to couple the asymptotic inversion, which can remove migration artifacts in practice, to velocity analysis in the subsurface-offset domain for better robustness. This approach requires large memory and cannot be currently extended to 3D. In this thesis, I propose to transpose the strategy to the more conventional common-shot migration based velocity analysis. I analyze how the approach can deal with complex models, in particular with the presence of low velocity anomaly zones or discontinuous reflectivities. Additionally, it requires less memory than its counterpart in the subsurface-offset domain. I also propose to extend Inversion Velocity Analysis to the data-domain, leading to a more linearized inverse problem than classic waveform inversion. I establish formal links between data-fitting principle and image coherency criteria by comparing the new approach to other reflection-based waveform inversion techniques. The methodologies are developed and analyzed on 2D synthetic data sets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Leprettre, Benoit. „Reconnaissance de signaux sismiques d'avalanches par fusion de données estimées dans les domaines temps, temps-fréquence et polarisation“. Université Joseph Fourier (Grenoble ; 1971-2015), 1996. http://www.theses.fr/1996GRE10182.

Der volle Inhalt der Quelle
Annotation:
L'estimation de l'activite avalancheuse naturelle d'une portion de massif repose actuellement sur l'observation visuelle. Pour s'affranchir des contraintes de visibilite qui lui sont liees, une solution est de detecter les ondes sismiques produites par les avalanches au cours de leur chute. Cependant, 90 pour cent des signaux enregistres ne sont pas des avalanches et doivent etre elimines. Nous proposons une approche pluridisciplinaire de ce probleme de reconnaissance. Dans le domaine temps, le module du signal est utilise comme un premier critere de reconnaissance. Dans le domaine temps-frequence, la methode hybride arcap fournit une representation temps-frequence du signal avec une bonne reduction d'information. Dans le domaine de polarisation, nous proposons d'utiliser le filtre de capon pour ameliorer le rapport signal a bruit des signaux avant d'estimer un critere de linearite. Cela permet d'estimer la repartition dans le plan temps-frequence des mouvements lineaires contenus dans le signal. Le filtre de capon est etudie en detail et compare a un filtre de fourier. Les resultats de l'analyse sont reduits a environ 25 descripteurs qui, combines a l'aide d'une base de regles, permettent l'identification des signaux. Les regles sont inspirees principalement par des considerations sur les phenomenes physiques generateurs d'ondes sismiques et sur les lois de propagation. Un test sur un ensemble de signaux identifies permet d'evaluer le taux de reussite de notre systeme a environ 90 pour cent. Un prototype autonome est propose ; il sera installe sur site pour l'hiver 96/97. Une comparaison entre l'information fournie par notre systeme et d'autres donnees relatives a l'activite avalancheuse confirme l'interet de notre systeme pour des applications concretes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Chaix, Christophe. „Climatologie hivernale des versants alpins (Savoie) : types de temps, température et vents : analyse des données météorologiques des domaines skiables“. Chambéry, 2007. http://www.theses.fr/2007CHAML028.

Der volle Inhalt der Quelle
Annotation:
En zone montagneuse, la variabilité des paramètres climatiques, notamment à l'échelle fine, reste mal connue. En effet, les conditions climatiques difficiles rencontrées dans la montagne hivernale ont toujours empêché une instrumentation systématique de la mesure des températures, de l'humidité relative ou encore du vent. Mais depuis l'avènement de la production de neige de culture dans les stations de sport d'hiver, on peut se servir des données météorologiques utilisées dans la gestion des canons à neige pour suivre le comportement de ces paramètres climatiques, grâce à un réseau très dense de sondes et d'anémomètres. Cette thèse vise à exploiter les données obtenues grâce aux potentialités de ce nouveau réseau de mesure au travers des sites d'étude choisis, dans les Alpes françaises en Savoie (Les Menuires, Val Thorens, Aussois et Valloire). Une analyse exploratoire et statistique des données permet de répondre en partie aux problématiques récurrentes de la climatologie hivernale de montagne, concernant notamment l'influence des échelles climatiques supérieures et du relief sur la variabilité spatio-temporelle des températures et du vent à échelles finies. Fondée au préalable sur une classification des types de temps en Savoie, l'étude porte principalement sur le comportement moyen ou horaire des températures et leurs inversions, les gradients thermiques et le rôle des facteurs topographiques et des échelles climatiques sur la variation des paramètres locaux. Un nouveau modèle de l'évolution des brises thermiques hivernales est proposé, avec la découverte de mécanismes encore non identifiés sur les brises catabatiques diurnes. Enfin, nous proposerons des applications concrètes pour la gestion des domaines skiables et de la neige de culture
In mountainous area, the variability of the climatic parameters are still not well known at small scale. Indeed, the systematic measurements of temperature, humidity and wind's parameters are often restricted because of difficult climatic conditions, specially in winter. But since the production of artificial snow in the winters sports resorts began, it becam possible to use the information of the very dense meteorological network of anemometers and probes installed for this purpose. This PhD thesis aims at exploiting the data of french alpine selected sites in the Savoie area (Les Menuires, Val Thorens, Aussois, Valloire). A statistical and exploratory data analysis permit to answer the recurrent problematic of the mountain winter climatology, maily the influence of the meteorological large scale and the mountain topography on the small scale spatial and temporal variability of the temperature and wind. This research deals with the hourly and winter means temperature behavior, their inversions, the thermal gradients according to the weather type classification of the Savoie area. A new model of the evolution of the winter thermal breezes is proposed, after having identified diurnal catabatic breezes' mechanisms which were still unknown. Lastly, we propose real applications for the management of skiing areas and artificial snow
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Raynaud, Jean-Louis. „Exploitation simultanée des données spatiales et fréquentielles dans l'identification modale linéaire et non-linéaire“. Besançon, 1986. http://www.theses.fr/1987BESA2013.

Der volle Inhalt der Quelle
Annotation:
Les méthodes d'identification des solutions propres des structures mécaniques utilisent principalement des techniques d'appropriation ou de lissage de fonctions de transfert. Ces méthodes sont longues et n'utilisent pas simultanément toutes les mesures faites sur la structure. Il en résulte des erreurs ou des incohérences. Les méthodes temporelles, récemment développées prennent en compte simultanément toutes les informations délivrées dans une bande de fréquence par l'ensemble des capteurs places sur la structure. Ces méthodes nécessitent le calcul par transformées de Fourier inverses des réponses fréquentielles. La méthode proposée présente les mêmes avantages mais opère directement sur les réponses fréquentielles. A partir de deux développements, on transforme les déplacements et vitesses observes en un problème généralise aux valeurs propres caractérise par deux matrices complexes singulières. La résolution de ce problème conduit aux solutions propres contenues dans la bande fréquentielle observée. Elle a été validée : -sur des structures mécaniques linéaires simples présentant plusieurs modes propres fortement couples. -sur des structures mécaniques simples faiblement non-linéaires pour tester sa sensibilité aux non-linéarités de raideurs et d'amortissements. -sur des structures industrielles. Ce travail a permis la mise au point au L. M. A. D'un logiciel d'identification
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Alborzi, Seyed Ziaeddin. „Automatic Discovery of Hidden Associations Using Vector Similarity : Application to Biological Annotation Prediction“. Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0035/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente: 1) le développement d'une nouvelle approche pour trouver des associations directes entre des paires d'éléments liés indirectement à travers diverses caractéristiques communes, 2) l'utilisation de cette approche pour associer directement des fonctions biologiques aux domaines protéiques (ECDomainMiner et GODomainMiner) et pour découvrir des interactions domaine-domaine, et enfin 3) l'extension de cette approche pour annoter de manière complète à partir des domaines les structures et les séquences des protéines. Au total, 20 728 et 20 318 associations EC-Pfam et GO-Pfam non redondantes ont été découvertes, avec des F-mesures de plus de 0,95 par rapport à un ensemble de référence Gold Standard extrait d'une source d'associations connues (InterPro). Par rapport à environ 1500 associations déterminées manuellement dans InterPro, ECDomainMiner et GODomainMiner produisent une augmentation de 13 fois le nombre d'associations EC-Pfam et GO-Pfam disponibles. Ces associations domaine-fonction sont ensuite utilisées pour annoter des milliers de structures de protéines et des millions de séquences de protéines pour lesquelles leur composition de domaine est connue mais qui manquent actuellement d'annotations fonctionnelles. En utilisant des associations de domaines ayant acquis des annotations fonctionnelles inférées, et en tenant compte des informations de taxonomie, des milliers de règles d'annotation ont été générées automatiquement. Ensuite, ces règles ont été utilisées pour annoter des séquences de protéines dans la base de données TrEMBL
This thesis presents: 1) the development of a novel approach to find direct associations between pairs of elements linked indirectly through various common features, 2) the use of this approach to directly associate biological functions to protein domains (ECDomainMiner and GODomainMiner), and to discover domain-domain interactions, and finally 3) the extension of this approach to comprehensively annotate protein structures and sequences. ECDomainMiner and GODomainMiner are two applications to discover new associations between EC Numbers and GO terms to protein domains, respectively. They find a total of 20,728 and 20,318 non-redundant EC-Pfam and GO-Pfam associations, respectively, with F-measures of more than 0.95 with respect to a “Gold Standard” test set extracted from InterPro. Compared to around 1500 manually curated associations in InterPro, ECDomainMiner and GODomainMiner infer a 13-fold increase in the number of available EC-Pfam and GO-Pfam associations. These function-domain associations are then used to annotate thousands of protein structures and millions of protein sequences for which their domain composition is known but that currently lack experimental functional annotations. Using inferred function-domain associations and considering taxonomy information, thousands of annotation rules have automatically been generated. Then, these rules have been utilized to annotate millions of protein sequences in the TrEMBL database
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Nguyen, Huy Hoang. „Equations de Navier-Stokes dans des domaines non bornés en dimension trois et problèmes elliptiques à données dans L/\1“. Pau, 2008. http://www.theses.fr/2008PAUU3018.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a trait à l'utilisation des espaces de Sobolev avec poids dans des problèmes liés directement ou indirectement à la mécanique des fluides. La première partie, divisée en trois chapitres, concerne la régularité des solutions des équations stationnaires de Navier-Stokes pour des fluides visqueux incompressibles en domaine non borné autour d'un obstacle ou remplissant tout l'espace tridimensionnel. Cette partie a donné aussi quelques résultats concernant les équations d'Oseen, ainsi que la caractérisation des noyaux du laplacien avec des conditions de Dirichlet au bord dans un ouvert extérieur en dimension n et d'Oseen dans un ouvert extérieur en dimension trois. Dans la seconde partie, on s'intéresse à certaines propriétés des opérateurs gradient, divergence et rotationnel, puis on donne des applications à quelques problèmes elliptiques dans l'espace tout entier et dans le demi-espace avec des données dans L1
In this thesis, we deal with the problems which are directly or indirectly related to fluid mechanics using weighted Sobolev spaces. The first part of this thesis contains three chapters which mainly concerns about the regularity of solutions of the stationary Navier-Stokes equations for incompressible viscous fluids in three-dimensional exterior domains or in the whole three-dimensional space with some additional results concerning the Oseen equations as well as the characterization of the kernel of the Laplace operator with Dirichlet boundary conditions in n-dimensional exterior domains and the characterization of the kernel of the Oseen system in threedimensional exterior domains. In the second part, we deal with certain properties of the gradient, divergence and rotational operators with applications to some elliptic problems in the whole space and in the half-space with L1-data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Nguyen, Quoc-Hung. „THÉORIE NON LINÉAIRE DU POTENTIEL ET ÉQUATIONS QUASILINÉAIRES AVEC DONNÉES MESURES“. Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-01063365.

Der volle Inhalt der Quelle
Annotation:
Cette thése concerne l'existence et la régularité de solutions d'équations non-linéaires elliptiques, d'équations paraboliques et d'équations de Hesse avec mesures, et les critéres de l'existence de solutions grandes d'équations elliptiques et paraboliques non-linéaires. \textbf{Liste de publications} \begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}\begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

De, Moliner Anne. „Estimation robuste de courbes de consommmation électrique moyennes par sondage pour de petits domaines en présence de valeurs manquantes“. Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK021/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à l'estimation robuste de courbes moyennes ou totales de consommation électrique par sondage en population finie, pour l'ensemble de la population ainsi que pour des petites sous-populations, en présence ou non de courbes partiellement inobservées.En effet, de nombreuses études réalisées dans le groupe EDF, que ce soit dans une optique commerciale ou de gestion du réseau de distribution par Enedis, se basent sur l'analyse de courbes de consommation électrique moyennes ou totales, pour différents groupes de clients partageant des caractéristiques communes. L'ensemble des consommations électriques de chacun des 35 millions de clients résidentiels et professionnels Français ne pouvant être mesurées pour des raisons de coût et de protection de la vie privée, ces courbes de consommation moyennes sont estimées par sondage à partir de panels. Nous prolongeons les travaux de Lardin (2012) sur l'estimation de courbes moyennes par sondage en nous intéressant à des aspects spécifiques de cette problématique, à savoir l'estimation robuste aux unités influentes, l'estimation sur des petits domaines, et l'estimation en présence de courbes partiellement ou totalement inobservées.Pour proposer des estimateurs robustes de courbes moyennes, nous adaptons au cadre fonctionnel l'approche unifiée d'estimation robuste en sondages basée sur le biais conditionnel proposée par Beaumont (2013). Pour cela, nous proposons et comparons sur des jeux de données réelles trois approches : l'application des méthodes usuelles sur les courbes discrétisées, la projection sur des bases de dimension finie (Ondelettes ou Composantes Principales de l'Analyse en Composantes Principales Sphériques Fonctionnelle en particulier) et la troncature fonctionnelle des biais conditionnels basée sur la notion de profondeur d'une courbe dans un jeu de données fonctionnelles. Des estimateurs d'erreur quadratique moyenne instantanée, explicites et par bootstrap, sont également proposés.Nous traitons ensuite la problématique de l'estimation sur de petites sous-populations. Dans ce cadre, nous proposons trois méthodes : les modèles linéaires mixtes au niveau unité appliqués sur les scores de l'Analyse en Composantes Principales ou les coefficients d'ondelettes, la régression fonctionnelle et enfin l'agrégation de prédictions de courbes individuelles réalisées à l'aide d'arbres de régression ou de forêts aléatoires pour une variable cible fonctionnelle. Des versions robustes de ces différents estimateurs sont ensuite proposées en déclinant la démarche d'estimation robuste basée sur les biais conditionnels proposée précédemment.Enfin, nous proposons quatre estimateurs de courbes moyennes en présence de courbes partiellement ou totalement inobservées. Le premier est un estimateur par repondération par lissage temporel non paramétrique adapté au contexte des sondages et de la non réponse et les suivants reposent sur des méthodes d'imputation. Les portions manquantes des courbes sont alors déterminées soit en utilisant l'estimateur par lissage précédemment cité, soit par imputation par les plus proches voisins adaptée au cadre fonctionnel ou enfin par une variante de l'interpolation linéaire permettant de prendre en compte le comportement moyen de l'ensemble des unités de l'échantillon. Des approximations de variance sont proposées dans chaque cas et l'ensemble des méthodes sont comparées sur des jeux de données réelles, pour des scénarios variés de valeurs manquantes
In this thesis, we address the problem of robust estimation of mean or total electricity consumption curves by sampling in a finite population for the entire population and for small areas. We are also interested in estimating mean curves by sampling in presence of partially missing trajectories.Indeed, many studies carried out in the French electricity company EDF, for marketing or power grid management purposes, are based on the analysis of mean or total electricity consumption curves at a fine time scale, for different groups of clients sharing some common characteristics.Because of privacy issues and financial costs, it is not possible to measure the electricity consumption curve of each customer so these mean curves are estimated using samples. In this thesis, we extend the work of Lardin (2012) on mean curve estimation by sampling by focusing on specific aspects of this problem such as robustness to influential units, small area estimation and estimation in presence of partially or totally unobserved curves.In order to build robust estimators of mean curves we adapt the unified approach to robust estimation in finite population proposed by Beaumont et al (2013) to the context of functional data. To that purpose we propose three approaches : application of the usual method for real variables on discretised curves, projection on Functional Spherical Principal Components or on a Wavelets basis and thirdly functional truncation of conditional biases based on the notion of depth.These methods are tested and compared to each other on real datasets and Mean Squared Error estimators are also proposed.Secondly we address the problem of small area estimation for functional means or totals. We introduce three methods: unit level linear mixed model applied on the scores of functional principal components analysis or on wavelets coefficients, functional regression and aggregation of individual curves predictions by functional regression trees or functional random forests. Robust versions of these estimators are then proposed by following the approach to robust estimation based on conditional biais presented before.Finally, we suggest four estimators of mean curves by sampling in presence of partially or totally unobserved trajectories. The first estimator is a reweighting estimator where the weights are determined using a temporal non parametric kernel smoothing adapted to the context of finite population and missing data and the other ones rely on imputation of missing data. Missing parts of the curves are determined either by using the smoothing estimator presented before, or by nearest neighbours imputation adapted to functional data or by a variant of linear interpolation which takes into account the mean trajectory of the entire sample. Variance approximations are proposed for each method and all the estimators are compared to each other on real datasets for various missing data scenarios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Marchand, Morgane. „Domaines et fouille d'opinion : une étude des marqueurs multi-polaires au niveau du texte“. Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112026/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à l’adaptation d’un classifieur statistique d’opinion au niveau du texte d’un domaine à un autre. Cependant, nous exprimons notre opinion différemment selon ce dont nous parlons. Un même mot peut ne pas désigner pas la même chose ou bien ne pas avoir la même connotation selon le thème de la discussion. Si ces mots ne sont pas détectés, ils induiront des erreurs de classification.Nous appelons donc marqueurs multi-polaires des mots ou bigrammes dont la présence indique une certaine polarité du texte entier, différente selon le domaine du texte. Cette thèse est consacrées à leur étude. Ces marqueurs sont détectés à l’aide d’un test du khi2 lorsque l’on dispose d’annotations au niveau du texte dans les deux domaines d’intérêt. Nous avons également proposé une méthode de détection semi-supervisé. Nous utilisons une collections de mots pivots auto-épurés afin d’assurer une polarité stable d’un domaine à un autre.Nous avons également vérifié la pertinence linguistique des mots sélectionnés en organisant une campagne d’annotation manuelle. Les mots ainsi validés comme multi-polaires peuvent être des éléments de contexte, des mots exprimant ou expliquant une opinion ou bien désignant l’objet sur lequel l’opinion est portée. Notre étude en contexte a également mis en lumière trois causes principale de changement de polarité : le changement de sens, le changement d’objet et le changement d’utilisation.Pour finir, nous avons étudié l’influence de la détection des marqueurs multi-polaires sur la classification de l’opinion au niveau du texte par des classifieurs automatiques dans trois cas distincts : adaptation d’un domaine source à un domaine cible, corpus multi-domaine, corpus en domaine ouvert. Les résultats de ces expériences montrent que plus le transfert initial est difficile, plus la prise en compte des marqueurs multi-polaires peut améliorer la classification, allant jusqu’à plus cinq points d’exactitude
In this thesis, we are studying the adaptation of a text level opinion classifier across domains. Howerver, people express their opinion in a different way depending on the subject of the conversation. The same word in two different domains can refer to different objects or have an other connotation. If these words are not detected, they will lead to classification errors.We call these words or bigrams « multi-polarity marquers ». Their presence in a text signals a polarity wich is different according to the domain of the text. Their study is the subject of this thesis. These marquers are detected using a khi2 test if labels exist in both targeted domains. We also propose a semi-supervised detection method for the case with labels in only one domain. We use a collection of auto-epurated pivot words in order to assure a stable polarity accross domains.We have also checked the linguistic interest of the selected words with a manual evaluation campaign. The validated words can be : a word of context, a word giving an opinion, a word explaining an opinion or a word wich refer to the evaluated object. Our study also show that the causes of the changing polarity are of three kinds : changing meaning, changing object or changing use.Finally, we have studyed the influence of multi-polarity marquers on opinion classification at text level in three different cases : adaptation of a source domain to a target domain, multi-domain corpora and open domain corpora. The results of our experiments show that the potential improvement is bigger when the initial transfer was difficult. In the favorable cases, we improve accurracy up to five points
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Mareuil, Fabien. „DaDiModO un algorithme génétique pour l'étude de protéines à domaines à l'aide de données de RMN et de SAXS : application à la protéine ribosomale S1 d'Escherichia Coli“. Paris 7, 2008. http://www.theses.fr/2008PA077191.

Der volle Inhalt der Quelle
Annotation:
La compréhension des propriétés des macromolécules biologiques, en particulier des protéines, passe par la connaissance de leurs structures tridimensionnelles. Environ un millier de domaines différents suffisent à construire la plupart des protéines et il est estimé que la moitié des structures de ces domaines est résolue (Koonin et al. 2002). À terme, il sera possible d'obtenir au moins des modèles approchés de la structure des domaines composant une protéine. Mais il manquera toujours l'information sur le positionnement relatif des domaines. De ce fait, disposer d'un outil permettant de trouver ce positionnement à l'aide de données expérimentales rapides à acquérir est un enjeu important. Dans cette optique nous avons développé un algorithme permettant d'utiliser des données de RMN et de SAXS pour positionner les domaines d'une protéine multi-domaines. L'un des avantages de cet outil est de laisser toute liberté à l'utilisateur quant à la déformabilité des domaines. Nous avons validé notre méthode sur deux cas tests et ainsi montré que si la définition des domaines était suffisamment fine et les données expérimentales d'assez bonne qualité, on pouvait s'approcher de la solution structurale à moins de 1 À d'erreur. Nous avons ensuite utilisé notre méthode dans le cadre d'une étude structurale de deux fragment! de la protéine ribosomique S1, composée de six répétitions du domaine S1. Cette étude a porté su les fragments composés des domaines 3-4 et 4-5. La structure du domaine 4 a été déterminée Celles des domaines 3 et 5 ont été obtenues par modélisation par homologie. Notre étude nous permis de valider un modèle biologiquement pertinent pour le fragment 3-5
To increase our Knowledge about the biological properties of macromolecules, especially proteins, it is necessary to know their three-dimensional structures. About one thousand of different domains are sufficient to build most proteins and it is estimated that half of these domain structures is determined (Koonin et al. 2002). Eventually, it will be possible to obtain close models of protein domain structures. However the information concerning the relative position of the domains will always be missing. Hence, having a tool that finds the relative position of domains by using experimental data easy to obtain is a major issue. For that purpose, we have developed an algorithm that uses NMR and SAXS data to position the domains of a multi-domain protein. The main advantage of this tool is to leave the user free to choose the deformability of the domains. We validated our method on two test cases and thus showed that when the definition of domains is accurate enough and the experimental data are of fairly good quality, our program could approach the structural solution with an error of less than 1 A. We have then applied our method to the structural study of two fragments of the ribosomal protein S1 which is composed of six repetitions of the S1 domain. This study focused on the fragment; made of domains 3-4 and 4-5. The structure of the domain 4 was determined by NMR. The domain: 3 and 5 were obtained by homology modelling. Our study allowed us to validate a biologically relevant model of the fragment 3-5
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Mondet, Jean. „Etude des paramètres de surface de la calotte polaire antarctique, dans les domaines spectraux du visible et du proche infrarouge, à partir des données de l'instrument de télédétection POLDER“. Phd thesis, Grenoble 1, 1999. http://tel.archives-ouvertes.fr/tel-00766029.

Der volle Inhalt der Quelle
Annotation:
L'albédo de la surface antarctique Joue un rôle important dans les études climatologiques. Essentiellement deux facteurs peuvent modifier sa valeur: la taille des grains de neige et la rugosité de surface générée par les vents dominants. Ces caractéristiques de surface varient dans l'espace et dans le temps et seuls les satellites permettent régulièrement leurs estimations sur un continent aussi vaste, inhospitalier et isolé que l'Antarctique. Parmi les in struments de télédétection, POLDER (POLarization and Directionality of the Earth's Reflectances), à bord du satellite ADEOS, est le premier à offrir jusqu'à 14 observations d'un même site, dans les domaines spectraux du visible et du proche infrarouge, sous des angles de visée différents, au cours d'une seule orbite. Comme sa fauchée est large et que les orbites d'ADEOS se recoupent à proximité des pôles, les régions polaires profitent d'une bonne couverture quotidienne. Par conséquent, POLDER semble être particulièrement bien adapté pour étudier les FDRBs (Fonctions de Distribution des Réflectances Bidirectionnelles) de la neige antarctique. Dans cette étude est montrée l'analyse des données POLDER du mois de novembre 1996, dans une région limitée de l'Antarctique. Après élimination des nuages, par l' utilisation notamment des mesures de polarisation, des FDRBs caractéristiques de différentes zones ont été restituées qui ont permis l'extraction d'informations relatives à la rugosité de surface et à la taille des grains de neige. Il apparaît que dans les zones rugueuses, les FDRBs sont caractérisées par une forte diffusion dans le demi-plan arrière (souvent plus forte que vers l'avant) que ne restituent pas les modèles de réflectance bidirectionnelle de la neige utilisés. De plus la position du pic de diffusion dans ce demi-plan arrière varie d'une région à une autre et peut donc être reliée à la rugosité de la surface. Toutefois, l'étude de cette rugosité est rendu complexe par le fait qu'il existe souvent plus d'une direction dans laquelle s'alignent les reliefs (d'érosion ou d'accumulation) de surface. L'étude comparative du rapport de réflectances mesurées par POLDER d'une part (865nm/670nm) et ATSR-2 d'autre part (1600nm/865nm), relié à la taille des grains de neige, montre les mêmes variations spatiales relatives. Cependant, la détermination des tailles de grains de neige ne peut être déduite, en valeur absolue, par les mesures satellitales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Oropeza, Alip. „Sur une classe de problèmes elliptiques quasilinéaires avec conditions de Robin non linéaires et données L1 : existence et homogénéisation“. Rouen, 2016. http://www.theses.fr/2016ROUES043.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Ghouzam, Yassine. „Nouvelles approches pour l'analyse et la prédiction de la structure tridimensionnelle des protéines“. Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC217.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse est une étude in silico des structures tridimensionnelles des protéines, qui a fait l’objet de 5 publications scientifiques.D’une manière plus précise, les travaux s’articulent autour de trois thématiques originales et complémentaires dans le domaine de la bioinformatique structurale : la caractérisation d’un nouvel échelon de description de la structure des protéines (les unités protéiques), intermédiaire entre les structures secondaires et les domaines.Le deuxième axe de cette thèse porte sur le développement d’une nouvelle méthode de prédiction des structures protéiques, appelée ORION.Cette méthode permet une détection accrue d’homologues lointains grâce à la prise en compte de l’information structurale sous forme d’un alphabet structural (les blocs protéiques).Une seconde version améliorée a été rendue accessible à la communauté scientifique par le biais d’une interface web : http://www.dsimb.inserm.fr/ORION/.Le dernier axe de cette thèse, s’oriente autour du développement d’outils, pour la prédiction de l’orientation et l’évaluation de la membrane dans les structures de protéines membranaires effectué dans le cadre de plusieurs collaborations.Les outils développés (ANVIL et MAIDEN) ont été mise à la disposition de la communauté scientifique par le biais d’une interface web appelée OREMPRO et accessible à l’adresse suivante : http://www.dsimb.inserm.fr/OREMPRO/
This thesis deals with three complementary themes in the field of structural bioinformatics : the characterization of a new level of description of the protein structure (Protein Units) which is an intermediate level between the secondary structures and protein domains. The second part focus on the development of a new method for predicting protein structures,called ORION. It boosts the detection of remote protein homologs by taking into account thestructural information in the form of a structural alphabet (Protein Blocks). A second improved version was made available to the scientific community through a web interface : http://www.dsimb.inserm.fr/ORION/. The last part of this thesis describes the collaborative development of new tools for predicting and assessing the orientation of proteins in the membrane. The two methods developed (ANVIL and MAIDEN) were made available to the scientific community through a webinterface called OREMPRO: http: / /www.dsimb.inserm.fr/OREMPRO
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Exibard, Léo. „Automatic synthesis of systems with data“. Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0312.

Der volle Inhalt der Quelle
Annotation:
Nous interagissons régulièrement avec des machines qui réagissent en temps réel à nos actions (robots, sites web etc). Celles-ci sont modélisées par des systèmes réactifs, caractérisés par une interaction constante avec leur environnement. L'objectif de la synthèse réactive est de générer automatiquement un tel système à partir de la description de son comportement afin de remplacer la phase de développement bas-niveau, sujette aux erreurs, par l'élaboration d'une spécification haut-niveau.Classiquement, on suppose que les signaux d'entrée de la machine sont en nombre fini. Un tel cadre échoue à modéliser les systèmes qui traitent des données issues d'un ensemble infini (un identifiant unique, la valeur d'un capteur, etc). Cette thèse se propose d'étendre la synthèse réactive au cas des mots de données. Nous étudions un modèle adapté à ce cadre plus général, et examinons la faisabilité des problèmes de synthèse associés. Nous explorons également les systèmes non réactifs, où l'on n'impose pas à la machine de réagir en temps réel
We often interact with machines that react in real time to our actions (robots, websites etc). They are modelled as reactive systems, that continuously interact with their environment. The goal of reactive synthesis is to automatically generate a system from the specification of its behaviour so as to replace the error-prone low-level development phase by a high-level specification design.In the classical setting, the set of signals available to the machine is assumed to be finite. However, this assumption is not realistic to model systems which process data from a possibly infinite set (e.g. a client id, a sensor value, etc.). The goal of this thesis is to extend reactive synthesis to the case of data words. We study a model that is well-suited for this more general setting, and examine the feasibility of its synthesis problem(s). We also explore the case of non-reactive systems, where the machine does not have to react immediately to its inputs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Carel, Léna. „Analyse de données volumineuses dans le domaine du transport“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG001/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de proposer de nouvelles méthodologies à appliquer aux données du transport public. En effet, nous sommes entourés de plus en plus de capteurs et d'ordinateurs générant d'énormes quantités de données. Dans le domaine des transports publics, les cartes sans contact génèrent des données à chaque fois que nous les utilisons, que ce soit pour les chargements ou nos trajets. Dans cette thèse, nous utilisons ces données dans deux buts distincts. Premièrement, nous voulions être capable de détecter des groupes de passagers ayant des habitudes temporelles similaires. Pour ce faire, nous avons commencé par utilisé la factorisation de matrices non-négatives comme un outil de pré-traitement pour la classification. Puis nous avons introduit l'algorithme NMF-EM permettant une réduction de la dimension et une classification de manière simultanée pour un modèle de mélange de distributions multinomiales. Dans un second temps, nous avons appliqué des méthodes de régression à ces données afin d'être capable de fournir une fourchette de ces validations probables. De même, nous avons appliqué cette méthodologie à la détection d'anomalies sur le réseau
The aim of this thesis is to apply new methodologies to public transportation data. Indeed, we are more and more surrounded by sensors and computers generating huge amount of data. In the field of public transportation, smart cards generate data about our purchases and our travels every time we use them. In this thesis, we used this data for two purposes. First of all, we wanted to be able to detect passenger's groups with similar temporal habits. To that end, we began to use the Non-negative Matrix Factorization as a pre-processing tool for clustering. Then, we introduced the NMF-EM algorithm allowing simultaneous dimension reduction and clustering on a multinomial mixture model. The second purpose of this thesis is to apply regression methods on these data to be able to forecast the number of check-ins on a network and give a range of likely check-ins. We also used this methodology to be able to detect anomalies on the network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Mokhtarian, Hossein. „Modélisation intégrée produit-process à l'aide d'une approche de métamodélisation reposant sur une représentation sous forme de graphes : Application à la fabrication additive“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI013/document.

Der volle Inhalt der Quelle
Annotation:
La fabrication additive (FA) a initié un changement de paradigme dans le secteur de la conception et de la fabrication des produits grâce à ses capacités uniques. Cependant, l'intégration des technologies de fabrication additive dans la productique traditionnelle doit permettre d'assurer une production fiable et une qualité reproductible des pièces. Dans cette optique, la modélisation et la simulation jouent un rôle essentiel pour améliorer la compréhension de la nature complexe et multi-physique des procédés de fabrication additive. De plus, l’intégration simultanée de différents modèles multi-physiques et de la prise en compte du procédé utilisé et de la pièce constituent toujours un défi pour la modélisation de ces technologies. L’objectif final de cette recherche est de développer et d’appliquer une approche de modélisation permettant une modélisation intégrée de la fabrication additive. Cette thèse analyse le processus de développement du produit et présente une méthodologie innovante intitulée ‘Dimensional Analysis Conceptual Modeling’ (DACM) pour modéliser les produits et les procédés de fabrication aux différentes étapes de conception. La méthode a été développée pour permettre la simulation de modèles multi-physiques. Elle intègre également une recherche systématique de faiblesses et de contradictions dans une première évaluation des solutions potentielles au problème. La méthodologie développée est appliquée dans plusieurs études de cas afin de présenter des modèles intégrant les processus de fabrication additive et les pièces à fabriquer. Les résultats montrent que la méthodologie DACM permet de modéliser distinctement et simultanément le produit et le processus de fabrication. Cette méthodologie permet aussi d'intégrer les modèles théoriques et expérimentaux déjà existants. Elle contribue à la conception pour la fabrication additive et aide le concepteur à anticiper les limites des procédés et de la conception plus tôt dans les premières étapes de développement du produit. En particulier, cela permet de prendre les bonnes décisions selon les différentes possibilités d'optimiser la conception des pièces et le paramétrage des machines de fabrication additive pour aboutir à la solution la plus adaptée. La méthode permet également de détecter la nécessité de reconcevoir des machines existantes en détectant les faiblesses de celles-ci. Cette thèse montre que la méthode DACM peut être potentiellement utilisée comme une approche de méta-modélisation pour la fabrication additive.Mots-clés: Fabrication Additive, Conception Pour la Fabrication Additive, Modélisation Intégrée, Développement de Produit, Dimensional Analysis Conceptual Modeling Framework
Additive manufacturing (AM) has created a paradigm shift in product design and manufacturing sector due to its unique capabilities. However, the integration of AM technologies in the mainstream production faces the challenge of ensuring reliable production and repeatable quality of parts. Toward this end, Modeling and simulation play a significant role to enhance the understanding of the complex multi-physics nature of AM processes. In addition, a central issue in modeling AM technologies is the integration of different models and concurrent consideration of the AM process and the part to be manufactured. Hence, the ultimate goal of this research is to present and apply a modeling approach to develop integrated modeling in additive manufacturing. Accordingly, the thesis oversees the product development process and presents the Dimensional Analysis Conceptual Modeling (DACM) Framework to model the product and manufacturing processes at the design stages of product development process. The Framework aims at providing simulation capabilities and systematic search for weaknesses and contradictions to the models for the early evaluation of solution variants. The developed methodology is applied in multiple case studies to present models integrating AM processes and the parts to be manufactured. This thesis results show that the proposed modeling framework is not only able to model the product and manufacturing process but also provide the capability to concurrently model product and manufacturing process, and also integrate existing theoretical and experimental models. The DACM framework contributes to the design for additive manufacturing and helps the designer to anticipate limitations of the AM process and part design earlier in the design stage. In particular, it enables the designer to make informed decisions on potential design alterations and AM machine redesign, and optimized part design or process parameter settings. DACM Framework shows potentials to be used as a metamodeling approach for additive manufacturing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Lassoued, Khaoula. „Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée“. Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Der volle Inhalt der Quelle
Annotation:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Wechman, Christophe. „Intégration de méthodes de data mining dans le domaine de l'olfaction“. Orléans, 2005. http://www.theses.fr/2005ORLE2047.

Der volle Inhalt der Quelle
Annotation:
La complexité du domaine de l'olfaction rend souvent difficile le développement de modèles structure – odeurs (SOR) à la fois robustes et prédictifs. Le recours à des méthodes de Data Mining (DM) basées sur les Algorithmes Génétiques et la Logique Floue (LF) apporte des solutions intéressantes. L'objectif du travail de thèse a donc consisté à analyser par ces techniques deux grandes bases de données olfactives dérivées respectivement de l'ouvrage d'Arctander et de la base commerciale "Perfumery Materials and Performance 2001" (PMP2001). La comparaison systématique du contenu informationnel des deux bases montre que le profil olfactif de la plupart des composés communs est globalement différent. Par conséquent, il s'avère nécessaire de définir un critère "objectif" capable d'évaluer leur qualité absolue et réciproque. Ceci a été établi à l'aide de la Partition Floue Adaptative (PFA), méthode dérivée de la LF, qui est particulièrement adaptée à représenter le "flou " lié à la subjectivité des experts dans la caractérisation des odeurs. Les modèles SOR ainsi développés indiquent que la base PMP2001 contient des données olfactives de qualité supérieure. La deuxième étude a été conduite sur une série plus large de composés extraits uniquement de PMP2001. Les modèles établis sont très satisfaisants car une excellente moyenne de prédiction d'environ 80% a été obtenue sur les ensembles d'apprentissage et de test. Une dernière analyse a été menée afin de vérifier la possibilité de modéliser un ensemble de molécules présentant simultanément plusieurs odeurs. Cette étude préliminaire fournit des résultats encourageants, des progrès ultérieurs sont à l'étude.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Abbas, Karine. „Système d'accès personnalisé à l'information : application au domaine médica“. Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0092/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Le travail mené dans le cadre de cette thèse repose sur une problématique centrale : la personnalisation de l’accès à l’information. En effet, face à la croissance considérable des données, à l’hétérogénéité des rôles et des besoins et au rapide développement des systèmes mobiles, il devient important de proposer un système personnalisé capable de fournir à l’utilisateur une information pertinente et adaptée à ses besoins et son utilisation quotidienne. Ce système doit prendre en considération les différentes caractéristiques de l’utilisateur ainsi que l’ensemble des situations contextuelles qui influence son comportement lors de son interaction avec le système d’information. Le système d’accès personnalisé à l’information que nous proposons est basé sur le principe de la gestion des profils. Un modèle générique du profil est proposé afin de couvrir l’ensemble des facettes de la personnalisation. Ce modèle est capable de collecter des informations sur l’utilisateur et son contexte d’utilisation et de représenter tout besoin de personnalisation une fois modélisé. Le système de personnalisation est fondé principalement sur trois éléments : les profils, le contexte et les services. Les profils sont des conteneurs des connaissances sur l’utilisateur. Le contexte définit un ensemble de paramètres qui caractérisent l’environnement d’utilisation du système. Les services sont des programmes autonomes capables d’exécuter les tâches de la personnalisation. Le processus de la personnalisation est déclenché lorsque l’utilisateur envoie une requête et appliqué sur des données structurées extraites des différentes sources de données en réponse à cette requête
The thesis work relays on a central problematic : the personalisation access to information. Indeed, with the considerable growth of data, the heterogeneity of roles and needs and the spread development of mobile systems, it becomes important to propose a personalised system to get relevent information. This system allows to user to provide relevent and adapted information. This system takes into account the different user characteristics as well as the different contextual situations which influence his behavior during the information access process. The personalised access system we propose is based on the profiles management. A generic profile model is defined to cover all personalisation facets. The model is able to collect information on user and his context of use and to represent all personalisation needs. The personalised system is mainly founded on three elements : the profiles, the context and the services. The profiles are containers of knowledge on users. The context defines a set of parameters characterising the user environment when the system is used. The services are autonomous programs able to execut the personalisation tasks. The personalisation process starts when the user sends a request that produces the extraction of data useful for it
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Elisabeth, Erol. „Fouille de données spatio-temporelles, résumés de données et apprentissage automatique : application au système de recommandations touristique, données médicales et détection des transactions atypiques dans le domaine financier“. Thesis, Antilles, 2021. http://www.theses.fr/2021ANTI0607.

Der volle Inhalt der Quelle
Annotation:
La fouille de données est une des composantes Gestion de la Relation Client (CRM) largement déployée dans les entreprises. Ce processus s’appuie sur des algorithmes issus de disciplines scientifiques diverses (statistiques, intelligence artificielle, base de données) pour construire des modèles à partir des données.L’objectif de déterminer des modèles, établis à partir de clusters au service de l’amélioration de la connaissance du client au sens générique, de la prédiction de ses comportements et de l’optimisation de l’offre proposée. Ces modèles ayant vocation à être utilisés par des utilisateurs spécialistes du domaine de données, chercheurs en économie de la santé et sciences de gestion ou professionnels du secteur étudié, ces travaux de recherche mettent l’accent sur l’utilisabilité des environnements de fouille de données. Cette thèse s’intéresse à la fouille de données spatio-temporelle. Elle met particulièrement en évidence une approche originale pour le traitement des données avec un but d’enrichissement des connaissances pratiques du domaine. Ce travail comporte un volet applicatif en quatre chapitres qui correspond à quatre systèmes développés:- Un modèle pour la mise place d’un système de recommandation basé sur la collecte de données de positionnement GPS,- Un outil de résumé de données optimisé pour la rapidité des réponses aux requêtes au programme de médicalisation des systèmes d’information (PMSI),- Un outil d’apprentissage automatique pour la lutte contre le blanchiment dans le système financier,- Un modèle pour la prédiction d’activité dans les TPE qui sont météo-dépendantes (tourisme, transport, loisirs, commerce, etc.). Le problème est ici d’identifier les algorithmes de classification et de réseaux de neurones en vue d’une analyse de données dont le but est d’adapter la stratégie de l’entreprise aux mouvements conjoncturels
Data mining is one of the components of Customer Relationship Management (CRM), widely deployed in companies. It is the process of extracting interesting, non-trivial, implicit, unknown and potentially useful knowledge from data. This process relies on algorithms from various scientific disciplines (statistics, artificial intelligence, databases) to build models from data stored in data warehouses.The objective of determining models, established from clusters in the service of improving knowledge of the customer in the generic sense, the prediction of his behavior and the optimization of the proposed offer. Since these models are intended to be used by users who are specialists in the field of data, researchers in health economics and management sciences or professionals in the sector studied, this research work emphasizes the usability of data mining environments.This thesis is concerned with spatio-temporal data mining. It particularly highlights an original approach to data processing with the aim of enriching practical knowledge in the field.This work includes an application component in four chapters which corresponds to four systems developed:- A model for setting up a recommendation system based on the collection of GPS positioning data,- A data summary tool optimized for the speed of responses to requests for the medicalization of information systems program (PMSI),- A machine learning tool for the fight against money laundering in the financial system,- A model for the prediction of activity in VSEs which are weather-dependent (tourism, transport, leisure, commerce, etc.). The problem here is to identify classification algorithms and neural networks for data analysis aimed at adapting the company's strategy to economic changes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Leclère-Vanhoeve, Annette. „Interprétation des données SEASAT dans l'Atlantique sud : Implications sur l'évolution du domaine carai͏̈be“. Brest, 1988. http://www.theses.fr/1988BRES2032.

Der volle Inhalt der Quelle
Annotation:
Les donnees altimetriques seasat de l'ocean atlantique sud ont permis d'identifier un domaine intermediaire equatorial dont l'evolution cinematique differe de celles de l'atlantique sud et nord. En ce qui concerne le domaine le plus meridional, il est possible d'envisager quatre etapes de reorganisation majeure des plaques sud-americaine et africaine consistant en la phase d'ouverture initiale suivie de celles liees aux anomalies mo, 34 et 13, ces phases s'accompagnant de deformations intraplaques au sein de zones frontieres limitants les differents cartons en presence. Le domaine intermediaire equatorial peut, quant a lui, etre considere comme une plaque tampon permettant un reajustement des differents parametres d'ouverture des oceans nord et sud-atlantiques. Son evolution initiale est directement liee a l'ouverture du domaine caraibe. Un essai d'evolution geodynamique et cinematique de ce domaine est alors propose au vu de ce nouvel ensemble de donnees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Chbeir, Richard. „Modélisation de la description d'images : application au domaine médical“. Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0065/these.pdf.

Der volle Inhalt der Quelle
Annotation:
De nombreux axes de recherche se sont développés autour de la gestion des images. Dans ce travail, nous nous sommes intéressés à la problématique de la recherche d'images dans une base de données médicales. Cette problématique est liée principalement à la complexité de la description d'image. Trois paradigmes sont proposés dans la littérature : 1- Le paradigme orienté-contexte consistant à décrire l'image selon son contexte, en ignorant son contenu, 2- Le paradigme orienté-contenu considérant les couleurs, les textures, les formes, etc. De l'image 3- Le paradigme orienté-sémantique tentant de donner une interprétation de l'image à travers des mots-clé, des légendes, etc. Nous proposons, dans cette thèse, un modèle original qui permet de décrire toutes les caractéristiques de l'image. Il est structuré selon deux espaces : 1- L'espace externe contenant des informations externes liées à l'image telles que le nom du patient, la date d'acquisition, le type d'imagerie, etc. , 2- L'espace interne de l'image considérant son contenu physique (couleur, texture, etc. ), spatial (forme, position), et sémantique (scène, interprétations, etc. ). Le modèle a été élaboré avec plusieurs niveaux de granularité permettant de considérer les caractéristiques de l'image entière et celles de ses objets. Nous avons défini un module de références et un module de règles assurant la cohérence entre les espaces de description. Nous proposons également un méta-modèle de relation qui a pour but de fournir, de façon précise, plusieurs types de relations entre deux objets en se basant sur leurs caractéristiques communes (forme, couleur, position, etc. ). Ce méta-modèle contribue à définir un mécanisme d'indexation performant. Afin de valider notre approche, nous avons développé un prototype nommé MIMS (Medical Image Management System) utilisant des interfaces conviviales d'interrogation et de stockage d'images à base d'icônes et d'hypermédias. MIMS est accessible sur: http://mims. Myip. Org
The management of images remains a complex task that is currently a cause for several research works. In line with this, we are interested in this work with the problem of image retrieval in medical databases. This problem is mainly related to the complexity of image description or representation. In literature, three paradigms are proposed: 1- The context-oriented paradigm that describes the context of the image without considering its content, 2- The content-oriented paradigm considering the physical characteristics of the image such as colors, textures, shapes, etc. 3- The semantic-oriented paradigm trying to provide an interpretation of the image using keywords, legends, etc. In this thesis, we propose an original model able to describe all image characteristics. This model is structured according to two spaces: 1- External space containing factual information associated to the image such as the patient name, the acquisition date, image type, etc;, 2-Internal space considering the physical characteristics (color, texture, etc. ), the spatial characteristics (form, position), and the semantics (scene, interpretation, etc. ) of the image content. The model is elaborated with several levels of granularity that considers characteristics of the whole image and/or its salient objects. We provide as well a referential module and a rules module that maintains coherence between description spaces. We also propose a meta-model of relations. The purpose of this meta-model is to provide, in a precise way, the several types of relations between two objects in function of common characteristics (shape, color, position, etc. ). This meta-model contributes to define a powerful indexing mechanism. In order to validate our approach, we developed a prototype named MIMS (Medical Image System management) with a user-friendly interface for storage and retrieval of images based on icons and hypermedia. MIMS is web-accessible on http://mims. Myip. Org
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Folch, Helka. „Articuler les classifications sémantiques induites d'un domaine“. Paris 13, 2002. http://www.theses.fr/2002PA132015.

Der volle Inhalt der Quelle
Annotation:
Nous montrons la nécessité d'une analyse sémantique endogène pour faciliter l'accès au volume croissant de documents disponibles suite au développement exponentiel d'Internet. Cet afflux de texte on line génère la constitution de corpus hétérogènes qui rendent complexe la conception de modèles d'accés sémantique aux documents. Dans de tels cas, la projection de structures sémantiques a priori n'est pas une démarche adaptée pour un accès efficace aux documents. De même la recherche plein texte par mots clés n'est pas appropriée lorsque ceux-ci sont polysémiques. Le sens des mots est souvent contextuel et leur ambigui͏̈té est plus problématique dans les corpus hétérogènes. Nous avons montré ensuite que cette approche requiert une modélisation particulière du corpus de documents permettant de classer les contextes en fonction de la répartition de leurs traits ou les traits en fonction des contextes partagés et qu'il est nécessaire d'apporter des raffinements à cette modélisation, notamment par le biais de modules d'inférence en amont. Comme exemple d'affinage de traits, nous avons montré que l'inférence de traits syntaxiques dans le cadre d'un langage de description logique (les quasi-arbres) permet de construire des classes basées sur des proximités de comportement fin entre les mots. Nous avons montré aussi que les contraintes imposées par cette approche induisent des besoins en terme d'architecture de corpus. L'architecture que nous avons bâtie permet : l'extraction, à partir des corpus hétérogènes, d'unités textuelles pertinentes, la représentation des corpus extraits permettant le retour au document d'origine et le suivi de leur historique de traitements et la projection sur la base de documents des classes sémantiques obtenues afin de permettre une navigation hypertextuelle dans la base. Nous avons montré les limites des langages hypertextuels comme dans HTML et la nécessité d'utiliser un langage (Topic Maps) qui permet d'associer une sémantique aux liens.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

CHIKHI, YASMINA. „Reutilisation de structures de donnees dans le domaine des reseaux electriques“. Paris 6, 1998. http://www.theses.fr/1998PA066068.

Der volle Inhalt der Quelle
Annotation:
Ce travail de these traite de la reutilisation appliquee au domaine electrique en particulier les problemes lies au developpement de composants de reseau reutilisables et aux problemes lies a l'ingenierie de modeles de reseau, a partir de ces composants. Nous avons realise une analyse fine de modeles de reseau existants, sur un large spectre couvrant deux metiers, la planification et la conduite, et deux niveaux de tension, respectivement la haute tension (440kv, 63 kv) et la moyenne tension (20 kv). Notre demarche a pour objectif de mettre en commun des donnees decrites dans les modeles afin d'unifier les metiers et les niveaux de tensions. La complexite des donnees decrites dans les modeles nous a amene a structurer les specifications structurelles d'un composant de reseau en points de vue regroupant des caracteristiques de meme nature. Cette etude a permis d'identifier un ensemble d'invariants de reseau multi-metiers et multi-tensions et une typologie de points de vue construits sur ces invariants. La premiere forme de reutilisation consiste en une collection de composants structures en points de vue et organisee en fonction du metier. Nous avons utilise la meta-modelisation pour definir le formalisme a base de point de vue d'un composant. Le meta-modele elabore represente une seconde forme de reutilisation et permet ainsi d'unifier la representation des composants et des reseaux electriques. Nous avons choisi la notation uml pour definir la notation graphique des concepts de notre formalisme. La collection de composants obtenue est incomplete et la composition de ces composants reste limitee pour construire un reseau electrique. Pour pallier ces inconvenients, nous proposons une troisieme forme de reutilisation qui est un catalogue de patterns representant des solutions et des regles de modelisation des composants de reseau en fonction de leur type et du metier d'application. Nous avons realise l'outillage de notre demarche de reutilisation pour l'ingenierie d'un modele de reseau selon deux approches. L'une basee sur l'utilisation d'un meta-outil metagen et la seconde basee sur l'utilisation d'un atelier objet rose, support du langage de modelisation uml. Nous avons experimente notre demarche de reutilisation sur une nouvelle application cerex afin d'evaluer l'adaptation des composants de la collection, de tester les solutions de modelisation decrites dans les patterns et de verifier la typologie des points de vue identifiee.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Coulibaly, Ibrahim. „La protection des données à caractère personnel dans le domaine de la recherche scientifique“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00798112.

Der volle Inhalt der Quelle
Annotation:
Comment devrait être assurée, de façon efficiente, la protection des données à caractère personnel dans le domaine de la recherche scientifique ? Telle est la problématique de cette thèse. Question cruciale à l'heure où les traitements de données sont appelés à multiplier à l'avenir dans tous les domaines de recherche, et dont les finalités ne sont pas toujours clairement définies ni perçues. A cette question, l'application de la loi Informatique et Libertés, loi à vocation généraliste pour l'encadrement des traitements de données à caractère personnel, a laissé apparaître, dès son adoption, de nombreuses difficultés dans le domaine de la recherche scientifique. Diverses modifications et adaptations sont intervenues - 1986, 1994, 2004 - à l'aune desquelles, il fallait déterminer l'encadrement des traitements de données personnelles à des fins de recherche scientifique. De cette investigation, il résulte que la loi Informatique et Libertés pose les principes de base de la protection des données traitées dans le domaine de la recherche scientifique en prévoyant un encadrement a priori de la collecte des données et un suivi et un contrôle a posteriori de la mise en œuvre du traitement. L'encadrement a priori vise principalement à la garantie de la qualité scientifique des projets de recherches. Inhérent à la finalité scientifique du traitement des données, le suivi a posteriori tend, quant à lui, à garantir le respect de certaines règles comme la compatibilité des réutilisations des données, la présentation et l'utilisation des résultats de la recherche dans des conditions ne devant pas porter atteinte aux personnes. Parce que ne pouvant pas relever de la seule intervention du responsable du traitement, le suivi a posteriori se complète d'un contrôle a posteriori opéré autant par la personne concernée, la CNIL, les juridictions. Dans le domaine de la recherche scientifique, ces différents contrôles pourraient opportunément se compléter par une intervention de la communauté des chercheurs en question. Il s'agit de l'autorégulation. En définitive, une protection efficiente des données à caractère personnel résultera d'un système de régulation à plusieurs niveaux et acteurs dont chacun doit effectivement utiliser les moyens d'action qui lui sont reconnus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Sirgue, Laurentf1975. „Inversion de la forme d'onde dans le domaine fréquentiel de données sismiques grands offsets“. Paris 11, 2003. http://www.theses.fr/2003PA112088.

Der volle Inhalt der Quelle
Annotation:
L'approche standard en imagerie sismique repose sur une décomposition par échelle du modèle de vitesse: la détermination des bas nombres d'ondes est suivie par une reconstruction des hauts nombres d'ondes. Cependant, pour des modèles présentant une structure complexe, la détermination des hauts nombres d'ondes peut être améliorée de manière significative par l'apport des nombres d'ondes intermédiaires. Ces derniers peuvent être déterminés par l'inversion non-linéaire de la forme d'onde de données sismiques grands angles qui est, par ailleurs, limitée par la non-linéarité du problème inverse. La non-linéarité est gouvernée par la fréquence minimum dans les données et le modèle de vitesse initial. Pour les très basses fréquences, inférieures à 7 Hz, le problème est raisonnablement linéaire pour appliquer l'inversion de la forme d'onde à partir d'un modèle de départ déterminé par inversion tomographique des temps de trajets. Le domaine fréquentiel est alors très efficace pour inverser des basses vers les hautes fréquences. De plus, il est possible de discrétiser les fréquences avec un pas d'échantillonnage plus grand que celui dicté par le théorème d'échantillonnage. Une stratégie pour sélectionner les fréquences est développée qui réduit le nombre de fréquences nécessaire en imagerie lorsqu'une gamme d'offset est disponible: le nombre de fréquences diminue lorsque l'offset maximum augmente. Les donnés sismiques réelles ne contiennent malheureusement pas de très basses fréquences. Des techniques de pré-conditionnement doivent alors être appliquées afin d'améliorer l'efficacité de l'inversion à partir de fréquences réalistes. Le lissage du vecteur gradient ainsi que l'inversion des premières arrivées augmente les chances de convergence au minimum global. L'efficacité des méthodes de pré-conditionnement est tout de même limitée par le degré d'information contenu dans le modèle de départ
The standard imaging approach in exploration seismology relies on a decomposition of the velocity model by spatial scales: the determination of the low wavenumbers of the velocity field is followed by the reconstruction of the high wavenumbers. However, for models presenting a complex structure, the recovery of the high wavenumbers may be significantly improved by the determination of intermediate wavenumbers. These, can potentially be recovered by local, non-linear waveform inversion of wide-angle data. However, waveform inversion is limited by the non-linearity of the inverse problem, which is in turn governed by the minimum frequency in the data and the starting model. For very low frequencies, below 7 Hz, the problem is reasonably linear so that waveform inversion may be applied using a starting model obtained from traveltime tomography. The frequency domain is then particularly advantageous as the inversion from the low to the high frequencies is very efficient. Moreover, it is possible to discretise the frequencies with a much larger sampling interval than dictated by the sampling theorem and still obtain a good imaging result. A strategy for selecting frequencies is developed where the number of input frequencies can be reduced when a range of offsets is available: the larger the maximum offset is, the fewer frequencies are required. Real seismic data unfortunatly do not contain very low frequencies and waveform inversion at higher frequencies are likely to fail due to convergence into a local minimum. Preconditioning techniques must hence be applied on the gradient vector and the data residuals in order to enhance the efficacy of waveform inversion starting from realistic frequencies. The smoothing of the gradient vector and inversion of early arrivals significantly improve the chance of convergence into the global minimum. The efficacy of preconditioning methods are however limited by the accuracy of the starting model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Soudani, Mohamed Tahar Amine. „Techniques de traitement des données sismiques OBC dans le domaine (т, p) 2D-3D“. Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00204530.

Der volle Inhalt der Quelle
Annotation:
Le travail de recherche présenté dans ce mémoire est dédié au filtrage des multiples de la tranche d'eau sur les données sismiques OBC (Ocean Bottom Cable). Ces multiples générés par les réflexions successives entre la surface de l'eau et le fond marin détériorent considérablement la qualité des images sismiques. Nous proposons dans ce document une méthode robuste de filtrage de ces multiples par "sommation PZ" dans le domaine (т,p). Nous commençons par modéliser les enregistrements de l'hydrophone et du géophone en OBC dans le domaine des ondes planes harmoniques. Nous montrons que ces modèles s'expriment en fonction des arrivées primaires et des multiples de la colonne d'eau. Cette modélisation nous permet de proposer un algorithme de filtrage des multiples qui tient compte non seulement de la physique de propagation des ondes mais aussi des caractéristiques de l'acquisition: couplage et orientation des géophones, réponses impulsionnelles des capteurs, bruits. Après la validation sur des données synthétiques, la nouvelle approche est appliquée sur des données réelles 2D dans le cadre d'une séquence de traitement. Nous montrons que cette approche est robuste en présence de bruit et donne de meilleurs résultats en comparaison avec des séquences standards. Nous généralisons à la fin de ce document la séquence de traitement au cas des acquisitions OBC 3D grâce à la transformation (т,p)3D. Cette généralisation n'est pas immédiate et nécessite des étapes supplémentaires dans la séquence de traitement tel que l'interpolation des données en 3D. La comparaison de la séquence 3D aux séquences standards révèle que la nouvelle approche améliore significativement les résultats
The following PhD thesis deals with methods of water-Iayer multiple attenuation in OBC (Ocean Bottom Cable) data. These multiples are created by the reverberation of primary arrivaIs in the water column. The multiples have a strong negative impact on the final structural image obtained from OBC processing. Ln this document, we propose a new methodology for multiple attenuation by developing a new PZ summation algorithm in the (т,p) domain. We start by expressing the hydrophone and geophone measurements in the plane wave domain. We show that these measurements can be expressed in terms of primary and water-Iayer multiple arrivaIs. These expressions allow us to establish a new algorithm based on the physics of wave propagation in elastic media. The new algorithm also takes into account the properties of OBC acquisitions such as geophone coupling and orientation, impulse response of the sensors and noise characteristics. The new algorithm was first validated on synthetic data and then applied on a real 2D dataset as one step of a processing workflow. This processing sequence results in attenuation of water-Iayer multiples and noise, thus improving image quality in comparison with standard processing approaches. Finally, we extend the processing methodology to 3D datasets through the 3D(т,p) transform. This application is not straightforward and necessitates additional steps in the workflow because, in this context, 3D data interpolation becomes crucial. The final results of the 3D methodology show an important improvement of data quality in comparison with the standard processing sequences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Personeni, Gabin. „Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales“. Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0235/document.

Der volle Inhalt der Quelle
Annotation:
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données
The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Castano, Eric. „Conception et installation d'un système de veille technologique : application au domaine pétrolier“. Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30040.

Der volle Inhalt der Quelle
Annotation:
Maitriser l'information pour innover est la cle du developpement des entreprises. Mais l'avenement des techniques de communication pose desormais un probleme majeur: comment obtenir la bonne information et comment l'utiliser? le projet realise au sein du centre de recherches esso et expose dans ce memoire repond a cette problematique. Le but est la conception et l'installation d'un systeme de veille technologique au service du renseignement scientifique, concurrentiel et commercial des managers dans les domaines petroliers sensibles. Toutes les techniques de collecte, de traitement et de diffusion de l'information sont evaluees, critiquees et finalement adaptees au metier, a la structure et au fonctionnement de l'entreprise. Notre experience, basee sur des exemples concrets, est mise au profit pour l'elaboration d'une methodologie efficace et durable. De plus, le rapprochement, du a l'organigramme, des systemes qualite et veille technologique fait etat de la complementarite et de l'interactivite qui existe entre ces deux activites. L'utilite des theories du systeme qualite en veille technologique est reelle et il apparait indispensable de formaliser la demarche sous forme de procedures integrees au manuel qualite. Enfin, tout le processus de communication interne incluant les relations entre les differents acteurs, la facon de les interesser, de les motiver et de les faire participer. . . , est decrit. C'est la cle de voute d'un systeme de veille technologique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Hébert, Céline. „Extraction et usages de motifs minimaux en fouille de données, contribution au domaine des hypergraphes“. Phd thesis, Université de Caen, 2007. http://tel.archives-ouvertes.fr/tel-00253794.

Der volle Inhalt der Quelle
Annotation:
La découverte et l'interprétation de motifs et de règles sont deux tâches centrales en extraction de connaissances dans les bases de données. Cette thèse traite de l'extraction et des usages de motifs minimaux à la fois en fouille de données et dans le domaine des hypergraphes. D'une part, nous proposons une méthode efficace pour la découverte de motifs delta-libres dans les données larges, malgré les difficultés algorithmiques inhérentes à ce type de données. Cette méthode repose sur l'utilisation de l'extension des motifs et d'un nouveau critère d'élagage. D'autre part, nous nous intéressons à la qualité des règles d'associations et nous présentons un cadre générique qui permet de mieux comprendre les similarités et différences entre mesures. Il montre que de nombreuses mesures (appelées SBMs pour Simultaneously Bounded Measures) ont des comportements proches. Ce résultat permet de garantir des valeurs minimales pour toutes les SBMs et la production de règles de qualité par rapport à l'ensemble de ces mesures. Enfin, l'apport des méthodes de type <> pour d'autres domaines est mis en évidence. Nous montrons que notre approche de découverte de motifs dans les données larges est exploitable pour calculer efficacement les traverses minimales d'un hypergraphe, un problème réputé comme particulièrement difficile. Différentes applications, notamment en biologie, montrent l'intérêt pratique de nos méthodes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Bascol, Kevin. „Adaptation de domaine multisource sur données déséquilibrées : application à l'amélioration de la sécurité des télésièges“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES062.

Der volle Inhalt der Quelle
Annotation:
Bluecime a mis au point un système de vidéosurveillance à l'embarquement de télésièges qui a pour but d'améliorer la sécurité des passagers. Ce système est déjà performant, mais il n'utilise pas de techniques d'apprentissage automatique et nécessite une phase de configuration chronophage. L’apprentissage automatique est un sous-domaine de l'intelligence artificielle qui traite de l'étude et de la conception d'algorithmes pouvant apprendre et acquérir des connaissances à partir d'exemples pour une tâche donnée. Une telle tâche pourrait consister à classer les situations sûres ou dangereuses dans les télésièges à partir d'exemples d'images déjà étiquetées dans ces deux catégories, appelés exemples d’entraînement. L'algorithme d'apprentissage automatique apprend un modèle capable de prédire la catégories de nouveaux cas. Depuis 2012, il a été démontré que les modèles d'apprentissage profond sont les modèles d'apprentissage machine les mieux adaptés pour traiter les problèmes de classification d'images lorsque de nombreuses données d’entraînement sont disponibles. Dans ce contexte, cette thèse, financée par Bluecime, vise à améliorer à la fois le coût et l'efficacité du système actuel de Bluecime grâce à l'apprentissage profond
Bluecime has designed a camera-based system to monitor the boarding station of chairlifts in ski resorts, which aims at increasing the safety of all passengers. This already successful system does not use any machine learning component and requires an expensive configuration step. Machine learning is a subfield of artificial intelligence which deals with studying and designing algorithms that can learn and acquire knowledge from examples for a given task. Such a task could be classifying safe or unsafe situations on chairlifts from examples of images already labeled with these two categories, called the training examples. The machine learning algorithm learns a model able to predict one of these two categories on unseen cases. Since 2012, it has been shown that deep learning models are the best suited machine learning models to deal with image classification problems when many training data are available. In this context, this PhD thesis, funded by Bluecime, aims at improving both the cost and the effectiveness of Bluecime's current system using deep learning
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Pham, Cong Cuong. „Multi-utilisation de données complexes et hétérogènes : application au domaine du PLM pour l’imagerie biomédicale“. Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2365/document.

Der volle Inhalt der Quelle
Annotation:
L’émergence des technologies de l’information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L’essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l’augmentation quasi exponentielle des quantités de données au sein de l’entreprise. Plus les données sont volumineuses, plus la quantité d’interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d’information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L’augmentation de la complexité, la globalisation et le travail collaboratif font qu’un projet industriel (conception de produit) demande la participation et la collaboration d’acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d’assurer la qualité des données, d’éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L’accès aux données (ou la recherche de données), par définition est le processus d’extraction des informations à partir d’une base de données en utilisant des requêtes, pour répondre à une question spécifique. L’extraction des informations est une fonction indispensable pour tout système d’information. Cependant, cette dernière n’est jamais facile car elle représente toujours un goulot majeur d’étranglement pour toutes les organisations (Soylu et al. 2013). Dans l’environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l’utilisateur doit connaitre la structuration de données, c’est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n’est pas facile d’avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d’information. De plus, cette compréhension n’est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l’environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies
The emergence of Information and Comunication Technologies (ICT) in the early 1990s, especially the Internet, made it easy to produce data and disseminate it to the rest of the world. The strength of new Database Management System (DBMS) and the reduction of storage costs have led to an exponential increase of volume data within entreprise information system. The large number of correlations (visible or hidden) between data makes them more intertwined and complex. The data are also heterogeneous, as they can come from many sources and exist in many formats (text, image, audio, video, etc.) or at different levels of structuring (structured, semi-structured, unstructured). All companies now have to face with data sources that are more and more massive, complex and heterogeneous.technical information. The data may either have different denominations or may not have verifiable provenances. Consequently, these data are difficult to interpret and accessible by other actors. They remain unexploited or not maximally exploited for the purpose of sharing and reuse. Data access (or data querying), by definition, is the process of extracting information from a database using queries to answer a specific question. Extracting information is an indispensable function for any information system. However, the latter is never easy but it always represents a major bottleneck for all organizations (Soylu et al. 2013). In the environment of multiuse of complex and heterogeneous, providing all users with easy and simple access to data becomes more difficult for two reasons : - Lack of technical skills : In order to correctly formulate a query a user must know the structure of data, ie how the data is organized and stored in the database. When data is large and complex, it is not easy to have a thorough understanding of all the dependencies and interrelationships between data, even for information system technicians. Moreover, this understanding is not necessarily linked to the domain competences and it is therefore very rare that end users have sufficient theses such skills. - Different user perspectives : In the multi-use environment, each user introduces their own point of view when adding new data and technical information. Data can be namedin very different ways and data provenances are not sufficiently recorded. Consequently, they become difficultly interpretable and accessible by other actors since they do not have sufficient understanding of data semantics. The thesis work presented in this manuscript aims to improve the multi-use of complex and heterogeneous data by expert usiness actors by providing them with a semantic and visual access to the data. We find that, although the initial design of the databases has taken into account the logic of the domain (using the entity-association model for example), it is common practice to modify this design in order to adapt specific techniques needs. As a result, the final design is often a form that diverges from the original conceptual structure and there is a clear distinction between the technical knowledge needed to extract data and the knowledge that the expert actors have to interpret, process and produce data (Soylu et al. 2013). Based on bibliographical studies about data management tools, knowledge representation, visualization techniques and Semantic Web technologies (Berners-Lee et al. 2001), etc., in order to provide an easy data access to different expert actors, we propose to use a comprehensive and declarative representation of the data that is semantic, conceptual and integrates domain knowledge closeed to expert actors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Temal, Lynda. „Ontologie de partage de données et d'outils de traitement dans le domaine de la neuroimagerie“. Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/temal.pdf.

Der volle Inhalt der Quelle
Annotation:
Le domaine de la neuroimagerie a connu un essor remarquable, grâce au développement de techniques d'acquisition de haute technicité, apportant au domaine des neurosciences- fondamentales et cliniques- des outils d'investigation d'une qualité sans cesse croissante. C'est l'un des domaines , dans lesquels une infrastructure permettant le partage de données multi-centriques, pourrait apporter une aide d écisive au progrès de la recherche. Neurobase est un projet qui cherche à construire un système fédéré, pour le partage de données et d'ouitls de traitement dans le domaine de la neuroimagerie. Cependant, la réalisation de ce type de système soulève plusieurs défis, l'hétérogénéité sémantique constituant certainement le plus critique. Les ontologies se sont révélées être le paradigme clé utilisé pour résoudre le problème de l'hétérogénéité sémantique et assurer l'interopérabilité entre systèmes hétérogènes. Ainsi, cette thèse , initiée dans le cadre du projet Neurobase, a pour but de construire une ontologie pour le partage de données et d'outils de traitement, dans le domaine de la neuroimagerie. Il s'agit de proposer une conceptualisation de ce domaine, pour les différents types d'imagerie ainsi que pour les outils de traitement appliqués à ces images. L'ontologie résultat de la conceptualisation devrait être une ontologie assez générale, pour embrasser tous les besoins du domaine, respecter des principes ontologiques formels, exprimer une sémantique riche, être richement axiomatisée, être rigoureuse, et enfin être consensuelle. La contribution de nos travaux se décline en deux aspects essentiels. Le premier aspect concerne la démarche originale adoptée pour construire nos ontologies, en définissant un cadre de références ontologiques à différents niveaux d'abstraction. Le second aspect concerne la proposition d'ontologies innovantes, qui répondent à certains besoins du domaine de la neuroimagerie, tout en respectant le cadre de références ontologiques adopté.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

D'Orangeville, Vincent. „Analyse automatique de données par Support Vector Machines non supervisés“. Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6678.

Der volle Inhalt der Quelle
Annotation:
Cette dissertation présente un ensemble d'algorithmes visant à en permettre un usage rapide, robuste et automatique des « Support Vector Machines » (SVM) non supervisés dans un contexte d'analyse de données. Les SVM non supervisés se déclinent sous deux types algorithmes prometteurs, le « Support Vector Clustering » (SVC) et le « Support Vector Domain Description » (SVDD), offrant respectivement une solution à deux problèmes importants en analyse de données, soit la recherche de groupements homogènes (« clustering »), ainsi que la reconnaissance d'éléments atypiques (« novelty/abnomaly detection ») à partir d'un ensemble de données. Cette recherche propose des solutions concrètes à trois limitations fondamentales inhérentes à ces deux algorithmes, notamment I) l'absence d'algorithme d'optimisation efficace permettant d'exécuter la phase d'entrainement des SVDD et SVC sur des ensembles de données volumineux dans un délai acceptable, 2) le manque d'efficacité et de robustesse des algorithmes existants de partitionnement des données pour SVC, ainsi que 3) l'absence de stratégies de sélection automatique des hyperparamètres pour SVDD et SVC contrôlant la complexité et la tolérance au bruit des modèles générés. La résolution individuelle des trois limitations mentionnées précédemment constitue les trois axes principaux de cette thèse doctorale, chacun faisant l'objet d'un article scientifique proposant des stratégies et algorithmes permettant un usage rapide, robuste et exempt de paramètres d'entrée des SVDD et SVC sur des ensembles de données arbitraires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Chbeir, Richard Flory André Amghar Youssef. „Modélisation de la description d'images application au domaine médical /“. Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=chbeir.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Boutayeb, Samy. „Les concepts lexicalisés dans le domaine des techniques documentaires“. Paris 13, 1995. http://www.theses.fr/1995PA131023.

Der volle Inhalt der Quelle
Annotation:
On etudie la terminologie des techniques doucumentaires a partir de donnees terminologiques et de donnees associees, constitutees sur la base d'un corpus textuel qui est depouille en vue de l'analyse terminologique. Pour ce faire, on modelise et on experimente un outil d'analyse terminologique fonde sur un modele de representation linguistique des connaissances concu de facon a faire apparaitre les aspects concernes par la specialisation : langue, discours, textes, vocabulaires, connaissances et locuteurs. Cet outil est forme par une base de donnees terminologique dont la constitution nous permet d'etablir certaines regularites relatives aux concepts lexicalises, categorie centrale dans notre etude. Cette categorie permet d'une part de rendre compte de la dyn,amique conceptualisationsymbolisation, consistant a mettre en signe une representation conceptuyelle. Elle contribue d'autre part a la comprehension du mecanisme de denomination, caracteristique des langues specialisees, ces proprietes des concepts lexicalises ont trait aux unites elles-memes. Par ailleurs, les concepts lexicalises sont definis par les relations qu'ils entretiennet : relations conceptuelles, relations morphologiques et relations syntagmatiques. Quant au modele de representation linguistique des connaissances, il permet de mettre en evidence les donnees terminologiques et associes et constitue a ce titre un outil d'analyse terminologique offrant un interet plus general dans l'optique de la comprehension et de la production de discours specialisees
The study of documentation techniques is achieved combining terminological and associated data based on a textual corpus which then undergoes a terminological analysis. A terminological analysis tool, based on a linguistic representation of knowledge model, is modelised and experimented so as to highlight the aspects concerned by specialization: language, discourse, texts, vocabulaires, knowledge and language users. This tool comprises a terminological database which compilation allows us to set regularities about lexicalised concepts, the core category in this study. The category makes it possible on the one hand to bring out the conceptualisation-symbolisation dynamics by semitosing a conceptual representation. On the other hand it contributes to the comprhension of the denomination mechanism, a caracteristic of languages for special purposes. These properties of lexicalized concepts are in relation with units themselves. Moreover lexicalised concepts are defined by the relations they share: conceptual, morphological and syntagmatical relations. The model of linguistic representation of knowledge allows us to bring out terminological and associated data and as such stands out as a terminological analysis tool of great interest in the comprehension and production of specialized discourses
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Hanf, Matthieu. „Valorisation des données libres en épidémiologie : intérêt des études écologiques dans le domaine des maladies infectieuses“. Thesis, Antilles-Guyane, 2011. http://www.theses.fr/2011AGUY0482/document.

Der volle Inhalt der Quelle
Annotation:
Les études écologiques sont maintenant considérées comme prometteuses en raison de leur capacité à intégrer dans un même modèle autant des facteurs individuels que populationnels. Le mouvement récent de l’open data pourrait jouer un rôle important dans la pérennisation des démarches multidisciplinaires. Cette thèse montre que l’association des méthodes écologiques aux données publiques permet d’éclairer sous un angle nouveau des problématiques des maladies infectieuses.En Guyane Française, des méthodes écologiques dites de séries temporelles couplées aux données climatiques libres ont contribué à une meilleure compréhension du rôle du climat sur la dynamique de la transmission du paludisme, de la leishmaniose cutanée ainsi que de l’histoplasmose disséminée. L’utilisation de méthodes écologiques sur des données libres de la littérature scientifique concernant la séroprévalence toxoplasmose dans les populations humaines a permis d’identifier les principaux facteurs influençant le niveau de séroprévalence globale et indirectement du risque de toxoplasmose congénital associé. L’association de données onusiennes à des méthodes écologiques a permis de montrer qu’une prévalence importante d’ascaridiose est associée à une réduction par 10 de l’incidence du paludisme et l’impact significatif de la corruption sur la mortalité juvéno-infantile et sur les résistances aux anti-tuberculeux. Ces études montrent que l’association des méthodes écologiques aux données publiques permet d’éclairer sous un angle nouveau des problématiques des maladies infectieuses. Ce type d‘étude fournit la flexibilité nécessaire à l’étude des interactions complexes des nombreux déterminants de la santé
Ecological studies are now considered promising because of their ability to integrate as well as individual factors than populational ones in the same model. The recent open data movement could play an important role in the sustainability of multidisciplinary approaches. The studies developed in this thesis show that the combination of ecological methods with open data could give original results in the issues of infectious diseases.In French Guiana, ecological methods called time series, coupled with open climate data, have contributed to a better understanding of the role of climate on the dynamics of malaria, cutaneous leishmaniasis and disseminated histoplasmosis. The use of ecological methods with open data from the scientific literature concerning toxoplasmosis seroprevalence in human populations has permitted to identify the main factors influencing the level of overall seroprevalence and indirectly to estimate the associated risk of congenital toxoplasmosis.The combination of UN data to ecological methods has shown that a high prevalence of ascariasis is associated with a reduction from 10 in the incidence of malaria and that corruption has a significant impact on child mortality and resistance to TB.The various studies developed in this thesis show that the combination of ecological methods to public data sheds a new light on the issues of infectious diseases. This type of study provides the flexibility to study the complex interactions of many determinants of health
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Melzi, Fateh. „Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1123/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations
Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Legeay, Marc. „Étude de la régulation anti-sens par l’analyse différentielle de données transcriptomiques dans le domaine végétal“. Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0021/document.

Der volle Inhalt der Quelle
Annotation:
Un des problèmes actuels en bio-informatique est de comprendre les mécanismes de régulation au sein d’une cellule ou d’un organisme. L’objectif de la thèse est d’étudier les réseaux de co-expression de gènes chez le pommier avec la particularité d’y intégrer les transcrits anti-sens. Les transcrits anti-sens sont des ARN généralement non-codants, dont les différents modes d’action sont encore mal connus. Dans notre étude exploratoire du rôle des anti-sens, nous proposons d’une part une analyse fonctionnelle différentielle qui met en évidence l’intérêt de l’intégration des données anti-sens en transcriptomique. D’autre part, concernant les réseaux de gènes, nous proposons de limiter l’inférence à un cœur de réseau et nous introduisons alors une méthode d’analyse différentielle permettant de comparer un réseau obtenu à partir de données sens avec un réseau contenant des données sens et anti-sens. Nous introduisons ainsi la notion de gènes AS-impacté, qui permet d’identifier des gènes dont les interactions au sein d’un réseau de co-expression sont fortement impactées par la prise en compte de transcrits anti-sens. Pour les données pommier que nous avons étudiées et qui concerne la maturation des fruits et leur conservation à basse température, l’interprétation biologique des résultats de notre analyse différentielle fournit des pistes pertinentes pour une étude expérimentale plus ciblée de gènes ou de voies de signalisation dont l’importance pourrait être sous-estimée sans la prise en compte des données anti-sens
A challenging task in bioinformatics is to decipher cell regulation mechanisms. The objective of this thesis is to study gene networks from apple data with the particularity to integrate anti-sense transcription data. Anti-sense transcripts are mostly non coding RNAs and their different roles in the cell are still not well known. In our study, to explore the role of anti-sense transcripts, we first propose a differential functional analysis that highlights the interest of integrating anti-sense data into a transcriptomic analysis. Then, regarding gene networks, we propose to focus on inference of a core network and we introduce a new differential analysis method that allows to compare a sense network with a sense and anti-sense network. We thus introduce the notion of AS-impacted genes, that allows to identify genes that are highly co-expressed with anti-sense transcripts. We analysed apple data related to ripening of fruits stored in cold storage; biological interpretation of the results of our differential analysisprovides some promising leads to a more targeted experimental study of genes or pathways, which role could be underestimated without integration of anti-sense data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Maaroufi, Meriem. „Interopérabilité des données médicales dans le domaine des maladies rares dans un objectif de santé publique“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066275/document.

Der volle Inhalt der Quelle
Annotation:
La santé se digitalise et de multiples projets d’e-santé se développent. Dans le contexte des maladies rares (MR), un champ qui est devenu parmi les priorités de la stratégie de santé publique en France, l’e-santé pourrait constituer une solution pour améliorer les connaissances sur l’épidémiologie des MR. La Banque Nationale de Données Maladies Rares (BNDMR) propose de centraliser la conduite de ces études épidémiologiques pour toutes les MR et tous les patients, atteints de ces maladies, suivis dans le système de soin français. La BNDMR doit se développer au sein d’un paysage numérique dense et hétérogène. Développer l’interopérabilité de la BNDMR constitue l’objectif des travaux de cette thèse. Comment identifier les patients, incluant les fœtus ? Comment fédérer les identités des patients? Comment chainer des données pour permettre la conduite des études ? En réponse à ces questions, nous proposons une méthode universelle d’identification des patients qui respecte les contraintes de protection des données de santé. Quelles données recueillir dans la BNDMR ? Comment améliorer l’interopérabilité entre ces données et celles issues du large éventail des systèmes existants ? En réponse à ces questions, nous proposons de standardiser le recueil d’un set minimal de données pour toutes les MR. L’implémentation de standards internationaux assure un premier pas vers l’interopérabilité. Nous proposons aussi d’aller à la découverte de correspondances. Minimiser l’intervention humaine en adoptant des techniques d’alignement automatisé et rendre fiables et exploitables les résultats de ces alignements ont constitué les principales motivations de notre proposition
The digitalization of healthcare is on and multiple e-health projects are unceasingly coming up. In the rare diseases context, a field that has become a public health policy priority in France, e-health could be a solution to improve rare diseases epidemiology and to propose a better care for patients. The national data bank for rare diseases (BNDMR) offers the centralization of these epidemiological studies conduction for all rare diseases and all affected patients followed in the French healthcare system. The BNDMR must grow in a dense and heterogeneous digital landscape. Developing the BNDMR interoperability is the objective of this thesis’ work. How to identify patients, including fetuses? How to federate patients’ identities to avoid duplicates creation? How to link patients’ data to allow studies’ conduction? In response to these questions, we propose a universal method for patients’ identification that meets the requirements of health data protection. Which data should be collected in the national data bank? How to improve and facilitate the development of interoperability between these data and those from the wide range of the existing systems? In response to these questions, we first propose the collection of a standardized minimum data set for all rare diseases. The implementation of international standards provides a first step toward interoperability. We then propose to move towards the discovery of mappings between heterogeneous data sources. Minimizing human intervention by adopting automated alignment techniques and making these alignments’ results reliable and exploitable were the main motivations of our proposal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Maissa, Sandrine. „Accés intuitif à l'information technico-règlementaire via une interface immersive : Application au domaine du bâtiment“. Paris, ENSAM, 2003. http://www.theses.fr/2003ENAM0002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Riffaud, Sébastien. „Modèles réduits : convergence entre calcul et données pour la mécanique des fluides“. Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0334.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de réduire significativement le coût de calcul associé aux simulations numériques gouvernées par des équations aux dérivées partielles. Dans ce but, nous considérons des modèles dits "réduits", dont la construction consiste typiquement en une phase d'apprentissage, au cours de laquelle des solutions haute-fidélité sont collectées pour définir un sous-espace d'approximation de faible dimension, et une étape de prédiction, qui exploite ensuite ce sous-espace d'approximation conduit par les données afin d'obtenir des simulations rapides voire en temps réel. La première contribution de cette thèse concerne la modélisation d'écoulements gazeux dans les régimes hydrodynamiques et raréfiés. Dans ce travail, nous développons une nouvelle approximation d'ordre réduite de l'équation de Boltzmann-BGK, basée sur la décomposition orthogonale aux valeurs propres dans la phase d'apprentissage et sur la méthode de Galerkin dans l'étape de prédiction. Nous évaluons la simulation d'écoulements instationnaires contenant des ondes de choc, des couches limites et des vortex en 1D et 2D. Les résultats démontrent la stabilité, la précision et le gain significatif des performances de calcul fourni par le modèle réduit par rapport au modèle haute-fidélité. Le second sujet de cette thèse porte sur les applications du problème de transport optimal pour la réduction de modèles. Nous proposons notamment d'employer la théorie du transport optimal afin d'analyser et d'enrichir la base de données contenant les solutions haute-fidélité utilisées pour l'entraînement du modèle réduit. Les tests de reproduction et de prédiction d'écoulements instationnaires, gouvernés par l'équation de Boltzmann-BGK en 1D, montrent l'amélioration de la précision et de la fiabilité du modèle réduit résultant de ces deux applications. Finalement, la dernière contribution de cette thèse concerne le développement d'une méthode de décomposition de domaine basée sur la méthode de Galerkin discontinue. Dans cette approche, le modèle haute-fidélité décrit la solution où un certain degré de précision est requis, tandis que le modèle réduit est employé dans le reste du domaine. La méthode de Galerkin discontinue pour le modèle réduit offre une manière simple de reconstruire la solution globale en raccordant les solutions locales à travers les flux numériques aux interfaces des cellules. La méthode proposée est évaluée pour des problèmes paramétriques gouvernés par les équations d'Euler en 1D et 2D. Les résultats démontrent la précision de la méthode proposée et la réduction significative du coût de calcul par rapport aux simulations haute-fidélité
The objective of this thesis is to significantly reduce the computational cost associated with numerical simulations governed by partial differential equations. For this purpose, we consider reduced-order models (ROMs), which typically consist of a training stage, in which high-fidelity solutions are collected to define a low-dimensional trial subspace, and a prediction stage, where this data-driven trial subspace is then exploited to achieve fast or real-time simulations. The first contribution of this thesis concerns the modeling of gas flows in both hydrodynamic and rarefied regimes. In this work, we develop a new reduced-order approximation of the Boltzmann-BGK equation, based on Proper Orthogonal Decomposition (POD) in the training stage and on the Galerkin method in the prediction stage. We investigate the simulation of unsteady flows containing shock waves, boundary layers and vortices in 1D and 2D. The results demonstrate the stability, accuracy and significant computational speedup factor delivered by the ROM with respect to the high-fidelity model. The second topic of this thesis deals with the optimal transport problem and its applications to model order reduction. In particular, we propose to use the optimal transport theory in order to analyze and enrich the training database containing the high-fidelity solution snapshots. Reproduction and prediction of unsteady flows, governed by the 1D Boltzmann-BGK equation, show the improvement of the accuracy and reliability of the ROM resulting from these two applications. Finally, the last contribution of this thesis concerns the development of a domain decomposition method based on the Discontinuous Galerkin method. In this approach, the ROM approximates the solution where a significant dimensionality reduction can be achieved while the high-fidelity model is employed elsewhere. The Discontinuous Galerkin method for the ROM offers a simple way to recover the global solution by linking local solutions through numerical fluxes at cell interfaces. The proposed method is evaluated for parametric problems governed by the quasi-1D and 2D Euler equations. The results demonstrate the accuracy of the proposed method and the significant reduction of the computational cost with respect to the high-fidelity model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Lenart, Marcin. „Sensor information scoring for decision-aid systems in railway domain“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS157.

Der volle Inhalt der Quelle
Annotation:
Cette thèse examine le problème de l’évaluation de la qualité d’information produite par des capteurs : ces derniers ne fournissent pas toujours une information correcte et l’évaluation de sa qualité est nécessaire pour en permettre une utilisation optimale. Nous proposons une approche qui ne fait pas d’hypothèse sur le type de capteur considéré, ne requiert pas de vérité-terrain et dépend seulement de méta-informations aisées à obtenir, qui exploitent des attributs partagés par la plupart des capteurs. Le modèle proposé est appelé ReCLiC, du nom en anglais des quatre dimensions sur lesquelles il repose : fiabilité, compétence, vraisemblance et crédibilité (Reliability, Competence, Likelihood et Credibility). Nous discutons les contraintes et propriétés souhaitées de ces dimensions et proposons des définitions motivées pour chacune d’entre elles. De plus, nous proposons une implémentation de la définition générique de ReCLiC pour un problème réel, dans le domaine de la signalisation ferroviaire : nous discutons de leur forme pour cette application et effectuons une analyse théorique du comportement du modèle de cotation d’information auquel elles conduisent, en examinant chaque dimension séparément. Cette implémentation est validée expérimentalement en utilisant des données simulées réalistes, générées selon un protocole expérimental permettant de contrôler les problèmes de qualité introduits. Le modèle ReCLIC est de plus mis en oeuvre sur des données ferroviaires réelles, en utilisant une méthode de visualisation originale qui permet en outre d'étudier la notion de dynamique de la confiance
In this thesis, the problem of assessing information quality produced by sensors is investigated. Indeed, sensors, usually used in networks, do not always provide correct information and the scoring of this information is needed. An approach is proposed that deals with some of the major limitations in the literature by providing a model designed to be sensor-generic, not dependent on ground truth and dependent only on easy-to-access meta-information, exploiting only attributes shared among the majority of sensors. The proposed model is called ReCLiC from the four dimensions that it considers: Reliability, Competence, Likelihood and Credibility. The thesis discusses in depth the requirements of these dimensions and proposes motivated definitions for each of them. Furthermore, it proposes an implementation of the generic ReCLiC definition to a real case, for a specific sensor in the railway signalling domain: the form of the four dimensions for this case is discussed and a formal and experimental study of the information scoring behaviour is performed, analysing each dimension separately. The proposed implementation of the ReCLiC model is experimentally validated using realistic simulated data, based on an experimental protocol that allows to control various quality issues as well as their quantity, Finally, the ReCLiC model is used to analyse a real datasetapplying a new visualisation method that, in addition, allows to study the notion of trust dynamic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Carpentier, Anne-Sophie. „Le transcriptome : un domaine d'application pour les statistiques, de nouveaux horizons pour la biologie“. Evry-Val d'Essonne, 2006. http://www.theses.fr/2006EVRY0005.

Der volle Inhalt der Quelle
Annotation:
Les mesures des niveaux d'expression d'un génome entier requièrent une analyse statistique afin d'obtenir des conclusions fiables. Les biologistes ont du mal à se retrouver dans la foule de méthodes existantes et les comparaisons actuellement employées reposent sur des critères lacunaires ou non biologiques. L'organisation du génome bactérien permet la définition d'un critère de comparaison à pertinence biologique indépendante de la problématique : les opérons. Une comparaison de méthodes classiques grâce à ce critère a été appliquée sur des méthodes classiques. Par ailleurs les méta-analyses de transcriptome sont en train de se développer malgré les biais inhérents à cette technologie. Elles ouvrent la possibilité d'étudier de nouveaux champs en biologie comme l'organisation chromosomique de l'expression des gènes. L'étude de trois bactéries, B. Subtilis, E. Coli et S. Meliloti a révélé des corrélations d'expression à longue distance (environ 600kb) quel que soit le gène étudié
Analysing transcriptome data requires statistical methods in order to provide reliable findings. Amongst the enormous amount of methods available, biologists may have difficulties to choose the most appropriate one for their needs. The existing criterions to compare different methods are either incomplete or use criteria that are not biologically relevant. The organisation of bacterial genomes offers a biologically relevant criterion to compare the methods independently of the goal of the experiment: the operons. We have developed a protocol based on this criterion and compared some classical methods: PCA, ICA, t-test and ANOVA. Furthermore, meta-analysis of transcriptome data is currently developed. These meta-analyses allow the study of new biological fields such as the chromosomal organisation of gene expression. We have analysed three bacteria, B. Subtilis, E. Coli and S. Meliloti and have revealed long-range correlations of expression in all organisms, whatever the gene studied
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Larbre, David. „Les échanges de données personnelles entre l’union européenne et les tiers dans le domaine de la sécurité“. Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100174.

Der volle Inhalt der Quelle
Annotation:
L’intérêt d’une réflexion sur les échanges de données personnelles de sécurité entre l’Union européenne et les tiers est né d’une interrogation sur le cadre juridique auquel ces échanges se rattachent, et l’existence de garanties en matière de protection des données. En partant du constat que les États sont à l’origine de la création de réseaux de coopération policière et judiciaire, l’irruption de l’Union européenne et de ses Agences dans des sphères régaliennes a de quoi déconcerter. L’intervention de l’UE et de ses Agences doit également attirer l’attention sur le respect des conditions de ces échanges qui sont soumis à l’exigence de garanties adéquates de la part des États tiers et Cet avènement nécessite de déterminer au préalable comment les échanges de données avec les tiers sont devenues progressivement un instrument au service de l’espace de liberté de sécurité et de justice (ELSJ). En cela, la sécurité telle qu’elle est ici appréhendée, concerne la lutte contre le terrorisme, la criminalité organisée et l’immigration clandestine. Ainsi cette thèse vise, à travers un examen des accords conclus par l’UE et ses Agences avec les tiers, à déceler, analyser, et mettre en évidence les règles qui régissent ces échanges de données personnelles ainsi que la protection qui s’y rattache. Elle doit permettre de mieux cerner la fonction de l’Union européenne et le rôle des États membres dans ces échanges, d’évaluer les garanties apportées par l’UE et ses partenaires, et d’aboutir à l’émergence d’un régime d’ensemble hétérogène mais dont l’unité réside dans le souci d’assurer une protection adéquate
Enabling security between the European Union and third party personal data exchange leads one to reflect on the related legal framework and safeguards regarding data protection. As states are at the origin of police networks and judicial cooperation, the emergence of the EU and its agencies in sovereign spheres has been astonishing. For the EU,respecting the conditions of such exchanges requires adequate guarantees from third states. To better understand this, one should first analyze to which extent these exchanges have gradually become an instrument servicing the areas of freedom, security and justice (AFSJ, "security" here implies the fight against terrorism, organized crime and illegal immigration). This thesis aims to detect, analyze and highlight the rules governing the exchanges of personal data and the protection attached to them. Its goal is to understand the function of the EU and the role of member states in these exchanges, to assess the guarantees provided by the EU or its partners and to lead to the emergence of a system which could provide adequate protection. The first part will determine the modalities of cooperation between the EU and third parties in the field of personal data security exchanges; identifying the existence of safety data exchange networks before looking into the fight against terrorism and organized crime’s international dimension. A focus on external standards in the EU will lead the reader to grasp how safety within third party data exchange networks may be structured and to understand the role of international organizations such as the UN (or extraterritorial jurisdiction from third countries such as the USA). The EU having developed its cooperation regarding safety data exchanges, its foreign policy in terms of AFSJ gives one an overview of safety data exchange networks and their diversity, but it also shows the limits of their extension. These different forms of cooperation are the foundations of constituent EU treaties, yet they face legal and democratic issues as far as EU legitimacy is concerned. The EU integration process, on which safety with third party data exchanges is based, will also be studied; if this integration is a success overall, sovereignty issues have also brought their share of safety data protection alterations. This thesis’ second part focuses on the guarantees related to safety data exchanges, fundamental rights protection regarding this personal data and the need for adequate protection when transferring data to third parties. The adequacy of "normative" protection must be analyzed in global terms, that is to say within an international framework. The study of normative protection will be followed by a thorough examination of their effective protection. The reader will see how data exchange security transparency enables people to exercise their right to both access data and challenge decisions taken on the basis of data exchange safety. Effective protection leads to the identification of responsibilities related to safety data exchanges, the mechanisms of which may highlight that the EU or third parties have breaches in their obligations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Mazauric, Cyril. „Assimilation de données pour les modèles d'hydraulique fluviale : estimation de paramètres, analyse de sensibilité et décomposition de domaine“. Phd thesis, Université Joseph Fourier (Grenoble), 2003. http://tel.archives-ouvertes.fr/tel-00004632.

Der volle Inhalt der Quelle
Annotation:
Le calcul de prévisions fiables des inondations ne peut se concevoir sans l'utilisation de toutes les informations disponibles. Les équations mathématiques qui permettent la construction d'un modèle, les images satellites par exemple qui décrivent le domaine, mais aussi les mesures faites in situ. Ces observations sont nécessaires à la bonne qualité des prévisions puisqu'elles sont le seul témoin de la réalité du terrain. Le but de ce mémoire est de présenter et de tester des méthodes fondées sur le contrôle optimal permettant une utilisation optimale de toute les informations disponibles. Diverses applications de ces méthodes seront présentées : l'estimation de paramètres, l'analyse de sensibilité et le couplage de modèles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie