Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Standards de données.

Dissertationen zum Thema „Standards de données“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-39 Dissertationen für die Forschung zum Thema "Standards de données" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Zenasni, Sarah. „Extraction d'information spatiale à partir de données textuelles non-standards“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS076/document.

Der volle Inhalt der Quelle
Annotation:
L’extraction d’information spatiale à partir de données textuelles est désormais un sujet de recherche important dans le domaine du Traitement Automatique du Langage Naturel (TALN). Elle répond à un besoin devenu incontournable dans la société de l’information, en particulier pour améliorer l’efficacité des systèmes de Recherche d’Information (RI) pour différentes applications (tourisme, aménagement du territoire, analyse d’opinion, etc.). De tels systèmes demandent une analyse fine des informations spatiales contenues dans les données textuelles disponibles (pages web, courriels, tweets, SMS, etc.). Cependant, la multitude et la variété de ces données ainsi que l’émergence régulière de nouvelles formes d’écriture rendent difficile l’extraction automatique d’information à partir de corpus souvent peu standards d’un point de vue lexical voire syntaxique.Afin de relever ces défis, nous proposons, dans cette thèse, des approches originales de fouille de textes permettant l’identification automatique de nouvelles variantes d’entités et relations spatiales à partir de données textuelles issues de la communication médiée. Ces approches sont fondées sur trois principales contributions qui sont cruciales pour fournir des méthodes de navigation intelligente. Notre première contribution se concentre sur la problématique de reconnaissance et d’extraction des entités spatiales à partir de corpus de messages courts (SMS, tweets) marqués par une écriture peu standard. La deuxième contribution est dédiée à l’identification de nouvelles formes/variantes de relations spatiales à partir de ces corpus spécifiques. Enfin, la troisième contribution concerne l’identification des relations sémantiques associées à l’information spatiale contenue dans les textes. Les évaluations menées sur des corpus réels, principalement en français (SMS, tweets, presse), soulignent l’intérêt de ces contributions. Ces dernières permettent d’enrichir la typologie des relations spatiales définies dans la communauté scientifique et, plus largement, de décrire finement l’information spatiale véhiculée dans les données textuelles non standards issues d’une communication médiée aujourd’hui foisonnante
The extraction of spatial information from textual data has become an important research topic in the field of Natural Language Processing (NLP). It meets a crucial need in the information society, in particular, to improve the efficiency of Information Retrieval (IR) systems for different applications (tourism, spatial planning, opinion analysis, etc.). Such systems require a detailed analysis of the spatial information contained in the available textual data (web pages, e-mails, tweets, SMS, etc.). However, the multitude and the variety of these data, as well as the regular emergence of new forms of writing, make difficult the automatic extraction of information from such corpora.To meet these challenges, we propose, in this thesis, new text mining approaches allowing the automatic identification of variants of spatial entities and relations from textual data of the mediated communication. These approaches are based on three main contributions that provide intelligent navigation methods. Our first contribution focuses on the problem of recognition and identification of spatial entities from short messages corpora (SMS, tweets) characterized by weakly standardized modes of writing. The second contribution is dedicated to the identification of new forms/variants of spatial relations from these specific corpora. Finally, the third contribution concerns the identification of the semantic relations associated withthe textual spatial information
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Colin, Clément. „Gestion et visualisation multiscalaire du territoire au bâtiment : Application à la Gestion et Maintenance assistée par Ordinateur“. Electronic Thesis or Diss., Lyon 2, 2024. http://www.theses.fr/2024LYO20010.

Der volle Inhalt der Quelle
Annotation:
La ville et les objets qui la composent, comme les bâtiments, les réseaux d'eau, électriques ou routiers, agrémentent aujourd’hui de véritables jumeaux numériques toujours plus précis jouant un rôle important pour la compréhension des territoires. L’avènement de l'utilisation de Systèmes d'informations Géographiques (SIG), de Modèles des Données du bâtiments (BIM - Building Information Model) et de la ville (CII \ - City Information Model) a entrainé la création d'un nombre important de représentations géospatiales de ces objets urbains, constituées de données géométriques et sémantiques, structurées par de nombreux standards. Ces représentations apportent diverses informations thématiques et spatiales pour décrire ce que sont ces objets physiquement, fonctionnellement, et opérationnellement. Une meilleure compréhension de ces objets urbains peut être apportée par des applications permettant aux utilisateurs d'accéder, de visualiser et d'analyser ces objets urbains en utilisant ces différentes représentations.Dans cette thèse, nous nous intéressons à la navigation et visualisation interactive multiscalaire sur le web de multiples représentations d’un même objet. Nous prendrons en compte différents standards hétérogènes permettant la représentation de l'intérieur et de l'extérieur d’un bâtiment et d’une ville. Nos deux premières contributions permettent la création de vues navigables et contextuelles de ces représentations hétérogènes dans un même contexte web à l'aide d'approches reposant sur des méthodes d'intégration de données. Pour cela, nous proposons une méthodologie et un outil open-source, Py3DTilers, pour extraire, manipuler et visualiser la géométrie de données géospatiales, ainsi qu’une méthodologie d'intégration de données sémantiques basée modèle, afin de garantir que toutes les informations présentes dans ces données soient disponibles. Notre troisième contribution est la formalisation du concept de variant -instance ou ensemble d'instances représentants le même objet- et une proposition de son utilisation pour référencer et naviguer dans un ensemble de représentations d’un même objet. Enfin, notre dernière contribution s’intéresse au choix de la représentation géométrique à afficher d'un objet selon le contexte utilisateur. Nous proposons une étude des niveaux de détails décrits dans différents standards de données géospatiales ainsi qu'une métrique permettant de décrire la complexité d’une représentation géométrique pour permettre ce choix.Enfin, cette thèse s'est déroulée en partenariat avec la société Carl software - Berger-Levrault, éditeur de logiciels et de solutions de gestion et maintenance assistée par ordinateur. Un intérêt tout particulier a donc été porté à l'interopérabilité (utilisation de standards), la réutilisabilité (création d'architecture logicielle partagée basée sur des outils open-source) et la reproductibilité des solutions proposées. L'objectif au travers de cette thèse est d'améliorer la compréhension des équipements pour en faciliter la maintenance et la gestion. Cela est permis grâce à la mise en place d'un lien naturel entre les représentations d'un équipement existantes dans un outils de gestion d’équipements et dans diverses sources de données géospatiales, la visualisation 3D de ces objets et l'exploitation des connaissances que l'on peut retrouver dans ces représentations
Cities and the objects that make them up, such as buildings, water, electricity and road networks, have increasingly precise digital twins that play an important role in understanding territories. The growing use of Geographic Information Systems (GIS), Building Information Model (BIM) and City Information Model (CIM) has led to the creation of a large number of geospatial representations of these urban objects, made up of geometric and semantic data, structured by numerous standards. These representations provide a variety of thematic and spatial information to describe what these objects are physically, functionally and operationally. A better understanding of these urban objects can be provided by applications enabling users to access, visualize and analyze these urban objects using these different representations.In this thesis, we focus on multiscalar interactive web navigation and visualization of multiple representations of the same object. We will consider various heterogeneous standards for representing the interior and exterior of a building and a city. Our first two contributions enable the creation of navigable and contextual views of these heterogeneous representations in a single web context, using approaches based on data integration methods. To this end, we propose a methodology and an open-source tool, Py3DTilers, for extracting, manipulating and visualizing the geometry of geospatial data, as well as a model-based semantic data integration methodology, to ensure that all the information present in these data can be brought and understood by the users. Our third contribution is the formalization of the concepts of Variant - instance or set of instances representing the same entity- and Variant Identifier to reference and navigate through a set of representations of the same object. Finally, our last contribution focuses on the choice of geometric representation of an object to be displayed, depending on the users' 3D context. We propose a study of the levels of detail described in different geospatial data standards, as well as a metric for describing the complexity of a geometric representation to enable this choice.Finally, this thesis was carried out in partnership with Carl Software - Berger-Levrault, a publisher of computer-aided maintenance software and asset management solutions. Particular attention was paid to interoperability (use of standards), reusability (creation of shared software architecture based on open-source tools) and reproducibility of the proposed solutions. This thesis aims to improve the understanding of equipment to facilitate its maintenance and management, by allowing the 3D visualization of equipment and the exploitation of the knowledge that can be found in various representations. This is achieved by establishing a natural link between equipment representations existing in this domain and various geospatial data sources
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Langollf, Didier. „Analyse des standards de notation musicale en vue de leur utilisation pour la transcription de la musique en braille et l'étude d'une base de donnés musicales“. Toulouse 3, 2000. http://www.theses.fr/2000TOU30233.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pekovic, Sanja. „Les déterminants et les effets des normes de qualité et d’environnement : analyses microéconométriques à partir de données françaises d’entreprises et de salariés“. Thesis, Paris Est, 2010. http://www.theses.fr/2010PEST3007/document.

Der volle Inhalt der Quelle
Annotation:
Ces dernières décennies ont vu l'émergence et le développement de plusieurs pratiques managériales ayant rapport à la qualité et à l'environnement. Néanmoins, l'analyse des raisons de l'adoption de ces pratiques managériales par les entreprises et de leurs effets sur les entreprises et les salariés a été assez peu étudiée par les économistes. Cette thèse contribue à la littérature empirique sur les pratiques managériales liées à la qualité et à l'environnement dans les entreprises en France. Elle est construite autour de trois thèmes majeurs : (1) l'analyse des déterminants d'adoption de ces pratiques managériales, (2) l'étude de leur impact sur des indicateurs de performance d'entreprises et (3) l'étude de leur impact sur des mesures liées aux salariés. La thèse s'articule autour de ces trois axes de recherche en trois parties.Dans la première partie de la thèse, nous présentons les pratiques managériales de qualité et d'environnement, en se concentrant plus particulièrement sur les normes de qualité ISO 9000 et les normes environnementales ISO 14000. Nous étudions les déterminants de l'adoption des ces normes de qualité et d'environnement. Nous montrons dans un premier temps que les déterminants de l'adoption des normes de qualité sont différents dans les secteurs de l'industrie et des services, plus précisément du point de vue de la stratégie interne de ces entreprises (amélioration de la qualité, réduction des coûts et innovation). En revanche, certaines caractéristiques d'entreprises (taille, appartenance à un groupe financier, expérience avec d'autres normes) et des caractéristiques décrivant la stratégie externe des entreprises (niveau d'exportation et satisfaction des clients) ont le même effet dans l'adoption de ces normes dans les deux secteurs. Dans un second temps, nous analysons les déterminants de l'adoption de la norme ISO 14001 et de l'Engagement de Progrès dans des entreprises de l'industrie chimique. Nous montrons que les deux systèmes analysés ont des déterminants différents : d'un côté, les principaux déterminants de l'adoption de la norme ISO 14001 sont la taille de l'entreprise, l'expérience avec d'autres normes, obligations d'information et la localisation géographique des clients et d'un autre côté, les principaux déterminants de l'Engagement de Progrès sont la pression réglementaire, avoir rencontré des problèmes environnementaux dans le passé et prévoir des risques environnementaux futurs.Dans la deuxième partie de la thèse, nous analysons si les normes de qualité et d'environnement conduisent les entreprises à de meilleures performances, en utilisant une palette riche d'indicateurs de performance d'entreprises. Nous montrons que les normes de qualité ont un impact positif sur le chiffre d'affaires et certains indicateurs de performance d'innovation et de productivité. En revanche, elle n'ont pas d'effet sur le profit et sur d'autres mesures de performance d'innovation. Concernant les normes environnementales, nous montrons qu'elles améliorent le chiffre d'affaires et les pratiques de recrutement des personnels qualifiés et des personnels non qualifiés, mais n'ont pas d'impact sur le profit des entreprises. Enfin, notre investigation montre que le fait de mettre en place simultanément des normes de qualité et d'environnement améliore plus fortement les performances des entreprises par rapport à l'adoption séparée de ces normes.La troisième partie de la thèse étudie les effets des normes de qualité et d'environnement sur des mesures liées aux salariés. Les normes de qualité augmentent les risques d'accident, mais n'ont pas d'effet sur les accidents de travail entraînant un arrêt. Concernant les normes environnementales, nous montrons qu'elles améliorent significativement les conditions de travail à travers la diminution des accidents. De plus, les salariés qui travaillent dans des entreprises qui adoptent des normes environnementales considèrent que leur travail est davantage utile pour la société et ils ressentent une meilleure reconnaissance de leur travail. Ainsi, les normes environnementales augmentent le sentiment de bien-être des salariés.Nous montrons également que les salariés travaillant dans des entreprises ayant adopté des normes environnementales ne se déclarent pas plus impliqués dans leur travail et pourtant font davantage d'heures supplémentaires non rémunérées que les salariés d'entreprises n'ayant pas pris d'engagements similaires en matière de protection de l'environnement
The scope and magnitude of changes occurring in business today has led to great interest in and widespread adoption of Quality and Environmental Management approaches. However, despite their prevalence, efforts at understanding the motives for their adoption, as well as their effects on firm and employee outcomes, are still in their infancy. This PhD dissertation provides useful theoretical and empirical contributions to three research topics dealing with Quality and Environmental Management approaches in the French institutional framework: (1) the determinants of their adoption, (2) their impact on firm outcomes and (3) their impact on employee outcomes. These three aspects make up the three parts of this PhD thesis.In part I, we define and characterise quality and environmental approaches with a special focus on ISO 9000 Quality Management standards and ISO 14000 Environmental Management standards. Furthermore, we empirically examine the determinants of quality and environmental standards adoption. Our findings reveal that the determinants of quality standards significantly differ between manufacturing and service firms, particularly when we examine features of the internal strategy of those firms (quality improvement, cost reduction and innovation). However, we have also obtained evidence which indicates that the characteristics of firms (firm size, corporate status and previous experience with similar standards) and features of their external strategy (export levels and customer satisfaction) play a significant role in quality standards adoption across both the manufacturing and service sectors. Moreover, we empirically investigate the determinants of chemical firms' registration for the ISO 14001 standard or the Responsible Care program. We show that most determinants are different for the two systems analysed: while firm size, previous experience with similar standards, information disclosure requirements and customer location are major determinants of ISO 14001 standard registration, regulatory pressure, past environmental problems and future risks are the main drivers of Responsible Care registration.In part II, we empirically investigate whether quality and environmental standards are related to better firm performance using various sets of performance measures. The evidence indicates that quality standards positively influence turnover and specific indicators of innovation performance and productivity, but have no impact on profit and some other innovation performance measures. Based on our empirical findings, we conclude that while environmental standards improve turnover and recruitment of both professional and non professional employees, they have no effect on profit. Moreover, the research shows that implementing both quality and environmental standards is likely to better enhance firm outcomes than implementing only one standard.Part III is focused on the effect of quality and environmental standards on employee outcomes. The estimation results show that quality standards increase the risk of employee accidents although more specifically they are ineffective on working accidents that lead to sick leave. On the other hand, our results lead to the conclusion that environmental standards add significantly to the enhancement of working conditions, via the reduction of accidents. Furthermore, the obtained evidence shows that environmental standards seem to improve employee well-being. More precisely, employees working for firms that are certified for an environmental standard report greater feelings of usefulness about their job and declare that they are more often fairly valued in their jobs. The evidence also shows that employees working for environmentally certified firms do not claim to be significantly more involved in their job but they are more likely, ceteris paribus, to work uncompensated for sup plementary work hours than “non green workers”
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Choquet, Rémy. „Partage de données biomédicales : modèles, sémantique et qualité“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00824931.

Der volle Inhalt der Quelle
Annotation:
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Peoples, Bruce E. „Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation“. Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080023.

Der volle Inhalt der Quelle
Annotation:
.../
“Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Etien-Gnoan, N'Da Brigitte. „L'encadrement juridique de la gestion électronique des données médicales“. Thesis, Lille 2, 2014. http://www.theses.fr/2014LIL20022/document.

Der volle Inhalt der Quelle
Annotation:
La gestion électronique des données médicales consiste autant dans le simple traitement automatisé des données personnelles que dans le partage et l'échange de données relatives à la santé. Son encadrement juridique est assuré, à la fois, par les règles communes au traitement automatisé de toutes les données personnelles et par celles spécifiques au traitement des données médicales. Cette gestion, même si elle constitue une source d'économie, engendre des problèmes de protection de la vie privée auxquels le gouvernement français tente de faire face en créant l'un des meilleurs cadres juridiques au monde, en la matière. Mais, de grands chantiers comme celui du dossier médical personnel attendent toujours d'être réalisés et le droit de la santé se voit devancer et entraîner par les progrès technologiques. Le développement de la télésanté bouleverse les relations au sein du colloque singulier entre le soignant et le soigné. L'extension des droits des patients, le partage de responsabilité, l'augmentation du nombre d'intervenants, le secret médical partagé constituent de nouveaux enjeux avec lesquels il faut, désormais compter. Une autre question cruciale est celle posée par le manque d'harmonisation des législations augmentant les risques en cas de partage transfrontalier de données médicales
The electronic management of medical data is as much in the simple automated processing of personal data in the sharing and exchange of health data . Its legal framework is provided both by the common rules to the automated processing of all personal data and those specific to the processing of medical data . This management , even if it is a source of economy, creates protection issues of privacy which the French government tries to cope by creating one of the best legal framework in the world in this field. However , major projects such as the personal health record still waiting to be made and the right to health is seen ahead and lead by technological advances . The development of e-health disrupts relationships within one dialogue between the caregiver and the patient . The extension of the rights of patients , sharing responsibility , increasing the number of players , the shared medical confidentiality pose new challenges with which we must now count. Another crucial question is posed by the lack of harmonization of legislation increasing the risks in cross-border sharing of medical
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Toussaint, Marion. „Une contribution à l'industrie 4.0 : un cadre pour sécuriser l'échange de données standardisées“. Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0121.

Der volle Inhalt der Quelle
Annotation:
La récente transformation numérique de l'industrie a entraîné de nombreux avantages, allant de produits de meilleure qualité à une productivité accrue et à des délais de mise sur le marché plus courts. Dans ce monde numérique, les données sont devenues un élément essentiel dans de nombreuses décisions et processus critiques au sein et entre les organisations. L'échange de données est désormais un processus clé pour la communication, la collaboration et l'efficacité des organisations. L'adoption par l'industrie 4.0 de technologies de communication modernes a rendu ces données disponibles et partageables à un rythme plus rapide que nous ne pouvons les consommer ou les suivre. Cette vitesse apporte des défis importants tels que l'interopérabilité des données et la traçabilité des données, deux défis interdépendants auxquels les industriels sont confrontés et doivent comprendre pour adopter la meilleure position pour les relever. D'une part, les problèmes d'interopérabilité des données sont un frein à des innovations et des collaborations plus rapides. Le volume croissant d'échanges de données est associé à un nombre accru de systèmes hétérogènes qui ont besoin de communiquer et de se comprendre. Les normes d'information sont une solution prouvée, mais leur processus de développement long et complexe les empêche de suivre le rythme rapide de l'environnement qu'elles ont besoin de soutenir et d'assurer l'interopérabilité, ce qui ralentit leur adoption. Cette thèse propose une transition de la gestion de projet prédictive à adaptative avec l'utilisation de méthodes Agiles pour raccourcir les itérations de développement et augmenter la vitesse de livraison, augmentant ainsi l'adoption des normes. Alors que les environnements adaptatifs se sont révélés être une solution viable pour aligner les normes sur le rythme rapide de l'innovation de l'industrie, la plupart des solutions de gestion des exigences des projets n'ont pas évolué pour s'adapter à ce changement. Cette thèse introduit également un modèle pour soutenir une meilleure élicitation des exigences lors de l'élaboration des normes avec une traçabilité et une visibilité accrues. D'autre part, les décisions basées sur les données sont exposées à la vitesse à laquelle les données falsifiées peuvent se propager dans les organisations et corrompre ces décisions. Avec un temps moyen pour identifier (MTTI) et un temps moyen pour contenir (MTTC) une telle menace déjà proche de 300 jours, la croissance constante des données produites et échangées ne fera qu'accroître le MTTI et le MTTC. Bien que les signatures numériques aient déjà prouvé leur utilité pour identifier une telle corruption, un cadre formel de traçabilité des données est toujours nécessaire pour suivre l'échange de données sur des réseaux vastes et complexes d'organisations afin d'identifier et de contenir la propagation des données corrompues. Cette thèse analyse les cadres de cybersécurité existants, leurs limites et introduit un nouveau cadre basé sur des normes, sous la forme d'un profil NIST CSF étendu, pour se préparer, atténuer, gérer et suivre les attaques de manipulation de données. Ce cadre est également accompagné de conseils de mise en œuvre pour faciliter son adoption et sa mise en œuvre par les organisations de toutes tailles
The recent digital transformation of the manufacturing world has resulted in numerous benefits, from higher quality products to enhanced productivity and shorter time to market. In this digital world, data has become a critical element in many critical decisions and processes within and across organizations. Data exchange is now a key process for the organizations' communication, collaboration, and efficiency. Industry 4.0 adoption of modern communication technologies has made this data available and shareable at a quicker rate than we can consume or track it. This speed brings significant challenges such as data interoperability and data traceability, two interdependent challenges that manufacturers face and must understand to adopt the best position to address them. On one hand, data interoperability challenges delay faster innovation and collaboration. The growing volume of data exchange is associated with an increased number of heterogeneous systems that need to communicate with and understand each other. Information standards are a proven solution, yet their long and complex development process impedes them from keeping up with the fast-paced environment they need to support and provide interoperability for, slowing down their adoption. This thesis proposes a transition from predictive to adaptive project management with the use of Agile methods to shorten the development iterations and increase the delivery velocity, increasing standards adoption. While adaptive environments have shown to be a viable solution to align standards with the fast pace of industry innovation, most project requirements management solutions have not evolved to accommodate this change. This thesis also introduces a model to support better requirement elicitation during standards development with increased traceability and visibility. On the other hand, data-driven decisions are exposed to the speed at which tampered data can propagate through organizations and corrupt these decisions. With the mean time to identify (MTTI) and mean time to contain (MTTC) such a threat already close to 300 days, the constant growth of data produced and exchanged will only push the MTTI and MTTC upwards. While digital signatures have already proven their use in identifying such corruption, there is still a need for formal data traceability framework to track data exchange across large and complex networks of organizations to identify and contain the propagation of corrupted data. This thesis analyses existing cybersecurity frameworks, their limitations, and introduces a new standard-based framework, in the form of an extended NIST CSF profile, to prepare against, mitigate, manage, and track data manipulation attacks. This framework is also accompanied with implementation guidance to facilitate its adoption and implementation by organizations of all sizes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Peoples, Bruce E. „Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation“. Electronic Thesis or Diss., Paris 8, 2016. http://www.theses.fr/2016PA080023.

Der volle Inhalt der Quelle
Annotation:
.../
“Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Le, Lann Lucas. „Elaboration d'une procédure standardisée d'harmonisation des données de cytométrie en flux dans le cadre d'études multicentriques Multi-center harmonization of flow cytometers in the context of the European “PRECISESADS” project, in Autoimmunity Reviews 15(11), November 2016“. Thesis, Brest, 2019. http://www.theses.fr/2019BRES0048.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse est d'assurer la comparabilité des données de cytométrie générées au cours d'une étude multi-centrique.Ce travail de thèse s'inscrit dans le cadre du projet PRECISESADS. Ce projet européen cherche à reclassifier les maladies auto-immunes systémiques en utilisant une approche dite "omique" pour obtenir des signatures biologiques. Cette approche regroupe des outils comme la génomique, la protéomique ... et lacytométrie en flux. Le nombre important d'individus inclus dans le projet rend obligatoire l'utilisation d'outils informatiques pour automatiser l'analyse des milliers de fichiers de cytométrie obtenus au cours des cinq années du projet. Les fréquences des populations cellulaires extraites des fichiers sont comparables entre les centres mais l'intensité médiane de fluorescence (IMF) des molécules étudiées ne l'est pas, malgré une phase de normalisation des données. La cause de cette non-comparabilité est une combinaison d'un effet lot et d'un effet centre. Ces deux effets peuvent être corrigés à l'aide de coefficients spécifiques. La normalisation et la correction des effets lot et centre par l'élaboration de script R et sous python, permettent d'obtenir des IMF comparables entre les centres. Au final, ce travail de thèse a permis d'établir une nouvelle procédure standardisée utilisable dans tous les projets multi-centriques prospectifs d'analyse de données de cytométrie en flux
The aim of this thesis is to ensure the comparability of flow cytometry data within the context of multi-center studies. This thesis work is part of the PRECISESADS project. This European project seeks to reclassify the systemic autoimmune diseases using "omic" data to find useful biological signatures. This encompasses tools like genomic, proteomic ... and flow cytometry. The inclusion of numerous individuals in the project make the use of informatics tools a must for the analysis automation of the thousands flow cytometry files obtained during the 5-years period of the project.Cell populations frequencies extracted from the files are comparable between centers but that is not the case for the median of fluorescence intensities (MFI) of the studied molecules, despite a normalization step. The origin of this incomparability is due to a combination of a batch effect and a center effect. Those two effects can be corrected with specific coefficients. The normalization and correction of both batch and center effect thanks to the elaboration of new R script and python script allow the production of comparable MFI between centers. Overall, this thesis work established a new standardized procedure, efficient for any multi-center projects of flow cytometry data analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Abdallah, Nada. „Raisonnements standard et non-standard pour les systèmes décentralisés de gestion de données et de connaissances“. Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00536926.

Der volle Inhalt der Quelle
Annotation:
Les systèmes d'inférence pair-à-pair (P2PIS) sont constitués de serveurs autonomes appelés pairs. Chaque pair gère sa propre base de connaissances (BC) et peut communiquer avec les autres pairs via des mappings afin de réaliser une inférence particulière au niveau global du système. Dans la première partie de la thèse, nous proposons un algorithme totalement décentralisé de calcul de conséquences par déduction linéaire dans les P2PIS propositionnels et nous étudions sa complexité communicationnelle, en espace et en temps. Nous abordons ensuite la notion d'extension non conservative d'une BC dans les P2PIS et nous exhibons son lien théorique avec la déduction linéaire décentralisée. Cette notion est importante car elle est liée à la confidentialité des pairs et à la qualité de service offerte par le P2PIS. Nous étudions donc les problèmes de décider si un P2PIS est une extension conservative d'un pair donné et de calculer les témoins d'une possible corruption de la BC d'un pair de sorte à pouvoir l'empêcher. La seconde partie de la thèse est une application directe des P2PIS au domaine des systèmes de gestion de données pair-à-pair (PDMS) pour le Web Sémantique. Nous définissons des PDMS basés sur la logique de description DL-LITER pour lesquels nous fournissons les algorithmes nécessaires de test de consistance et de réponse aux requêtes. Notre approche repose sur les P2PIS propositionnels car nous réduisons les problèmes de la reformulation des requêtes et de test de l'inconsistance à des problèmes de calcul de conséquences en logique propositionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Schnell, Michaël. „Using Case-Based Reasoning and Argumentation to Assist Medical Coding“. Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0168.

Der volle Inhalt der Quelle
Annotation:
Le but du Registre National du Cancer (RNC) du Luxembourg est de collecter des données sur le cancer et la qualité des traitements au Luxembourg. Afin d’obtenir des données de haute qualité et comparables avec celles d’autres registres ou pays, le RNC suit les règles et standards internationaux de codification comme la Classification International des Maladies pour l’Oncologie (COM-O). Ces standards sont complexes et considérables, compliquant fortement le processus de collecte des données. Les encodeurs en charge de la collecte des données sont souvent confrontés à des situations dans lesquelles des données sont manquantes ou contradictoires, les empêchant d’appliquer les règles fournies. Pour les aider dans leur tâche, les exports de codification du RNC répondent aux questions de codage des encodeurs. Cependant, ces réponses requièrent beaucoup de temps des experts. Le but de ce projet est de réduire le temps d’expert nécessaire et de faciliter le travail des encodeurs. D’un point de vue scientifique, cette thèse s’intéresse au problème de synthèse d’informations à partir d’un ensemble de données provenant de différentes sources avec des contraintes et recommandations à respecter. Le raisonnement à partir de cas est utilisé pour résoudre ce problème car cette méthodologie ressemble à cette employée par les experts. La méthode de résolution conçue utilise des arguments fournis par les experts de codification dans le cadre de questions posées précédemment par les encodeurs. Ce document décrit comment ces arguments servent à identifier des questions similaires et à expliquer la réponse aux encodeurs et aux experts. Une évaluation préliminaire a été réalisée pour évaluer la performance de la méthode et identifier des pistes d’améliorations. Dans un premier temps, le travail produit porte sur les registres du cancers et la codification médicale, cependant l’approche est généralisable à d’autres domaines
The aim of the National Cancer Registry (NCR) in Luxembourg is to collect data about cancer and the quality of cancer treatment. To obtain high quality data that can be compared with other registries or countries, the NCR follows international coding standards and rules, such as the International Classification of Diseases for Oncology (ICD-O). These standards are extensive and complex, which complicates the data collection process. The operators, i.e. the people in charge of this process, are often confronted with situations where data is missing or contradictory, preventing the application of the provided guidelines. To assist in their effort, the coding experts of the NCR answer coding questions asked by operators. This assistance.is time consuming for experts. To help reduce this burden on experts and to facilitate the operators’ task, this project aims at implementing a coding assistant that would answer coding questions. From a scientific point of view, this thesis tackles the problem of extracting the information from a set of data sources under a given set of rules and guidelines. Case-based reasoning has been chosen as the method for solving this problem given its similarity with the reasoning process of the coding experts. The method designed to solve this problem relies on arguments provided by coding experts in the context of previously solved problems. This document presents how these arguments are used to identify similar problems and to explain the computed solution to both operators and coding experts. A preliminary evaluation has assessed the designed method and has highlighted key areas to improve. While this work focused on cancer registries and medical coding, this method could be generalized to other domains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Gerl, Armin. „Modelling of a privacy language and efficient policy-based de-identification“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI105.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les informations personnelles des utilisateurs intéressent énormément les annonceurs et les industriels qui les utilisent pour mieux cibler leurs clients et pour amééliorer leurs offres. Ces informations, souvent trés sensibles, nécessitent d’être protégées pour réguler leur utilisation. Le RGPD est la législation européenne, récemment entrée en vigueur en Mai 2018 et qui vise à renforcer les droits de l’utilisateur quant au traitement de ses données personnelles. Parmi les concepts phares du RGPD, la définition des règles régissant la protection de la vie privée par défaut (privacy by default) et dès la conception (privacy by design). La possibilité pour chaque utilisateur, d’établir un consentement personnalisé sur la manière de consommer ses données personnelles constitue un de ces concepts. Ces règles, malgré qu’elles soient bien explicitées dans les textes juridiques, sont difficiles à mettre en oeuvre du fait de l’absence d’outils permettant de les exprimer et de les appliquer de manière systématique – et de manière différente – à chaque fois que les informations personnelles d’un utilisateur sont sollicitées pour une tâche donnée, par une organisation donnée. L’application de ces règles conduit à adapter l’utilisation des données personnelles aux exigences de chaque utilisateur, en appliquant des méthodes empêchant de révéler plus d’information que souhaité (par exemple : des méthodes d’anonymisation ou de pseudo-anonymisation). Le problème tend cependant à se complexifier quand il s’agit d’accéder aux informations personnelles de plusieurs utilisateurs, en provenance de sources différentes et respectant des normes hétérogènes, où il s’agit de surcroit de respecter individuellement les consentements de chaque utilisateur. L’objectif de cette thèse est donc de proposer un framework permettant de définir et d’appliquer des règles protégeant la vie privée de l’utilisateur selon le RGPD. La première contribution de ce travail consiste à définir le langage LPL (Layered Privacy Language) permettant d’exprimer, de personnaliser (pour un utilisateur) et de guider l’application de politiques de consommation des données personnelles, respectueuses de la vie privée. LPL présente la particularité d’être compréhensible pour un utilisateur ce qui facilite la négociation puis la mise en place de versions personnalisées des politiques de respect de la vie privée. La seconde contribution de la thèse est une méthode appelée Policy-based De-identification. Cette méthode permet l’application efficace des règles de protection de la vie privée dans un contexte de données multi-utilisateurs, régies par des normes hétérogènes de respect de la vie privée et tout en respectant les choix de protection arrêtés par chaque utilisateur. L’évaluation des performances de la méthode proposée montre un extra-temps de calcul négligeable par rapport au temps nécessaire à l’application des méthodes de protection des données
The processing of personal information is omnipresent in our datadriven society enabling personalized services, which are regulated by privacy policies. Although privacy policies are strictly defined by the General Data Protection Regulation (GDPR), no systematic mechanism is in place to enforce them. Especially if data is merged from several sources into a data-set with different privacy policies associated, the management and compliance to all privacy requirements is challenging during the processing of the data-set. Privacy policies can vary hereby due to different policies for each source or personalization of privacy policies by individual users. Thus, the risk for negligent or malicious processing of personal data due to defiance of privacy policies exists. To tackle this challenge, a privacy-preserving framework is proposed. Within this framework privacy policies are expressed in the proposed Layered Privacy Language (LPL) which allows to specify legal privacy policies and privacy-preserving de-identification methods. The policies are enforced by a Policy-based De-identification (PD) process. The PD process enables efficient compliance to various privacy policies simultaneously while applying pseudonymization, personal privacy anonymization and privacy models for de-identification of the data-set. Thus, the privacy requirements of each individual privacy policy are enforced filling the gap between legal privacy policies and their technical enforcement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Goëta, Samuel. „Instaurer des données, instaurer des publics : une enquête sociologique dans les coulisses de l'open data“. Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0045.

Der volle Inhalt der Quelle
Annotation:
Alors que plus de cinquante pays dans le monde ont entrepris une démarche d’ouverture des données publiques, la thèse enquête sur l’émergence et la mise en oeuvre des politiques d’open data. Elle repose sur l’analyse de sources publiques et sur une enquête ethnographique conduite dans sept collectivités locales et institutions françaises. Revenant sur six moments de définition de grands « principes » de l’open data et leur traduction en politique publique par une institution française, Etalab, ce travail montre comment la catégorisation par l’open data a porté l’attention sur les données, en particulier sous leur forme « brute », considérées comme une ressource inexploitée, le « nouveau pétrole » gisant sous les organisations. L’enquête montre que le processus de l’ouverture débute généralement par une phase d’identification marquée par des explorations progressives et incertaines. Elle permet de comprendre que l’identification constitue un geste d’instauration qui transforme progressivement les fichiers de gestion de l’administration en données. Leur mise en circulation provoque des frictions : pour sortir des réseaux sociotechniques de l’organisation, les données doivent généralement passer à travers des circuits de validation et des chaînes de traitement. Par ailleurs, les données doivent souvent subir d’importantes transformations avant leur ouverture pour devenir intelligibles à la fois par les machines et par les humains. Cette thèse montre enfin que l’instauration concerne aussi les publics dont il est attendu qu’ils visualisent, inspectent et exploitent les données ouvertes. L’instauration des publics par des instruments très divers constitue un autre pan du travail invisible des politiques d’open data. Il ressort enfin de cette thèse que l’obligation à l’ouverture des données publiques, une suite possible des politiques d’open data, pose de manière saillante une question fondamentale « qu’est-ce qu’une donnée ? » Plutôt que de réduire la donnée à une catégorie relative, qui s’appliquerait à toutes sortes de matériaux informationnels, les cas étudiés montrent qu’elle est généralement attribuée dès lors que les données sont le point de départ de réseauxsociotechniques dédiés à leur circulation, leur exploitation et leur mise en visibilité
As more than fifty countries have launched an open data policy, this doctoral dissertation investigates on the emergence and implementation of such policies. It is based on the analysis of public sources and an ethnographic inquiry conducted in seven French local authorities and institutions. By retracing six moments of definitions of the “open data principles” and their implementation by a French institution, Etalab, this work shows how open data has brought attention to data, particularly in their raw form, considered as an untapped resource, the “new oil” lying under the organisations. The inquiry shows that the process of opening generally begins by a phase of identification marked by progressive and uncertain explorations. It allows to understand that data are progressively instantiated from management files into data. Their circulation provoke frictions: to leave the sociotechnical network of organisations, data generally go through validation circuits and chains of treatment. Besides, data must often undergo important treatments before their opening in order to become intelligible by machines as well as humans. This thesis shows eventually that data publics are also instantiated as they are expected to visualize, inspect and process the data. Data publics are instantiated through various tools, which compose another area of the invisible work of open data projects. Finally, it appears from this work that the possible legal requirement to open data asks a fundamental question, “what is data?” Instead of reducing data to a relational category, which would apply to any informational material, studied cases show that they generally are applied when data are a starting point of sociotechnical networks dedicated to their circulation, their exploitation and their visibility
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Goeta, Samuel. „Instaurer des données, instaurer des publics : une enquête sociologique dans les coulisses de l'open data“. Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0045/document.

Der volle Inhalt der Quelle
Annotation:
Alors que plus de cinquante pays dans le monde ont entrepris une démarche d’ouverture des données publiques, la thèse enquête sur l’émergence et la mise en oeuvre des politiques d’open data. Elle repose sur l’analyse de sources publiques et sur une enquête ethnographique conduite dans sept collectivités locales et institutions françaises. Revenant sur six moments de définition de grands « principes » de l’open data et leur traduction en politique publique par une institution française, Etalab, ce travail montre comment la catégorisation par l’open data a porté l’attention sur les données, en particulier sous leur forme « brute », considérées comme une ressource inexploitée, le « nouveau pétrole » gisant sous les organisations. L’enquête montre que le processus de l’ouverture débute généralement par une phase d’identification marquée par des explorations progressives et incertaines. Elle permet de comprendre que l’identification constitue un geste d’instauration qui transforme progressivement les fichiers de gestion de l’administration en données. Leur mise en circulation provoque des frictions : pour sortir des réseaux sociotechniques de l’organisation, les données doivent généralement passer à travers des circuits de validation et des chaînes de traitement. Par ailleurs, les données doivent souvent subir d’importantes transformations avant leur ouverture pour devenir intelligibles à la fois par les machines et par les humains. Cette thèse montre enfin que l’instauration concerne aussi les publics dont il est attendu qu’ils visualisent, inspectent et exploitent les données ouvertes. L’instauration des publics par des instruments très divers constitue un autre pan du travail invisible des politiques d’open data. Il ressort enfin de cette thèse que l’obligation à l’ouverture des données publiques, une suite possible des politiques d’open data, pose de manière saillante une question fondamentale « qu’est-ce qu’une donnée ? » Plutôt que de réduire la donnée à une catégorie relative, qui s’appliquerait à toutes sortes de matériaux informationnels, les cas étudiés montrent qu’elle est généralement attribuée dès lors que les données sont le point de départ de réseauxsociotechniques dédiés à leur circulation, leur exploitation et leur mise en visibilité
As more than fifty countries have launched an open data policy, this doctoral dissertation investigates on the emergence and implementation of such policies. It is based on the analysis of public sources and an ethnographic inquiry conducted in seven French local authorities and institutions. By retracing six moments of definitions of the “open data principles” and their implementation by a French institution, Etalab, this work shows how open data has brought attention to data, particularly in their raw form, considered as an untapped resource, the “new oil” lying under the organisations. The inquiry shows that the process of opening generally begins by a phase of identification marked by progressive and uncertain explorations. It allows to understand that data are progressively instantiated from management files into data. Their circulation provoke frictions: to leave the sociotechnical network of organisations, data generally go through validation circuits and chains of treatment. Besides, data must often undergo important treatments before their opening in order to become intelligible by machines as well as humans. This thesis shows eventually that data publics are also instantiated as they are expected to visualize, inspect and process the data. Data publics are instantiated through various tools, which compose another area of the invisible work of open data projects. Finally, it appears from this work that the possible legal requirement to open data asks a fundamental question, “what is data?” Instead of reducing data to a relational category, which would apply to any informational material, studied cases show that they generally are applied when data are a starting point of sociotechnical networks dedicated to their circulation, their exploitation and their visibility
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Jaillot, Vincent. „3D, temporal and documented cities : formalization, visualization and navigation“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE2026.

Der volle Inhalt der Quelle
Annotation:
L'étude et la compréhension de l'évolution des villes est un enjeu sociétal important, notamment pour améliorer la qualité de vie dans une ville toujours plus dense. Le numérique et en particulier les modèles 3D de villes peuvent être des éléments de réponse. Leur manipulation est parfois rendue complexe par la prise en compte de leurs dimensions thématique, géométrique et topologique ainsi que de leur structuration hiérarchique
The study and understanding of cities evolution is an important societal issue, particularly for improving the quality of life in an increasingly dense city. Digital technology and in particular 3D city models can be part of the answer. Their manipulation is however sometimes complex due to their thematic, geometric, topological dimensions and hierarchical structure.In this thesis, we focus on the integration of the temporal dimension and in the enrichment with multimedia documents of these 3D models of the city, in an objective of visualization and navigation on the web. Moreover, we take a particular interest in interoperability (based on standards), reusability (with a shared software architecture and open source components) and reproducibility (to make our experiments durable).Our first contribution is a formalization of the temporal dimension of cities for interactive navigation and visualization on the web. For this, we propose a conceptual model of existing standards for the visualization of cities on the web, which we extend with a formalization of the temporal dimension. We also propose a logical model and a technical specification of these proposals.Our second contribution allows the integration of multimedia documents into city models for spatial, temporal and thematic visualization and navigation on the web. We propose a conceptual model for the integration of heterogeneous and multidimensional geospatial data. We then use it for the integration of multimedia documents and 3D city models.Finally, this thesis took place in a multidisciplinary context via the Fab-Pat project of the LabEx IMU, which focuses on cultural heritage sharing and shaping. In this framework, a contribution combining social sciences and computer science has allowed the design of DHAL, a methodology for the comparative analysis of devices for sharing heritage via digital technology. Dans cette thèse, nous nous intéressons à l'intégration de la dimension temporelle et à l'enrichissement avec des documents multimédia de ces modèles 3D de la ville, dans un objectif de visualisation et de navigation sur le web. Nous portons un intérêt particulier à l'intéropérabilité (en s'appuyant sur des standards), à la réutilisabilité (avec une architecture logicielle partagée et des composants open source) et à la reproductibilité (permettant de rendre nos expérimentations pérennes).Notre première contribution est une formalisation de la dimension temporelle des villes pour une navigation et visualisation interactive sur le web. Pour cela, nous proposons un modèle conceptuel des standards existants pour la visualisation de villes sur le web, que nous étendons avec une formalisation de la dimension temporelle. Nous proposons également un modèle logique et une spécification technique de ces propositions.Notre deuxième contribution permet d'intégrer des documents multimédias aux modèles de villes pour une visualisation et une navigation spatiale, temporelle et thématique sur le web. Nous proposons un modèle conceptuel pour l'intégration de données géospatiales hétérogènes et multidimensions. Nous l'utilisons ensuite pour l'intégration de documents multimédias et de modèles 3D de villes.Enfin, cette thèse s'est déroulée dans un contexte pluridisciplinaire via le projet Fab-Pat, du LabEx IMU, qui s'intéresse au partage de la fabrique du patrimoine. Dans ce cadre, une contribution mêlant sciences sociales et informatique a permis de concevoir DHAL, une méthodologie pour l’analyse comparative de dispositifs pour le partage du patrimoine via le numérique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Dumas, Menjivar Marlon. „TEMPOS : une plate-forme pour le développement d'applications temporelles au dessus de SGBD à objets“. Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006741.

Der volle Inhalt der Quelle
Annotation:
Les données temporelles sont présentes dans de nombreuses applications utilisant des Systèmes de Gestion de Bases de Données (SGBD). Aussi, la plupart de ces systèmes offrent des types correspondant aux concepts de date et de durée, grâce auxquels il est possible de modéliser des associations temporelles simples, comme par exemple la date de naissance ou l'âge d'une personne. Toutefois, à quelques nuances près, aucun de ces systèmes n'offre des abstractions dédiées à la modélisation d'associations temporelles plus complexes, telles que l'historique du salaire d'un employé, ou la séquence d'annotations attachées à une vidéo. Dès lors, ces associations doivent être codées au travers de constructeurs de type tels que ''liste'' et ''n-uplet'', et la sémantique de ce codage doit être intégrée dans la logique des programmes applicatifs, accroissant par là leur complexité. Pour combler ces lacunes, des extensions dites ''temporelles'' de modèles et de langages pour Bases de Données ont été proposées. Cette thèse analyse et unifie les contributions de ces travaux, dans le but de les intégrer dans une extension temporelle du standard pour SGBD à objets de l'ODMG. Le résultat est une plate-forme logicielle baptisée TEMPOS, fondée sur trois modèles de sophistication croissante : un modèle du temps, un modèle d'historiques et un modèle d'objets et de propriétés temporels. Ce dernier fournit des fonctionnalités facilitant la transformation de bases de données conformes à l'ODMG en des bases de données temporelles. à partir de ces trois modèles, des extensions des langages de spécification de schéma et d'interrogation de l'ODMG sont définies. Enfin, un outil de visualisation basé sur un nouveau paradigme de navigation interactive au travers d'objets temporels est développé. L'ensemble des propositions sont formalisées, implantées au dessus d'un SGBD commercial, et validées par des études de cas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Fourmanoit, N. „Analyse des 5 ans de données de l'expérience SuperNova Legacy Survey“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00587450.

Der volle Inhalt der Quelle
Annotation:
Le SuperNova Legacy Survey (SNLS) est un programme de détection et de suivi photométrique de plusieurs centaines de supernovæ de type Ia (SNe Ia) dont l'objectif est de retracer l'histoire de l'expansion cosmologique afin d'en déduire une caractérisation de la nature de l'énergie noire, c'est-à-dire une mesure de son paramètre d'état wDE. La prise de données du SNLS est arrivée à son terme en juillet 2008 après 5 ans de programme. Le travail réalisé dans le cadre de cette thèse a consisté en l'analyse de ces 5 ans de données SNLS et la photométrie des 419 SNe Ia détectées et spectroscopiquement identifiées. Pour chaque supernova, les courbes de lumière dans les bandes gMrMiMzM sont produites, calibrées et ajustées par un modèle spectrophotométrique. Une nouvelle méthode de photométrie, sans rééchantillonnage des pixels des images, est également implémentée dans le cadre de cette thèse. En préservant les propriétés statistiques des pixels, elle permet de mieux contrôler les incertitudes sur la mesure des flux, et par là même, la précision sur la mesure des paramètres cosmologiques qui s'en déduit. Les performances des deux méthodes sont testées et comparées sur les étoiles de calibration et les supernovae. Si la photométrie sans rééchantillonnage permet une estimation plus exacte des incertitudes de mesure du flux, la précision et la stabilité des deux méthodes sont quant à elles similaires. Un lot de SNe Ia de statistique et de qualité inédites est maintenant disponible pour l'analyse de cosmologie. Avec le complément de supernovæ proches de programmes extérieurs, une contrainte à 5% sur la nature du paramètre d'état de l'énergie noire est donc pour la première fois envisageable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Fouchez, Dominique. „Etude de canaux de physique non-standard au LHC : analyse des données de test d'un calorimètre plomb/fibres scintillantes“. Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22003.

Der volle Inhalt der Quelle
Annotation:
En utilisant une simulation rapide du projet de detecteur atlas aupres du lhc, nous etudions les possibilites de decouverte d'un nouveau boson neutre (z), dans ses canaux de desintegration leptonique. Nous montrons qu'un z, decrit par le modele de jauge etendue, pourra etre decouvert si sa masse est inferieure a 5 tev. Nous etudions ensuite la production de paires de boson vectoriel. Apres avoir reduit les bruits de fond tres importants en utilisant les capacites d'identification de particules prevues avec le detecteur atlas, nous pouvons fixer des limites de sensibilite sur les parametres du couplage anormal des triples vertex de la theorie electrofaible: |kappa-galla|<0. 11, |lambda-gamma|<0. 0038; |kappa-z|<0. 20, |lambda-z|<0. 0090. Nous presentons dans le dernier chapitre des resultats de tests en faisceau d'un prototype de calorimetre plomb/fibres scintillantes (rd1-spacal)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Abidi, Karima. „La construction automatique de ressources multilingues à partir des réseaux sociaux : application aux données dialectales du Maghreb“. Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0274.

Der volle Inhalt der Quelle
Annotation:
Le traitement automatique des langues est fondé sur l'utilisation des ressources langagières telles que les corpus de textes, les dictionnaires, les lexiques de sentiments, les analyseurs morpho-syntaxiques, les taggers, etc. Pour les langues naturelles, ces ressources sont souvent disponibles. En revanche, lorsqu'il est question de traiter les langues peu dotées, on est souvent confronté au manque d'outils et de données. Dans cette thèse, on s'intéresse à certaines formes vernaculaires de l'arabe utilisées au Maghreb. Ces formes sont connues sous le terme de dialecte que l'on peut classer dans la catégorie des langues peu dotées. Exceptés des textes brutes extraits généralement des réseaux sociaux, il existe très peu de ressources permettant de traiter les dialectes arabes. Ces derniers, comparativement aux autres langues peu dotées possèdent plusieurs spécificités qui les rendent plus difficile à traiter. Nous pouvons citer notamment l'absence de règles d'écriture de ces dialectes, ce qui conduit les usagers à écrire le dialecte sans suivre des règles précises, par conséquent un même mot peut avoir plusieurs graphies. Les mots en arabe dialectal peuvent s’écrire en utilisant le script arabe et/ou le script latin (écriture dite arabizi). Pour les dialectes arabes du Maghreb, ils sont particulièrement influencés par des langues étrangères comme le français et l'anglais. En plus de l'emprunt de mots de ces langues, un autre phénomène est à prendre en compte en traitement automatique des dialectes. Il s'agit du problème connu sous le terme de code-switching. Ce phénomène est connu en linguistique sous le terme de diglossie. Cela a pour conséquence de laisser libre cours à l’utilisateur qui peut écrire en plusieurs langues dans une même phrase. Il peut ainsi commencer en dialecte arabe et au milieu de la phrase, il peut "switcher" vers le français, l'anglais ou l’arabe standard. En plus de cela, il existe plusieurs dialectes dans un même pays et a fortiori plusieurs dialectes différents dans le monde arabe. Il est donc clair que les outils NLP classiques développés pour l’arabe standard ne peuvent être utilisés directement pour traiter les dialectes. L'objectif principal de ce travail consiste à proposer des méthodes permettant la construction automatique de ressources pour les dialectes arabes en général et les dialectes du Maghreb en particulier. Cela représente notre contribution à l'effort fourni par la communauté travaillant sur le traitement automatique des dialectes arabes. Nous avons ainsi produit des méthodes permettant de construire des corpus comparables, des ressources lexicales contenant les différentes formes d'une entrée et leur polarité. Par ailleurs, nous avons développé des méthodes pour le traitement de l'arabe standard sur des données de Twitter et également sur les transcriptions provenant d'un système de reconnaissance automatique de la parole opérant sur des vidéos en arabe extraites de chaînes de télévisions arabes telles que Al Jazeera, France24, Euronews, etc. Nous avons ainsi comparé les opinions des transcriptions automatiques provenant de sources vidéos multilingues différentes et portant sur le même sujet en développant une méthode fondée sur la théorie linguistique dite Appraisal
Automatic language processing is based on the use of language resources such as corpora, dictionaries, lexicons of sentiments, morpho-syntactic analyzers, taggers, etc. For natural languages, these resources are often available. On the other hand, when it comes to dealing with under-resourced languages, there is often a lack of tools and data. In this thesis, we are interested in some of the vernacular forms of Arabic used in Maghreb. These forms are known as dialects, which can be classified as poorly endowed languages. Except for raw texts, which are generally extracted from social networks, there is not plenty resources allowing to process Arabic dialects. The latter, compared to other under-resourced languages, have several specificities that make them more difficult to process. We can mention, in particular the lack of rules for writing these dialects, which leads the users to write the dialect without following strict rules, so the same word can have several spellings. Words in Arabic dialect can be written using the Arabic script and/or the Latin script (arabizi). For the Arab dialects of the Maghreb, they are particularly impacted by foreign languages such as French and English. In addition to the borrowed words from these languages, another phenomenon must be taken into account in automatic dialect processing. This is the problem known as code- switching. This phenomenon is known in linguistics as diglossia. This gives free rein to the user who can write in several languages in the same sentence. He can start in Arabic dialect and in the middle of the sentence, he can switch to French, English or modern standard Arabic. In addition to this, there are several dialects in the same country and a fortiori several different dialects in the Arab world. It is therefore clear that the classic NLP tools developed for modern standard Arabic cannot be used directly to process dialects. The main objective of this thesis is to propose methods to build automatically resources for Arab dialects in general and more particularly for Maghreb dialects. This represents our contribution to the effort made by the community working on Arabic dialects. We have thus produced methods for building comparable corpora, lexical resources containing the different forms of an input and their polarity. In addition, we developed methods for processing modern standard Arabic on Twitter data and also on transcripts from an automatic speech recognition system operating on Arabic videos extracted from Arab television channels such as Al Jazeera, France24, Euronews, etc. We compared the opinions of automatic transcriptions from different multilingual video sources related to the same subject by developing a method based on linguistic theory called Appraisal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Braci, Sofiane. „Etude des méthodes de dissimulation informées de données appliquées aux supports multimédias“. Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00866202.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Cazalens, Sylvie. „Formalisation en logique non standard de certaines méthodes de raisonnement pour fournir des réponses coopératives, dans des systèmes de bases de données et de connaissances“. Toulouse 3, 1992. http://www.theses.fr/1992TOU30172.

Der volle Inhalt der Quelle
Annotation:
Un systeme de bases de donnees et de connaissances est cooperatif s'il fournit de lui-meme des informations additionnelles interessantes pour l'usager. Une telle fonctionnalite necessite de tenir compte du domaine d'interet de l'usager. Plusieurs methodes existent, qui estiment ce domaine grace a la seule analyse de la question de l'usager (sous la forme d'une requete type sql, ou sous une forme etendue), ou a l'utilisation supplementaire d'une modelisation de l'usager. Cependant, pour chacune, reviennent, de maniere sous-jacente, les notions d'interet d'une information et de raisonnement pour deduire des informations interessantes. La formalisation de ces notions cles est donc etudiee, pour certaines methodes. Des outils correctement adaptes s'averent etre fournis par les logiques non-standards
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Nitoglia, Elisa. „Gravitational-wave data analysis for standard and non-standard sources of compact binary coalescences in the third LIGO-Virgo observing run“. Electronic Thesis or Diss., Lyon 1, 2023. http://www.theses.fr/2023LYO10143.

Der volle Inhalt der Quelle
Annotation:
Cette thèse de doctorat présente une enquête approfondie sur la détection des signaux d'ondes gravitationnelles provenant de fusions binaires compactes, en mettant l'accent particulier sur l'analyse des données de la troisième campagne d'observation de la Collaboration LIGO-Virgo. Le manuscrit commence par fournir une introduction aux principes fondamentaux de la théorie de la relativité générale, y compris la prédiction de l'existence des ondes gravitationnelles et un aperçu des sources astrophysiques qui génèrent ces ondes. Il fournit également une description détaillée des interféromètres, les instruments utilisés dans les observatoires d'ondes gravitationnelles, ainsi que leur fonctionnement de base. Ensuite, le manuscrit se concentre sur les techniques avancées d'analyse des données développées pour extraire les signaux d'ondes gravitationnelles du bruit du détecteur. Une attention particulière est accordée au pipeline d'analyse MBTA (Multi-Band Template Analysis), auquel l'auteur contribue activement en tant que membre de l'équipe MBTA. Le fonctionnement et la méthodologie du pipeline MBTA sont décrits en détail, mettant en évidence son rôle dans la détection et l'analyse des signaux d'ondes gravitationnelles. Ensuite, le manuscrit présente les résultats obtenus à partir de l'analyse standard réalisée pour rechercher des signaux provenant de trous noirs binaires, d'étoiles à neutrons binaires et de binaires trou noir-étoile à neutrons dans les données recueillies lors de la troisième campagne d'observation. L'analyse comprend un examen approfondi des signaux observés, de leurs propriétés et des implications astrophysiques des fusions détectées. De plus, le manuscrit explore les dernières avancées dans la recherche des ondes gravitationnelles émises par des binaires de masse sub-solaire, qui impliquent des systèmes binaires comprenant au moins un objet ayant une masse inférieure à celle du Soleil, offrant une enquête approfondie sur la méthodologie et les résultats de la recherche de masse sub-solaire lors de la troisième campagne d'observation. Grâce à cette enquête approfondie, le manuscrit vise à contribuer à l'avancement de l'astronomie des ondes gravitationnelles, offrant une exploration complète de la recherche sur les ondes gravitationnelles, couvrant les principales réalisations de la troisième campagne d'observation dans les recherches standard et de masse sub-solaire
This PhD thesis presents a comprehensive investigation into the detection of gravitational wave signals from compact binary mergers, with a specific focus on the analysis of data from the third observing run of the LIGO-Virgo Collaboration. The manuscript begins by providing an introduction to the fundamental principles of the theory of General Relativity, including the prediction of the existence of gravitational waves and an overview of the astrophysical sources that generate these waves. It also provides a detailed description of interferometers, the instruments used in gravitational wave observatories, and their basic functioning. Subsequently, the manuscript focuses on advanced data analysis techniques developed to extract gravitational wave signals from the detector noise. Special attention is given to the Multi-Band Template Analysis (MBTA) pipeline, which the author actively contributes to as part of the MBTA team. The functioning and methodology of the MBTA pipeline are described in detail, highlighting its role in the detection and analysis of gravitational wave signals. The manuscript then proceeds to present the results obtained from the standard analysis conducted to search for signals originating from the coalescence of binary black holes, binary neutron stars, and black hole-neutron star binaries in the data collected during the third observing run. The analysis includes a comprehensive examination of the observed signals, their properties, and the astrophysical implications of the detected mergers. Additionally, the manuscript explores the latest advancements in the search for gravitational waves emitted by sub-solar mass binaries, which involve binary systems comprising at east one object with a mass below the threshold of the mass of the Sun, providing an in-depth investigation into the methodology and results of the sub-solar mass search during the third observing run. Through this comprehensive investigation, the manuscript aims at contributing to the advancement of gravitational wave astronomy, offering a comprehensive exploration of gravitational wave research, encompassing the main achievement of the third observing run in both standard and sub-solar mass searches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Martin, Dit Latour Bertrand. „Mesure de la section efficace de production de paires de quarks top dans l'état final di-électron avec les données collectées par l'expérience D0 au Run IIa“. Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00330351.

Der volle Inhalt der Quelle
Annotation:
Le quark top a été découvert en 1995 par les collaborations CDF et D0 dans les collisions proton-antiproton du Tevatron. Aujourd'hui, la quantité de données collectées par chaque expérience est devenue suffisante pour étudier avec precision ce quark très massif. Cette thèse est consacrée à la mesure de la section efficace de production de paires de quarks top par interaction forte, dans un état final contenant deux électrons, deux jets de particules et de l'énergie transverse manquante. Elle utilise un échantillon de données de 1 fb-1 enregistré par l'expérience D0 entre 2002 et 2006.
La reconstruction et l'identification des électrons et des jets sont primordiales pour cette analyse, et ont été étudiées dans une topologie où un boson Z est produit en association avec un ou plusieurs jets. Le processus Z+jets constitue en effet le bruit de fond physique dominant pour la production top-antitop dans l'état final diélectron.
Le principal enjeu de la mesure de section efficace est la vérification des prédictions du Modèle Standard. Dans ce manuscrit, ce résultat est également interprété pour extraire de façon indirecte la masse du quark top. Par ailleurs, la mesure de la section efficace est sensible à une éventuelle manifestation de nouvelle physique telle que l'existence d'un boson de Higgs chargé. La sélection établie pour mesurer la section efficace de production top-antitop a été mise à profit pour rechercher un boson H+ plus léger que le quark top, ce dernier pouvant ainsi se désintégrer en un boson W+ ou H+ et un quark b. Dans le modèle étudié, le boson H+ se désintègre exclusivement en un lepton tau et un neutrino.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Noumon, Allini Elie. „Caractérisation, évaluation et utilisation du jitter d'horloge comme source d'aléa dans la sécurité des données“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES019.

Der volle Inhalt der Quelle
Annotation:
Cette thèse, financée par la DGA, est motivée par la problématique d’évaluation des TRNG pour des applications à très haut niveau de sécurité. Les standards actuels tels que AIS-31 n’étant pas suffisants pour ces types d’applications, la DGA propose une procédure complémentaire, validée sur les TRNG utilisant les oscillateurs en anneau (RO), qui vise à caractériser la source d’aléa des TRNG afin d’identifier les bruits électroniques présents dans celle-ci. Ces bruits se traduisent dans les circuits numériques par le jitter d’horloge générée dans les RO. Ils peuvent être caractérisés par leur densité spectrale de puissance reliée à la variance d’Allan temporelle qui permet, contrairement à la variance standard pourtant encore largement utilisée, de discriminer ces différents types de bruit (thermique, flicker principalement). Cette étude a servi de base à l’estimation de la part du jitter due au bruit thermique utilisé dans les modèles stochastiques décrivant la sortie des TRNG. Afin d’illustrer et de valider l’approche de certification DGA sur d’autres principes de TRNG que les RO, nous proposons une caractérisation de la PLL en tant que source d’aléa. Nous avons modélisé la PLL en termes de fonctions de transfert. Cette modélisation a conduit à l’identification de la source de bruit en sortie de la PLL, ainsi que de sa nature en fonction des paramètres physiques de la PLL. Cela a permis de proposer des recommandations quant au choix des paramètres afin de garantir une entropie maximale. Afin d’aider à la conception de ce type de TRNG, nous proposons également un outil de recherche des paramètres non physiques du générateur assurant le meilleur compromis sécurité/débit
This thesis, funded by the DGA, is motivated by the problem of evaluation of TRNG for applications with a very high level of security. As current standards such as AIS-31 are not sufficient for these types of applications, the DGA proposes a complementary procedure, validated on TRNG using ring oscillators (RO), which aims to characterize the source of randomness of TRNG in order to identify electronic noises present in it. These noises are manifested in the digital circuits by the clock jitter generated in the RO. They can be characterized by their power spectral density related to the time Allan variance which allows, unlike the standard variance which is still widely used, to discriminate these different types of noise (mainly thermal, flicker). This study was used as a basis for estimating the proportion of jitter due to thermal noise used in stochastic models describing the output of TRNG. In order to illustrate and validate the DGA certification approach on other principles of TRNG apart from RO, we propose a characterization of PLL as a source of randomness. We have modeled the PLL in terms of transfer functions. This modeling has led to the identification of the source of noise at the output of the PLL, as well as its nature as a function of the physical parameters of the PLL. This allowed us to propose recommendations on the choice of parameters to ensure maximum entropy. In order to help in the design of this type of TRNG, we also propose a tool to search for the non-physical parameters of the generator ensuring the best compromise between security and throughput
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Zeman, Martin. „Measurement of the Standard Model W⁺W⁻ production cross-section using the ATLAS experiment on the LHC“. Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112263/document.

Der volle Inhalt der Quelle
Annotation:
Les mesures de sections efficaces de production di-bosons constituent une partie importante du programme de physique au Large Hadron Collider (Grand collisionneur de hadrons) au CERN. Ces analyses de physique offrent la possibilité d'explorer le secteur électrofaible du modèle standard à l'échelle du TeV et peuvent être une indication de l'existence de nouvelles particules au-delà du modèle standard. L'excellente performance du LHC dans les années 2011 et 2012 a permis de faire les mesures très compétitives. La thèse donne un aperçu complet des méthodes expérimentales utilisées dans la mesure de la section efficace de production de W⁺W⁻ dans les collisions proton-proton au √s = 7 TeV et 8 TeV. Le texte décrit l'analyse en détail, en commençant par l'introduction du cadre théorique du modèle standard et se poursuit avec une discussion détaillée des méthodes utilisées dans l'enregistrement et la reconstruction des événements de physique dans une expérience de cette ampleur. Les logiciels associés (online et offline) sont inclus dans la discussion. Les expériences sont décrites en détail avec en particulier une section détaillée sur le détecteur ATLAS. Le dernier chapitre de cette thèse présente une description détaillée de l'analyse de la production de bosons W dans les modes de désintégration leptoniques utilisant les données enregistrées par l'expérience ATLAS pendant les années 2011 et 2012 (Run I). Les analyses utilisent 4,6 fb⁻¹ de données enregistrées à √s = 7 TeV et 20,28 fb⁻¹ enregistré à 8 TeV. La section efficace mesurée expérimentalement pour la production de bosons W dans l'expérience ATLAS est plus grande que celle prédite par le modèle standard à 7 TeV et 8 TeV. La thèse se termine par la présentation des résultats de mesures différentielles de section efficace
Measurements of di-boson production cross-sections are an important part of the physics programme at the CERN Large Hadron Collider. These physics analyses provide the opportunity to probe the electroweak sector of the Standard Model at the TeV scale and could also indicate the existence of new particles or probe beyond the Standard Model physics. The excellent performance of the LHC through years 2011 and 2012 allowed for very competitive measurements. This thesis provides a comprehensive overview of the experimental considerations and methods used in the measurement of the W⁺W⁻ production cross-section in proton-proton collisions at √s = 7 TeV and 8 TeV. The treatise covers the material in great detail, starting with the introduction of the theoretical framework of the Standard Model and follows with an extensive discussion of the methods implemented in recording and reconstructing physics events in an experiment of this magnitude. The associated online and offline software tools are included in the discussion. The relevant experiments are covered, including a very detailed section about the ATLAS detector. The final chapter of this thesis contains a detailed description of the analysis of the W-pair production in the leptonic decay channels using the datasets recorded by the ATLAS experiment during 2011 and 2012 (Run I). The analyses use 4.60 fb⁻¹ recorded at √s = 7 TeV and 20.28 fb⁻¹ recorded at 8 TeV. The experimentally measured cross section for the production of W bosons at the ATLAS experiment is consistently enhanced compared to the predictions of the Standard Model at centre-of-mass energies of 7 TeV and 8 TeV. The thesis concludes with the presentation of differential cross-section measurement results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Vömel, Christof. „Contributions à la recherche en calcul scientifique haute performance pour les matrices creuses“. Toulouse, INPT, 2003. http://www.theses.fr/2003INPT003H.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons au développement d'un nouvel algorithme pour estimer la norme d'une matrice de manière incrémentale, à l'implantation d'un modèle de référence des Basic Linear Algebra Subprograms for sparse matrices (Sparse BLAS), et à la réalisation d'un nouveau gestionnaire de tâches pour MUMPS, un solveur multifrontal pour des architectures à mémoire distribuée. Notre méthode pour estimer la norme d'une matrice s'applique aux matrices denses et creuses. Elle peut s'avérer utile dans le cadre des factorisations QR, Cholesky, ou LU. Le standard Sparse BLAS définit des interfaces génériques. Nous avons été amenés à répondre aux questions concernant la représentation et la gestion des données. Le séquencement de tâches devient un enjeu important dès que nous travaillons sur un grand nombre de processeurs. Grâce à notre nouvelle approche, nous pouvons améliorer le passage a l'échelle du solveur MUMPS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Caillaud, Johann. „Le standard pratiqué : une nouvelle voie de standardisation des processus métier ouverte par une recherche-action“. Thesis, Paris 9, 2013. http://www.theses.fr/2013PA090040/document.

Der volle Inhalt der Quelle
Annotation:
Les processus métier font l’objet d’une standardisation. Les voies empruntées pour cette standardisation, à savoir la domination, la confrontation et l’incorporation, puisent leur origine tant dans les méthodes que sont l’Organisation Scientifique du Travail ou le reengineering que dans les outils de type progiciel de gestion. Or, il s’avère que la prescription et la standardisation des processus métier, telles qu’elles sont réalisées, posent des problèmes dans les organisations, aux niveaux stratégique, fonctionnel et opérationnel. Notre recherche s’attache à déterminer d’une part la nature d’une autre voie de standardisation et d’autre part les conditions pouvant faciliter son émergence.Convaincus que le changement ne peut plus se définir comme l’imposition d’un modèle a priori, un standard promulgué, nous nous interrogeons sur la capacité des pratiques à reconcevoir la nature du travail de standardisation, pour aboutir à un standard pratiqué. Afin de trouver des solutions aux problèmes rencontrés avec les voies actuelles de standardisation, nous proposons un modèle conceptuel qui place les pratiques au cœur d’une spirale de création de connaissances organisationnelles. Dans le cadre d’une recherche action, nous analysons les effets de la mise en place d’un outil matérialisant notre modèle conceptuel sur des terrains qui mobilisent différemment les conditions requises pour le changement, à savoir un institut bancaire public et un groupe de presse nationale. Les résultats obtenus, variant très fortement d’un terrain à l’autre, font ressortir deux enseignements majeurs qui nous éclairent sur l’avènement du standard pratiqué comme nouvelle voie de standardisation. Nous constatons tout d’abord que le standard pratiqué se nourrit du standard promulgué pour ancrer les processus métier dans toute l’organisation. Ensuite, l’émergence et le développement d’un standard pratiqué mettent en lumière des logiques particulières à l’œuvre dans l’organisation, à savoir un processus de création de sens, le soutien d’une structure de pouvoir parallèle au pouvoir officiel et un processus d’innovation organisationnelle
Business processes undergo standardization. This standardization is achieved through domination, confrontation and incorporation, means that have their origins in methods like Taylorism, reengineering or the implementation of tools such as ERP systems. Prescription and standardization of business processes, however, create problems for organizations, at the strategic, functional and operating levels. Our research attempts to uncover on one hand novel ways of standardizing processes and on the other the conditions facilitating the emergence of these new ways.Convinced that change cannot be defined any more as the imposition of an a priori model or a promulgated standard, we investigate how work practices may contribute to the creation of standards, and result in “practiced” standards. To find solutions to the problems met with current ways of standardizing, we propose a model, which places practice at the heart of a spiral of creation of organizational knowledge. Through an action research project, we analyze the effects of the implementation of this model in two different settings, namely a public banking institute and a conglomerate of national press, requiring different conditions for change.Our findings, which differ considerably from one case to the other, highlight how the “practiced” standard emerges as a novel way of standardizing. First, we notice that the “practiced” standard feeds on the promulgated standard to anchor business processes in the whole organization. Second, the emergence and the development of the “practiced” standard bring to light specific processes that operate in the organization, namely a process of sensemaking, the support of a structure of power parallel to the official one, and a process of organizational innovation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Lambert, Pascal. „Sismologie solaire et stellaire“. Phd thesis, Université Paris-Diderot - Paris VII, 2007. http://tel.archives-ouvertes.fr/tel-00140766.

Der volle Inhalt der Quelle
Annotation:
La thèse présentée ici se place dans le cadre de la sismologie du Soleil et des étoiles, dans une période de transition entre une bonne connaissance du Soleil grâce à l'héliosismologie et le développement actuel de l'astérosismologie, et, entre une vision statique et une vision dynamique des étoiles. Le but de mon travail a été de participer à cet effort en dépasser la vision statique des intérieurs stellaires et via le développement d'outils d'analyse des données des missions spatiales. Ainsi le modèle solaire standard actuel, la représentation théorique de l'intérieur solaire, présente des limites, mises en avant par une récente révision de ses abondances. Nous montrons que l'écart entre le modèle standard et les observations sismiques est fortement dégradé motivant l'introduction de processus dynamiques dans les modèles. Nous avons aussi entrepris l'introduction d'effets magnétiques dans les couches superficielles pour améliorer la prédiction des fréquences et l'analyse sismique. Les missions spatiales astérosismiques, présentes et futures, permettent d'avoir accès à des informations sur la dynamique des étoiles (rotation, convection, . . .). Pour améliorer ces informations contenues dans les spectres d'oscillations, il est nécessaire d'effectuer une bonne identification des modes ainsi qu'une extraction précise de ces paramètres. Nous montrons comment améliorer ceci en développant une analyse du diagramme-échelle basée sur la récente transformée en curvelette. Cette méthode a pu être validées grâce à des simulations ainsi que dans le cadre d'exercices pour la préparation à la mission CoRoT. Nous nous sommes également intéressé à l'étoile Procyon observée par MOST.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

He, Shuang. „Production et visualisation de niveaux de détail pour les modèles 3D urbains“. Ecole centrale de Nantes, 2012. http://portaildocumentaire.citechaillot.fr/search.aspx?SC=theses&QUERY=+marie+Durand#/Detail/%28query:%28Id:%270_OFFSET_0%27,Index:1,NBResults:1,PageRange:3,SearchQuery:%28CloudTerms:!%28%29,ForceSearch:!t,Page:0,PageRange:3,QueryString:%27Shuang%20he%27,ResultSize:10,ScenarioCode:theses,ScenarioDisplayMode:display-standard,SearchLabel:%27%27,SearchTerms:%27Shuang%20he%27,SortField:!n,SortOrder:0,TemplateParams:%28Scenario:%27%27,Scope:%27%27,Size:!n,Source:%27%27,Support:%27%27%29%29%29%29.

Der volle Inhalt der Quelle
Annotation:
Les modèles 3D urbains sont de plus en plus utilisés dans une large variété d'applications urbaines, comme plates-formes d’intégration et de visualisation de diverses informations. Ce travail porte sur la production et la visualisation de niveaux de détail pour les modèles 3D urbains, en vue de leur utilisation dans des applications SIG. Ce travail propose une solution hybride pour la production de niveaux de détail pour les modèles 3D urbains en utilisant une combinaison de techniques : l'extrusion, l'intégration, la généralisation et la modélisation procédurale. La condition préalable à l’utilisation de notre solution est de disposer des données (comme les empreintes au sol des bâtiments provenant du cadastre) pour générer des modèles volumiques de bâtiments et des données (comme le réseau routier, division administrative, etc. ) pour diviser la ville en unités significatives. Il peut également tirer avantage de l’utilisation d’autres modèles 2D et 3D d’objets de la ville autant que possible. Parce que ces exigences peuvent être remplies à faible coût, la solution peut être facilement adoptée. L’objectif principal de ce travail porte sur les techniques et les algorithmes de généralisation. Un cadre de la généralisation est proposé sur la base du diviser pour régner, réalisé par subdivision de la couverture du sol et la généralisation de cellules. Le cadre permet la généralisation à l’échelle de la ville entière vers des modèles plus abstraits et facilite la généralisation à l’échelle locale en regroupant les objets selon une subdivision hiérarchique de la ville. Une mise en œuvre de la généralisation à l’échelle de la ville est réalisée sur la base de ce cadre. Une approche basée sur l’empreinte au sol des bâtiments est développée pour généraliser les groupes de bâtiments 3D, qui peut être utilisée pour la généralisation à l’échelle locale. En outre, en utilisant les niveaux de détail des modèles 3D produits par la solution proposée, trois exemples de visualisation sont donnés pour démontrer quelques-unes des utilisations possibles : une visualisation multi-échelle, une visualisation « focus + contexte », ainsi qu’une visualisation dépendant de la vue
3D city models have been increasingly used in a variety of urban applications as platforms to integrate and visualize diverse information. This work addresses level-of-detail production and visualization of 3D city models, towards their use in GIS applications. This work proposes a hybrid solution to LoD production of 3D city models, using a combination of techniques: extrusion, integration, generalization, and procedural modeling. The prerequisite for using our solution is to have data (like 2D cadastral buildings) for generating city coverage volumetric building models and data (like road network, administrative division, etc) for dividing the city into meaningful units. It can also gain advantage from using other accessible 2D and 3D models of city objects as many as possible. Because such requirements can be fulfilled at low cost, the solution may be easily adopted. The main focus of this work is placed on generalization techniques and algorithms. A generalization framework is proposed based on the divide-and-conquer concept, realized by land cover subdivision and cell-based generalization. The framework enables city scale generalization towards more abstract city models, and facilitates local scale generalization by grouping city objects according to city cells. An implementation of city scale generalization is realized based on the framework. A footprint-based approach is developed for generalizing 3D building groups at medium LoD, which can be used for local scale generalization. Moreover, using the LoD 3D city models produced by the proposed solution, three visualization examples are given to demonstrate some of the potential uses: multi-scale, focus + context, and view-dependent visualization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Lorenzo, Martinez Narei. „Observation of a Higgs boson and measurement of its mass in the diphoton decay channel with the ATLAS detector at the LHC“. Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00924105.

Der volle Inhalt der Quelle
Annotation:
The Standard Model of the particle physics predicts the existence of a massive scalar boson, usually referred to as Higgs boson in the literature, as resulting from the Spontaneous Symmetry Breaking mechanism, needed to generate the mass of the particles. The Higgs boson whose mass is theoretically undetermined, is experimentally looked for since half a century by various experiments. This is the case of the ATLAS experiment at LHC which started taking data from high energy collisions in 2010. One of the most important decay channel in the LHC environment is the diphoton channel, because the final state can be completely reconstructed with high precision. The photon energy response is a key point in this analysis, as the signal would appear as a narrow resonance over a large background. In this thesis, a detailed study of the photon energy response, using the ATLAS electromagnetic calorimeter has been performed. This study has provided a better understanding of the photon energy resolution and scale, thus enabling an improvement of the sensitivity of the diphoton analysis as well as a precise determination of the systematic uncertainties on the peak position. The diphoton decay channel had a prominent role in the discovery of a new particle compatible with the Standard Model Higgs boson by the ATLAS and CMS experiments, that occurred in July 2012. Using this channel as well as the better understanding of the photon energy response, a measurement of the mass of this particle is proposed in this thesis, with the data collected in 2011 and 2012 at a center-of-mass energy of 7 TeV and 8 TeV. A mass of 126.8 +/- 0.2 (stat) +\- 0.7 (syst) GeV/c2 is found. The calibration of the photon energy measurement with the calorimeter is the source of the largest systematic uncertainty on this measurement. Strategies to reduce this systematic error are discussed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Chen, Yan. „Traitement transactionnel dans un environnement OSI“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376126461.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Jousse, Anne-Laure. „Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales“. Thèse, Paris 7, 2010. http://hdl.handle.net/1866/4347.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques.
This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Todorova-Nova, Sharka. „Mesure de la masse des bosons w# au lep a l'aide du detecteur delphi“. Strasbourg 1, 1998. http://www.theses.fr/1998STR13108.

Der volle Inhalt der Quelle
Annotation:
La these porte sur la mesure de la masse du boson w a lep2 par la methode de la reconstruction directe de ses produits de desintegration dans le canal hadronique. Des outils specifiques necessaires a l'extraction de la valeur de la masse du boson w a partir des donnees collectees avec l'appareillage delphi en 1997 ont ete developpes (recherche de variables optimales pour selectionner les evenements ww, mise au point d'une methode specifique de reconstruction cinematique). La valeur observee de la masse du boson w a ete interpretee dans le cadre du modele standard, notamment pour contraindre la masse du boson de higgs. Une partie importante est consacree aux effets systematiques provenant des interactions entre les produits de desintegration hadronique des bosons w (reconnection de couleur et correlations de bose-einstein), qui peuvent notoirement influer sur la mesure de leur masse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Bert, Denis. „Systemes d'annuaire osi : specifications de mise en oeuvre pour la messagerie et l'administration de reseau“. Paris 6, 1988. http://www.theses.fr/1988PA066075.

Der volle Inhalt der Quelle
Annotation:
Etude et specification de l'utilisation des systemes d'annuaire pour l'adressage des systemes osi, l'administration de reseau et la messagerie electronique. Les modeles, services et protocoles des systemes d'annuaire osi definis par la nouvelle serie de recommandations ccitt x500 sont exposes. Sont ensuite decrits les mecanismes de consultation annuaire permettant, a partir d'un nom d'application ou d'une adresse reseau, de determiner les elements d'adressage application ou les informations de routage reseau
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Golden, Boris. „Un formalisme unifié pour l'architecture des systèmes complexes“. Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00827107.

Der volle Inhalt der Quelle
Annotation:
Les systèmes industriels complexes sont des objets artificiels conçus par l'Homme, et constitués d'un grand nombre de composants hétérogènes (e.g. matériels, logiciels ou organisationnels) collaborant pour accomplir une mission globale. Dans cette thèse, nous nous intéressons à la modélisation du comportement fonctionnel de tels systèmes, ainsi qu'à leur intégration. Nous modéliserons donc les systèmes réels par le biais d'une approche de boîte noire fonctionnelle avec un état interne, dont la structure et le comportement fonctionnel peuvent être obtenus par l'intégration récursive de composants élémentaires hétérogènes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Machet, Martina. „Higgs boson production in the diphoton decay channel with CMS at the LHC : first measurement of the inclusive cross section in 13 TeV pp collisions, and study of the Higgs coupling to electroweak vector bosons“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS254/document.

Der volle Inhalt der Quelle
Annotation:
Dans ce document deux analyses des propriétés du boson de Higgs se désintégrant en 2 photons dans l'expérience CMS située auprès du LHC (Large Hadron Collider) sont présentées.Le document commence par une introduction théorique sur le Modèle Standard et sur la physique du boson de Higgs, suivie par une description détaillée de l'expérience CMS. En deuxième lieu, les algorithmes de réconstruction et identification des photons sont présentés, avec une attention particulière aux différences entre le premier et le deuxième run du LHC, le premier run (Run1) ayant été pris entre 2010 et 2012 avec une énergie dans le centre de masse de 7 puis 8 TeV, le deuxième (Run2) ayant commencé en 2015 avec une énergie dans le centre de masse de 13 TeV. Les performances des reconstructions du Run 1 et du Run 2 en ce qui concerne l'identification des photons sont comparées. Ensuite l'algorithme d’identification des photons pour l'analyse H->γγ et optimisé pour le Run2 est présenté. Pour ce faire une méthode d'analyse multivariée est utilisée. Les performances de l'identification des photons à 13 TeV sont enfin étudiées et une validation donnée-simulation est effectuée.Ensuite l'analyse H->γγ avec les premières données du Run2 est présentée. Les données utilisées correspondent à une luminosité intégrée de 12.9 fb⁻¹. Une catégorisation des événements est faite, afin de rendre maximale la signification statistique du signal et d’étudier les différents modes de production du boson de Higgs. La signification statistique observée pour le boson de Higgs du Modèle Standard est 1.7 sigma, pour une signification attendue de 2.7 sigma.Enfin une étude de faisabilité ayant pour but de contraindre les couplages anomaux du boson de Higgs aux bosons de jauges est présentée. Pour cette analyse les données à 8 TeV collectées pendant le Run 1 du LHC, correspondant a' une luminosité intégrée de 19.5/fb sont utilisées. Cette analyse exploite la production du boson de Higgs par fusion de bosons-vecteurs (VBF), avec le Higgs se désintégrant ensuite en 2 photons. Les distributions cinématiques des jets et des photons, qui dépendent de l'hypothèse de spin-parité, sont utilisées pour construire des discriminants capables de séparer les différentes hypothèses de spin-parité. Ces discriminants permettent de définir différentes régions de l'espace des phases enrichies en signal de différentes spin-parité. Les différents nombres d’événements de signal sont extraits dans chaque région par un ajustement de la masse invariante diphoton, permettant de déterminer les contributions respectives des différents signaux et permettant ainsi de contraindre la production de boson de Higgs pseudo-scalaire (spin-parité 0-)
In this document two analyses of the properties of the Higgs boson in the diphoton decay channel with the CMS experiment at the LHC (Large Hadron Collider) are presented.The document starts with a theoretical introduction of the Standard Model and the Higgs boson physics, followed by a detailed description of the CMS detector.Then, photon reconstruction and identification algorithms are presented, with a particular focus on the differences between the first and the second run of the LHC, the first run (Run1) took place from 2010 to 2012 with a centre-of-mass energy of 7 and then 8 TeV, while the second run (Run2) started in 2015 with a centre-of-mass energy of 13 TeV. Performances of Run1 and Run2 reconstructions from the photon identification point of view are compared. Then the photon identification algorithm for the H->γγ analysis optimised for Run2 is presented. To do that a multivariate analysis method is used. Performances of the photon identification at 13 TeV are finally studied and a data-simulation validation is performed.Afterwards, the H->γγ analysis using the first Run2 data is presented. The analysis is performed with a dataset corresponding to an integrated luminosity of 2.7/fb. An event classification is performed to maximize signal significance and to studyspecific Higgs boson production modes. The observed significance for the standard model Higgs boson is 1.7 sigma, while a significance of 2.7 sigma is expected.Finally a feasibility study, having the aim of constraining the anomalous couplings of the Higgs boson to the vector bosons, is presented. This analysis is performed using the data collected at 8 TeV during Run1 at the LHC, corresponding to an integrated luminosity of 19.5/fb. This analysis exploits the production of the Higgs boson through vector boson fusion (VBF), with the Higgs decaying to 2 photons. The kinematic distributions of the dijet and diphoton systems, which depend from the spin-parity hypothesis, are used to build some discriminants able to discriminate between different spin-parity hypotheses. These discriminants allow to define different regions of the phase-space enriched with a certain spin-parity process. The Higgs boson signal yield is extracted in each region from a fit to the diphoton mass, allowing to determine the contributions of the different processes and then constrain the production of a pseudo-scalar (spin-parity 0-) Higgs boson
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Sow, Aboubakry Moussa. „Classification, réduction de dimensionnalité et réseaux de neurones : données massives et science des données“. Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9600/1/eprint9600.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Diouf, Jean Noël Dibocor. „Classification, apprentissage profond et réseaux de neurones : application en science des données“. Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9555/1/eprint9555.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie