Thèses sur le sujet « Tea triggered »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Tea triggered.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 28 meilleures thèses pour votre recherche sur le sujet « Tea triggered ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Sharma, Monika. « Biochemical and immunological characterisation of pathegenesis- related proteins of tea triggered by exobasidium vexans massee ». Thesis, University of North Bengal, 2005. http://hdl.handle.net/123456789/1078.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Anvar, Shebli. « Méthodologie de développement et de modélisation UML des systèmes d'acquisition et de traitement en temps réel pour les expériences de physique des hautes énergies ». Paris 11, 2002. https://tel.archives-ouvertes.fr/tel-00002854.

Texte intégral
Résumé :
La complexité croissante des systèmes d'acquisition et de traitement en temps réel (TDAQ) pour les expériences de physique des hautes énergies appelle à une évolution ad hoc des outils de développement. Dans cet ouvrage, nous traitons de l'articulation entre la spécification de principe des systèmes TDAQ et leur conception/réalisation sur une plateforme matérielle et logicielle concrète. Notre travail repose sur la définition d'une méthodologie de développement des systèmes TDAQ qui réponde aux problématiques de développement particulières à ces systèmes. Il en résulte la spécification détaillée d'un "canevas méthodologique" basé sur le langage UML, destiné à encadrer un processus de développement. L'usage de ce canevas méthodologique UML doit permettre la mise en place progressive d'un canevas " maison ", c'est-à-dire un atelier de développement comprenant des composants réutilisables et des éléments d'architecture génériques adaptés aux applications TDAQ. L'ouvrage s'articule autour de 4 sections principales. La section II est dévolue à la caractérisation et à l'évolution des systèmes TDAQ. En section III, nous nous intéressons aux technologies pertinentes pour notre problématique, notamment les techniques de réutilisation logicielle telles les motifs récurrents (design patterns) et les canevas (frameworks), avec une orientation en faveur des domaines du temps réel et de l'embarqué. Notre apport conceptuel spécifique est exposé en section IV, où nous procédons notamment à la spécification détaillée, formalisée et exemples à l'appui, de notre modèle de développement. Enfin, nous terminons notre propos en section V en évoquant le projet de R&D MORDICUS de mise en œuvre concrète de notre canevas méthodologique UML, ainsi que les développements récents de l'OMG (Object Management Group) sur l'architecture orientée modèles (Model Driven Architecture), particulièrement en résonance avec notre travail
The increasing complexity of the real-time data acquisition and processing systems (TDAQ : the so-called Trigger and Data AcQuisition systems) in high energy physics calls for an appropriate evolution of development tools. This work is about the interplay between in principle specifications of TDAQ systems and their actual design and realization on a concrete hardware and software platform. The basis of our work is to define a methodology for the development of TDAQ systems that meets the specific demands for the development of such systems. The result is the detailed specification of a "methodological framewor" based on the Unified Modeling Language (UML) and designed to manage a development process. The use of this UML-based methodological framework progressively leads to the setting up of a "home-made" framework, i. E. A development tool that comprises reusable components and generic architectural elements adapted to TDAQ systems. The main parts of this dissertation are sections II to IV. Section II is devoted to the characterization and evolution of TDAQ systems. In section III, we review the main technologies that are relevant to our problematic, namely software reuse techniques such as design patterns and frameworks, especially concerning the real-time and embedded systems domain. Our original conceptual contribution is presented in section IV, where we give a detailed, formalized and example- driven specification of our development model. Our final conclusions are presented in section V, where we present the MORDICUS project devoted to a concrete realization of our UML methodological framework, and the deep affinities between our work and the emerging "Model Driven Architecture" (MDA) paradigm developed by the Object Management Group
Styles APA, Harvard, Vancouver, ISO, etc.
3

Sandström, Maria. « Physico-Chemical Investigations of Bilayer Discs and Related Lipid Structures Formed in Liposomal Systems Intended for Triggered Release ». Doctoral thesis, Uppsala University, Department of Physical Chemistry, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-7606.

Texte intégral
Résumé :

This thesis describes results from fundamental studies of liposomes intended for drug delivery and pH or temperature triggered release. In addition, the effect of lipid composition on bilayer disc formation and a potential application of the bilayer discs were investigated.

The lower pH encountered by endocytosed liposomes can be utilized to trigger drug release. The mechanisms behind cytosolic drug delivery were investigated using two different kinds of pH-sensitive liposomes. The results indicate that incorporation of non-lamellar forming lipids into the endosome membrane may allow for drug escape into the cytosol.

Temperature-sensitive liposomes containing lysolipid (LTSL) release their content almost instantly when heated to temperatures close to the gel to liquid crystalline phase transition temperature (TC). Morphological changes of the liposomes in response to temperature cycling were studied. Temperature cycling induced liposome openings and disintegration of the liposomes into bilayer discs. Incubation of LTSL in the presence of multilamellar liposomes (MLVs) resulted in relocalisation of lysolipid into the MLVs, which affected the rapid release from LTSL. We propose that the presence of micelle-forming components, such as lysolipids and PEG-lipids, facilitates the formation of defects and membrane openings during the initial phase of membrane melting, resulting in the observed rapid release. Similar to added lysolipids, also hydrolysis generated lysolipids induce disc-formation upon heating through TC of the lipid mixture.

Two fundamentally different micelles may form in PEG-lipid/lipid mixtures. We found that discoidal structures are preferred over cylindrical micelles when the mixture contains components that reduce the spontaneous curvature, increase the monolayer bending modulus, or reduce PEG-lipid/lipid miscibility. The large discoidal micelles found at low PEG-lipid content are better described as bilayer discs. We evaluated such discs as model membranes in drug partitioning studies, and suggest that they, in some cases, produce more accurate data than liposomes.

Styles APA, Harvard, Vancouver, ISO, etc.
4

Lavecchia, Caroline. « Les Triggers Inter-langues pour la Traduction Automatique Statistique ». Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00545463.

Texte intégral
Résumé :
Les recherches menées dans le cadre de mon doctorat concernent le domaine de la Traduction Automatique (TA), ou comment traduire d'une langue source vers une langue cible sans aucune intervention humaine. Mes travaux se sont plus particulièrement concentrés sur l'approche statistique de la TA qui consiste à utiliser différents modèles probabilistes appris sur des quantités importantes de corpus parallèles alignés afin de trouver la traduction la plus vraisemblable d'une phrase source. Deux problèmes étroitement liés à l'approche statistique de la TA sont abordés dans ce manuscrit : la collecte de corpus parallèles et l'estimation de modèles de traduction à partir de ces corpus. Un système de TA statistique extrait la connaissance dont il a besoin pour produire des traductions à partir de corpus parallèles dans lesquels chaque phrase source est associée à sa traduction dans la langue cible. De nombreux travaux utilisent comme corpus parallèle les actes du Parlement Européen disponibles gratuitement en différentes langues. De tels corpus ne sont pas adéquats pour la traduction de parole spontanée, c'est pourquoi j'ai décidé de construire des corpus parallèles à partir de sous-titres de films afin de construire un système de traduction plus réaliste. Les sous-titres sont des données complexes, ils ne peuvent constituer un corpus parallèle aligné dans leur état brut. Ils nécessitent une phase de pré-traitement et d'alignement. J'ai pour cela proposé une méthode originale basée sur la Programmation Dynamique qui aligne automatiquement les sous-titres. J'ai ainsi constitué une ressource importante et riche pour l'apprentissage des systèmes de TA statistique. La TA statistique repose sur l'utilisation de plusieurs modèles statistiques comme le modèle d'alignement, la table de traduction ou encore le modèle de distortion. La table de traduction est le modèle le plus indispensable à un système de TA statisque pour calculer la traduction la plus vraisemblable d'une phrase source. En effet, celle-ci donne les probabilités de traduction entre les couples de mots sources et cibles. Il existe différentes méthodes permettant l'estimation de ces tables de traduction. Elles ont habituellement recours à un alignement des mots obtenu automatiquement sur les corpus parallèles. Cette tâche d'alignement est une étape longue et fastidieuse qui fait appel à des algorithmes complexes. Le coeur de mon travail a été de repenser le problème et d'explorer de nouvelles pistes pour estimer les tables de traduction de mots et de séquences de mots, totalement différentes des méthodes état-de-l'art. J'ai proposé une approche originale basée sur le concept de triggers inter-langues qui ne nécessite aucun alignement des mots au sein des corpus parallèles. Les triggers inter-langues permettent de mettre en évidence des unités fortement corrélés en se basant sur l'Information Mutuelle. Dans notre cas les unités sont des séquences de mots sources et cibles. L'idée derrière ce concept est que si une séquence de mots sources est fortement corrélée à une séquence de mots cibles en termes d'IM, alors nous pouvons supposer que la présence de la première dans une phrase source déclenchera la présence de la seconde dans sa traduction et vice versa. J'ai proposé d'utiliser les triggers inter-langues sur les corpus parallèles dans le but de trouver les traductions possibles de séquences de mots et ainsi constituer une table de traduction. L'Information Mutuelle est une mesure de co-occurence qui se calcule simplement en un seul passage sur le corpus parallèle. Pour sélectionner les triggers interlangues, nous supposons que deux séquences sources et cibles co-occurent si elles apparaissent dans une même paire de phrases du corpus parallèle. De ce fait, ma méthode ne requiert qu'un alignement au niveau des phrases et non au niveau des mots au sein du corpus parallèle. L'utilisation des triggers inter-langues pour estimer une table de traduction rend mon approche moins complexe mais tout aussi efficace que les approches existantes. Dans un contexte de traduction mot-à-mot, la table de traduction obtenue grâce aux triggers inter-langues conduit à des traductions automatiques de meilleur qualité, en termes de score BLEU, que celles produites avec une table de traduction de mots estimée selon le modèle 3 d'IBM. Dans un contexte de traduction par groupe de mots, la table de traduction basée sur les triggers inter-langues amènent à des traductions automatiques dont le score BLEU est supérieur à 34 et proche de celui des traductions automatiques produites par une table de traduction de séquences estimées à partir de l'alignement des mots suivant les approches état-de-l'art. Mots-clés: Traduction Automatique Statistique, Triggers Inter-langues, Traduction Automatique à base de séquences
Styles APA, Harvard, Vancouver, ISO, etc.
5

Robbe, P. « Generators, Calorimeter Trigger and J/ψ production at LHCb ». Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00683350.

Texte intégral
Résumé :
Ce document presente des résultats relatifs à la préparation du programme de physique de l'expérience LHCb: développement d'un logiciel de génération, commissioning du trigger calorimètre et mesure de la production des J/psi. Une simulation détaillée est obligatoire pour développer les outils d'analyse nécessaires pour réaliser ce programme et un logiciel de génération détaillé a été implémenté. Celui-ci décrit par exemple le mélange des B et la violation de CP dans les désintégrations des B pour l'environnement hadronique de LHCb. Pour les désintégrations hadroniques, le système de déclenchement de l'expérience est basé sur les calorimètres, en particulier le calorimètre hadronique. La grande section efficace de production au LHC permet de faire, avec les premières données enregistrées par l'expérience, une mesure de la section efficace différentielle des J/psi, et de la comparer avec des modèles thèoriques pour tester QCD dans le secteur des quarks lourds.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Benbouzid, Djalel. « Sequential prediction for budgeted learning : Application to trigger design ». Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-00990245.

Texte intégral
Résumé :
Classification in machine learning has been extensively studied during the pastdecades. Many solutions have been proposed to output accurate classifiers and toobtain statistical grantees on the unseen observations. However, when machinelearning algorithms meet concrete industrial or scientific applications, new computationalcriteria appear to be as important to satisfy as those of classificationaccuracy. In particular, when the output classifier must comply with a computationalbudget needed to obtain the features that are evaluated at test time, wetalk about "budgeted" learning. The features can have different acquisition costsand, often, the most discriminative features are the costlier. Medical diagnosis andweb-page ranking, for instance, are typical applications of budgeted learning. Inthe former, the goal is to limit the number of medical tests evaluate for patients,and in the latter, the ranker has limited time to order documents before the usergoes away.This thesis introduces a new way of tackling classification in general and budgetedlearning problems in particular, through a novel framework lying in theintersection of supervised learning and decision theory. We cast the classificationproblem as a sequential decision making procedure and show that this frameworkyields fast and accurate classifiers. Unlike classical classification algorithms thatoutput a "one-shot" answer, we show that considering the classification as a seriesof small steps wherein the information is gathered sequentially also providesa flexible framework that allows to accommodate different types of budget constraintsin a "natural" way. In particular, we apply our method to a novel type ofbudgeted learning problems motivated by particle physics experiments. The particularityof this problem lies in atypical budget constraints and complex cost calculationschemata where the calculation of the different features depends on manyfactors. We also review similar sequential approaches that have recently known aparticular interest and provide a global perspective on this new paradigm.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Blanc, Aurélien. « Etude des performances du Trigger du spectromètre à muons d'ALICE au LHC ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00542006.

Texte intégral
Résumé :
La théorie de la QCD (Quantum ChromoDynamics) prédit l'existence d'une nouvelle phase de la matière nucléaire à très haute température. Cette phase, caractérisée par un déconfinement des quarks au sein des hadrons, est appelée QGP (Quark Gluon Plasma). Le spectromètre à muons de l'expérience ALICE (A Large Ion Collider Experiment) a pour but d'étudier les propriétés du QGP aux densités d'énergie extrêmes atteintes dans les collisions d'ions lourds au LHC (Large Hadron Collider). Le système de déclenchement du spectromètre à muons, appelé MUON TRG est, pour une large part, sous la responsabilité du groupe ALICE de Clermont-Ferrand. Il se compose de quatre plans de détecteurs RPC (Resistive Plate Chamber) d'une superficie totale de 140 m2, de 21k voies de lecture et d'une électronique de décision rapide. Il a été conçu afin de reconstruire "en ligne" des traces (muons), dans un environnement présentant un important bruit de fond. Une décision de trigger, pour les "single muons" et les "dimuons", est délivrée toutes les 25 ns (40 MHz) avec un temps de latence relatif à l'interaction proche de 800 ns. Les performances, en particulier celles liées à la décision de trigger, obtenues avec des outils de test dédiés, les évènements cosmiques, les premiers faisceaux d'injection dans le LHC ainsi que les premières collisions proton-proton à √s = 900 GeV seront présentés.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Boujrad, A. « Étude et réalisation d'un TDC numérique dans le cadre du trigger du GANIL ». Phd thesis, Université de Caen, 2001. http://tel.archives-ouvertes.fr/tel-00711468.

Texte intégral
Résumé :
En physique nucléaire, l'interaction faisceau-cible engendre une multitude d'événements qui ne sont pas tous d'intérêt pour le phénomène physique étudié. Il est donc important de disposer d'un système de sélection nommé trigger. Nous avons étudié et réalisé un nouveau trigger adapté aux expériences menées au GANIL. Nous avons présenté un historique des différents triggers utilisés aux GANIL (Grand Accélérateur National d'Ions Lourds) et avons montré la nécessité d'un nouveau trigger modulaire, universel et ouvert. Après une description des différents modes de fonctionnement du nouveau trigger (GANIL Master Trigger, GMT) nous avons décrit les phases de sa conception et de sa réalisation. Le trigger renseigne sur la configuration des détecteurs temporels, or cette information peut être fondamentale dans le cas où la fenêtre d'analyse du trigger couvre plusieurs périodes du faisceau. Nous avons donc proposé une structure de mesure de temps (Time to Digital Converter, TDC) qui permet de lever cette indétermination. Les contraintes de temps mort, d'intégration et de consommation nous ont conduit à proposer une architecture numérique basée sur un compteur associé à une ligne A Retard (LAR). Des calculs simples ont permis de définir la zone de fonctionnement du TDC. Cette zone dépend du rapport cyclique de l'horloge et des retards de la LAR. Des mesures de Non Linéarité Différentielle (NLD) pour des résolutions différentes (1,2,5 et 10 ns) ont permis d'établir les limites de ce système et de mettre en évidence des solutions d'amélioration de ces caractéristiques.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Leroy, O. « Trigger à muons, étiquetage de la saveur et performances physiques de l'expérience LHCb ». Habilitation à diriger des recherches, Université de la Méditerranée - Aix-Marseille II, 2007. http://tel.archives-ouvertes.fr/tel-00235815.

Texte intégral
Résumé :
Ce mémoire est une synthèse de mes activités postdoctorales au sein de l'expérience LHCb, en cours d'installation auprès du grand collisionneur de hadrons LHC au Cern, à Genève. Dans le chapitre 1, j'introduis les bases phénoménologiques nécessaires à l'étude de la physique des saveurs en montrant que cette dernière s'inscrit au coeur du modèle standard. Je rappelle les limitations de ce modèle. Puis j'explique comment la physique des saveurs en général, et plus particulièrement celle effectuée à LHCb, permet de rechercher de la nouvelle physique ou de la contraindre. Dans le chapitre 2, après une rapide présentation du détecteur LHCb, je présente le trigger de niveau zéro à muons, en développant deux aspects sur lesquels j'ai plus particulièrement travaillé: la résistance aux radiations des transmetteurs opto-électroniques et les performances physiques simulées du trigger. Le chapitre 3 synthétise les activités liées à l'étiquetage de la saveur des mésons B, activités dont je suis co-organisateur depuis mai 2005. Enfin au chapitre 4, après un rappel des progrès récents accomplis en physique des saveurs lourdes, je donne un aperçu des performances attendues de LHCb, pour quelques mesures clés. Je détaille notamment un aspect auquel j'ai pris part: la recherche de nouvelle physique dans les diagrammes pingouins b->s.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Boujrad, Abderrahman. « Etude et réalisation d'un TDC numérique dans le cadre du trigger du GANIL ». Caen, 2001. https://tel.archives-ouvertes.fr/tel-00711468.

Texte intégral
Résumé :
En physique nucléaire, l'interaction faisceau-cible engendre une multitude d'événements qui ne sont pas tous d'intérêt pour le phénomène physique étudié. Il est donc important de disposer d'un système de sélection nommé trigger. Nous avons étudié et réalisé un nouveau trigger adapté aux expériences menées au GANIL (Grand Accélérateur National d'Ions Lourds) et avons montré la nécessité d'un nouveau trigger modulaire, universel et ouvert. Après une description des différents modes de fonctionnement du nouveau trigger (GANIL Master Trigger, GMT) nous avons décrit les phases de sa conception et de sa réalisation. Le trigger renseigne sur la configuration des détecteurs touchés à la suite d'une collision faisceau-cible mais ne donne pas de précisison temporelle, or cette information peut être fondamentale dans le cas où la fenêtre d'analyse du trigger couvre plusieurs périodes du faisceau. Nous avons donc proposé une structure de mesure de temps (Time to Digital Converter, TDC) qui permet de lever cette indétermination. Les contraintes de temps mort, d'intégration et de consommation nous ont conduit à proposer une architecture numérique basée sur un compteur associé associé à une ligne A Retard (LAR) [etc]
Styles APA, Harvard, Vancouver, ISO, etc.
11

Herrera, Contreras Cinthya Natalia. « How do the large-scale dynamics of galaxy interactions trigger star formation in the Antennae galaxy merger ? » Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00800077.

Texte intégral
Résumé :
The Antennae (22 Mpc) is one of the most well-known mergers in the nearby Universe. Its distance allow us to observe and study the gas at the scales of stellar cluster formation. It is an ideal source to understand how the galaxy dynamics in mergers trigger the formation of stars. Most of the stars in the Antennae are formed in compact and massive stellar clusters, dubbed super-star clusters (SSCs). The most massive (>106 M⊙) and youngest (<6 Myr) SSCs are located in the overlap region, where the two galaxies collide, and are associated with massive (several 108 M⊙) and super-giant (few hundred of pc) molecular complexes (SGMCs). The formation of SSCs must involve a complex interplay of merger-driven gas dynamics, turbulence fed by the galaxy interaction, and dissipation of the kinetic energy of the gas. Within SGMCs, a hierarchy of structures must be produced, including dense and compact concentrations of molecular gas massive enough to form SSCs, pre-cluster clouds (PCCs). For star formation to occur, the mechanical energy of PCCs must be radiated away to allow their self-gravity to locally win over their turbulent gas pressure. Specific tracers of turbulent dissipation are therefore key inputs to test the validity of this theoretical scenario. In my thesis, I studied the Antennae overlap region. My work is based on observations with the SINFONI spectro-imager at the VLT, which includes H2 rovibrational and Brγ line emission, and with ALMA, which includes the CO(3-2) line and dust continuum emission. Both data-sets have the needed sub-arcsecond angular resolution to resolve the scales of SSC formation. The spectral resolutions are enough to resolve motions within SGMCs. Combining CO and H2 line emission is key in my PhD work. I use CO as a tracer of the distribution and kinematics of the molecular gas, and H2 as a tracer of the rate at which the gas mechanical energy is dissipated.My thesis focuses on diverse sources in the Antennae overlap region which trace different stages of star formation: the gathering of mass necessary to form SGMCs, the formation of PCCs within SGMCs and the disruption of a parent cloud by a newly formed SSC. I show that at each stage turbulence plays a key role. I found that the kinetic energy of the galaxies is not thermalized in large scale shocks, it drives the turbulence in the molecular ISM at a much higher level than what is observed in the Milky Way. Near-IR spectral diagnostics show that, outside of SSCs embedded in their parent clouds, the H2 line emission is powered by shocks and traces the dissipation of the gas turbulent kinetic energy. I relate the H2 emission to the loss of kinetic energy required to form gravitationally bound clouds. This interpretation is supported by the discovery of a compact, bright H2 source not associated with any known SSC. It has the largest H2/CO emission ratio and is located where the data show the largest velocity gradient in the interaction region. To our knowledge, this is the first time that an extragalactic source with such characteristics is identified. We would be witnessing the formation of a cloud massive enough to form a SSC. The data also allow us to study the disruption of a parent molecular cloud by an embedded SSC. Its matter is loosely bound and its gravity would be supported by turbulence, which makes it easier for feedback to disrupt the parent cloud. I end my manuscript presenting two projects. I propose to establish additional energy dissipation tracers observable with ALMA, which gives us the high spatial and spectral resolution needed to isolate scales at which clusters form. This is a Cycle 1 proposal accepted in first priority. I also plan to expand my work to other nearby extragalactic sources by investigating the turbulence-driven formation of stars in different extragalactic sources by combining near-IR and submillimeter observations.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Duperrin, A. « Recherche du boson de Higgs et de la supersymétrie - Conditions de déclenchement pour phénomènes rares dans l'expérience DO ». Habilitation à diriger des recherches, Université de la Méditerranée - Aix-Marseille II, 2007. http://tel.archives-ouvertes.fr/tel-00199379.

Texte intégral
Résumé :
Ce mémoire d'HDR présente une synthèse des travaux que j'ai effectués depuis 7 ans pour la préparation de l'expérience D0 à Fermilab et l'analyse des données du collisionneur à hadrons Tevatron. Il présente deux thématiques principales : système de déclenchement et recherche de nouvelle physique, notamment la recherche de particules supersymétriques et du boson de Higgs du modèle standard.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Fiter, Christophe. « Contribution à la commande robuste des systèmes à échantillonnage variable ou contrôlé ». Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00773127.

Texte intégral
Résumé :
Cette thèse est dédiée à l'analyse de stabilité des systèmes à pas d'échantillonnage variable et à la commande dynamique de l'échantillonnage. L'objectif est de concevoir des lois d'échantillonnage permettant de réduire la fréquence d'actualisation de la commande par retour d'état, tout en garantissant la stabilité du système.Tout d'abord, un aperçu des récents défis et axes de recherche sur les systèmes échantillonnés est présenté. Ensuite, une nouvelle approche de contrôle dynamique de l'échantillonnage, "échantillonnage dépendant de l'état", est proposée. Elle permet de concevoir hors-ligne un échantillonnage maximal dépendant de l'état défini sur des régions coniques de l'espace d'état, grâce à des LMIs.Plusieurs types de systèmes sont étudiés. Tout d'abord, le cas de système LTI idéal est considéré. La fonction d'échantillonnage est construite au moyen de polytopes convexes et de conditions de stabilité exponentielle de type Lyapunov-Razumikhin. Ensuite, la robustesse vis-à-vis des perturbations est incluse. Plusieurs applications sont proposées: analyse de stabilité robuste vis-à-vis des variations du pas d'échantillonnage, contrôles event-triggered et self-triggered, et échantillonnage dépendant de l'état. Enfin, le cas de système LTI perturbé à retard est traité. La construction de la fonction d'échantillonnage est basée sur des conditions de stabilité L2 et sur un nouveau type de fonctionnelles de Lyapunov-Krasovskii avec des matrices dépendant de l'état. Pour finir, le problème de stabilisation est traité, avec un nouveau contrôleur dont les gains commutent en fonction de l'état du système. Un co-design contrôleur/fonction d'échantillonnage est alors proposé
Styles APA, Harvard, Vancouver, ISO, etc.
14

Calvet, S. « Recherche du partenaire supersymétrique du quark bottom au sein de l'expérience DØ auprès du TeVatron. Etudes sur l'énergie transverse manquante ». Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2007. http://tel.archives-ouvertes.fr/tel-00221399.

Texte intégral
Résumé :
La supersymétrie, qui permet de combler certaines lacunes du Modèle Standard de la physique des particules (MS), est recherchée par la tentative d'observation du partenaire supersymétrique du quark bottom (sb). Cette recherche est effectuée avec des événements d'état final composé de deux jets de quarks b acoplanaires et d'énergie transverse manquante (MET) et issus d'un lot de 992 pb-1 de données collectées par le détecteur D0 auprès du TeVatron, le collisionneur ppbar de Fermilab. L'absence d'excès d'événements par rapport aux prévisions du MS conduit à exclure les masses de sb jusqu'à 201 GeV, et les masses de neutralino jusqu'à 94 GeV. De par le rôle essentiel que joue ici la MET, celle-ci a été étudiée sous deux aspects. Tout d'abord, au niveau du système de déclenchement qui sélectionne en ligne les événements, puis, via la simulation de l'impulsion transverse du boson Z, par le générateur ALPGEN, qui apparait comme de la MET si le Z se désintègre en neutrinos.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Bergstrand, Nill. « Liposomes for Drug Delivery : from Physico-chemical Studies to Applications ». Doctoral thesis, Uppsala University, Department of Physical Chemistry, 2003. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-3390.

Texte intégral
Résumé :

Physico-chemical characterisation of structure and stability of liposomes intended for drug delivery is the central issue in this thesis. In addition, targeted liposomes to be used in boron neutron capture therapy (BNCT) were developed.

Lysolipids and fatty acids are products formed upon hydrolysis of PC-lipids. The aggregate structure formed upon mixing lysolipids, fatty acids and EPC were characterised by means of cryo-TEM. A relatively monodisperse population of unilamellar liposomes was detected in mixtures containing equimolar concentration of the three components.

The interactions between alternative steric stabilisers (PEO-PPO-PEO copolymers) and conventional PC-and pH-sensitive PE-liposomes were investigated. Whereas the PE-liposomes could be stabilised by the PEO-PPO-PEO copolymers, the PC-liposomes showed an enhanced permeability concomitant with the PEO-PPO-PEO adsorption.

Permeability effects induced by different PEG-stabilisers on EPC liposomes were shown to be dependent on the length of the PEG chain but also on the linkage used to connect the PEG polymer with the hydrophobic membrane anchor.

An efficient drug delivery requires, in most cases, an accumulation of the drug in the cell cytoplasm. The mechanism behind cytosolic drug delivery from pH-sensitive liposomes was investigated. The results suggest that a destabilisation of the endosome membrane, due to an incorporation of non-lamellar forming lipids, may allow the drug to be released.

Furthermore, sterically stabilised liposomes intended for targeted BNCT have been characterised and optimised concerning loading and retention of boronated drugs.

Styles APA, Harvard, Vancouver, ISO, etc.
16

Zabi, Alexandre. « Recherche de leptoquarks dans la topologie à jets et énergie transverse manquante avec le détecteur D0 au TeVatron ». Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00008783.

Texte intégral
Résumé :
L'expérience D0 se déroule au laboratoire Fermilab situé aux Etats-Unis. Elle étudie les collisions proton-antiproton à une énergie dans le centre de masse de 1,96 TeV fournies par l'accélérateur TeVatron. L'acquisition des données par le détecteur D0 utilise un système de déclenchement sophistiqué permettant de sélectionner les collisions présentant un potentiel de physique intéressant. Le processeur électronique L2STT permet de déclencher sur la présence de particules à longue durée de vie dans l'état final. C'est par exemple le cas de la désintégration du Higgs en une paire de quarks b. Sa conception bénéficie des avancées récentes dans le domaine des hautes technologies. Ce système est dorénavant complètement installé et permettra très prochainement une optimisation supplémentaire de la stratégie de déclenchement de l'expérience. Les leptoquarks sont des particules responsables d'une interaction hypothétique entre les quarks et les leptons du Modèle Standard. La mise en évidence d'une telle particule serait interprétée comme signalant l'existence d'une nouvelle physique. Il s'agit dans ce manuscrit d'une recherche directe dans la topologie à jets et énergie transverse manquante. Dans le but de mener à bien cette recherche, une méthode de déclenchement devrait tout d'abord être développée ainsi qu'un outil précis pour déterminer son efficacité. L'analyse des événements présentant la topologie de jets acoplanaires a été conduite sur un lot de données correspondant à une luminosité intégrée de $85 pb^-1$. Cette analyse a permis d'exclure un domaine de masse pour les leptoquarks allant de $85 GeV/c^2$ à $109 GeV/c^2$ à 95% de niveau de confiance.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Cornat, Rémi. « Conception et réalisation de l'électronique frontale du détecteur de pied de gerbe et de l'unité de décision du système du premier niveau de déclenchement de l'expérience LHCb ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2002. http://tel.archives-ouvertes.fr/tel-00001997.

Texte intégral
Résumé :
Les expériences de physique des particules associées au collisionneur LHC devront traiter une collision toutes les 25 ns sur plusieurs centaines de milliers de voies de mesure. La quantité de données produites est considérable.
Sur l'expérience LHCb une unité de décision en effectue une première sélection. Nous proposons une solution pour sa réalisation. Il s'agit d'une électronique numérique pipelines à 40 MHz et réalisée en composants programmables avec des interfaces LVDS. Une première version du banc de test est présentée afin de générer des stimuli à la cadence de 40 MHz pour des mots jusqu'à 512 bits.
Le preshower fait partie du système calorimétrique de LHCb. Il est composé de 6000 voies de mesure. Le signal physique est d'abord mis en forme grâce à des intégrations analogiques sur 25ns sans temps mort (ASIC). Au bout de 20m de câble, les valeurs d'intégrales (en tension) sont numérisées puis traitées sur une centaine de cartes frontales.
La réalisation de prototypes de la partie de traitement des données ont permis de mettre en concurrence une technologie programmable et une technologie ASIC (AMS 0,35 µm) et de prendre en compte les contraintes fortes en terme de nombre de voies de mesure par carte (128 demi-voies) et de résistance aux radiations.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Hyléen, Andrea, et Cecilia Lewin. « Sjuksköterskans upplevelser av ett rapid response system och dess påverkan på patientsäkerheten : en litteraturöversikt ». Thesis, Sophiahemmet Högskola, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:shh:diva-2724.

Texte intégral
Résumé :
Akutsjuksköterskans roll är att tillhandahålla omedelbar vård till människor eller att utföra en omvårdnadsåtgärd som kan förhindra att en nödsituation uppstår. Akutsjuksköterskan ska leda, initiera och samordna patientvården. Faktorer som påverkar patientsäkerheten är ledarskapet, att arbeta i team, att arbeta evidensbaserat, kommunikation, utbildning och att arbeta patientcentrerat. Rapid response system (RRS) utvecklades för att förbättra patientsäkerheten inom akutsjukvården. Det finns fyra enheter som är grundläggande för systemet. Den afferenta komponenten som omfattar av sjuksköterskan som ansvarar för identifiering av varningssignaler för kritiskt sjuka patienter och aktivering av RRS. Till sin hjälp har sjuksköterskan ett track- and triggersystem som baseras på patientens vitalparametrar för att identifiera kritiskt sjuka patienter på avdelning. De vanligaste förekommande vitalparametrarna inom akutsjukvården är: respiration, temperatur, blodtryck, hjärtfrekvens, medvetandegrad samt urinproduktion. Den efferenta komponenten är den hjälpinsats som den afferenta komponenten tillkallar vid aktivering av RRS när avvikande vitalparametrar är observerade och genererar hög poängsumma i ett track- and triggersystem alternativt på inrådan av sjuksköterskans instinktiva känsla av att patientens tillstånd försämrats. Syftet var att belysa sjuksköterskans upplevelser av att arbeta utefter ett rapid response system och belysa dess påverkan på patientsäkerheten. Metoden som användes var litteraturöversikt. Databassökningar gjordes i PubMed, CINAHL och Web Of Science, vilket resulterade i att 16 artiklar inkluderades i studien. Inklusionskriterier som användes var att artikeln skulle vara publicerad på engelska, ’peer- reviewed’ och publicerade i vetenskapliga tidskrifter mellan år 2006–2016. En integrerad analysmetod användes för att finna likheter och skillnader i resultatet. I resultatet framkom det att RRS ökade identifieringen av kritiskt sjuka patienter och flertalet artiklar konstaterade att RRS minskade antalet hjärtstopp och oväntade dödsfall. I resultatet framkom svårigheter och begränsningar med att arbeta utefter RRS så som otillräcklig kompetens, hög arbetsbelastning och hierarki. Avvikande vitalparametrar togs mer på allvar jämfört med ”tysta” förändringar. Sjuksköterskorna aktiverade systemet på grund av oro relaterat till klinisk erfarenhet, trots att vitalparametrarna var normala RRS var till hjälp att hantera kritiskt sjuka patienter och fungerade som sjukhusets 112. Avdelningssjuksköterskorna upplevde att de mestadels fick stöttning av det medicinska akutvårdsteamet men tillfällen då sjuksköterskan upplevde otrevligt bemötande påverkade det beslutsfattandet av aktivering av RRS negativt framöver. Slutsatsen av denna litteraturöversikt tyder på att RRS främjar patientsäkerheten och hjälper sjuksköterskan i sitt dagliga arbete genom att främja säker vård. Sjuksköterskans upplevelser belyser gynnsamma omständigheter och upplevda svårigheter med RRS som kan användas till vidare forskning för att utveckla systemet.
The role of the emergency nurse is to provide immediate care to patients or to perform a nursing intervention that can prevent an emergency. They should lead, initiate and coordinate patient care. Factors that affect patient safety could be leadership, working in teams, evidence-based work, communication, training, or patient-centered work. Rapid response system (RRS) was developed to improve patient safety in emergency care. There are four units that are essential for the system to function. The afferent component includes the nurse who is responsible to identify warning signs if the patient is deteriorating and activate RRS. A track-and trigger system based on the patient’s vital signs is used to assist the nurse to identify deteriorating patients on wards. The most common vital signs in emergency care are: respiration, temperature, blood pressure, heart rate, consciousness and urine production. The efferent component is the relief effort that the afferent component calls for by activating RRS when abnormal vital signs are observed and generate a high score in the track-and trigger system. Alternatively, on the advice of the nurse's instinctive feeling that the patient's condition has deteriorated. The aim of this study was to highlight nurses' experiences of applying rapid response system in their work and illustrate its impact on patient safety. The method used was a literature review. Database searches were made in PubMed, CINAHL and Web of Science, which resulted in 16 articles being included in the study. Inclusion criteria used were English language, ’peer-reviewed’ and published in scientific journals between the years 2006-2016. An integrated analysis was used to find similarities and differences in the results. The result showed that RRS increased identification of critically ill patients, resulting in reduced number of cardiac arrests and unexpected deaths and led to more patients being moved to a higher level of care. Difficulties or limitations that emerged were inadequate skills, high workload and hierarchy. Abnormal vital signs were taken more seriously compared to "silent" changes. The nurses sometimes activated the system due to concerns based on their clinical experience, despite vital signs being normal. RRS was a help to manage critically ill patients and served as the hospital's Department 112. The emergency medical team mostly supported the nurses, but sometimes they experienced negative attitudes, which affected the future activations negatively. The conclusion of this literature review indicates that RRS for patient safety could help nurses in their daily work by promoting safe care. The nurse's experiences highlight the favorable circumstances and perceived difficulties with the RRS, which could be used for further research to develop the system.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Tissandier, Fabrice. « Recherche de paires de stops dans le canal b \ overline {b} eμ E _ {T} auprès de l'expérience DØ ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00368788.

Texte intégral
Résumé :
Le Modèle Standard fournit une explication satisfaisante des phénomènes subatomiques à basse énergie (<1 TeV). Au-delà, d'autres modèles doivent être envisagés. Parmi eux, la Supersymétrie offre, de manière élégante, des solutions à quelques unes des insuffisances du Modèle Standard.
Le travail présenté dans ce document concerne la recherche d'un signal supersymétrique caractérisé par la production de deux stops se désintégrant en deux jets de b, un électron, un muon et de l'énergie manquante. Cette étude a été menée auprès de l'expérience DØ, située sur l'anneau du Tevatron à FermiLab (Chicago, USA) et dont l'énergie dans le centre de masse atteint 1,96 TeV. L'analyse de ce signal porte sur les données collectées pendant la phase IIa du détecteur DØ, d'avril 2003 à mars 2006 (~1fb^-1). L'étude d'un tel signal requiert une bonne maîtrise des différents sous-détecteurs ; aussi bien du calorimètre (électron, jet et énergie transverse manquante) que des détecteurs de muon et des trajectographes.
Le Tevatron est un collisionneur hadronique et le nombre de processus du Modèle Standard présentant la même signature que le signal recherché est faible. Le bruit de fond de cette analyse est donc dominé par les processus QCD. Après l'application de critères de sélection permettant de diminuer principalement cette contribution, aucun excès significatif des données par rapport aux prévisions du Modèles Standard n'a été observé. La sensibilité de l'expérience DØ a été améliorée et le domaine d'exclusion dans le plan [m˜_nu,m˜_t1 ] étendu jusqu'à des masses de stop de 170 GeV/c2 et de sneutrino de 105 GeV/c2.
De plus, une partie de mon travail préparatoire a consisté dans l'élaboration d'un outil de discrimination des objets calorimétriques au niveau 3 de déclenchement ; ainsi que la calibration des deux chaînes de lecture simulées au niveau 1.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Mastrolorenzo, Luca. « Search for the Higgs boson decaying into tau lepton pairs with the Matrix Element Method and tau trigger optimization in the CMS experiment at the LHC ». Palaiseau, Ecole polytechnique, 2015. https://theses.hal.science/tel-01257354/document.

Texte intégral
Résumé :
J’ai effectué ma thèse en physique des particules au laboratoire Leprince-Ringuet à l’École Polytechnique. J’ai participé à l’analyse des collisions proton-proton à 8 TeV produites par le Large Hadron Collider (LHC) et collectées par le détecteur CMS. La découverte du boson de Higgs a été un événement majeur pour la physique des hautes énergies car la masse des bosons vecteurs provient de leur interaction avec le champ de Higgs. Le couplage du boson de Higgs avec les leptons n’ayant pas encore été découvert, mon travail de thèse s’est articulé autour du canal de désintégration en pair de tau, car c’est le seul qui permet de mettre ce couplage en évidence. En effet, le boson de Higgs se désintègre beaucoup plus souvent en taus qu’en muons ou électrons. Cette analyse est difficile au niveau du déclenchement. En effet, l’important bruit de fond impose d’appliquer des seuils en énergie élevés. Un critère de déclenchement utilisant l’énergie transverse manquante pour abaisser le seuil sur les leptons a été introduit à la fin de la prise de données. Cette approche permet de récupérer 41% d’événements en plus. J’ai effectué une caractérisation exhaustive de ce déclenchement, et en particulier étudié les erreurs systématiques associées au niveau de l’analyse. Ce déclenchement a permis d’améliorer de 2% la limite d’exclusion dans le canal Higgs en tau-tau semi-leptonique. Au Run 2, l’énergie des collisions a été portée à 13 TeV et la luminosité va augmenter. Pour garantir un déclenchement efficace pour la physique, le premier niveau du système de déclenchement (L1) a été remplacé en se basant sur la technologie microTCA. Ce nouveau système permet un accès à des informations plus détaillées en provenance du détecteur. J’ai développé, pour ce nouveau système, un algorithme de sélection des taus basé sur un algorithme d’agrégation dynamique exploitant au maximum la granularité du calorimètre. J’ai mesuré ses performances en terme d’efficacité et de taux de déclenchement, et pour la première fois auprès d’un collisionneur hadronique, CMS disposera en 2016 d’un déclenchement efficace sur les taus au L1 avec un taux raisonnable. J’ai présenté ce travail sous forme de poster à la conférence ICHEP 2014. Dans la dernière partie de ma thèse, je me concentre sur la recherche du boson de Higgs se désintégrant en une paire de taus, en me concentrant sur le canal semi-leptonique et en introduisant pour la première fois la méthode des éléments de matrice (MEM) qui permet d’améliorer la sensibilité par rapport aux méthodes traditionnelles. Aucune analyse utilisant la MEM avec des taus n’a jamais été publiée. L’innovation dans ce travail consiste notamment dans le traitement de la désintégration des taus. La réponse du détecteur est quant-à-elle modélisée par des fonctions de transfert. Puis, j’ai du tenir compte des limitations numériques intervenants dans l’évaluation des intégrales multidimensionnelles à la base de cette méthode. Enfin, j’ai mesuré le gain en sensibilité apporté par la méthode sur les données à 8 TeV. Les performances dans le cadre de la recherche du boson de Higgs se désintégrant en une paire de tau de cette méthode pionnière sont très prometteuses, avec un rapport S/B amélioré d’un facteur 3, et constituent une référence pour l’analyse des futures données du Run 2 du LHC
I performed my thesis work in Particle Physics at the Laboratoire Leprince-Ringuet of the Ecole Polytechnique. I have participated to the analysis of the 8 TeV proton-proton collisions produced by the Large Hadron Collider (LHC) and collected by the CMS experiment. The discovery of the Higgs boson has been a major breakthrough in particle physics as the mass of the vector bosons are explained through their interactions with the Higgs field. I worked on the newly discovered Higgs boson analysis. As its direct coupling to fermions remained to be exhibited, I focused on the search for the Higgs boson decaying in tau lepton pairs. The Higgs decay into a tau pair is the only channel allowing the couplings between the Higgs boson and the leptons to be measured. This is due to the large event rate expected in the Standard Model compared to the other leptonic decay modes. The Higgs boson decaying to tau lepton analysis is particularly challenging at the trigger level because the large background imposes high thresholds. I worked on a trigger that ran at the end of the data-taking using the missing transverse energy to lower the threshold on the single lepton. This approach allows the recovery of 41% of the signal events. Events with missing transverse momentum were selected in order to control the trigger rate. My personal contribution consisted in a thorough characterization of this trigger, including the measure of the associated uncertainty. The results of this approach led to an amelioration of 2% in the exclusion limits computed in the Higgs to taus semileptonic channel. For the Run 2, the center-of-mass energy of the LHC collisions has been increased to 13 TeV and the instantaneous luminosity will reach 2E34/cm2/s. To guarantee a successful and ambitious physics program under this intense environment, the CMS Trigger and Data acquisition system has been consolidated. In particular the Level 1 (L1, hardware based first level of the CMS trigger system) benefited from the recent microTCA technology allowing the calorimeter granularity to be better exploited with more advanced algorithms. Thanks to the enhanced granularity provided by the new system, an innovative dynamic clustering technique has been developed to obtain an optimized tau selection algorithm. I took the responsibility of developing a complete new tau trigger algorithm at L1 and measuring its performance. This original approach resulted in the first hardware tau lepton trigger efficient at a hadron collider with a sustainable rate. I had the opportunity to present a poster showing my work at the ICHEP-2014 conference, in Valencia and the proceedings were published in Nuclear Physics B afterwards. During my last year of PhD I focused on the Higgs decays into di-taus analysis, initiating the very first matrix element (ME) approach in this channel, starting with the most sensitive final state: the semileptonic decay mode. The aim is to increase the sensitivity of the analysis to the SM Higgs boson, with respect to the traditional methods. No ME-based analysis using tau leptons has ever been published. The novelty of my work is the treatment of the tau decay. In addition, I have derived a parameterization of the detector response through transfer functions. Finally, the numerical aspects related of multidimensional integrals computations have been tackled. I have fully characterized the method using simulated samples before applying it to the 8 TeV data. The performance in the context of the CMS Higgs into di-taus of this pioneering method are very promising, with a S/B ratio improved by a factor 3, and constitute a baseline for the analysis of the upcoming Run 2 data of the LHC
Styles APA, Harvard, Vancouver, ISO, etc.
21

Anvar, Shebli. « METHODOLOGIE DE DEVELOPPEMENT ET DE MODELISATION UML DES SYSTEMES D'ACQUISITION ET DE TRAITEMENT EN TEMPS REEL POUR LES EXPERIENCES DE PHYSIQUE DES HAUTES ENERGIES ». Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00002854.

Texte intégral
Résumé :
La complexité croissante des systèmes d'acquisition et de traitement en temps réel (TDAQ) pour les expériences de physique des hautes énergies appelle à une évolution ad hoc des outils de développement. Dans cet ouvrage, nous traitons de l'articulation entre la spécification de principe des systèmes TDAQ et leur conception/réalisation sur une plateforme matérielle et logicielle concrète. Notre travail repose sur la définition d'une méthodologie de développement des systèmes TDAQ qui réponde aux problématiques de développements particulières à ces systèmes. Il en résulte la spécification détaillée d'un « canevas méthodologique » basé sur le langage UML, destiné à encadrer un processus de développement. L'usage de ce canevas méthodologique UML doit permettre la mise en place progressive d'un canevas « maison », c'est-à-dire un atelier de développement comprenant des composants réutilisables et des éléments d'architecture génériques adaptés aux applications TDAQ. L'ouvrage s'articule autour de 4 sections principales. La section II est dévolue à la caractérisation et à l'évolution des systèmes TDAQ. En section III, nous nous intéressons aux technologies pertinentes pour notre problématique, notamment les techniques de réutilisation logicielle telles les motifs récurrents (design patterns) et les canevas (frameworks), avec une orientation en faveur des domaines du temps réel et de l'embarqué. Notre apport conceptuel spécifique est exposé en section IV, où nous procédons notamment à la spécification détaillée, formalisée et exemples à l'appui, de notre modèle de développement. Enfin, nous terminons notre propos en section V en évoquant le projet de R&D MORDICUS de mise en œuvre concrète de notre canevas méthodologique UML, ainsi que les développements récents de l'OMG (Object Management Group) sur l'architecture orientée modèles (Model Driven Architecture), particulièrement en résonance avec notre travail.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Beaupère, Nicolas. « Etude du système de déclenchement électronique pour le projet HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l'expérience CMS du LHC ». Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00745211.

Texte intégral
Résumé :
Ce manuscrit décrit mon travail de thèse au sein de l'expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j'ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHC qui prévoit une augmentation de la luminosité instantanée d'un facteur cinq. Une telle augmentation et la conservation du système de haut niveau du déclenchement (HLT), engendre de nouvelles contraintes sur le détecteur CMS. Notamment au niveau du système de déclenchement électronique. La collaboration CMS envisage d'implanter ce dernier au sein du détecteur de traces. La méthode des mémoires associatives est proposée. Elle nécessite toutefois une présélection intelligente des signaux électriques pour être utilisable. La méthode de la largeur des amas est proposée pour présélectionner les signaux. L'optimisation de cette méthode, en particulier des paramètres géométriques des modules et des seuils appliqués pour la présélection des signaux électrique, est le résultat de mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l'analyse des données récoltées par CMS durant l'année 2011. Cette analyse a pour objectif de rechercher de nouvelles particules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérant dans de nombreuses extensions du Modèle Standard. L'observation de résonances étroites dans le spectre pourrait en être le signe. L'analyse est subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travail sont des limites sur la section efficace de production de nouvelles particules. Ils sont présentés dans la partie IV du manuscrit.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Daci, Nadir. « Sélection des électrons et recherche du boson de Higgs se désintégrant en paires de leptons tau avec l'expérience CMS au LHC ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00953409.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte des premières années d'exploitation du Large Hadron Collider (LHC). Cet appareil monumental a été construit dans le but d'explorer la physique de l'infiniment petit à l'échelle du TeV. Un des objectifs majeurs du LHC est la recherche du boson de Higgs. Sa découverte validerait le mécanisme de brisure de symétrie électrofaible, au travers duquel les bosons W et Z acquièrent leur masse. L'expérience Compact Muon Solenoid (CMS) analyse les collisions de protons du LHC. Leur fréquence élevée (20 MHz) permet d'observer des phénomènes rares, comme la production et la désintégration d'un boson de Higgs, mais elle nécessite alors une sélection rapide des collisions intéressantes, par un système de déclenchement. Les ressources informatiques disponibles pour le stockage et l'analyse des données imposent une limite au taux de déclenchement : la bande passante, répartie entre les différents signaux physiques, doit donc être optimisée. Dans un premier temps, j'ai étudié le déclenchement sur les électrons : ils constituent une signature claire dans l'environnement hadronique intense du LHC et permettent à la fois des mesures de haute précision et la recherche de signaux rares. Ils font partie des états finaux étudiés par un grand nombre d'analyses (Higgs, électrofaible, etc.). Dès les premières collisions en 2010, la présence de signaux anormaux dans l'électronique de lecture du calorimètre électromagnétique (ECAL) constituait une source d'augmentation incontrôlée du taux de déclenchement. En effet, leur taux de production augmentait avec l'énergie et l'intensité des collisions : ils étaient susceptibles de saturer la bande passante dès 2011, affectant gravement les performances de physique de CMS. J'ai optimisé l'algorithme d'élimination de ces signaux en conservant une excellente efficacité de déclenchement sur les électrons, pour les prises de données en 2011. D'autre part, l'intensité croissante des collisions au LHC fait perdre leur transparence aux cristaux du ECAL, induisant une inefficacité de déclenchement. La mise en place de corrections hebdomadaires de l'étalonnage du système de déclenchement a permis de compenser cette inefficacité. Dans un second temps, j'ai participé à la recherche du boson de Higgs dans son mode de désintégration en deux leptons tau. Cette analyse est la seule qui puisse actuellement vérifier le couplage du boson de Higgs aux leptons. Le lepton tau se désintégrant soit en lepton plus léger (électron ou muon), soit en hadrons, six états finaux sont possibles. Je me suis concentré sur les états finaux semi-leptoniques (électron/muon et hadrons), où la signification statistique du signal est maximale. Les algorithmes de déclenchement dédiés à cette analyse sélectionnent un lepton (électron ou muon) et un " tau hadronique " d'impulsions transverses élevées. Cependant, cette sélection élimine la moitié du signal, ce qui a motivé la mise en place d'algorithmes sélectionnant des leptons de basse impulsion, incluant une coupure sur l'énergie transverse manquante. Celle-ci limite le taux de déclenchement et sélectionne des évènements contenant des neutrinos, caractéristiques des désintégrations du lepton tau. Les distributions de masse invariante des processus de bruit de fond et de signal permettent de quantifier la compatibilité entre les données et la présence ou l'absence du signal. La combinaison de l'ensemble des états finaux conduit à l'observation d'un excès d'évènements sur un large intervalle de masse. Sa signification statistique vaut 3,2 déviations standard à 125 GeV ; la masse du boson mesurée dans ce canal vaut 122 ± 7 GeV. Cette mesure constitue la toute première évidence d'un couplage entre le boson de Higgs et le lepton tau.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Zhang, Liang. « Development of a CMOS pixel sensor for the outer layers of the ILC vertex detector ». Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-01068494.

Texte intégral
Résumé :
This work deals with the design of a CMOS pixel sensor prototype (called MIMOSA 31) for the outer layers of the International Linear Collider (ILC) vertex detector. CMOS pixel sensors (CPS) also called monolithic active pixel sensors (MAPS) have demonstrated attractive performance towards the requirements of the vertex detector of the future linear collider. MIMOSA 31developed at IPHC-Strasbourg is the first pixel sensor integrated with 4-bit column-level ADC for the outer layers. It is composed of a matrix of 64 rows and 48 columns. The pixel concept combines in-pixel amplification with a correlated double sampling (CDS) operation in order to reduce the temporal and fixed pattern noise (FPN). At the bottom of the pixel array, each column is terminated with an analog to digital converter (ADC). The self-triggered ADC accommodating the pixel readout in a rolling shutter mode completes the conversion by performing a multi-bit/step approximation. The ADC design was optimized for power saving at sampling frequency. Accounting the fact that in the outer layers of the ILC vertex detector, the hit density is inthe order of a few per thousand, this ADC works in two modes: active mode and inactive mode. This thesis presents the details of the prototype chip and its laboratory test results.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Marchisone, Massimiliano. « Probing the Quark-Gluon Plasma from bottomonium production at forward rapidity with ALICE at the LHC ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00925826.

Texte intégral
Résumé :
The main goal of ultrarelativistic heavy-ion collisions is the study of the properties of the matter at very high temperatures and energy densities. Quantum chromodynamics (QCD) predicts in these conditions the existence of a new phase of the matter whose components are deconfined in a Quark-Gluon Plasma (QGP). Heavy quarks (charm e bottom) are produced in the first stages of the collisions, before to interact with the medium. Therefore, the measurement of the quarkonia (cc and bb mesons) is of particular interest for the study of the QGP: their dissociation mainly due to the colour screening is sensible to the initial temperature of the medium. Previous measurements at the SPS and RHIC allowed to understand some characteristics of the system produced, but they also opened many questions. With an energy 14 times higher than RHIC, the LHC (Large Hadron Collider) at CERN opened a new era for the study of the QGP properties. ALICE (A Large Ion Collider Experiment) is the LHC experiment fully dedicated to the study of the Quark-Gluon Plasma produced in Pb-Pb collisions at an energy of 2.76 TeV per nucleon. The experiment also participates to the proton-proton data taking in order to obtain the fundamental reference for the study of ion-ion and proton-ion collisions and for testing the predictions at very small Bjorken-x values of the perturbative QCD. Quarkonia, D and B mesons and light vector mesons are measured at forward rapidity by a Muon Spectrometer exploiting their (di)muonic decay. This detector is composed of a front absorber, a dipole magnet, five stations of tracking (Muon Tracking) and two stations of trigger (Muon Trigger). The work presented in this thesis has been carried out from 2011 to 2013 during the first period of data taking of ALICE. After a detailed introduction of the heavy-ion physics and a description of the experimental setup, the performance of the Muon Trigger in Pb-Pb collisions are shown. A particular attention is devoted to the stability of the detector during the time and to the trigger effectiveness. Moreover, the cluster size, corresponding to the number of adjacent strips hit by a particle, is studied as a function of different variables. The experimental results will be compared to simulations in order to obtain a good parametrization of this phenomenon. Finally, the Ç production in Pb-Pb collisions is carefully analysed and compared to that in pp collisions at the same energy. The results are then compared to the J/ψ measurements obtained by ALICE, to the CMS results and to some theoretical predictions.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Liu, Kun. « Observation du boson de Higgs dans sa désintégration en gamma+gamma et recherche de sa désintégration en Z+gamma avec le détecteur ATLAS ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01071714.

Texte intégral
Résumé :
Ce travail de thése concerne la recherche du boson de Higgsa laide de canaux de désinégration contenant des photons dans létat final, baée sur les données enregistrées par le détecteur ATLAS en 2011 et 2012, a une énergie dans le centre de masse des collisions proton-proton center-mass-energy et 8 TeV. La sélection deséévenements, les principaux bruits de fond, les propriéés du signal, la discrimination statistique entre signal et bruits de fond, ainsi que l'interprétation des ésultats en terme de boson de Higgs du moéle standard sont discués. Dans le canal de désinégration H to gamma+gamma, un excés par rapport au niveau de bruit de fond est clairement visible a une masse mH=126,8 +- 0,2(stat) +- 0,7(syst) GeV et avec une significativité locale de7,4 sigma. En revanche, dans le canal de désinégration rareH to Z+gamma, aucun excés n'est obseré dans la feétre de masse allant de 120 a 150 GeV. Ce résultat est interpéé comme une limiteégalea 11 fois la valeur de la section efficace de production pp to H to Z+gamma prédite par le moéle standard pour une masse du boson de Higgs de mH = 125,5 GeV, proche de celle mesurée dans les canaux engamma+gamma et en quatre leptons. Une reconstruction et une identification efficace des photons, ainsi qu'une connaissance précise des performances du systéme de éclenchement et de l'algorithme d'identification, sont des aspects importants de ces mesures. Une grande partie de ce manuscrit est ainsi consacréea la description de l'optimisation de ces performances et des activités de mesures que j'ai réalisées pendant ces trois années.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Khatchadourian, Sonia. « Mise en oeuvre d'une architecture de reconnaissance de formes pour la détection de particules à partir d'images atmosphériques ». Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00783077.

Texte intégral
Résumé :
L'expérience HESS consiste en un système de télescopes permettant d'observer les rayonnements cosmiques. Compte tenu des résultats majeurs obtenus depuis son installation, la seconde phase du projet a été engagée. Celle-ci est en cours de réalisation et passe par l'ajout d'un télescope plus sensible et plus grand que ses prédécesseurs. Toutes les données collectées par ce télescope ne peuvent pas être conservées à cause des limites de stockage. Par conséquent, un système de déclencheur, dit trigger, performant doit être mis en place. L'objectif de cette thèse est de proposer une solution de reconnaissance de formes en temps réel dans un contexte fortement contraint et qui sera embarquée sur le télescope. La première partie de la thèse a consisté à élaborer une chaîne de reconnaissance des formes pour ce trigger. Une chaîne de traitement à base de réseau de neurones et des moments de Zernike a été validée. La seconde partie de la thèse a porté sur l'implantation des algorithmes retenus sur une cible FPGA en tenant compte des contraintes en termes de ressources et de temps d'exécution.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Ferro, Cristina. « Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC ». Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00862736.

Texte intégral
Résumé :
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie