Добірка наукової літератури з теми "Pile-up (empilements)"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Pile-up (empilements)".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Дисертації з теми "Pile-up (empilements)":

1

Potop, Alexandra-Iulia. "Imagerie par rayons X résolue en énergie : Méthodes de décomposition en base de matériaux adaptées à des détecteurs spectrométriques." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0096/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes d’imagerie par rayons X conventionnels utilisent des détecteurs à base de scintillateur en mode intégration d’énergie. La nouvelle génération de détecteurs à base de semi-conducteur CdTe/CdZnTe permet de compter le nombre de photons et de mesurer l’énergie avec laquelle les photons arrivent sur le détecteur. Le laboratoire LDET (CEA LETI) a développé des détecteurs spectrométriques pixellisés à base de CdTe pour l’imagerie par rayons X associés à un circuit de lecture rapide permettant de travailler à fort taux de comptage avec une bonne résolution en énergie. Ces travaux de thèse proposent d’apporter une contribution au traitement des données acquises sur ces détecteurs résolus en énergie pour la quantification des constituants des matériaux en radiographie et en tomographie. Le cadre médical applicatif choisi est l’ostéodensitométrie. Des simulations de radiographie, qui prennent en compte les imperfections du système de détection, comme le partage de charges et les empilements, ont été réalisées. Nous avons choisi d’étudier des méthodes de traitements des données spectrales basées sur la décomposition en base de matériaux. Cette technique de réduction des données consiste à modéliser le coefficient d’atténuation linéique d’un matériau par une combinaison linéaire des fonctions d’atténuation de deux matériaux de base. Deux approches, utilisant toutes les deux un apprentissage par calibrage, ont été adaptées pour notre application. La première est une adaptation de l’approche polynômiale standard, appliquée pour deux et trois canaux d’énergie. Un processus d’optimisation des seuils des canaux a été réalisé afin de trouver la configuration optimale des bandes d’énergie. Une étude sur le nombre de canaux a permis d’évaluer les limites de la formulation polynômiale. Pour aller plus loin dans l’exploitation du potentiel des nouveaux détecteurs, une approche statistique développée dans notre laboratoire a été adaptée pour la décomposition en base de matériaux. Elle peut se généraliser à un grand nombre de canaux (100 par exemple). Une comparaison des deux approches a été réalisée selon des critères de performance comme le bruit et la précision sur l’estimation des longueurs des matériaux traversés. La validation des deux approches étudiées sur des données expérimentales acquises en radiographie, dans notre laboratoire, avec des détecteurs spectrométriques, a montré une bonne quantification des constituants des matériaux, en accord avec les résultats obtenus en simulation
Scintillator based integrating detectors are used in conventional X-ray imaging systems. The new generation of energy-resolved semiconductor radiation detectors, based on CdTe/CdZnTe, allows counting the number of photons incident on the detector and measure their energy. The LDET laboratory developed pixelated spectrometric detectors for X-ray imaging, associated with a fast readout circuit, which allows working with high fluxes and while maintaining a good energy resolution. With this thesis, we bring our contribution to data processing acquired in radiographic and tomographic modes for material components quantification. Osteodensitometry was chosen as a medical application. Radiographic data was acquired by simulation with a detector which presents imperfections as charge sharing and pile-up. The methods chosen for data processing are based on a material decomposition approach. Basis material decomposition models the linear attenuation coefficient of a material as a linear combination of the attenuations of two basis materials based on the energy related information acquired in each energy bin. Two approaches based on a calibration step were adapted for our application. The first is the polynomial approach used for standard dual energy acquisitions, which was applied for two and three energies acquired with the energy-resolved detector. We searched the optimal configuration of bins. We evaluated the limits of the polynomial approach with a study on the number of channels. To go further and take benefit of the elevated number of bins acquired with the detectors developed in our laboratory, a statistical approach implemented in our laboratory was adapted for the material decomposition method for quantifying mineral content in bone. The two approaches were compared using figures of merit as bias and noise over the lengths of the materials traversed by X-rays. An experimental radiographic validation of the two approaches was done in our laboratory with a spectrometric detector. Results in material quantification reflect an agreement with the simulations
2

Montagu, Thierry. "Transformées stabilisatrices de variance pour l'estimation de l'intensité du Shot Noise : application à l'estimation du flux neutronique." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Shot Noise est un processus aléatoire qui permet notamment de modéliser fidèlement le nombre d'occurrences des interactions entre particules physiques et leurs détecteurs associés ; ce nombre définit l'intensité du processus. Lorsque l'intensité est faible, il est possible d'individualiser les interactions dont les temps d'arrivées sont modélisés par le processus de Poisson. Dans le cas contraire, les évènements ne sont plus discernables (ils « s'empilent »), mais le théorème de Campbell - qui établit les cumulants du ShotNoise - permet de remonter à l'intensité du processus. L'estimation des deux premiers cumulants est réalisée grâce à la moyenne et à la variance empiriques de trajectoires du Shot Noise. Il est remarqué que les variances de ces estimateurs et des estimateurs de l'intensité du Shot Noise correspondants dépendent de leurs moyennes respectives. Cette propriété d'hétéroscédasticité étant observée en théorie et en pratique, une approche par transformées stabilisatrices de variance est proposée via la Delta method. Celles-ci sont calculées ainsi que leur biais, et les transformées inverses associées. Leurs propriétés asymptotiques sont vérifiées par des simulations numériques. Dans le cadre applicatif des mesures de flux neutroniques qui reposent sur l'estimation des deux premiers cumulants du Shot Noise et qui ont également pour finalité l'estimation de l'intensité du processus aléatoire, des transformées stabilisatrices de variance sont spécifiquement établies ainsi que leurs biais et leurs transformées inverses. Elles sont finalement combinées à un filtre de Kalman adaptatif pour débruiter le flux neutronique. Des simulations sont menées pour caractériser les performances de filtrage. Le débruitage de signaux réels est également réalisé
The Shot noise is a random process that can be used to accurately model the numberof occurrences of physical particles impinging their associated detectors ; this numberis referred to as the intensity of the process. When this number is small, it is possible to individualize the recorded events whose arrival times are modelled thanks to the Poisson process. In the opposite case, the events are no longer discernible (they ”pile up”), but Campbell's theorem - which establishes the cumulants of the Shot Noise - still allows to estimate the intensity of the process. The estimation of the two first cumulants is classically achevied with the empirical mean and the empirical variance. It is noted in this work, that the variances of theses two estimators and their corresponding estimators of the Shot Noise intensity are functions of their respective means. This property ofheter heteroscedasticity being observed both in theory and practice, an approach by variance stabilizing transforms is proposed using the "Delta method". These are calculated as well as their bias, and their corresponding inverse transforms. Their asymptotic properties are verified thanks to numerical simulations. In the applicative context of neutron flux measurements, which rely on the estimation of the first two cumulants of the Shot Noise and which also have the purpose of estimating the intensity of this random process,variance stabilizing transforms are specifically established as well as their biases and their inverse transforms. They are finally combined with an adaptive Kalman filter in order to denoise the neutron flux measurements. Numerical simulations are carried out to assessfiltering performances. Denoising of real signals is also performed
3

Chen, Xiaolei. "Experimental and theoretical studies of incompatibility and dislocation pile-up stresses at grain boundaries accounting for elastic and plastic anisotropies." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0089.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les propriétés mécaniques des matériaux métalliques dépendent fortement du comportement des dislocations, telles que la densité, la distribution, la nucléation et la mobilité des dislocations ainsi que les interactions entre les dislocations et les joints de grain (JDGs). L'objectif principal de cette thèse est d'étudier les effets des anisotropies élastiques et plastiques sur l'interaction de dislocations-JDG en considérant les propriétés complexes des JDGs, les effets de désorientation et les effets de surfaces libres. Pour atteindre cet objectif, une approche analytique basée sur le formalisme L-E-S a été étudiée, qui fournit les champs élastiques des dislocations droites simples et des différents empilements de dislocations aux JDGs dans des milieux homogènes anisotropes, des demi-espaces, des bi- et tri-matériaux tout en considérant éventuellement les effets de surface libre. La configuration tri-matériaux permet d'envisager une épaisseur non nulle de l'ordre du nanomètre et un tenseur de rigidité spécifique pour la région du JDG. La configuration à deux surfaces libres a été utilisée pour étudier les effets de taille. Les effets de l'élasticité anisotrope, de l'orientation cristallographique, de la rigidité du JDG et des surfaces libres ont été étudiés dans le cas d'une seule dislocation et des empilements de dislocations dans un bi-cristal de Ni avec l'analyse des forces images et de la longueur d'empilements, respectivement. En parallèle, des essais in-situ de compression sur des bi-cristaux de Ni et de α-laiton de taille micronique réalisés par usinage au FIB et des observations couplant MEB, AFM et EBSD ont été effectués. L'essai de compression a été réalisé avec une faible déformation. Ensuite, les variations spatiales de la hauteur des marches dûs aux bandes de glissement localisées se terminant au JDG ont été mesurées par AFM pour déterminer la distribution du vecteur de Burgers dans l'empilement de dislocations. Cette distribution a ensuite été simulée par la configuration de l'empilement de dislocations dans des bi-cristaux avec les paramètres mesurés expérimentalement en considérant l'effet de la désorientation, de la rigidité du JDG, des surfaces libres, des contraintes d'incompatibilités et de la force critique. En particulier, les contraintes d'incompatibilités ont été analysées à l'aide de simulations CP-MEF et l'épaisseur du JDG a été simulée à l'aide de simulations atomistique avec LAMMPS
The mechanical properties of metallic materials strongly depend on the dislocation behavior, such as the density, the distribution, the nucleation and the mobility of dislocations as well as the interactions between dislocations and grain boundaries (GB). The main objective of this thesis is to study the effects of elastic and plastic anisotropies on the dislocation-GB interaction considering complex properties of GBs, misorientation effects and free surfaces effects. To reach this objective, an analytical approach based on the L-E-S formalism was investigated, which provides the elastic fields of single straight dislocations and different dislocation pile-ups at GBs in anisotropic homogeneous media, half-spaces, bi- and tri-materials while possibly considering free surface effects. The tri-material configuration allows considering a non-zero thickness in the nanometer range and a specific stiffness tensor for the GB region. The configuration with two free surfaces was used to study size effects. The effects of anisotropic elasticity, crystallographic orientation, GB stiffness and free surfaces were studied in the case of a single dislocation and dislocation pile-ups in a Ni bi-crystals with image forces and pile-ups length analyses, respectively. In parallel, in-situ compression tests on micron-sized Ni and α-Brass bi-crystals produced from FIB machining and observations coupling SEM, AFM and EBSD were performed. The compression test was performed with a low strain. Then, step height spatial variations due to localized slip bands terminating at GB were measured by AFM to determine the Burgers vector distribution in the dislocation pile-up. This distribution was then simulated by dislocation pile-up configuration in bi-crystals with the experimentally measured parameters by considering the effect of misorientation, GB stiffness, free surfaces, incompatibility stresses and critical force. In particular, the incompatibility stresses were analyzed using CPFEM simulations and the thickness of GB was simulated using atomistic simulations with LAMMPS
4

Aouadi, Mehdi. "Détermination du rapport d’embranchement de la transition super-permise du carbone 10 et développement et intégration de la ligne de faisceau PIPERADE au CENBG." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0926/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les études de la radioactivité bêta dans les milieux nucléaires permettent en partie de participer à la détermination d’un des paramètres qui décrit l'interaction faible (la constante de couplage vectoriel). Pour cela, de nombreuses mesures permettent déjà d’atteindre de grandes précisions sur ce paramètre pour un grand nombre de noyaux des transitions bêta super-permise. Cependant, pour le carbone 10, l'incertitude relative du rapport d'embranchement reste encore élevée par rapport aux autres noyaux pères avec une valeur de l’ordre de 0,13 %. Ceci est dû à l’énergie du photon émis par l’état 0+ du noyau fils qui est de 1021,6 keV, c’est-à-dire proche de l’énergie d’empilement de deux signaux de photons de 511 keV. En mai 2015, notre groupe a réalisé, à ISOLDE au CERN, une expérience afin de mesurer très précisément cette transition. Pour produire le carbone 10,nous avons réalisé des réactions nucléaires qui produisaient en grandes parties les noyaux d’intérêts mais aussi des contaminants de mêmes masses émetteurs de bêta+. Afin de réduire l’empilement, il aurait été nécessaire de mieux séparer les éléments ou d’estimer celui-ci à partir de données équivalentes avec le néon 19. Ainsi, nous avons calculé une constante d’empilement qui dépend du temps de mise en forme est qui est de l’ordre de 0,1μs. Par la suite, l’analyse de nos données carbone 10 a permis d’obtenir un rapport d’embranchement de 1,500(4) % alors que la moyenne des valeurs de la littérature donne1,4645(19) %. Dans le but de produire plus d’espèces de noyaux et d'augmenter l'intensité des faisceaux, le GANIL (Grand Accélérateur National d'Ions Lourds) développe actuellement un nouvel accélérateur ainsi qu'un ensemble de cibles basées sur la méthode ISOL. Pour réduire le dépôt de contaminants aux points de mesures, tel que c'était le cas pour la mesure du carbone 10 à ISOLDE, la communauté de physiciens souhaite aussi développer un ensemble d'outils de séparations. Dans ce cadre, notre groupe participe depuis 2011 au développement de deux de ces outils : un séparateur de haute-résolution (HRS) pour séparer des noyaux dont le pouvoir de résolution en masse nécessaire (m/Δm) souhaité est de 20000et un double piège de Penning (PIPERADE) pour séparer les noyaux qui nécessite au maximum d’un pouvoir de résolution en masse de 100000. Ainsi, au CENBG, une ligne faisceau de test qui comprend une source d'ions FEBIAD, le quadrupôle radiofréquence regroupeur-refroidisseur GPIB, un aiguillage électrostatique et le double piège de Penning (PIPERADE) est en cours de développement. Lors des tests de ces dispositifs, nous avons observé une efficacité de transmission de l’ordre de 80 % du faisceau qui traverse le GPIB.Également, nous avons mesuré une émittance transverse de 3 pi.mm.mrad en comparaison de celle de 26 pi.mm.mrad observées en aval du GPIB. Par la suite, les simulations de laligne d’injection dans le piège de Penning ont permis de définir une décélération qui permet d’injecter 98 % des ions extraits du GPIB.Cette thèse se compose donc de deux parties : la détermination du rapport d'embranchement du carbone 10 et le développement et l'intégration au CENBG de la ligne de faisceau PIPERADE
The beta radioactivity studies in nuclear medium allow to participate in thedetermination of one of the parameters that describes the weak interaction (the vectorcoupling constant). For this purpose, numerous measurements have already been made todetermine this parameter with great precision for superallowed transition nuclei. However,for carbon 10, the relative uncertainty of the branching ratio is still high compared to otherparent nuclei with a value of the order of 0.13%. This high uncertainty is due to photonenergy emitted of 1021.6 keV which is really closed to the energy due to pile-up of twophotons of 511 keV. In May 2015, our group conducted an experiment at ISOLDE at CERN tomeasure the branching ratio very precisely. The nuclear reactions needed to produce thenuclei gave a large amount of nuclei of interest but also contaminants of the same massewhich also emit beta+ particles. A pile-up ratio of around 0.1 μs was calculated. Then, wefound a branching ratio of 1.500(4) % whereas the average from litterature is 1.4645(19) %.To study more species of nuclei and increase the intensity of the beams, GANIL(Grand Accélérateur National d’Ions Lourds) is currently developing a new accelerator as wellas a set of targets based on ISOL method. In order to reduce the contaminants deposit atthe measurement points, as we saw for the measurement of carbon 10 at ISOLDE, thecommunity of physicists also wants to develop separation apparati. In this context, since2011, our group has been involved in the development of two of these tools: a highresolutionseparator (HRS) to separate nuclei which need a mass resolving power (m / Δm)around 20,000 and a double Penning trap (PIPERADE) to separate the nuclei which require amaximum resolution of 100,000. Thus, at CENBG, a test beam line that includes a FEBIAD ionsource, a RFQ cooler-buncher (GPIB), an electrostatic switch, and a double Penning trap(PIPERADE) is under development. During apparati tests, we observe a transmissionefficiency around 80 %. Also, we measure a transverse emittance about 3 pi.mm.mrad whichis lower than 26 pi.mm.mrad observed before the GPIB. By the way, simulations of the beamline permitted to decelerate the beam and inject 98 % of ions.This thesis consists of two parts: the determination of the carbon 10 branching ratioand the development and integration of the PIPERADE beam line at CENBG
5

Camacho, Toro Reina Coromoto. "Recherche de nouvelles résonances se désintégrant en paires de quarks top avec le détecteur ATLAS du LHC." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00818796.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
(...) Le travail de recherche exposé dans cette thèse a été réalisé en utilisant les données collectées par le détecteur ATLAS auprès du LHC. Le LHC est l'accélérateur de particules le plus grand et le plus puissant jamais construit. Il est constitué d'un double anneau de stockage de protons. Environ 10000 physiciens et ingénieurs du monde entier participent à cette expérience en développant de nouvelles techniques et approches pour identifier les événements intéressants cachés dans l'environnement complexe produit dans des collisions proton-proton. Les premières collisions proton-proton ont eu lieu à la fin de l'année 2009 à une énergie de 900~GeV dans le système du centre de masse. Le 19 Mars 2010, le LHC a battu un record en augmentant l'énergie des faisceaux à 3.5 TeV, et les premières collisions à 7 TeV ont été enregistrées le 30 Mars 2010. L'énergie par faisceau pour l'ensemble de 2011 était de 3.5 TeV, et 4 TeV en 2012. Un an d'arrêt technique est prévu en 2013 avant de parvenir à l'énergie nominale de collision de 14 TeV. Quatre expériences se partagent les quatre points de croisement des faisceaux du grand anneau du LHC. Une d'entre elles, ATLAS, est un détecteur généraliste avec un vaste programme de physique. ATLAS est constitué d'un détecteur interne de traces dans un champ magnétique de 2 T, offrant une couverture jusqu'à |η|<2.5, un système calorimétrique allant jusqu'à |η|<4.9, un spectromètre à muons dans un champ magnétique toroïdal et un système de déclenchement composé de trois niveaux. Tous les sous-systèmes ont d'excellentes performances en termes d'efficacité et de résolution. Cette thèse comprend trois travaux interconnectés. En premier lieu, elle décrit les résultats de la recherche de nouvelles résonances qui se désintègrent en paires tt en utilisant les premiers 2.05 fb-1 de données collectées par le détecteur ATLAS en 2011. Dans une deuxième partie, en connection avec cette recherche, des études de performance de Jet Vertex Fraction (JVF) en utilisant des événements tt sont également présentées. JVF est une variable qui peut être utilisée pour réduire les effets d'empilement afin d'améliorer la précision et la sensibilité des analyses de physique à haute luminosité. Finalement, les performances de la calibration Globale Séquentielle des jets, sa validation sur des données réelles et l'évaluation de l'incertitude systématique qui lui est associée seront aussi discutées. La détermination précise de l'échelle en énergie des jets (JES: acronyme de Jet Energy Scale) ainsi que l'obtention d'une résolution optimale sont extrêmement importantes pour de nombreuses analyses de physique au LHC. Cela est vrai en particulier pour la recherche de nouvelles résonances tt en raison de la présence de jets dans l'état final. Les résultats sont présentés dans l'ordre dans lequel ils ont été réalisés au cours de cette thèse. (...)

До бібліографії