Academic literature on the topic 'Méthodes élémentaires'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthodes élémentaires.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthodes élémentaires"

1

LE ROY, P. "Les bases de la génétique quantitative : Les méthodes de mise en évidence des gènes majeurs." INRAE Productions Animales 5, HS (December 2, 1992): 93–99. http://dx.doi.org/10.20870/productions-animales.1992.5.hs.4270.

Full text
Abstract:
S’il existe un gène à effet majeur sur un caractère, la distribution des phénotypes est un mélange de distributions élémentaires dans des proportions obéissant aux lois de Mendel. Différents tests statistiques basés sur ce principe sont présentés. Les données exploitées peuvent provenir d’expériences de croisements spécialement conçues pour détecter un gène majeur, mais aussi de fichiers de contrôle des performances de structure quelconque. Les méthodes utilisées sont des tests d’hypothèses permettant de choisir entre l’absence et la présence d’un locus majeur à partir des informations disponibles. Il s’agit soit d’indicateurs numériquement très simples à obtenir, soit de méthodes plus complexes faisant appel aux techniques du maximum de vraisemblance. Dans l’un et l’autre cas, les tests construits prennent plus ou moins en compte la structure généalogique de la population. La méthode la plus élaborée est l’analyse de ségrégation qui permet de synthétiser toute l’information disponible pour comparer différentes hypothèses de transmission du caractère et qui fournit des estimations des paramètres du modèle génétique retenu. Cependant, elle est numériquement très coûteuse et nécessite des simplifications pour être applicable aux populations d’animaux domestiques. Des critères moins puissants mais plus simples ont donc un intérêt non négligeable en permettant en première approche une recherche systématique des gènes à effet majeur.
APA, Harvard, Vancouver, ISO, and other styles
2

Guegan, Hervé. "Méthodes d’analyses élémentaires : revue comparée des techniques utilisables à la caractérisation des poussières fines." Pollution atmosphérique, NS 2 (September 1, 2010): 83–89. http://dx.doi.org/10.54563/pollution-atmospherique.7084.

Full text
Abstract:
L’objectif de cet article est de présenter les principales techniques d’analyse élémentaire de particules fines utilisées à la problématique de la recherche des sources. Cette présentation s’attachera à décrire leurs fondements pour mieux comprendre leurs qualités intrinsèques et leurs limitations, afin de les replacer dans le foisonnement des méthodes d’analyse physico-chimique. On pourra être ainsi à même de saisir la pertinence de l’utilisation de l’une ou l’autre en fonction de la problématique posée.
APA, Harvard, Vancouver, ISO, and other styles
3

Kondratieva, Margo. "Detecting and sharing praxeologies in solving interconnecting problems: some observations from teacher education viewpointDétecter et partager les praxéologies dans la résolution de problèmes d'interconnexion: quelques observations du point de vue de la formation des enseignants." Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, no. 4 (September 15, 2020): 472–86. http://dx.doi.org/10.23925/1983-3156.2020v22i4p472-486.

Full text
Abstract:
AbstractThis paper discusses praxeologies available at different levels of schooling in view of a problem, which permits multiple solutions ranging from elementary to more advanced mathematical approaches. Solutions of the problem produced by mixed groups of K-12 teachers included numerical, pictorial and algebraic methods, and allowed observing possible paths within a finalized activity of study and research. They also gave some insights regarding teachers’ readiness to support the continuity of students’ praxeological development, and more generally, the potential within teachers’ educational backgrounds to pursue the new paradigm of questioning the world.Keywords: Teacher education, Praxeological development, Mathematical problems with multiple solutions.RésuméCe texte discute les praxéologies disponibles à différents niveaux de la scolarité pour résoudre un problème qui permet des résolutions multiples, depuis des approches élémentaires aux plus avancées. Les résolutions proposées par un groupe mixte d’enseignants de l’école élémentaire jusqu’au lycée ont employé des méthodes numériques, graphiques et algébriques, et permettent d’observer les parcours possibles d’une activité finalisée d’étude et de recherche. Elles nous laissent aussi percevoir la capacité des enseignants pour soutenir la continuité du développement praxéologique des élèves, et plus généralement le potentiel résultant de la formation des enseignants à poursuivre le nouveau paradigme du questionnement du monde.Mots-clés: formation des enseignants, développement praxéologique, problèmes mathématiques aux solutions multiples.
APA, Harvard, Vancouver, ISO, and other styles
4

Parent, Éric, Jean-Jacques Boreux, Étienne Rivot, and Sophie Ancelet. "Une expérience ludique de capture-marquage-recapture pour l’initiation au raisonnement probabiliste indispensable au statisticien modélisateur." Statistique et société 8, no. 2 (2020): 9–31. https://doi.org/10.3406/staso.2020.1123.

Full text
Abstract:
Les méthodes de capture-marquage-recapture sont des méthodes astucieuses d’échantillonnage peu invasives pour évaluer le nombre d’individus dans une population. Utilisées principalement en écologie, elles trouvent aussi des applications de portée bien plus large dans divers domaines tels que la sociologie et la psychologie expérimentales. Du point de vue de la pédagogie, elles permettent d’illustrer de façon simple, pratique et vivante de nombreux points-clés du raisonnement probabiliste indispensables au statisticien-modélisateur. À l’aide d’une expérience ludique facile à effectuer en salle avec des gommettes, des haricots secs, une cuillère à soupe et un saladier, nous montrons comment aborder de façon simple et intéressante les points-clés suivants dans le cadre d’un problème d’estimation de la taille inconnue d’une population : – les ingrédients de base du problème de statistique inférentielle considéré, en particulier, inconnues versus observables ; – la construction d’un modèle probabiliste/ stochastique possible, fondé sur l’assemblage de plusieurs briques binomiales élémentaires, ainsi que les différentes décompositions possibles de la vraisemblance associée ; – la recherche d’estimateurs, leur étude théorique ainsi que la comparaison de leurs propriétés mathématiques par simulation numérique ; – les différences opérationnelles majeures entre approches statistiques fréquentielle et bayésienne. Cette expérience permet également d’illustrer en quoi le travail d’un statisticien-modélisateur ressemble bien souvent à celui d’un enquêteur de police...
APA, Harvard, Vancouver, ISO, and other styles
5

Ait-Ouyahia, Hamid. "Allocation de l'effort de visite: une approche à base de connaissance issue des méthodes de portefeuille et d'optimisation." Recherche et Applications en Marketing (French Edition) 12, no. 3 (September 1997): 39–46. http://dx.doi.org/10.1177/076737019701200303.

Full text
Abstract:
On dispose de deux grandes familles d'outils pour aider les organisations de vente à résoudre le problème de l'allocation de l'effort de visite: Les méthodes dites de «portefeuille» et les modèles d'optimisation. Cet article présente une approche qui combine ces deux techniques dans un système à base de connaissance. La méthodologie utilisée devrait permettre de rassembler et de mettre à jour les connaissances publiées dans le domaine de l'allocation de l'effort de vente. De plus, grâce à l'acquisition, auprès du planificateur, de connaissances spécifiques au contexte de vente, le système peut formaliser un modèle d'optimisation linéaire par morceaux. Ce système peut être utilisé au niveau d'un gestionnaire ou d'un vendeur. Il permet de recommander des politiques de visite et, si l'on dispose de fonctions de réponse (en terme de ventes) élémentaires, de fournir des niveaux optimaux de visite par segment.
APA, Harvard, Vancouver, ISO, and other styles
6

Revol, M., and J. M. Servant. "Chirurgie palliative motrice des paralysies de la main (I) : principes et méthodes palliatives des fonctions élémentaires." EMC - Techniques chirurgicales - Orthopédie - Traumatologie 1, no. 1 (January 2006): 1–27. http://dx.doi.org/10.1016/s0246-0467(05)38755-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Revol, M., and J. M. Servant. "Chirurgie palliative motrice des paralysies de la main (II) : principes et méthodes palliatives des fonctions élémentaires." EMC - Techniques chirurgicales - Orthopédie - Traumatologie 1, no. 1 (January 2006): 1–15. http://dx.doi.org/10.1016/s0246-0467(05)43315-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Revol, M., and J. M. Servant. "Chirurgie palliative motrice des paralysies de la main (II) : principes et méthodes palliatives des fonctions élémentaires." EMC - Techniques chirurgicales - Chirurgie plastique reconstructrice et esthétique 19, no. 1 (2006): 1–15. https://doi.org/10.1016/s1286-9325(20)30021-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Revol, M., and J. M. Servant. "Chirurgie palliative motrice des paralysies de la main (I) : principes et méthodes palliatives des fonctions élémentaires." EMC - Techniques chirurgicales - Chirurgie plastique reconstructrice et esthétique 19, no. 1 (2006): 1–27. https://doi.org/10.1016/s1286-9325(20)30020-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

BÉLAND, François. "L’analyse du changement, la causalité et le devis longitudinal : trois modèles élémentaires et un exemple." Sociologie et sociétés 18, no. 2 (September 30, 2002): 151–64. http://dx.doi.org/10.7202/001032ar.

Full text
Abstract:
Résumé Établir des relations causales entre variables a été l'une des opérations les plus courantes en sociologie. Mais après qu'il fût devenu évident que l'analyse transversale ne permettait pas de valider les relations causales, le recours à l'analyse longitudinale est apparu comme une voie de salut à plusieurs. Là encore, il a été établi que l'analyse longitudinale permettait de restreindre en partie les limites à notre capacité de prouver des relations causales, sans cependant les éliminer. Ici, trois modèles de relations entre variables sont définis et leur capacité à générer des données observées par sondage, vérifiée. 11 est clair que malgré qu'une procédure formelle d'examen de ces modèles soit utilisée, le choix d'un, parmi ces trois modèles qui se contredisent, reste difficile. L'utilisation de données longitudinales n'est pas ici discrédité, ce texte entend souligner quelques-unes des difficultés d'application des méthodes d'analyse de ces types de données.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Méthodes élémentaires"

1

Poyet, Patrice. "Méthodes de discrimination des anomalies géochimiques multi élémentaires significatives." Nice, 1986. http://www.theses.fr/1986NICE4005.

Full text
Abstract:
Développement d'un système susceptible de réaliser le traitement, l'intégration et la représentation des données géochimiques. Le but est d'améliorer la détection des anomalies géochimiques significatives. Exemple de prospection géochimique sans recouvrement de gisements d'uranium, à partir de données géochimiques des eaux et des roches
APA, Harvard, Vancouver, ISO, and other styles
2

Reignier, Denis. "Contributions théoriques à l'étude de quelques réactions élémentaires à trois atomes." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12314.

Full text
Abstract:
La première partie de ce travail concerne l'étude théorique des réactions d'intérêt astrochimique Al + 02, C + NO et C + 02 dans le domaine des basses températures (0 K < T < 300 K). De récentes mesures expérimentales, utilisant les techniques CRESU (Cinétique de Réaction en Écoulement Supersonique Uniforme) et de faisceaux moléculaires croisés, ont montré que la constante de vitesse de ces réactions augmente lorsque la température diminue et peut atteindre des valeurs importantes même à très basse température (jusqu'à ± 20 K). Les théories de capture adiabatique, adaptées pour décrire de telles réactions gouvernées par les forces à longue portée, nous ont permis de rendre compte de la dépendance en température de la constante de vitesse de ces réactions et de préciser notamment le rôle de la structure fine des réactifs. Dans la seconde partie consacrée à l'étude de la réaction de photo dissociation N02 hv NO + 0, nous avons déterminé les surfaces d'énergie potentielle (SEP) adiabatiques des deux premiers états électroniques de symétrie 2A' de N02. À partir de calculs ab initio de bonne qualité (niveau MRCI), nous avons construit deux SEP analytiques globales (i. E. Décrivant à la fois les régions d'états liés et dissociatifs dans le canal 0 + NO) pour ces deux états de N02, à l'aide de la méthode < Double Many-Body Expansion" (DMBE). Ces SEP nous ont ensuite permis de calculer la densité d'états de N02 et de proposer une interprétation de la brusque augmentation -observée expérimentalement - de cette densité au voisinage immédiat du seuil de dissociation. Nous avons également déterminé, par des calculs préliminaires de dynamique de photo dissociation (formalisme indépendant du temps) sur ces SEP adiabatiques, des distributions rotationnelles du photofragment N0, que nous avons comparées aux récentes mesures expérimentales.
APA, Harvard, Vancouver, ISO, and other styles
3

Hitti, Karim. "Simulation numérique de Volumes Élémentaires Représentatifs (VERs) complexes : Génération, Résolution et Homogénéisation." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00667428.

Full text
Abstract:
L'influence des hétérogénéités microstructurales sur le comportement d'un matériau est devenue une problématique industrielle de première importance, cet état de fait explique l'engouement actuel pour la prise en compte de ces hétérogénéités dans le cadre de la modélisation numérique. Ainsi, de nombreuses méthodes pour représenter de manière digitale un matériau virtuel statistiquement équivalent à la microstructure réelle et pour connecter cette représentation à des calculs éléments finis se sont développées ces dernières années. Les travaux réalisés durant cette thèse s'inscrivent en grande partie dans cette thématique. En effet, un générateur de microstructures virtuelles permettant de générer à la fois des microstructures polyédriques ou sphériques a été développé. Ce générateur est basé sur les diagrammes de Laguerre et une méthode frontale de remplissage, une approche level-set pour l'immersion de ces microstructures dans un maillage éléments finis et une technique d'adaptation anisotrope de maillage pour assurer une grande précision lors de cette immersion mais également lors de la réalisation de simulations éléments finis sur ces microstructures. La capacité de ces outils à respecter des données statistiques concernant les microstructures considérées est assurée par le couplage d'une méthode frontale à une méthode d'optimisation des défauts locaux selon la nature de la microstructure considérée. Une technique de coloration de graphe est également appliquée afin de limiter le nombre de fonctions level-set nécessaires à l'adaptation de maillage. En outre, le coût élevé d'une simulation micro-macro entièrement couplée peut-être significativement réduite en limitant les calculs à une analyse entièrement découplée. Dans ce contexte, la réponse d'un Volume Élémentaire Représentatif (VER) soumis à des conditions aux limites représentatives de ce que subit la matière en un point précis d'un calcul macroscopique reste l'approche la plus complète à l'heure actuelle. Dans le cadre de ce travail, nous nous sommes intéressés à deux types de VER pour deux applications différentes : la déformation de VERs de mousses polyédriques élastiques et le calcul du tenseur de perméabilité pour des VERs composés de fibres cylindriques hétérogènes mais monodirectionnelles. Plus précisément, pour la première de ces applications, des cas de compression biaxiale de mousses élastiques à cellules fermées en nids d'abeille ou irrégulières sont modélisés comme un problème d'interaction fluide structure (IFS) entre un fluide compressible (l'air à l'intérieur des cellules) et un solide élastique compressible (le squelette de la mousse). Une formulation monolithique est utilisée pour résoudre ce problème en regroupant les équations d'états régissant le solide et le fluide en un seul jeu d'équations résolu sur un maillage unique discrétisant les deux phases. Une telle stratégie donne lieu, pour la partie solide, à l'apparition d'un tenseur d'extra-contrainte dans les équations de Navier-Stokes. Ces équations sont ensuite résolues par une méthode éléments finis mixte avec une interpolation de type P1+/P1. Concernant la deuxième application, des écoulements dans des milieux fibreux sont simulés en considérant les fibres comme rigides. Ici encore, une formulation monolithique est adoptée. Ainsi, les équations de Stokes sont résolues sur l'ensemble du domaine de calcul en utilisant une méthode de pénalisation. Par homogénéisation, la loi de Darcy est utilisée pour obtenir le tenseur de perméabilité.
APA, Harvard, Vancouver, ISO, and other styles
4

Maerschalk, Thierry. "Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHC." Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/233187.

Full text
Abstract:
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors.
Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
5

Alegret, Cyril. "Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabrication." Phd thesis, Grenoble 1, 2006. http://www.theses.fr/2006GRE10195.

Full text
Abstract:
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits. Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run)
For sub-90nm technologies, the complexity of the structures is so important that the control of the fabrication is became a essential activity for semiconductor fabs. In this context, two major challenges are proposed to the engineers : The first one is to characterise and to reduce the variability of the electrical properties of the structures. The second one consists in optimising the control of this variability in order to guaranty the circuit performances. This PhD thesis aims at proposing a global analysis methodology based on the development of advanced statistical methods (multivariate and neuronal algorithms) to correlate the electrical and physical measurements of the components and the equipment parameters collected during the processes. The models obtained lead to the optimisation of each components of the process control (Statistical Process Control, Fault Detection and Classification and Run to Run)
APA, Harvard, Vancouver, ISO, and other styles
6

Alegret, Cyril. "Développement de méthodes génériques de corrélation entre les mesures électriques & physiques des composants et les étapes élémentaires de fabrication." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00122893.

Full text
Abstract:
Pour les technologies sub-90nm, la complexité des structures est devenue telle que le contrôle des procédés de fabrication est aujourd'hui un secteur primordial dans le fonctionnement d'une usine de semi-conducteur. Dans ce contexte, deux grands défis sont proposés aux ingénieurs : Le premier est de rechercher la nature de la variabilité des performances électriques des circuits afin de les réduire. Une fois la variabilité réduite, le second objectif consiste à optimiser son contrôle afin de garantir les performances des circuits.
Cette thèse vise à mettre en oeuvre une méthodologie globale d'analyse, s'appuyant sur le développement de méthodes statistiques avancés (outils multivariés, neuronaux) afin de corréler les mesures électriques et physiques des composants ainsi que les paramètres des équipements. Les résultats des modélisations débouchent sur l'optimisation de toutes les composantes liées au contrôle des procédés (Control Statistique des Procédés, Fault Detection and Classification, Run to Run).
APA, Harvard, Vancouver, ISO, and other styles
7

Geneste, Grégory. "Mécanismes élémentaires de la croissance oxyde sur oxyde : étude ab initio et semi-empirique de MgO/MgO(001)." Toulouse 3, 2003. http://www.theses.fr/2003TOU30156.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Tahri, Aomar. "Contribution à l'étude de la méthanation des oxydes de carbone catalysée par du nickel dispersé sur silice : Étude en régime permanent de la cinétique réactionnelle et application de méthodes transitoires à l'identification de processus élémentaires." Nancy 1, 1987. http://www.theses.fr/1987NAN10148.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
APA, Harvard, Vancouver, ISO, and other styles
10

Zenoni, Florian. "Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosons." Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/229354.

Full text
Abstract:
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma.
This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Méthodes élémentaires"

1

Gaye, Ibrahima Diop. Perceptions et réactions des enseignants face à l'innovation: Cas des établissements élémentaires et secondaires de Dakar. Dakar: Harmattan Sénégal, 2017.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Jean, Margain, and Sessions de langues bibliques (Association), eds. Hébreu biblique: Méthode élémentaire. 2nd ed. Paris: Beauchesne, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

1781-1842, Wilhem B., ed. Exercices de la méthode Wilhem: Cours élémentaire. [Montréal?: s.n., 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Montpetit, A. N. Méthode de lecture et de prononciation: Préparée d'après la méthode de L.C. Michel, pour les écoles élémentaires. Montréal: J.B. Rolland, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Soeurs de la Congrégation de Notre-Dame de Montréal., ed. Grammaire française suivie d'exercices d'application: Rédigés d'après les méthodes synthétique et analytique : cours élémentaire. Montréal: [s.n.], 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

C, L. Grammaire française élémentaire: Suivie d'une méthode d'analyse grammaticale raisonnée, à l'usage des écoles chrétiennes. [Montréal?: s.n., 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

B, F. P. Grammaire française élémentaire: Avec une méthode d'analyse grammaticale et d'analyse logique à l'usage des écoles chrétiennes. Montréal: J.B. Rolland, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

B, F. P. Grammaire française élémentaire: Avec une méthode d'analyse grammaticale et d'analyse logique, à l'usage des écoles chrétiennes. Montréal: C.O. Beauchemin et Valois, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

B, F. P. Grammaire française élémentaire: Avec une méthode d'analyse grammaticale et d'analyse logique, à l'usage des écoles chrétiennes. Montréal: C.O. Beauchemin, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

B, F. P. Grammaire française élémentaire: Avec une méthode d'analyse grammaticale et d'analyse logique, à l'usage des écoles chrétiennes. Montréal: C. Payette, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Méthodes élémentaires"

1

Carpentier, Pierre, and Guy Cohen. "Présentation élémentaire des méthodes de décomposition-coordination." In Décomposition-coordination en optimisation déterministe et stochastique, 15–53. Berlin, Heidelberg: Springer Berlin Heidelberg, 2017. http://dx.doi.org/10.1007/978-3-662-55428-9_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Schmaus, Warren. "Understanding and Explanation in France: From Maine de Biran’s Méthode Psychologique to Durkheim’s Les Formes Élémentaires de la vie Religieuse." In Historical Perspectives on Erklären and Verstehen, 101–20. Dordrecht: Springer Netherlands, 2009. http://dx.doi.org/10.1007/978-90-481-3540-0_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

TANNIER, Cécile, Gaëtan MONTERO, François SÉMÉCURBE, and Isabelle THOMAS. "Méthodes élémentaires d’analyse fractale en géographie humaine." In La géométrie fractale en géographie humaine et en aménagement, 97–152. ISTE Group, 2024. https://doi.org/10.51926/iste.9159.ch4.

Full text
Abstract:
Ce chapitre expose les principes présidant à l’estimation de dimensions fractales d’un ensemble d’implantations humaines (objets ponctuels, linéaires ou surfaciques). Trois méthodes d’analyse sont décrites en détail et deux d’entre elles (analyses fractales de boîte et de corrélation) sont appliquées pour étudier cinquante tissus bâtis réels et théoriques.
APA, Harvard, Vancouver, ISO, and other styles
4

TANNIER, Cécile. "Notions élémentaires pour l’analyse et la modélisation fractales en géographie humaine." In La géométrie fractale en géographie humaine et en aménagement, 25–58. ISTE Group, 2024. https://doi.org/10.51926/iste.9159.ch2.

Full text
Abstract:
Dès les années 1980, les géographes ont reconnu l’intérêt d’introduire les fractales sous la forme de modèles géométriques et de méthodes de mesure pour l’analyse et la modélisation de la distribution spatiale des implantations humaines. Ce chapitre offre un exposé simple et complet des notions élémentaires pour l’analyse et la modélisation fractales en géographie humaine.
APA, Harvard, Vancouver, ISO, and other styles
5

BOUTON, Nicolas, and Jérémie AMMOUIAL. "Comparaison avec d’autres méthodes." In La méthode Rock-Eval®, 73–83. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9153.ch5.

Full text
Abstract:
Instrument se situant à la frontière entre analyse thermique, analyse élémentaire et chromatographie, les résultats fournis par l’analyseur Rock-Eval® sont comparés dans ce chapitre à ceux fournis par ces différentes méthodes. Les résultats sont aussi confrontés à ceux d’autres analyseurs du même type ; comparaisons qui démontrent l’excellence du Rock-Eval®.
APA, Harvard, Vancouver, ISO, and other styles
6

JULIEN, H., A. ALLONNEAU, O. BON, and H. LEFORT. "Aspects actuels du triage, du combat à la catastrophe, essai de synthèse." In Médecine et Armées Vol. 46 No.3, 197–206. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7334.

Full text
Abstract:
Conçu par les médecins et chirurgiens des armées pour répondre à l’afflux des soldats blessés de la Grande Guerre, le triage a été adapté aux urgences collectives et aux catastrophes. Ses critères et ses modalités ont répondu aux types d'agressions et aux spécificités de la filière civile de secours et de soins. Ses buts ont été précisés : prioriser les victimes, constituer des groupes homogènes, gérer les flux d’évacuation, dispenser les gestes de réanimation nécessaires. Acte thérapeutique guidé par une démarche diagnostique, le triage vise à organiser au mieux l’évacuation des victimes vers le plateau technique adapté. La multiplicité des situations d’urgences collectives, leurs volumes et leurs natures, les conditions de sécurité et de soutien logistique, ont diversifié la pratique du triage en milieu militaire ou civil. Des critères adaptés aux agressions traumatiques, toxiques et psychiques correspondent aux besoins de chaque spécialité. L’apparente variabilité des méthodes de triage, militaires ou civiles, françaises ou internationales, repose sur un socle commun dont les codes de couleurs sont une des composantes. Depuis des décennies le triage a répondu aux diverses situations exceptionnelles impliquant de nombreuses victimes en l’absence de fondements scientifiques. Sa mise en œuvre militaire sur les terrains de conflits et civile lors de « tuerie de masse » balistiques terroristes contribue à lui donner une base scientifique. Sa pratique, longtemps réservée aux seuls médecins est initiée par les secouristes à l’avant selon des critères plus simples. Le résultat recherché est la mise en œuvre de gestes élémentaires de sauvegarde afin de réduire le nombre de morts ainsi que la morbidité des victimes. Les événements récents ont renforcé la pertinence de former les populations et les professionnels de santé primo-intervenants à la réalisation de gestes simples dans le but de secourir et limiter drastiquement les morts évitables dans les toutes premières minutes. Le dénombrement et la traçabilité des victimes catégorisées puis triées médicalement nécessitent un support, papier ou informatique qui permet d’évaluer la qualité du triage et son degré de fiabilité.
APA, Harvard, Vancouver, ISO, and other styles
7

Balssa, Floriane, Véronique Lespinet-Najib, and Isabelle Bazin. "Éthiques inclusives en éducation." In Éthiques inclusives en éducation, 161–82. Champ social, 2023. http://dx.doi.org/10.3917/chaso.kohou.2023.01.0162.

Full text
Abstract:
Cet article questionne la place du FALC pour une éducation plus inclusive en France. Le Facile à Lire et à Comprendre (FALC) est un ensemble de règles permettant de simplifier un document afin de le rendre plus accessible aux personnes ayant des difficultés de lecture et de compréhension. Actuellement, le FALC est peu utilisé dans l’éducation en France contrairement à d’autres pays européens comme l’Allemagne par exemple. C’est pourquoi dans ce travail, nous nous interrogerons sur la place que le FALC peut prendre dans le milieu scolaire dit ordinaire. Tout d’abord, nous présenterons les origines et le principe du FALC. Nous discuterons ensuite du besoin d’adaptation du FALC afin qu’il puisse s’inscrire dans une démarche d’enseignement en école élémentaire. Enfin, nous exposerons la méthode de Recherche-Action mise en place pour adapter le FALC à une problématique d’enseignement en école élémentaire.
APA, Harvard, Vancouver, ISO, and other styles
8

Gilles, Guillaume. "LINK WRAY, À LA RECHERCHE DU SON SALE ET SAUVAGE." In Quand la guitare [s']électrise!, 227–78. Sorbonne Université Presses, 2022. http://dx.doi.org/10.70551/yslk1028.

Full text
Abstract:
Si la guitare électrique est devenue l’instrument symbolique du rock à partir des années 1960, le timbre saturé auquel on l’associe communément dans ce genre musical n’a pas attendu les déluges de larsens de Jimi Hendrix, de Jeff Beck ou de Jimmy Page pour s’imposer dans le rock. Plus tôt déjà, dans le rock’n’roll américain, des guitaristes comme Chuck Berry, Grady Martin, Mickey Baker se sont intéressés aux possibilités sonores et expressives de la distorsion. Par un travail d’expérimentation sur la surcharge de signal, ces guitaristes se sont créé de toutes pièces une identité sonore au cœur des timbres saturés. Ce texte s’attache plus directement à retracer la quête du son sale et sauvage de Link Wray, exemple emblématique des changements survenus entre le rock’n’roll et le rock anglais qui profita de la nouvelle expressivité offerte par ces timbres inouïs. Pour ce faire, nous utiliserons une méthode d’analyse comparative s’articulant autour d’approches complémentaires, de la phénoménologie la plus élémentaire à une lecture sociale des changements musicaux. Après un rapide passage en revue des effets, timbres et modes de jeu de guitaristes électriques des années 1950 (« slapback » de Scotty Moore, trémolo de Bo Diddley, « fuzz » de Grady Martin…), nous observerons comment Link Wray est parvenu à anticiper les nouvelles possibilités offertes par la guitare électrique: la recherche du son saturé, le développement du power chord par lesquels Wray illustrait sa posture à l’égard de la dureté du quotidien. Nous verrons finalement par l’analyse de Rumble comment la guitare électrique a pu devenir le symbole d’une certaine sauvagerie du rock, à travers le caractère agressif, menaçant, indomptable dont elle a pu donner, tour à tour ou simultanément, l’image.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Méthodes élémentaires"

1

Prud'homme, Pamela, Simon Aubin, and Pierre-Luc Cloutier. Revue de littérature sur la composition des poussières de bois brûlé. IRSST, December 2024. https://doi.org/10.70010/wmat6356.

Full text
Abstract:
Résumé L’année 2023 a été marquante pour l’industrie forestière québécoise alors que plus de 1 000 000 d’hectares de forêt ont été ravagés par les feux. La transformation du bois brûlé soulève de nombreuses questions sur la santé et la sécurité des travailleurs, notamment sur la manière de mesurer l’exposition aux poussières de bois brûlé dans les scieries. Sachant qu’il n’existe pas de méthode permettant d’évaluer spécifiquement l’exposition professionnelle aux poussières de bois brûlé, l’objectif principal de ce rapport consiste à effectuer une revue de la littérature pour déterminer leur composition. Selon cette composition, des méthodes de prélèvement et d’analyse pourraient être suggérées, puis des effets potentiels sur la santé des travailleurs pourraient être identifiés. Pour la revue de la littérature, aucun article traitant spécifiquement des poussières de bois brûlé (issu de feux de forêt) n’a été repéré. Toutefois, 13 articles sur la composition du bois torréfié et des biochars ont été retenus pour analyse, car ces matériaux se rapprochent du bois brûlé manipulé par les travailleurs. Le principal constat de ces articles est que la composition du bois torréfié et des biochars dépend des conditions de combustion (température, durée, présence d’oxygène, etc.) et du substrat de bois (espèce d’arbre et conditions de croissance). L’hétérogénéité de ces conditions lors des feux de forêt fait que la composition du bois brûlé manipulé par les travailleurs est très variable. Il s’agit d’une limite importante pour tirer des conclusions bien définies. Plusieurs groupes de composés ont été identifiés et mesurés dans le bois torréfié et les biochars, notamment la composition chimique élémentaire, les oxydes, les hydrocarbures aromatiques polycycliques (HAP), le pourcentage de matière organique et les métaux. Dans les biochars de bois, qui sont du charbon de bois, les résultats ont révélé qu’ils sont principalement composés de carbone issu de la dégradation de la cellulose, de l’hémicellulose et de la lignine. Les oxydes et les métaux sont présents dans le bois brûlé, mais dominent dans les cendres. Les HAP sont présents en faible quantité ou sous les limites de détection des méthodes utilisées. D’après ces résultats, il est suggéré de poursuivre la surveillance habituelle de la qualité de l’air dans les scieries. De plus, en présence de bois brûlé, les mesures suivantes sont recommandées : Fraction inhalable des particules (mesure gravimétrique non spécifique); HAP; Métaux. Aucun seuil d’exposition acceptable ne peut être proposé pour les poussières de bois brûlé en raison du manque de données sur les effets sur la santé. De plus, aucun indicateur spécifique ne peut être recommandé pour le suivi de l’exposition aux poussières de bois brûlé étant donné la variabilité de la composition de la poussière. La revue de la littérature n’a pas apporté d’information précise ni robuste concernant les effets potentiels supplémentaires des poussières de bois brûlé sur la santé comparativement aux poussières de bois sain. Selon les sources consultées, les poussières de bois brûlé sont peu documentées et non réglementées (incluant le Règlement sur la santé et la sécurité du travail). La documentation et la caractérisation plus détaillées des expositions à ces poussières par des évaluations environnementales en hygiène du travail permettraient d’identifier des contaminants dont les effets sur la santé mériteraient des actions préventives spécifiques afin de prévenir des atteintes néfastes sur la santé chez les travailleurs exposés aux poussières de bois brûlé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography
We use cookies to improve our website's functionality. Learn more