Tesis sobre el tema "Mesure interne"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Mesure interne.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Mesure interne".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Outini, Mehdi. "Mesure de la cinématique interne des galaxies en spectroscopie sans fente". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1205/document.

Texto completo
Resumen
La spectroscopie sans fente a longtemps été considérée comme une technique compliquée de part ses effets d’auto- et d’inter-contamination. Toutefois, depuis l’ère des instruments du Télescope Spatial Hubble qui offrent un bruit de fond faible et une bonne résolution spatiale, la spectroscopie sans fente est devenue un outil largement utilisé pour les sondages spatiaux astrophysiques et cosmologiques. Dans ce contexte, nous nous sommes intéresser à l’application de cette technique pour l’étude individuelle d’objets. Dans les sondages actuels, l’analyse de ces spectres s’effectue généralement à partir de méthodes inverses qui ne tiennent pas compte de l’effet d’auto-contamination et mé- langent donc les propriétés morphologiques et spectrales de la galaxie. Les objectifs de cette thèse sont tout d’abord de prendre en compte cet effet de contamination qui dégrade la résolution spec- trale effective en fonction de l’extension spatiale de la source, afin de mesurer plus précisément le redshift et autres propriétés spectrales intégrées. Nous explorons aussi la faisabilité de la mesure de quantitées spatialement résolues telle que la cinématique interne des galaxies. Nous construisons alors un modèle complet qui peut être quantitativement comparé aux observations actuelles dans une approche forward. Ce modèle est par la suite testé sur des données sélectionnées des relevés GLASS et 3D-HST, afin de contraindre en particulier le redshift et les paramètres cinématiques modélisant la courbe de rotation de la galaxie. Notre approche forward permet d’atténuer l’effet d’auto-contamination et donc d’améliorer la précision sur la mesure du redshift. Dans un sous-échantillon de galaxies spirales isolées et résolues, il est alors possible de contrainte assez significativement les paramètres cinématiques. Nous étudions également les systématiques liées aux hypothèses de notre modèle grâce à des simulations avec les données du relevé de spectroscopie à champ intégral MaNGA, qui tendent à montrer que la mesure de ces paramètres reste assez difficile pour la plupart des données récentes de spectroscopie sans fente. Néanmoins, ces simulations indiquent que le modèle forward contraint relativement bien le redshift. Enfin, ces travaux montrent des applications prometteuses pour les futures grands relevés spectroscopiques tel que Euclid
Slitless spectroscopy has long been considered as a complicated and confused technique because of its self- and cross-confusion effets. However, since the era of the Hubble Space Telescope (HST) instruments which offer a low background and fine spatial resolution, slitless spectroscopy has become an adopted cosmological survey tool to study galaxy evolution from space. Within this context, we investigate its application to single object studies. In recent surveys, the spectra analysis is usually done using backward extraction which mixes spatial and spectral properties and therefore does not take into account self-confusion effect. The goals of this PhD is firstly to include this effect which degrades the effective spectral resolution (which depends on the extent of the source), in order to make the redshift and other integrated spectral features measure- ments more accurate. We also explore the feasibility to measure spatially resolved quantities such as galaxy kinematics. We build a complete forward model to be quantitatively compared to actual slitless observations. The model is tested on selected observations from 3D-HST and GLASS surveys, to estimate redshift and kinematic parameters (modeling the galaxy rotation curve) on several galaxies mea- sured with one or more roll angles. Our forward approach allows to mitigate self-confusion effect, and therefore to increase the precision of redshift measurements. In a sub-sample of well-resolved spiral galaxies from HST surveys, it is possible to significantly constrain galaxy rotation curve pa- rameters. We also study the systematics effects induced by the hypothesis of our model by building slitless simulations with the data of the integral field spectrograph survey MaNGA. These simu- lations suggest that the precise measurement of the kinematics parameters is difficult for most of the current slitless observations. Nethertheless, they point out that this forward model contrains significantly well the redshift. Finally, this work is promising for future large slitless spectroscopic surveys such as Euclid
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ould-Rouis, Meryem. "Intermittence interne pour un scalaire passif en turbulence pleinement développée". Aix-Marseille 2, 1995. http://www.theses.fr/1995AIX22068.

Texto completo
Resumen
Cette etude a pour objectif de mieux preciser les mecanismes qui gouvernent le melange d'un scalaire passif tel que la temperature. Elle etablit une liaison directe entre les equations de conservation et les proprietes des increments de temperature caracterisant le phenomene d'intermittence interne. Elle conduit a une equation de transport, a travers les echelles r, des moments de l'increment du scalaire (et du carre du module du vecteur increment de vitesse). Nos resultats retrouvent, a l'ordre le plus faible, les relations classiques de la litterature. Pour les ordres superieurs, on etablit une equation de transport de la pdf correspondante. La solution pdf du scalaire est subordonnee a la determination de deux moyennes conditionnelles, qui caracterisent les couplages avec le champ de vitesse et avec la dissipation de temperature. La solution pdf de vitesse depend de quatre moyennes conditionnelles relatives aux couplages avec le champ de vitesse, le gradient de pression, la dissipation de l'energie cinetique et le gradient du carre de l'increment de vitesse. Les hypotheses de fermeture sur lesquelles reposent nos analyses mathematiques concernent ces divers couplages et elles appellent a des verifications experimentales. Celles-ci sont principalement obtenues a partir de mesures simultanees des fluctuations de vitesse longitudinale et de temperature, par anemometrie a fils chauffes, dans deux ecoulements presentant des proprietes de conditions aux limites inverses- une couche limite sur paroi chauffee et un jet chauffe
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

FLEURY-CANET, ISABELLE. "Thermographie infrarouge de la chambre interne de Tore Supra : mesure et interprétation". Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX11283.

Texto completo
Resumen
L'interaction plasma-paroi intervient dans tous les tokamaks et notamment sur tore supra. Les consequences de cette interaction ont des effets negatifs sur le plasma. Le diagnostic thermographie infrarouge permet un controle des composants soumis a un flux thermique important (points chauds) et cela pendant les chocs. Ce memoire presente la conception et la mise en uvre de ce systeme ainsi que son utilisation. L'ensemble optique et mecanique, appele endoscope, est concu afin de visualiser n'importe quel objet a l'interieur de la machine. L'evolution de la temperature de la tete du limiteur pompe horizontal est observee au cours de chocs. L'effet benefique du divertor ergodique sur la puissance deposee sur cette tete est confirme. Les longueurs de decroissance radiales de la chaleur (1q) deposee au bord du plasma sont evaluees ainsi que les temperatures maximales (tmax) atteintes par le limiteur lors des chocs sans divertor (1q=0,9 cm, tmax=440#oc) ou avec un courant divertor de 40 ka (1q=2,5 cm, tmax=230#oc). Les differentes structures de depot de puissance dues aux perturbations magnetiques engendrees par le divertor sont mises en evidence par le thermogramme infrarouge. Ce diagnostic thermographie infrarouge est donc non seulement indispensable pour le controle de la chambre interne de tore supra, mais s'avere etre la principale source d'informations en ce qui concerne la physique du plasma de bord de tore supra
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Dridi, Walid. "Mesure de la section efficace de capture neutronique de l’234U à n_TOF au CERN pour les réacteurs nucléaires de Génération VI". Evry-Val d'Essonne, 2006. http://www.biblio.univ-evry.fr/theses/2006/Interne/2006EVRY0017.pdf.

Texto completo
Resumen
Dans le cadre des études pour les réacteurs du futur, un programme de recherche se concentre sur l’utilisation du cycle thorium. Le principal avantage de ce cycle, comparé a celui de l’uranium est la minimisation de la production d’actinides mineurs, dont l’impact radiologique à long terme est le problème majeur du secteur électronucléaire. Afin d’avoir des calculs plus réalistes pour ce type de filière, une amélioration en terme de précision des bases de données nucléaires est nécessaire, en particulier, la section efficace de la réaction 234U(n,γ). Dans le cadre d’une collaboration internationale, une nouvelle mesure a été effectuée auprès de l’installation n_TOF au CERN en utilisant la méthode de temps de vol neutronique. Pour ce sujet le détecteur de capture utilisé est un calorimètre d’absorption totale 4π à base de BaF2. Pour déterminer l’efficacité de détection et comprendre la réponse du calorimètre nous avons utilisé des simulations Monte Carlo, grâce aux codes Geant4 et MCNPX. Nous avons effectué la soustraction de bruit de fond et des corrections du temps mort et empilements. Ensuite les paramètres de résonances, entre 0,03 eV et 2 keV, présentés dans ce travail ont été déduits à l’aide du code SAMMY, basé sur la théorie de matrice-R. Outre les paramètres de résonances, l’étude de leur valeur moyenne et de leur distribution a fait l’objet de ce travail
Accurate and reliable neutron capture cross sections are needed in many research areas, including stellar nucleosynthesis, advanced nuclear fuel cycles, waste transmutation, and other applied programs. In particular, the accurate knowledge of 234U(n,γ) reaction cross section is required for the design and realization of nuclear power plants based on the thorium fuel cycle. We have measured the neutron capture cross section of 234U, with a 4π BaF2 Total Absorption Calorimeter (TAC), at the recently constructed neutron time-of-flight facility n_TOF at CERN in the energy range from 0. 03 eV to 1 MeV. Monte-Carlo simulations with GEANT4 and MCNPX of the detector response have been performed. After the background subtraction and correction with dead time and pile-up, the capture yield from 0. 03 eV up to 2 keV was derived. The analysis of the capture yield in terms of R-matrix resonance parameters is discussed. In addition to the resonance parameters, a study of their mean value and distribution is included in this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Daleau, Pascal. "Une méthode de mesure de la résistivité interne des fibres de purkinje : applications fondamentale et pharmacologique". Poitiers, 1990. http://www.theses.fr/1990POIT2315.

Texto completo
Resumen
Le but de ce travail est la mise au point d'une methode simple permettant de detecter des variations de la resistance des jonctions intercellulaires cardiaques sous l'effet d'actions pharmacologiques. La resistivite interne ri, somme des resistivites jonctionnelle et cytoplasmique en serie, est mesuree sur une portion de fibre de purkinje de dimensions connues ou la resistance extracellulaire (en parallele avec la resistance interne) est rendue tres elevee par du mannitol. La fibre est placee dans un dispositif experimental comprenant un compartiment central (gap) large de 2 mm ou circule le mannitol isotonique et deux compartiments lateraux perfuses par une solution de tyrode (simple sucrose gap). La difference de potentiel provoquee par une impulsion sous-liminaire de courant appliquee de part et d'autre du gap est mesuree au moyen de deux microelectrodes intracellulaires placees a proximite des cloisons du compartiment test central. Lorsque les trois compartiments sont perfuses par une solution physiologique, ce dispositif permet de mesurer l'effet de substances appliquees dans le compartiment central sur la vitesse de conduction. L'heptanol applique dans le compartiment central a des concentrations superieures a 7. 10##4 m provoque un bloc de conduction. Avec 3,5. 10##3 m la resistivite interne augmente de 800% en moyenne. Ces effets sont reversibles. Des augmentations de ri de 20 a 140% localisees au compartiment central suffisent pour bloquer la conduction, mais lorsque l'heptanol (1,75 a 3,5 mm) est applique sur toute la fibre, ce bloc n'apparait qu'a des augmentations de ri superieures a 400%. La ouabaine appliquee dans le compartiment test, produit un bloc de conduction a des concentrations superieures a 5. 10##7 m. A 10##6 m, elle augmente ri jusqu'a 3 fois sa valeur initiale en 4 a 5 heures. Comme avec l'heptanol, ri a un peu plus que double au moment du bloc. La carbamyl-beta-methylchol
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Masmoudi, Jalel. "Etude par mesure de l'amortissement interne, des aciers inoxydables ferritiques a 17% de chrome, a faibles teneurs en elements interstitiels stabilises au titane". Paris 6, 1989. http://www.theses.fr/1989PA066341.

Texto completo
Resumen
Dans le cadre des problemes d'economie de matieres premieres, des etudes sur les aciers inoxydables fer-chrome et a faibles teneurs en elements interstitiels (carbone et azote) sont tout a fait d'actualite. Des mesures de l'amortissement interne de ces aciers ferritiques montrent a la temperature ambiante, une contribution importante de l'amortissement d'origine magnetique. C'est par cette propriete qu'on a aborde l'effet de la teneur d'un element stabilisant, a savoir le titane, sur l'evolution microstructurale de ces aciers. On a pu evaluer par cette methode, la quantite de titane necessaire et suffisante pour pieger le maximum des elements interstitiels afin d'empecher la formation des carbures de chrome responsables de la corrosion intergranulaire de ces aciers. Cette teneur depend considerablement des traitements thermiques et mecaniques anterieurs. La reactivite du titane avec les autres elements non metalliques tels que le phosphore a ete abordee dans cette etude. L'etude de la recristallisation de ces aciers par mesures d'amortissement interne nous a permis d'une part de suivre leur evolution structurale, en fonction de la temperature, a partir d'un etat ecroui et d'autre part d'apporter des elements d'information sur l'evolution de la recristallisation en fonction de la teneur en titane
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Chemingui, Makram. "Conceptualisation et validation d'une échelle de mesure de la qualité des travaux d'audit externe et interne : application selon la démarche du paradigme de Churchill". Besançon, 2004. http://www.theses.fr/2004BESA0001.

Texto completo
Resumen
L'approche traditionnelle de la qualité de l'audit débouche sur une incapacité à évaluer la pertinence des travaux d'audit menés. Nous estimons que le contrôle de la qualité de l'audit doit désormais se situer au niveau de la mise en œuvre. Il s'agit désormais de mesurer l'adaptabilité des travaux d'audit réalisés aux zones de risque de l'entreprise. L'objectif principal de cette thèse est de développer des échelles de mesure des travaux d'audit interne et externe permettant l'expérimentation de cette nouvelle approche d'évaluation. En se limitant à une vision " contractualiste " de la firme, la conception et la validation des échelles de mesure sont réalisées dans le cadre d'un protocole expérimental selon le paradigme de Churchill. Articulant des phases quantitatives basées sur deux questionnaires de recherche (141 répondants) et des phases qualitatives (entretiens avec les experts de l'audit), cette démarche a démontré la fiabilité et la validité de la majorité des échelles obtenues
The traditional approach of audit quality is today unable to allow a real evaluation of the adequacy of the audit tasks realized. We believe that the control of audit quality must now repose on the adequacy of the audit programs to the risks facing the firm. The main aim of this thesis is to develop scales, for measuring internal and external audit tasks, which will enable to experiment this new evaluation approach. By considering only the "contractualist" vision of the firm, the design and validation of measurement scales are realised within the framework of an experimental protocol according to Churchill's paradigm. This approach has confirmed the reliability and validity of the majority of the scales obtained, by linking up two distinctive phases: quantitative phases based on two research questionnaires (141 respondents) and qualitative phases based on interviews with audit experts
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Choi, Won Jong. "Variation de structure du polycarbonate vitreux pendant l'essai de traction observe par mesure du module d'young et du frottement interne". Poitiers, 1986. http://www.theses.fr/1986POIT2280.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Rakotomanana, Charles Rodin. "Caractérisation mécanique d'un matériau composite carbone-époxy à l'aide d'un dispositif de torsion résonante spécifique à la mesure de l'amortissement interne". Bordeaux 1, 1989. http://www.theses.fr/1989BOR10588.

Texto completo
Resumen
Les comportements mecaniques d'un materiau composite sous sollicitation cyclique de torsion ont ete etudies par la mesure de sa capacite d'amortissemente interne w/w. L'evolution de celle-ci avec certains parametres physiques tels que la contrainte de cisaillement, la temperature, l'orientation des fibres. . . A ete examinee sur un composite en carbone-epoxy sans oublier les phenomenes thermiques se manifestant au cours d'une telle sollicitatin. Pour cela, la conception et la realisation d'un banc d'essai de torsion resonante ont ete necessaires
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Prioul, Claude. "Influence d'un changement en hydrogène sur les évolutions structurales d'alliages Fe-Ni-C, étudiées entre 4,2 et 300k par mesure du frottement intérieur". Paris 11, 1985. http://www.theses.fr/1985PA112131.

Texto completo
Resumen
La technique du frottement intérieur a permis, d’une part de caractériser la transformation martensitique intervenant entre 225 et 4,2K dans les alliages Fe-Ni-C chargés en hydrogène, d’autre part de préciser les premiers stages de mobilité du carbone et/ou de l’hydrogène, lors du réchauffage de la structure martensitique récemment trempée, entre 4,2 et 300K. Trois modes de transformation martensitique ont été mis en évidence (« burst », athermique et isotherme). L’influence exercée par l’hydrogène sur le développement de ces trois modes de transformation peut être analysée de manière analogue à celle du carbone : stabilisation de la phase austénitique et renforcement de la structure. Lors du réchauffage de la martensite récemment trempée, un phénomène de relaxation de type SNOEK a été observé, donnant naissance à un pic de frottement intérieur à 250K pour une fréquence de 1,5 Hz. Dans le cas des alliages chargés en hydrogène, un pic de relaxation, associé à une interaction hydrogène-dislocations, apparaît à 150K. Aucune interaction notable entre le carbone et l’hydrogène n’a pu être notée
The martensitic transformation developing in the 225-4. 2K temperature range is characterized, using the internal friction technique, in Fe-Ni-C alloys doped with hydrogen. Furthermore, a study of carbon and/or hydrogen rearrangement in virgin martensite is presented. Hydrogen and carbon are shown to induce similar effects on the different martensitic transformation modes (burst, athermal and isothermal): a stabilization of the ɣ phase, as well as a strengthening of the lattice against the shear transformation? When reheating virgin martensite in the 4. 2-300K temperature range, two relaxation processes are observed for 1. 5 Hz experiments: - the first one, at 150K, has been associated to a hydrogen-dislocations interaction. – The second one, at 250K, is interpreted in terms of a SNOEK like relaxation resulting from reversible carbon redistribution in the screw dislocation stress field
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Beaumont, Tiffany. "Apport de l'impression 3D pour la réalisation de familles de fantômes d'étalonnage dédiés à la personnalisation de la mesure en dosimétrie interne". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS283/document.

Texto completo
Resumen
Après l’incorporation de radionucléides dans l’organisme, l’imagerie quantitative en médecine nucléaire et l’anthroporadiométrie sont utilisés pour quantifier l’activité retenue. L’étalonnage de ces systèmes in vivo peut être amélioré afin de tenir en compte de la variabilité individuelle. En vue d’optimiser la mesure de l’activité retenue, des fantômes d’étalonnage innovants ont été réalisés par impression 3D. L’infographie 3D a été utilisée pour la conception, en parallèle avec un travail d’ingénierie permettant l’inclusion de radionucléides et l’adaptation aux besoins des utilisateurs. Un jeu de fantômes thyroïdiens adapté à l’âge a été développé et utilisé pour améliorer la mesure anthroporadiométrique thyroïdienne des enfants. À la suite d’une étude systématique, les coefficients d’étalonnage des installations de routine et de crise de l’IRSN ont été déterminés pour l’adulte et les enfants de 5, 10 et 15 ans. Un fantôme thyroïdien pathologique a été développé en plus du jeu de fantômes thyroïdiens dédié à la crise pour améliorer la mesure de fixation thyroïdienne en médecine nucléaire. Une étude multicentrique a été réalisée pour optimiser l’étalonnage afin de mieux personnaliser le traitement des pathologies bénignes de la thyroïde. Pour l’anthroporadiométrie pulmonaire, une famille de fantômes de poitrine a été développée pour améliorer la surveillance des travailleuses du nucléaire. Finalement, ce travail de recherche a permis de développer des fantômes adaptés aux besoins et de démontrer leur utilité pour la quantification de l’activité en dosimétrie interne
Following the incorporation of radionuclides in the body, quantitative imaging in nuclear medicine and in vivo spectrometry measurements are used to quantify the retained activity. The calibration of these in vivo systems can be improved to take account of individual variability. To optimize the measurements of the activity retained, innovative calibration phantoms were created and manufactured by 3D printing. 3D computer graphics were used for the design, coupled with an engineering work allowing the inclusion of radionuclides and the fit to users’ needs. A set of age-specific thyroid phantoms has been developed and used to improve the thyroid in vivo measurement of children. Following a systematic study, the calibration coefficients for IRSN emergency and routine installations were determined for adults and 5, 10 and 15 year old children. A pathological thyroid phantom has been developed in addition to the set of thyroid phantoms dedicated to the emergency to improve the thyroid uptake measurement in nuclear medicine. A multicentre study was carried out to optimize the calibration so that treatment of thyroid benign diseases moves towards a better personalization. For lung in vivo measurement, a set of breast phantoms has been developed to improve the monitoring of female workers. Finally, this research work has allowed developing several phantoms adapted to the needs and their usefulness was proven for the quantification of the activity in internal dosimetry
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Taccola-Lapierre, Sylvie Gilles Philippe. "Le Dispositif prudentiel Bâle II, autoévaluation et contrôle interne Une application au cas français /". [S.l.] : [s.n.], 2008. http://tel.archives-ouvertes.fr/tel-00348300/fr.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Geoffray, Marie-Maude. "Mesure de l’efficacité clinique d’une intervention précoce dans une population d’enfants avec un Trouble du Spectre de l’Autisme : validité interne et externe du résultat". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1134.

Texto completo
Resumen
Intervenir précocement pour diminuer la sévérité du Trouble du Spectre de l’Autisme (TSA) est à ce jour une évidence. En revanche, le type d’intervention précoce à appliquer ne fait pas consensus . Certaines interventions montrent une efficacité d’intensité faible à modérée dans des essais randomisés contrôlés. Mais ces derniers comportent de nombreux biais méthodologiques qui remettent en question la validité du résultat. Nous avons fait l’hypothèse qu’une intervention précoce avec le modèle de Denver (Early Start Denver Model-ESDM) permettrait de diminuer la sévérité de la symptomatologie d’enfants avec TSA âgés de moins de 3 ans. Dans l’étude pilote, l’objectif était d’évaluer l’effet d’une intervention ESDM 12 heures par semaine pendant 1 an dans une population de 19 enfants avec TSA. Le résultat montrait une amélioration significative du développement global avant après intervention. La taille d’effet en langage réceptif était la plus importante avec un d de Cohen à 0.72. Ces résultats étaient comparables avec ceux d’études publiées précédemment. La majorité des professionnels et des parents étaient satisfaits de cette intervention. L’adhérence au traitement en termes de dose était de 8.3±1.2 heures au lieu de 12 heures par semaine dans cette étude pilote. Cette diminution de dose était majoritairement due à l’absence des professionnels. Nous discutons, ici, le choix de notre critère de jugement principal pour mesurer l’efficacité clinique réelle de l’intervention. Ce choix était difficile du fait du manque d’outils qui mesurent avec précision le changement dans la symptomatologie ou le handicap dans le TSA . Pour confirmer ou infirmer notre hypothèse, un essai randomisé contrôlé multicentrique comparant 2 bras en parallèle a été mis en place. Le groupe expérimental recevait une intervention ESDM, conduite majoritairement par une équipe pluridisciplinaire, 12 heures par semaine, pendant 2 ans. Le groupe contrôle recevait les interventions habituellement proposées dans la communauté. L’essai a été conçu pour avoir une puissance élevée et être à haut niveau de preuve selon les recommandations Cochrane . Nous avons pour cela mesuré le nombre nécessaire de sujet de notre population à partir d’une différence de 15 points à l’échelle de Mullen entre nos deux groupes, un risque alpha de 0,5 et un risque bêta à 90%. Étant limités par le nombre de places disponibles en intervention ESDM, nous avons mis en place une randomisation 1:2. La phase d’inclusion s’est terminée en mars 2019. 61 enfants ont été inclus dans le groupe ESDM et 119 enfants dans le groupe contrôle. Nous discutons la validité interne et externe ainsi que la pertinence clinique selon les différents résultats possibles. Si nous montrons une efficacité, une étude coût-conséquence permettra une mesure de l’efficience de ce traitement. Une étude de suivi a par ailleurs débuté et mesurera l’effet à 5 ans, d’une intervention ESDM précocement reçue, sur la symptomatologie TSA et le niveau scolaire des enfants. Il est bien évidemment essentiel de mesurer l’efficacité clinique et l’efficience à long terme des interventions mais la recherche interventionnelle implique également d’autres mesures et observations. Ainsi, la connaissance des facteurs médiateurs de l’effet de l’intervention, comme celle des facteurs modérateurs permettra d’aller vers des interventions personnalisées, qui agissent précisément sur les processus physiopathologiques impliqués dans le TSA. Une meilleure connaissance de ces facteurs mais aussi de tous les potentiels obstacles ou facilitateurs au transfert dans d’autres contextes de l’intervention permettra de plus de développer des interventions transférables et durables. Nous concluons sur l’importance de prévoir des temps de phase pilote suffisants pour estimer les différents facteurs impliqués et modifier l’intervention initialement prévue si nécessaire, avant de réaliser des essais d’efficacité ou d’efficience coûteux
Early intervention in order to decrease the severity of Autism Spectrum Disorder has come to be self-evident . However, there is no consensus on the type of early intervention, as we have previously shown in a literature review . Some interventions have shown weak to moderate effects in randomized controlled trials. But many methodological biases call into question the validity of those results. We have chosen to implement and evaluate the Early Start Denver Model (ESDM) at our intervention center. Our hypothesis was that ESDM intervention will diminish the severity of ASD symptoms in children under 3 years old. In our pilot study, we evaluated the effect of a 12 hours per week ESDM intervention, during one year, in a population of 19 children with ASD. The primary measure was the global development, measured by the Mullen Scales of Early Learning. Our results show a significant improvement in global development pre/post intervention. Effect size in receptive language was the most important with a Cohen’s d of 0.72. These results are comparable to those of previous published studies. This trial enabled also to data collection on the feasibility of implementing this intervention in our context. Most parents and professionals were satisfied of the intervention. Treatment adherence was of 8.3±1.2 hours per week instead of 12 hours per week during the pilot study. This reduction of intervention dose was largely due to absences (holidays, training) of the professionals delivering the intervention. We discuss here the choice of criteria for the measure of effectiveness of the intervention. This choice was difficult due to the lack of tools measuring precisely the change in ASD symptomatology. To test our hypothesis, a two-parallel, multi-center randomized controlled trial was set up. The experimental group received ESDM intervention, delivered by a multidisciplinary team, 12 hours per week, during the 2 years. The control group received treatment as usual. The protocol has been published. The trial was design to have high power and high-level evidences as defined by the Cochrane recommendations. In order to achieve this, we estimated the simple size for our population from a 15 points difference between the groups on the Mullen scale, an alpha risk of 0.5 and a beta risk at 90%. As we were limited by the number of availabilities for ESDM intervention, we used 1:2 randomization. The inclusion phase ended in March 2019. 61 children were included to the ESDM group and 119 children to the control group. We discuss the internal and external validity, as well as the clinical relevance according to the possible outcomes. If outcomes show effectiveness of the intervention, a cost-consequence study will allow us to measure the efficiency of this treatment. A follow-up study has also started and will measure the effectiveness of ESDM intervention on ASD symptomatology and academic achievements five year after initial inclusion. It is evidently essential to measure the long-term effectiveness and efficiency of early interventions; however, intervention research must also collect other measures and observations. Thus, determine mediators and moderators of the intervention will make it possible to move towards personalized interventions, aiming specifically the physiological processes involved in ASD. Better understanding of these factors, and of all potential barriers or facilitators to the transfer in other contexts, will allow us to develop transferable and sustainable interventions. We will conclude on the importance of pilot studies to estimate the different factors involved. This may allow for modification of the initial intervention if necessary, prior to conducting costly effectiveness or efficiency trial. We also stress the importance of involving clinicians in research. Their practical experience of evaluation and intervention allow the formulation of hypotheses and bring complementary data to that of researchers
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Saidi, Mohamed. "Mesure et analyse de l'état de déformation et d'endommagement interne dans les composites à matrice cimentaire utilisés pour le renforcement des structures de génie civil". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1092.

Texto completo
Resumen
Les composites à matrice cimentaire et renforts textiles, du fait de leur compatibilité mécanique, environnementale et esthétique, sont utilisés sur une large échelle pour la réhabilitation et le renforcement du patrimoine bâti et des ouvrages du génie civil. Sous l'effet de sollicitations mécaniques ou environnementales, les phénomènes d'interaction et d'endommagement entre le renfort textile et la matrice cimentaire s'avèrent plus complexes que dans le cas des composites à matrice polymères. Celles-ci sont liées principalement au comportement fissurant du composite, à la nature fragile de la matrice et à l'adhérence renfort/matrice à prépondérance mécanique. Plus particulièrement, la connaissance et la compréhension des mécanismes de transfert de charge à l'interface renfort/matrice et l'initiation des fissures restent des verrous scientifiques majeurs.Les techniques de mesure classiques utilisées pour la caractérisation du comportement mécanique des composites à matrice cimentaire (extensomètres mécaniques, corrélation d'image digitale, etc.) sont en mesure de donner des informations sur l'état de déformation et de contrainte de la surface du corps d'épreuve. Les différents mécanismes de sollicitation et de dégradation des composants (renfort, matrice, interface) sont déduits en utilisant les approches de la mécanique des milieux continus et de la rupture.Dans ce contexte, ce travail a pour finalité la mise en place et l'adaptation d'un système de mesure intégrable à l'intérieur des composites : capteurs à base de fibres optiques distribuées. Cette technique de mesure est couplée à la corrélation d'image digitale et des jauges en surface des composites. L'objectif principal est d'analyser plus finement les paramètres mécaniques à l'échelle micro et les mécanismes de transfert de charge, d'initiation et de propagation de fissures, ainsi que les mécanismes d'endommagement. Sur la base d'essai de traction uni-axiale couplé à l'instrumentation choisie, une méthodologie d'identification de lois locales d'interaction renfort/matrice est mise en œuvre. La finalité du travail de thèse sera, grâce à ces lois locales, de déterminer les paramètres matériels du composite (longueur de transfert de charge, contrainte de cisaillement à l'interface renfort/matrice, etc.), et l'établissement des paramètres mécaniques caractéristiques du comportement local (fissuration, endommagement, comportement des interfaces, etc.) et global (lois de comportement, ouverture des fissures). Neuf configurations sont testées et analysées dans ce travail : deux types de matrice, deux types de renfort textile et trois taux de renfort. L'adaptation du protocole expérimental et la fiabilité des résultats obtenus sont validées. Le comportement global et local du composite, de la matrice, du textile et de l'interface sont mesurés et analysés. La longueur de transfert de charge, la contrainte de cisaillement à l'interface textile/matrice, l'endommagement de l'interface et l'ouverture des fissures sont quantifiés et discutés. Les effets du taux de renfort, du type de la matrice et du textile, des paramètres mécaniques et géométriques du composite sur sa réponse mécanique en traction sont identifiés et évalués. Ces résultats sont utilisés pour le perfectionnement et/ou le développement des modèles mécaniques du comportement en rigidité et à la rupture des composites à renfort textile et matrice cimentaire
Due to their mechanical, environmental and aesthetic compatibility, textile reinforced cementitious matrix composites are used on a large scale for rehabilitation and reinforcement of the built heritage and civil engineering structures. Under the effect of mechanical or environmental loads, the phenomena of interaction and damage between the textile reinforcement and the cementitious matrix are more complex than in the case of polymer matrix composites. These are mainly related to the cracking behaviour of the composite, the fragile nature of the matrix and the behaviour of the reinforcement/matrix bond. In particular, knowledge and understanding of the load transfer mechanisms at the reinforcement/matrix interface and crack initiation remain a major scientific challenge.Conventional measurement techniques used to characterise the mechanical behaviour of cementitious matrix composites (mechanical extensometers, digital image correlation, etc.) are able to provide information on the strain and stress state at the surface of a tested specimen. The different mechanisms of internal forces and degradation of the components (reinforcement, matrix, interface) are deduced using approaches of continuum and fracture mechanics.In this context, this work aims at implementing and adapting a measurement system that can be integrated into the core of composites: distributed optical fibre sensors. In order to check its reliability, this measurement technique is coupled with classical extensometer technics such as strain gauges implemented on the surface of the composites and digital image correlation. The main objective is to analyse more precisely the mechanical parameters at the micro scale and the load transfer mechanisms, crack initiation and propagation as well as damage mechanisms. On the basis of uni-axial tensile tests, coupled with the chosen instrumentation, a methodology for identifying local laws of reinforcement/matrix interaction is implemented. The aim of the thesis work is, using these local laws, to determine the micro-mechanical parameters of the composite (load transfer length, shear stress at the reinforcement/matrix interface, etc.) and to establish parameters characteristic of the local and global behaviour (cracking pattern and crack opening, damage indicators, constitutive equations, etc.). Nine configurations are tested and analysed in this work: two types of matrix, two types of textile reinforcement and three reinforcement ratios. The adaptation of the experimental protocol and the reliability of the results obtained are validated. The global and local behaviour of the composite, matrix, textile and their interface are measured and analysed. Load transfer length, shear stress at the textile/matrix interface, interface damage and crack opening are quantified and discussed. The effects of reinforcement ratio, matrix and textile type, mechanical and geometrical parameters of the composite on its mechanical tensile response are identified and evaluated. These results are used for the refinement and/or development of mechanical models of the stiffness and fracture behaviour of textile and cement-matrix reinforced composites
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Othmane, Jamel. "L'employabilité : définition, création d'une échelle de mesure et contribution à l'étude des déterminants". Thesis, Lyon 3, 2011. http://www.theses.fr/2011LYO30022/document.

Texto completo
Resumen
Depuis les années 90, l’employabilité est devenue un objet de recherche. Cependant, malgré l’engouement suscité en sa faveur, elle est encore peu étudiée. Le présent travail résulte de ce constat, avec pour objectifs de proposer une définition de l’employabilité et de bien cerner ses dimensions, de développer une échelle de mesure de ce concept, et d’identifier ses déterminants. Sur la base d’une d’arguments théoriques et de conclusions d’une étude qualitative exploratoire avec les acteurs de l’emploi, une définition de l’employabilité a été proposée et ses dimensions ont été ont été précisées. En outre, une échelle de mesure de l’employabilité de 62 items a été créée. Afin de valider sa qualité, cette échelle a été soumise, dans un premier temps, aux tests de l’analyse factorielle exploratoire et de cohérence interne. Dans un second temps, nous avons procédé à la consolidation des résultats de l’analyse factorielle exploratoire à travers une analyse factorielle confirmatoire. La version finale de l’échelle développé et validée comprend 42 items répartis en six dimensions. Par ailleurs, un examen de la littérature a permis de construire un modèle de recherche sur le développement de l’employabilité. Ce modèle théorique propose de retenir conjointement des déterminants organisationnels, personnels, et sociodémographiques. L’opérationnalisation du modèle s’appuie sur une étude quantitative (N=204). Les résultats obtenus montre que la formation professionnelle, l’apprentissage organisationnel, le soutien du supérieur hiérarchique, le sentiment d’efficacité personnelle, et le locus de contrôle interne sont des facteurs favorisant le développement de l’employabilité. Le diplôme, la situation familiale, et l’état de santé se sont également révélés explicatifs de l’employabilité
Since the 90s, employability has become an object of research. However, despite of its relevance this theme is less studied. This thesis is the result of this statement with the aims to propose a definition of employability and determine its dimensions, to develop a measuring scale of the concept, and to identify its determinants. On the basis of theoretical arguments and conclusions extracted from an exploratory study undertaken with actors of employment, a definition of employability was proposed and its determinants were précised. Then, a questionnaire including 62 items is created. In order to evaluate its quality, firstly the questionnaire was subjected to an exploratory factorial analysis and internal coherence tests. And secondly we have consolidated the exploratory factorial structure through confirmatory factor analysis. The final scale developed includes 42 items divided into six dimensions. In additions, thanks to an examination of literature, we built a theoretical model of employability development. This model simultaneously incorporates determinants about organizational, personal, and socio-Demographical variables. The empirical test of the model was performed in the third and final quantitative study with a heterogeneous population working in different companies (N=214). The results obtained show that training, organizational learning, the support of hierarchical superior, the self-Efficacy, and the internal locus of control are factor facilitating the development of employability. The diploma, the professional experience, the family situation, and the health also appeared to explain employability
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Taccola-Lapierre, Sylvie. "Le dispositif prudentiel Bâle II, autoévaluation et contrôle interne : une application au cas français". Phd thesis, Université du Sud Toulon Var, 2008. http://tel.archives-ouvertes.fr/tel-00348300.

Texto completo
Resumen
Les modes de fonctionnement des établissements bancaires ont profondément évolué ces dernières années, sous l'effet de la libéralisation financière et des innovations technologiques. Le développement de nouveaux instruments financiers et la globalisation du marché des capitaux ont généré de nouveaux risques et contraint les autorités prudentielles à faire évoluer les exigences réglementaires pour garantir la résilience du système financier. Avec l'entrée en vigueur, en décembre 2006, de la réforme "Bâle II", les banques ont dû adapter leurs outils de sélection et de mesure du risque de crédit et prendre en compte les risques opérationnels dans le calcul d'exigences de fonds propres. Cette thèse s'intéresse au passage des Accords de Bâle I à Bâle II et explique les évolutions prudentielles qui fondent cette réforme. Le passage du ratio Cooke au ratio Mac Donough, est présenté et analysé pour illustrer la "montée en puissance" de l'autocontrôle et démontrer que contrôle interne apparaît désormais comme la pierre angulaire du nouveau dispositif. Une étude du dispositif de contrôle interne en vigueur en France, notamment via le réglement n° 97-02 modifié du Comité de la Réglementation Bancaire et Financière, est présentée. Puis, à partir d'une étude qualitative menée au sein d'une banque coopérative française, nous proposons des grilles de lecture des contrôles clés, en terme de gouvernance et par typologie de risques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

PEREZ, LOPEZ JOSE ELINS. "Etude de la structure interne de particules de latex par transfert d'energie de fluorescence et modelisation de l'aplanissement de film de latex mesure par microscopie a force atomique". Université Louis Pasteur (Strasbourg) (1971-2008), 1997. http://www.theses.fr/1997STR13225.

Texto completo
Resumen
Une premiere partie de ce travail concerne la structure interne de particules de latex acryliques cur-ecorce etudiee par transfert d'energie de fluorescence non radiatif (tefnr). Nous montrons que la valeur de la t#g du polymere, par rapport a la temperature de synthese, est un parametre important qui determine la structure finale des particules. Les effets d'incompatibilite entre polymeres qui doivent former la structure cur-ecorce des particules est egalement etudie. Nous observons une separation de phases a l'interieur des particules, pbma-pmma, au cours du recuit a une temperature superieure a leur t#g. La presence d'un agent de reticulation dans le cur ou d'un polymere hydrophile dans l'ecorce ameliore, comme on peut s'y attendre, la structure cur-ecorce. Cependant, nous n'avons pas obtenu de resultats indiquant la formation d'une structure cur-ecorce parfaite. Par contre, nous avons eu des resultats qui indiquent la presence d'une interphase diffuse entre le cur et l'ecorce. Nous presentons une nouvelle methode d'analyse des donnees de mesures par tefrn qui nous permet d'obtenir le profil de concentration des polymeres a l'interieur des particules. Cette methode est basee sur la theorie d'inversion et ne contient aucun parametre ajustable. Une deuxieme partie de notre travail concerne l'etude par afm de l'aplanissement de la surface des films de latex. Nous presentons d'abord quelques resultats experimentaux qui indiquent notamment qu'il n'y a pas de correlation entre l'aplanissement et l'interdiffusion des chaines de polymere entre particules voisines. Un modele pour l'aplanissement, base sur la theorie hydrodynamique, est presente. Dans ce modele la tension superficielle est la force qui induit l'aplanissement tandis que la viscoelasticite des particules de latex represente la resistance a l'aplanissement. Le modele rend parfaitement compte de l'aplanissement des particules de latex sans tensioactif ni agent de reticulation. Il est egalement capable de rendre compte des resultats trouves dans la litterature.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Souche, Jean-Claude. "Etude du retrait plastique des bétons à base de granulats recyclés avec mesure de l'influence de leur degré de saturation". Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS097/document.

Texto completo
Resumen
Dans une démarche de valorisation des déchets, les granulats recyclés sont introduits dans la formulation des bétons pour donner naissance à de nouveaux bétons recyclés qui représentent l’objet du projet national RECYBETON et du projet ANR ECOREB. Cette thèse se concentre sur l’étude du béton frais et en particulier la maîtrise du retrait plastique et l’effet du degré de saturation initial des gravillons recyclés sur le comportement des bétons recyclés. Deux familles de bétons avec des rapports eau/ciment respectifs de 0,6 et 0,45 ont été testés en conditions endogènes ainsi qu’en dessiccation (Vvent = 8 m/s). Chaque famille de bétons est constituée d’un béton naturel de référence et de deux bétons recyclés différenciés pas le degré initial de saturation des gravillons recyclés (50 et 120 % de l’absorption nominale). Les résultats expérimentaux soulignent la capacité des gravillons recyclés initialement partiellement saturés à capter rapidement l’eau contenue dans la pâte de ciment, modifiant ainsi le rapport E/C, les propriétés rhéologiques du béton frais et les résistances mécaniques du béton durci. Après saturation en eau, si les conditions de séchage conduisent à un manque d’eau dans le béton, les gravillons recyclés peuvent fournir de l’eau à la pâte. Ils constituent donc un potentiel de cure interne. Le retrait plastique sous vent est explicitement lié au ressuage, au développement de la pression capillaire et à la fissuration. Le temps d’initiation de la fissuration dépend de la quantité d’eau totale dans le béton et de sa capacité à ressuer tandis que l’ouverture de fissure varie avec la valeur de retrait plastique mesurée. Dans cette étude, le développement de la pression capillaire est la cause de la fissuration qui apparaît dès l’entrée d’air dans le matériau poreux. Les différences de comportements les plus importantes sont observées entre bétons ayant une quantité d’eau totale différente plutôt qu’entre bétons naturel et recyclé. La compilation des résultats expérimentaux a permis de mettre sur pied des modélisations qui illustrent les comportements observés. Les pores concernés par l’entrée d’air dans les bétons recyclés et naturels au moment de la fissuration sont les plus gros pores de la pâte. Enfin, un couplage hygrothermique séchage-température du béton peut influer sur le démarrage de l’hydratation
In the context of sustainable development, the reuse of construction and demolition waste is necessary to conserve nonrenewable natural aggregate resources, so recycled aggregates are introduced in concrete mix design. This is the aim of the national projet RECYBETON and the research project ECOREB. This study deals with the fresh concrete and more specifically with shrinkage control and the effects of the initial saturation degrees of recycled coarse aggregates on concrete behavior.Two concrete families, with two different water/cement ratios 0,60 and 0,45, are tested under endogenous and drying (wind speed equal to 8 m/s) conditions. Each concrete family contains a reference natural concrete and two recycled concretes. The initial saturation degree is the difference between them (recycled coarse aggregates saturated or semi saturated).Experimental results underline the capacity of non-saturated aggregates to quickly absorb water from cement paste, modifying the W/C ratio, rheological properties of the fresh concrete and the mechanical strength (at 28 days) of recycled concretes. After saturation in water, recycled aggregates can release water into the cement paste if the undergone drying conditions lead to a lack of water in the cement matrix. The recycled coarse aggregates can be seen as an internal curing potential.Experimental plastic shrinkage studies carried out under drying conditions highlight a link between bleeding, capillary pressure, plastic shrinkage and cracking. It should be pointed out that the initial cracking is dependent on the total quantity of water in the concrete and on its bleeding capacity. The opening cracks vary with the plastic shrinkage values measured during the test. The analysis of the results emphasize that the capillary pressure is the determining parameter and that the air entry value matches the cracks. The major behavior differences are found between concretes with different volumes of water rather than between natural and recycled concretes.Finally, the analysis of all the experimental results have allowed concrete modelling and understanding why concretes do not behave in the same way. When it cracks, the air come in the biggest pores of the concrete paste. Moreover, a hygrothermal coupling exists between the drying and the temperature in concrete. It can affect hydration start up
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Connesson, Nathanaël. "Contribution à l'étude du comportement thermomécanique de matériaux métalliques". Troyes, 2010. http://www.theses.fr/2010TROY0016.

Texto completo
Resumen
Le comportement thermomécanique des matériaux a parfois été utilisé pour déterminer des propriétés en fatigue ou d’autres caractéristiques mécaniques des matériaux. Cependant, ces méthodes empiriques manquent de justification physique. Ce travail de thèse a donc eu pour objectif d’apporter des réponses aux questions : quels phénomènes physiques sont-ils à l’origine des échauffements des matériaux ? Quelles informations peut-on obtenir par l’intermédiaire de mesures thermiques ? Après avoir développé et caractérisé une méthode de mesure très précise de l’énergie dissipée (moyenne ou champs d’énergie dissipée) et du travail plastique par cycle (sollicitations en traction-traction), l’analyse des caractéristiques thermomécaniques de quatre matériaux (un aluminium, un acier ferritique, un acier inoxydable et un acier dual phase) a été effectuée. De nombreuses données expérimentales ont ainsi pu être générées, données permettant d’étudier le comportement de ces matériaux en cours d’écrouissage (dans l’optique d’établir un bilan énergétique cycle par cycle) ou les caractéristiques de l’énergie dissipée de ces matériaux. Généralement, la dissipation d’énergie s’est montrée insensible à la vitesse de déformation, augmente avec la contrainte maximale appliquée, augmente lorsque les matériaux sont écrouis, peut dépendre des temps de re-pos, etc. Ces résultats expérimentaux pourraient servir dans le cadre de la modélisation du comportement des matériaux
Thermomechanical measurements are some-times performed to estimate fatigue limits and other mechanical properties of materials. How-ever, these empirical methods lack physical justification. What are the physical phenomena causing materials self-heating? What information can be obtained through thermal measurements? The aim of this work is to provide answers to theses questions. A precise dissipative energy measurement method (fields or spatially averaged dissipative energy) has been developed. A method to measure the plastic work per cycle (loading in tension-tension) has also been proposed. The thermomechanical characteristics of four materials (aluminum, ferritic steel, stainless steel and dual-phase steel) have then been studied. Much experimental data have been generated during this work, studying the energy behaviour of these materials during strain-hardening process (the aim was to establish an energy balance cycle by cycle) or simply studying the main characteristics of these materials dissipative energy in viscoelastic behaviour. Thus, the dissipative energy was usually proved insensitive to the strain rate, increased with the applied maximum stress, increased with plastic strain, was aging depend, etc. Theses experimental data could be used to feed mathematical models
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Rodriguez, Samuel. "Phénomènes ondulatoires dans les lignes d'admission d'air et leur influence sur les performances des moteurs à combustion interne". Toulouse 3, 2009. http://www.theses.fr/2009TOU30094.

Texto completo
Resumen
L'onde engendrée par le piston pendant la phase d'admission se propage dans le conduit d'air frais et revient au cylindre par réflexions. Les phénomènes acoustiques augmentent jusqu'à 30% la quantité d'air admise par le moteur. La propagation acoustique dans les conduits portant un écoulement moyen turbulent est modélisée en une et trois dimensions. L'impédance d'entrée calculée est comparée aux résultats d'un dispositif expérimental innovant. Une nouvelle méthode de mesure des matrices de transfert en absence d'écoulement est également mise au point. Un couplage non-linéaire de l'impédance d'entrée du circuit d'air avec la chambre de combustion permet le calcul du remplissage en air sur une plage étendue de régimes. L'évolution à plusieurs cylindres est envisagée par la construction de matrices d'impédance
The pressure wave generated by the moving of the piston during the intake stroke of an internal combustion engine propagates in the duct carrying cool gases and comes back to the cylinder by reflections. Acoustic phenomena can increase the amount of air trapped in the engine by 30% and so its performances. Acoustic propagation in ducts carrying a turbulent flow is modelled in one and three dimensions. The input impedance is calculated and compared to the results of a new measurement procedure with steady flows up to Mach number M=0. 15. A new method for measuring transfer matrices without flow has also been developed. Its results agree well with theory. The effect of acoustic properties of intake systems in the amount of air trapped in a one cylinder engine is modelled as a non-linear coupling of the combustion chamber with the input impedance, by a mechanical analogy. The acoustic pressures computed agree fairly well with the pressures measured in two different intake systems of a one-cylinder cold engine. The link between the acoustic properties of the intake duct expressed in the frequency domain alone and the volumetric efficiency of a cylinder has been quantified on a large range of running speed for the first time. In a multi-cylinder engine, the timing difference between intake strokes produces interferences in the intake system. The calculated impedance matrix and the study of phase explain a performance difference between cylinders that occurs in a turbocharged engine
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Daher, Petra. "Analyse spatio-temporelle des structures à grande échelle dans les écoulements confinés : cas de l'aérodynamique interne dans un moteur à allumage commandé". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR100/document.

Texto completo
Resumen
Les mécanismes d’évolution spatio-temporelle des structures turbulentes instationnaires tridimensionnelles, et en particulier ceux rencontrés aux plus grandes échelles, sont à l’origine de phénomènes d’instabilité qui conduisent très souvent à une diminution de la performance des systèmes énergétiques. C’est le cas des variations cycle-à-cycle dans le moteur à combustion interne. Malgré les progrès substantiels réalisés par la simulation numérique en mécanique des fluides, les approches expérimentales demeurent essentielles pour l’analyse et la compréhension des phénomènes physiques ayant lieu. Dans ce travail de thèse, deux types de vélocimétrie par image de particules (PIV) ont été appliqués et adaptés au banc moteur optique du laboratoire Coria pour étudier l’écoulement en fonction de six conditions de fonctionnement du moteur. La PIV Haute Cadence 2D2C a permis d’abord d’obtenir un suivi temporel de l’écoulement dans le cylindre durant un même cycle moteur ainsi qu’identifier ces variations cycliques. La PIV Tomographique 3D3C a permis ensuite d’étendre les données mesurées vers l’espace tridimensionnel. La Tomo-PIV fait intervenir 4 caméras en position angulaire visualisant un environnement de géométrie complexe, confinée, ayant un accès optique restreint et introduisant des déformations optiques importantes. Cela a nécessité une attention particulière vis-à-vis du processus de calibration 3D des modèles de caméras. Des analyses conditionnées 2D et 3D de l’écoulement sont effectuées en se basant principalement sur la décomposition propre orthogonale (POD) permettant de séparer les différentes échelles de structure et le critère Γ permettant l’identification des centres des tourbillons
The unsteady evolution of three-dimensional large scale flow structures can often lead to a decrease in the performance of energetic systems. This is the case of cycle-to-cycle variations occurring in the internal combustion engine. Despite the substantial advancement made by numerical simulations in fluid mechanics, experimental measurements remain a requirement to validate any numerical model of a physical process. In this thesis, two types of particle image velocimetry (PIV) were applied and adapted to the optical engine test bench of the Coria laboratory in order to study the in-cylinder flow with respect to six operating conditions. First, the Time-Resolved PIV (2D2C) allowed obtaining a temporal tracking of the in-cylinder flow and identifying cyclic variabilities. Then tomographic PIV (3D3C) allowed extending the measured data to the three-dimensional domain. The Tomo-PIV setup consisted of 4 cameras in angular positioning, visualizing a confined environment with restricted optical access and important optical deformations. This required a particular attention regarding the 3D calibration process of camera models. 2D and 3D conditional analyses of the flow were performed using the proper orthogonal decomposition (POD) allowing to separate the different scales of flow structures and the Γ criterion allowing the identification of vortices centres
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Mauger, François. "Etude du bruit de fond de la double-desintegration beta sans emission de neutrino dans le detecteur nemo 2 : contribution du radon ambiant et mesure de la pollution interne de la source en bismuth-214". Caen, 1995. http://www.theses.fr/1995CAEN2005.

Texto completo
Resumen
L'experience nemo se propose de tester la nature du neutrino et de mesurer sa masse effective en etudiant la double desintegration beta du molybdene-100. Dans ce type d'experience, la comprehension des differentes sources de bruit de fond est une composante essentielle de l'analyse, le signal eventuel etant de quelques evenements par an a la sensibilite d'un ev. Dans ce memoire, nous presentons les principaux aspects theoriques et experimentaux de la mesure du processus double beta sans neutrino avec une source de molybdene-100 placee dans le detecteur prototype nemo 2. L'objectif de cette etude est d'interpreter les quelques evenements detectes a haute energie dans le canal a deux electrons et d'apprecier la contribution specifique du fond engendre par le bismuth-214. Les evenements issus des desintegrations de ce radio-isotope ont ete selectionnes grace aux cascades beta-alpha vers le plomb-210. Ces evenements ont pu etre signes par la presence d'une trace retardee visible dans la chambre a fils et le signal obtenu s'est avere tres propre. Nous avons mis en evidence la diffusion du radon dans le detecteur et estime sa contribution a la pollution en bismuth-214. Une mesure de la contamination interne de la source a pu etre extraite de cette analyse ainsi que la pollution superficielle due a la diffusion du radon-222. A l'issue de cette etude, il apparait que, dans les conditions de nemo 2, ces polluants d'origines internes et externes induisent, a haute energie, un bruit de fond a deux electrons qui est du meme ordre de grandeur que celui attendu du processus double beta permis. En conclusion, les bruits de fond relatifs a la double-desintegration beta sans emission de neutrino sont bien compris dans l'experience nemo 2 et leur connaissance permet d'envisager une extrapolation a nemo 3
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Vo, Thi Phuong Nga. "Impact de la nouvelle réglementation de Bâle sur la tarification du crédit : application à la banque de détail". Orléans, 2008. http://www.theses.fr/2008ORLE0508.

Texto completo
Resumen
Cette thèse s'intéresse à la dimension opérationnelle du nouveau dispositif de contrôle prudentiel - le Nouvel Accord de Bâle sur les fonds propres (Bâle II). Nos réflexions suggèrent que les développements dans le cadre de l'approche de notation interne du risque peuvent servir à la tarification du crédit bancaire. En concrétisant cette idée, nous sommes amenés à étudier "l'évenement Bâle II" dans la notation des clients, la mesure du risque, l'utilisation des fonds propres, et la tarification du crédit des banques. En particulier, nous proposons l'intégration de la mesure interne du risque et des fonds propres dans la tarification du crédit. Nous montrons à l'occasion de cette thèse que la tarification du crédit bancaire pourrait bien "bénéficier" du nouveau contexte réglementaire. Elle peut d'ailleurs prendre en compte l'impact de la concurrence dans le secteur de banque de détail, en se basant sur l'apport de la clientèle et sur son profil de risque dans une logique de subvention croisée. La thèse est structurée en quatre chapitres qui s'articulent autour de la mise en place de Bâle II et de ses implications dans l'activité de crédit. Le premier chapitre est consacré aux spécificités du Nouvel Accord, à noter la mesure interne du risque de crédit et son impact sur les fonds propres réglementaires. Le second se penche sur la construction du système interne, le processus et l'utilisation des notations. Le troisième chapitre est dévolu à la tarification du crédit avec des paramètres de notation interne, le but étant de proposer une mesure de marge de crédit basée sur les coûts effectifs et propres à chaque emprunteur. Enfin, le dernier chapitre s'interroge sur la mise en place de la tarification dans un contexte de concurrence dans le secteur de banque de détail. La prise en compte du risque et des apports de la clientèle durant une relation de long terme avec la banque permet une mesure d'ajustement de la marge de crédit dans une logique de tarification globale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Duca, Dumitru. "Physico-chemical characterization of size-selected internal combustion engine nanoparticles and original method for measuring adsorption energies on carbonaceous surfaces by laser mass spectrometry". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1R019.

Texto completo
Resumen
Les émissions de nanoparticules carbonées par le transport automobile sont au centre de nombreuses recherches en raison de leur impact sur le climat et la santé humaine. Les normes actuelles de l’Union Européenne régulent le nombre de particules émises ayant des tailles supérieures à 23 nm. Pour contribuer au développement d’une méthodologie de mesure fiable permettant de baisser cette limite à 10 nm, nous avons entrepris (dans le projet H2020 PEMS4Nano) une caractérisation physico-chimique avancée de particules sélectionnées en taille émises par un moteur essence. La composition chimique a été étudiée par spectrométrie de masse, des informations structurelles et morphologiques ont été déduites par microscopie à force atomique, microscopie électronique à transmission et à balayage, et spectroscopie Raman exaltée par effet de pointe. Pour mieux comprendre l’interaction entre la surface et les composés adsorbés, une nouvelle méthode laser de mesure de l’énergie d’adsorption a été développée
Emission of carbonaceous aerosols by combustion-powered ground transport vehicles has a major impact on both global climate and human health. Intensive research efforts are dedicated to the development of robust procedures able to reliably measure particles as small as 10 nm in real-driving conditions, as current European Union regulations are limited to 23 nm. Within the H2020 PEMS4Nano project, we performed detailed physico-chemical characterization of size-selected particulate matter emitted by a gasoline direct injection engine. This included chemical characterization performed with mass spectrometry as well as structural/morphology data obtained with electron and atomic force microscopy together with Tip-Enhanced Raman Spectroscopy. In addition, to gain insight into the interaction between the carbonaceous surface and adsorbed compounds, a novel laser-based method for determining the adsorption energy of chemical species on carbonaceous surfaces was developed
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Lassoued, Imed. "Adaptive monitoring and management of Internet traffic". Nice, 2011. http://www.theses.fr/2011NICE4110.

Texto completo
Resumen
Les mesures de trafic permettent aux opérateurs de réseaux de réaliser plusieurs applications de surveillances telles que l’ingénierie du trafic, l’approvisionnement des ressources, la gestion de réseaux, et la détection d’anomalies. Cependant, les solutions existantes présentent plusieurs problèmes, à savoir le problème de scalabilité, le problème de la détection des changements dans le trafic du réseau, et le problème de la perte d’informations significatives sur le trafic. La principale conséquence de cette tendance est un désaccord entre les solutions de surveillance existantes et les besoins croissants des applications de gestion des réseaux ; Ainsi, l’amélioration des applications de surveillance présente un défi majeur et un énorme engagement pour les grands réseaux. Ce défi devient plus difficile avec la croissance remarquable de l’infrastructure d’Internet, l’hétérogénéité des comportements des utilisateurs et l’émergence d’une large variété d’applications réseau. Dans ce contexte, nous présentons la conception d’une architecture centralisée adaptative qui fournit une visibilité sur l’ensemble du réseau grâce à un système cognitif de surveillance de son trafic. Nous considérons les exigences suivantes dans la conception de notre système de surveillance de réseaux. La première souligne le fait que les vendeurs ne veulent pas mettre en œuvre des outils d’échantillonnage sophistiqués qui donne nt de bons résultats dans certaines circonstances. Ils veulent mettre en œuvre des solutions simples et robustes qui sont bien décrites par une certaine norme (i. E. S’Flow, NetFlow). Ainsi, nous décidons de concevoir une nouvelle solution qui utilise des techniques de surveillance existantes et tente de coordonner les responsabilités entre les différents moniteurs afin d’améliorer la précision globale des mesures. La deuxième exigence stipule que le système de surveillance devrait fournir des informations générales sur l’ensemble du réseau0. Pour ce faire, nous adaptons une approche centralisée qui offre une visibilité sur l’ensemble du réseau. Notre système combine les différentes mesures locales en vue d’atteindre le compromis entre l’amélioration de la précision des résultats et le respect des contraintes de surveillance. Et la dernière exigence indique que le système de surveillance devrait régler le problème de scalabilité et respecter les contraintes de surveillance. Par conséquent, notre système repose sur un module de configuration de réseau qui fournit une solution réactive capable de détecter les changements dans les conditions du réseau et d’adapter la configuration des moniteurs à l’état du réseau. De plus, ils évitent les détails et les oscillations inutiles dans le trafic afin de garder la consommation des ressources dans les limites souhaitées. Le module de reconfiguration du réseau utilise des outils locaux de surveillance et ajuste automatiquement et périodiquement leurs taux d’échantillonnage afin de coordonner les responsabilités et répartir le travail entre les différents moniteurs
Traffic measurement allows network operators to achieve several purposes such as traffic engineering, network resources provisioning and management, accounting and anomaly detection. However, existing solutions suffer from different problems namely the problem of scalability to high speeds, the problem of detecting changes in network conditions, and the problem of missing meaningful information in the traffic. The main consequence of this trend is an inherent disagreement between existing monitoring solutions and the increasing needs of management applications. Hence, increasing monitoring capabilities presents one of the most challenging issues and an enormous undertaking in a large network. This challenge becomes increasingly difficult to meet with the remarkable growth of the Internet infrastructure, the increasing heterogeneity of user’s behaviour and the emergence of a wide variety of network applications. In this context, we present the design of an adaptive centralized architecture that provides visibility over the entire network through a net-work-wide cognitive monitoring system. We consider the following important requirements in the design of our network-wide monitoring system. The first underscores the fact that the vendors do not want to implement sophisticated sampling schemes that give good results under certain circumstances. They want to implement simple and robust solutions that are well described by some form of a standard (i. E. SFlow, NetFlow). Thus, we decide to design a new solution that deals with existing monitoring techniques and tries to coordinate responsibilities between the different monitors in order to improve the overall accuracy. The second requirement stipulates that the monitoring system should provide general information of the entire network. To do so, we adopt a centralized approach that provides visibility over the entire network. Our system investigates the different local measurements and correlates their results in order to address the trade off between accuracy and monitoring constraints. Ands the last requirement indicates that the monitoring system should address the scalability problem and respect monitoring constraints. To this end, our system relies on a network configuration module hat provides a responsive solution able to detect changes in network conditions and adapt the different sampling rates to network state. At the same time it avoids unnecessary details and oscillations in the traffic in order to keep the resulting overhead within the desired bounds. The network reconfiguration module deals with local monitoring tools and adjusts automatically and periodically sampling rates in order to coordinate responsibilities and distribute the work between the different monitors
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Goy, Laurent. "Mesure et modélisation des températures dans les massifs rocheux : application au projet de tunnel profond Maurienne-Ambin". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00642650.

Texto completo
Resumen
Pour les projets de tunnels profonds; la prévision des températures naturelles au rocher est essentielle pour le choix des méthodes de perforation, de ventilation et de refroidissement. Une méthode numérique de prévision des températures a été développée à cet effet, à partir d'un logiciel 2D d'éléments finis. Les températures sont calculées dans un plan vertical du massif, à partir de l'équation fondamentale de la chaleur en conduction pure. La modélisation nécessite la connaissance de cinq paramètres de base que sont: le profil topographique, les températures de surface, la structure géologique, la conductivité anisotrope des roches et le flux géothermique profond. Une méthode de correction du profil topographique permet de prendre en compte la troisième dimension. Différents tests sont effectués sur un profil de montagne idéalisé, pour évaluer le poids des différents paramètres dans la modélisation. Le modèle est appliqué ensuite au massif comprenant le tunnel Maurienne-Ambin, dans le cadre du projet de ligne à grande vitesse entre Lyon et Turin. Une sonde de mesure des températures a été mise au point et utilisée dans les sondages de reconnaissance pour ce projet de tunnel profond (55km sous un recouvrement maximal de 2500m). Les forages nous permettent de déterminer la structure géologique, les valeurs de conductivité des roches et le flux géothermique de la région en appliquant la "méthode des intervalles". La température maximale calculée le long du tunnel est de 48,5°C. La confrontation entre les mesures de température dans les forages et la modélisation permet de valider les résultats, sauf dans les premières centaines de mètres du massif, où les circulations d'eau, qui ne sont pas prises en compte par notre modèle, modifient la distribution des températures.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Pasquier-Guilbert, Nathalie. "Mesures couplées de richesse et de vitesse pour la combustion instationnaire en écoulement stratifié". Phd thesis, Université de Rouen, 2004. http://tel.archives-ouvertes.fr/tel-00008850.

Texto completo
Resumen
La connaissance simultanée de la richesse et vitesse locale est très importante dans de nombreuses applications de combustion et spécialement dans les moteurs à injection directe essence où la flamme se propage à travers une distribution de mélange air-carburant hétérogène. Cette étude reproduit ces hétérogénéités de richesse avec un mélange propane-air dans une chambre de combustion à volume constant. L'influence locale de la richesse et de la vitesse sur la propagation de la flamme est étudiée. La stratification est crée par un jet pulsé riche injecté dans une chambre en mélange pauvre, le mélange étant ensuite allumé. Deux diagnostics optiques ont été utilisés simultanément, la PIV pour la mesure de vitesse et la FARLIF pour la mesure de richesse à froid et en combustion. Les propriétés et gammes d'applications de la PIV et de la FARLIF ont été vérifiées. Ces méthodes ont ensuite été utilisées pour étudier les caractéristiques de la combustion stratifiée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Bouhara, Ammar. "Etude theorique et experimentale de la mesure par thermocouples de la temperature dans un flux gazeux instationnaire : application aux gaz d'echappement d'un moteur". Paris 6, 1987. http://www.theses.fr/1987PA066149.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Van, Wichelen Koen. "Etude d'un magnétomètre vectoriel différentiel RPE pour application en puits de forage". Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10244.

Texto completo
Resumen
Un magnetometre rpe pour application en puits de forage a ete etudie. La mesure est de type vectoriel et differentiel. Grace aux developpements recents concernant les materiaux radicalaires pour la magnetometrie rpe, la technologie choisie offre des perspectives par rapport a l'etat de l'art (technologie flux-gate) pour un fonctionnement jusqu'a des temperatures de 200c environ. Un prototype d'outil de diagraphie operationnel a frequence de resonance de 70 mhz a ete developpe pour valider l'architecture du magnetometre. Des mesures avec cet outil de diagraphie ont ete effectuees dans quelques puits de forage afin de valider sa mise en uvre (evaluation des performances en milieu reel d'application, epreuve de reproductibilite). Les performances du magnetometre rpe sont analysees aussi par comparaison avec un instrument vectoriel et differentiel utilisant la technolotie flux-gate
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Chtourou, Mohamed-Saber. "Efficacité publicitaire sur internet : concept, mesure et antécédents". Aix-Marseille 3, 2003. http://www.theses.fr/2003AIX32008.

Texto completo
Resumen
Eu regard des enjeux que représente Internet, nombreuses études ont vu le jour pour mieux comprendre son efficacité publicitaire. La thèse vient s'inscrire dans ce courant de recherche. Elle étudie spécifiquement la " publicité " que l'auteur distingue des sites web : autre forme de communication mais qui n'obéit pas aux même règles de fonctionnement. La première partie de la thèse est réservée à la définition de l'efficacité de la publicité sur Internet, et à la comparer avec les courants existants de la recherche publicitaire. Un modèle conceptuel général est énoncé. Par la suite l'auteur passe en revue les théories qui étudient l'effet de la répétition, la présence d'images, la taille, l'animation, la perception d'urgence, ainsi que l'implication et l'attitude envers la publicité sur Internet en général. L'effet de ces variables est analysé via 3 études complémentaires réalisées pour deux d'entre elles avec la régie publicitaire Wanadoo ce qui leur a permis de bénéficier de larges échantillons. La troisième étude a été du type quasi expérimental. Plusieurs résultats sont à mentionner : la présence d'images ne favorise pas l'efficacité des annonces sur Internet, elle tend même à la diminuer. Elle semble interagir avec la taille : les images sont bénéfiques quand la taille est grande. La répétition engendre une meilleure mémorisation. Son effet sur l'attitude présente un seuil de saturation. Ce seuil dépend notamment de l'implication et de l'attitude envers la publicité sur Internet en général. Cette thèse ouvre par ailleurs un certain nombre de pistes de recherches notamment sur la spécification de l'effet de l'animation
Advertising still is one of the few revenue sources for companies operating on the Net, other sources being still in experimental stages. Than, many studies tried to understand how the internet can aid the advertiser to achieve its communication goals. The present dissertation tries to contribute to this research trend. The author distinguish the "internet advertising" such banners from the other means of internet communication, because the lasts does not fellow the same mechanisms of action. First part of the dissertation was devoted to the definition of the area of the internet ad effectiveness and to relate it to the literature of the advertising effectiveness on other media. A general conceptual model is proposed. Than the author presents a literature review about the effect of frequency, ad size, image presence, animation, involvement, urge perception and the overall attitude toward internet advertising effect on ad effectiveness. These effects were tested thru 3 different and complementary studies. Two of these studies were performed in collaboration with an Internet ad actor: Wanadoo Regie which allowed an access to an important sample. The third study was performed following a quasi experimental design. These studies led to several important findings: Picture presence is not necessarily an enhancer of advertising effectiveness, it tends to interact with ad size since the pictures seems to increase ad effectiveness only with large ads. Ad frequency seems to enhance the message memorization, it have an inverted u shape effect on the attitude toward the advertising. The saturation level depends both on the audience involvement and its overall attitude toward the internet advertising. Many research perspectives can be proposed with this dissertation especially the explanation of the animation effect
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Desnault, Camille. "Mesure de la section efficace d'électroproduction de photons sur le neutron à Jefferson Lab en vue de la séparation du terme de diffusion Compton profondément virtuelle". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112163/document.

Texto completo
Resumen
La section efficace d'électroproduction de photons sur le nucléon est proportionnelle aux amplitudes au carré de diffusion Compton profondément virtuelle (DVCS) et du Bethe-Heitler ainsi qu'un terme d'interférence de ces deux processus. Sa mesure sur le neutron fut réalisée dans le cadre de l'expérience E08-025 qui s'est déroulée en 2010 dans le Hall A à Jefferson Lab (USA). Par une forte sensibilité au terme d'interférence, elle aura permis l'extraction de trois observables dépendantes des Distributions Généralisées de Partons (GPDs), ainsi que la perspective de séparer par une méthode Rosenbluth le terme |DVCS|².Les GPDs sont des fonctions de structure qui nous permettent de comprendre la structure interne des nucléons en terme de corrélation entre les distributions en position transverse et en impulsion longitudinale des quarks au sein du nucléon. Plus qu'un moyen d'accéder à une image tri-dimensionnelle de la composition élémentaire du nucléon, la détermination des GPDs du neutron permettrait par la règle de somme de Ji l'accès au moment angulaire des quarks dans le nucléon, la pièce manquante à la compréhension du mystère lié au spin du nucléon.Cette thèse aborde le contexte théorique de la mesure de la section efficace d'électroproduction de photons sur le neutron, puis une description de la configuration expérimentale utilisée pour sa réalisation. Elle expose la sélection des données d'intérêt pour cette mesure et présente les résultats obtenus par une méthode d'ajustement des données à une simulation Monte Carlo dont la démarche est expliquée en détails. Pour finir, une étude systématique des résultats achève ce manuscrit
The photon electroproduction cross section off the nucleon is proportional to the deeply virtual Compton scattering (DVCS) and Bethe-Heitler amplitudes squared together with an interference term between these two processes. Its measurement on the neutron has been performed in the framework of the E08-025 experiment which took place in 2010 in Hall A at Jefferson Lab (USA). Thanks to a high sensibility to the interference term, it made possible the extraction of three Generalized Parton Distributions (GPDs) dependent observables, as well as the prospect to extract the |DVCS|² term through a Rosenbluth separation.The GPDs are structure functions which allow to understand the internal structure of nucleons in term of the correlation between transverse spatial and longitudinal momentum distributions of quarks inside the nucleon. More than a way to access a three-dimensional picture of the elementary arrangement of the nucleon, the measurement of GPDs on the neutron would give access by the Ji's sum rule to the angular momentum of quarks in the nucleon, the missing piece for the understanding of the nucleon spin puzzle.This thesis outlines the theoretical context of the measurement of the photon electroproduction cross section off the neutron, and the experimental setup used for its achievement. It describes the selection of the experimental data of interest for this measurement and presents the results obtained from a fitting method of data to a Monte Carlo simulation, which is explained in detail. Finally, a systematic study of the results completes this manuscript
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Le, Guel Fabrice. "Analyse économique du comportement des internautes : mesure, adoption et usages". Rennes 1, 2004. http://www.theses.fr/2004REN1G004.

Texto completo
Resumen
Comment mesurer les usages sur Internet et quels sont les résultats de cette mesure ? Les comportements d'adoption d'un service en ligne sont-ils identiques aux comportements d'adoption hors ligne ? Concernant la mesure des usages, nous observons à partir des 'données de navigation' que les internautes visitent régulièrement une quantité limitée de sites Internet, à l'origine d'un phénomène de persistance des choix. Concernant les déterminants des usages en ligne, nous observons en utilisant l'économétrie qualitative que les déterminants classiques de l'adoption d'une connexion Internet à domicile (les profils socio-économiques) ne sont plus significatifs face à un usage marchand en ligne. Seules les variables liées à la capacité des individus à utiliser Internet (expérience et dextérité de navigation, voisinage social) ressortent. Cela confirme une hypothèse selon laquelle il existe une fracture numérique de 'second niveau' : celle des usages en ligne.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Lecerf, Arnaud. "Développement de la PIV stéréoscopique : Application à l'étude de la propagation de flamme en milieu confiné". Rouen, 2000. http://www.theses.fr/2000ROUES074.

Texto completo
Resumen
Ce mémoire présente le développement et l'application d'une méthode de diagnostique optique permettant d'obtenir une cartographie des trois composantes instantanées de vitesse dans un plan. Ce type de diagnostic est destiné à une meilleure compréhension des écoulements fortement instationnaires tels ceux rencontrés dans un contexte industriel (moteur à combustion interne, jet, flamme). Cette méthode est basée sur un principe stéréoscopique d'imagerie qui, par intercorrélation des couples images de particules (PIV), permet d'extraire le déplacement 3D des traceurs de l'écoulement dans un volume limité à l'épaisseur d'une nappe laser. Dans un premier temps, des tests ont été conduits sur des écoulements simples afin de valider notre technique de mesure et l'ensemble de la chaîne développée, dans des conditions réelles d'application. Notre système stéréoscopique défini ainsi, correctement la turbulence d'un écoulement de grille et les grandes structures 3D (écoulement de type swirl) dans une configuration où l'angle de visée est limité. L'application à la propagation de la flamme en milieu confiné montre qu'il est possible d'envisager des études locales sur le comportement des fronts (phénomènes de délocalisation et de convection). La caractérisation d'un écoulement tourbillonnaire de type " tumble " illustre les perspectives dans la compréhension des mouvements 3D de grande échelle d'une structure organisée. Dans ces écoulements rencontrés dans les moteurs, il est clair que le concept de swirl ou de tumble reposant sur des grandeurs moyennes n'est pas acceptable et les bases de données " moyennes " ne peuvent servir à valider les codes de calcul. Il est donc nécessaire de modéliser l'écoulement tourbillonnaire par son intensité, sa forme de structure 3D ainsi que par ses instabilités rencontrées dans chaque cycle individuel
This dissertation presents the development and the application of an optical diagnostic permitting to get an instantaneous cartography of the three components of velocity in a plan. This type of diagnostic is destined to a better understanding of greatly unstationary flows as those met in an industrial context (internal combustion engines, jets, flames). This method is based on a stereoscopic principle of imagery that, by cross-correlation of couples of particle pictures (PIV), permits to extract the 3D displacement of tracers in a flow inside a volume limited by the thickness of a laser sheet. In the first stage, tests have been driven on simple flows in order to validate our measurement technique and the whole developed system in real conditions. Our defined stereoscopic system in a configuration where the angle of view is limited, correctly describes a grid-turbulent flow and the big 3D structures (swirl typeflow). The application to the propagation of flame in a closed medium, showed that it is possible to consider some local studies on the behaviour of flame fronts (phenomena of delocalisation and convection). The characterization of a tumble-type flow illustrates the perspectives in the understanding of 3D movements of large scale organized structure. In turbulent flows met in engines, it is clear that the concept of swirl or tumble based on average measurements is not acceptable and the “average” data bases are not able to validate numerical results. It is therefore necessary to model the turbulent flows through its intensity and 3D structure shape as well as its instabilities met in every individual cycle
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Rentenier, Arnaud. "Fragmentation de la molécule C60 par impact d'ions légers étudiée en multicorrélation, sections efficaces, spectroscopie d'électrons". Toulouse 3, 2004. http://www.theses.fr/2004TOU30043.

Texto completo
Resumen
Cette thèse présente une étude quantitative des modes de fragmentation du fullerène C60 en collision avec des ions légers (Hn=1,2,3+ , Heq=1,2+) dans le domaine de vitesse 0,1 - 2,3 u. A. . La technique de multicorrélation (ions, électrons, énergie des électrons) employée a permis de dégager certaines dépendances et propriétés des mécanismes de fragmentation (sections efficaces, spectroscopie d'électrons, distributions de taille, énergies cinétiques des fragments, tracé de Campi, énergies d'activation). L'énergie déposée s'est ainsi révélée comme un paramètre important. Les sections efficaces ont été mesurées pour la première fois sur l'ensemble des processus collisionnels. L'ionisation et la capture ne dépendent que de la vitesse de collision. Une loi d'échelle avec l'énergie déposée a été observée pour les sections efficaces de multifragmentation. L'énergie déposée est aussi apparue comme le paramètre principal dans l'évolution des distributions de taille des fragments chargés émis. La spectroscopie des électrons (inédite sur un agrégat), réalisée à un angle d'émission de 35ʿ, a montré des spectres piqués à des énergies d'électron importantes (de 5 à 20 eV). .
A quantitative study of the C60 fullerene fragmentation in collision with light ions (Hn=1,2,3+, Heq=1,2+, in the velocity range 0,1 - 2,3 u. A. ) is presented. The multicorrelation developed between fragment ions and electrons with well defined energy, has enlightened some of the dependences and properties of fragmentation mechanisms (cross sections, electron spectroscopy, size distributions, kinetic energy of fragment ions, Campi's scatter plot, activation energies). The deposited energy hence appeared as an important parameter. Cross sections have been measured, for the first time, for all the collisionnal processes. Ionisation and capture only depends on the collision velocity. On the other hand, scaling laws with the deposited energy have been observed for the cross sections of multifragmentation, which depends on the collision energy and the nature of the projectile. The deposited energy has also been found as an essential parameter to understand the evolution of the charged fragment size distributions. .
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Corbard, Thierry. "Inversion des mesures heliosismiques : la rotation interne du soleil". Nice, 1998. http://www.theses.fr/1998NICE5237.

Texto completo
Resumen
Ce travail est une etude de la rotation interne du soleil par l'interpretation des observations heliosismiques a l'aide de techniques d'inversion. Le soleil est la seule etoile dont on peut determiner de maniere precise la rotation interne ce qui constitue un test pour les nombreux processus physiques entrant en jeu dans les theories d'evolution du moment angulaire. Je presente tout d'abord la theorie permettant de relier la rotation interne du soleil a la structure fine du spectre des oscillations globales oservees puis je detaille les differentes approches du probleme inverse consistant a deduire la rotation de ces observations. Plusieurs ensembles de mesures recentes provenant d'observations realisees au sol ou a bord du satellite soho sont utilises. Je developpe un code d'inversion original base sur une methode de moindres carres regularisee qui assure la regularite de la solution au centre et permet l'introduction de contraintes de surface. L'analyse des differentes observations a l'aide de ce code revele une rotation rigide dans l'interieur radiatif et une rotation differentielle en latitude dans la zone convective. La zone de transition, nommee tachocline, ainsi que la rotation du cur font l'objet d'analyses specifiques. Pour l'etude de la tachocline, j'ai adapte une methode non lineaire qui permet de preserver les forts gradients de rotation caracterisant cette zone. Cette approche, utilisee pour la premiere fois dans le cadre de l'heliosismologie, conduit a une tachocline tres etroite situee sous la zone convective ce qui constitue une contrainte pour les modeles theoriques de cette zone. Finalement, les resultats obtenus a partir de differentes donnees ne permettent pas de conclure definitivement sur la rotation des couches les plus internes mais montrent que les observations actuelles sont compatibles avec une rotation rigide entre la bas de la tachocline et 0. 2 rayon solaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Balduzzi, Marco. "Mesures automatisées de nouvelles menaces sur Internet". Paris, Télécom ParisTech, 2011. http://www.theses.fr/2011ENST0042.

Texto completo
Resumen
Pendant les vingt dernières années, Internet s'est transformé d'un réseau simple de taille limitée à un système complexe de grandes dimensions. Alors qu'Internet était initialement utilisé pOUf offrir du contenu statique,organisé autour de simples sites web, aujourd'hui il fournit en même temps contenu et services complexes (comme chat, e-mail ou le web) ainsi que l'externalisation de calculs et d'applications (cloud computing). Les attaquants ne sont pas indifférents à l'évolution d'Internet Souvent motivées par un florissant marché noir, les attaquants sont constamment à la recherche de vulnérabilités, d'erreurs de configuration et de nouvelles techniques. Ceci afin d'accéder à des systèmes protégées, de voler des informations privées, ou propager du contenu malveillant. A ce jour, peu de recherches ont été réalisées pour mesurer la prévalence et l'importance de ces menaces émergentes sur Internet. Or, les techniques traditionnelles de détection ne peuvent pas être facilement adaptés aux installations de grandes dimensions, et des nouvelles méthodologies sont nécessaires pour analyser et découvrir failles et vulnérabilités dans ces systèmes complexes. CeUe thèse avance l'état de l'art dans le test et la mesure à grande échelle des menaces sur Internet. Nous analysons trois nouvelles classes de problèmes de sécurité sur ces infrastructures qui ont connu une rapide augmentation de popularité: le clickjacking, la pollution de paramètres http et les risque liés au cloud computing. De plus, nous introduisons la première tentative d'estimer à grande échelle la prévalence et la pertinence de ces problèmes
Ln the last twenty years, the Internet has grown from a simple, small network to a complex, large-scale system. While the Internet was originally used to offer static content that was organized around simple websites, today, it provides both content and services (e. G. Chat, e-mail, web) as weil as the outsourcing of computation and applications (e. G. Cloud computing). Attackers are not indifferent to the evolution of the Internet. Often driven by a flourishing underground economy, attackers are constantly looking for vulnerabilities, misconfigurations and novel techniques to access protected and authorized systems, to steal private information, or to deliver malicious content. To date, not much research has been conducted to measure the importance and extent of these emerging Internet threats. Conventional detection techniques cannot easily scale to large scale installations, and novel methodologies are required to analyze and discover bugs and vulnerabilities in these complex systems. Ln this thesis, we advance the state-of-art in large scale testing and measurement of Internet threats. We research lnto three novel classes of security problems that affect Internet systems that experienced a fast surge in popularity (i. E. , ClickJacking, HTIP Parameter Pollution, and commercial cloud computing services that allow the outsourcing of server infrastructures). We introduce the tirst, large scale attempt to estimate the prevalence and relevance of these problems on the Internet
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Bouet, Ségolène. "Analyses des risques de pathologies cancéreuses et non cancéreuses au sein de cohortes de travailleurs de l'uranium". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS274.

Texto completo
Resumen
A ce jour, l’évaluation des risques associés à l’incorporation de radionucléides et l’élaboration des normes de radioprotection en résultant sont principalement basées sur les résultats du suivi épidémiologique de populations exposées aux rayonnements ionisants par voie externe. Les analogies et extrapolations employées dans cette démarche sont entourées d’incertitudes. Afin de pouvoir évaluer la validité des hypothèses retenues dans ce cadre par la Commission Internationale de Protection Radiologique, il est nécessaire de réaliser de nouvelles études épidémiologiques au sein de populations exposées à des émetteurs internes. C’est notamment le cas pour ce qui concerne les expositions à l’uranium, dont les effets sanitaires potentiels demeurent mal caractérisés. Par ailleurs, alors que les effets cancérigènes des radiations ionisantes sont établis et de mieux en mieux caractérisés, l’hypothèse d’un effet de faibles doses de rayonnements ionisants sur le développement de maladies de l’appareil circulatoire a été émise récemment, et demande à être évaluée de manière approfondie.L’objectif de cette thèse est de contribuer à améliorer la connaissance des effets sanitaires des expositions chroniques à de faibles doses de rayonnements ionisants, en particulier du fait de contamination internes par l’uranium, en support à l’évaluation et si nécessaire à la consolidation des normes internationales de radioprotection.La thèse s’articule autour de trois axes:- L’analyse de la mortalité dans une cohorte de 1300 travailleurs d’usines de traitement du minerai d’uranium (F-MILLERS), par comparaison avec la mortalité de la population générale française par calcul de rapports de mortalité standardisés.- L’analyse de l’association entre la dose (interne et externe) et la mortalité par cancers et maladies cardiovasculaires dans une cohorte de 4000 travailleurs de l’uranium: Analyse statistique classique (fréquentiste) incluant une exploration détaillée de l’impact de potentiels facteurs confondants individuels rarement disponibles dans d’autres cohortes de travailleurs du nucléaire (ex: obésité, tabagisme, tension artérielle).- Le développement d’une approche hiérarchique bayésienne permettant de tenir compte des incertitudes engendrées par l’estimation de la dose interne à partir de mesures radiotoxicologiques fortement censurées à gauche (i.e., inférieures à un seuil) dans l’estimation de risques sanitaires radio-induits, basée sur cette dose
Nowadays, the assessment of the risks associated with the incorporation of radionuclides and the resulting development of radiological protection standards are mainly based on the results of the epidemiological monitoring of populations exposed to external ionizing radiation. The analogies and extrapolations used in this process are surrounded by uncertainties. In order to be able to evaluate the validity of the assumptions adopted in this context by the International Commission on Radiological Protection (ICRP), it is necessary to conduct new epidemiological studies in populations exposed to internal emitters. This is particularly the case for uranium exposures, whose potential health effects remain poorly characterized. Moreover, while the carcinogenic effects of ionizing radiation are established and increasingly well characterized, the hypothesis of an effect of low doses of ionizing radiation on the development of diseases of the circulatory system has been suggested recently, and requires to be evaluated thoroughly.The aim of this PhD thesis project is to improve the knowledge of the health effects of chronic internal exposure to low doses of ionizing radiation, particularly due to internal contamination by uranium, in support of the evaluation and if necessary to the consolidation of international radiation protection standards.The PhD thesis project includes three axes:- Analysis of mortality in a new cohort of 1,300 workers employed by uranium-milling companies, by comparison with the mortality of general French population by computing standardized mortality ratios.- Analysis of the association between dose (internal and external) and mortality from cancer and cardiovascular diseases in a cohort of 4,000 uranium workers: classical statistical analysis (frequentist) included detailed exploration of the impact of potential confounding factors rarely available in other cohorts of nuclear workers (e.g.: obesity, smoking, blood pressure)- Development of a Bayesian hierarchical approach allowing to account for uncertainties induced by the estimation of internal dose from radiotoxicological measurement that are strongly left-censored (i.e., lower than a threshold) in radiation-induced risk estimates, based on this dose
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Breton, Anne-Laure. "Intérêt pronostique de l'impédancemétrie multi-fréquentielle (TEFLAG) après traumatisme sonore aigu par bruit d'arme". Bordeaux 2, 2000. http://www.theses.fr/2000BOR2M108.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Azzana, Youssef. "Mesures de la topologie et du trafic Internet". Paris 6, 2006. http://www.theses.fr/2006PA066594.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Rotenberg, Elie. "Une approche pour l'estimation fiable des propriétés de la topologie de l'internet". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066005/document.

Texto completo
Resumen
Cette thèse propose une nouvelle approche pour estimer des propriétés de la topologie d’Internet. Contrairement aux approches historiques, qui se bases sur des données déclaratives très peu fiables, ou sur la lecture de cartes mesurées avec des outils de diagnostic, notre approche consiste à mettre au point des primitives de mesures très fiables, dont le fonctionnement, les hypothèses et les résultats sont bien définis formellement. Notre premier cas d’étude est celui de la distribution de degré de la topologie logique, ou L3. Nous utilisons l’outil traceroute dont nous étudions le fonctionnement, pour en déduire une primitive de mesure. Cette primitive de mesure, qui repose sur l’utilisation d’un ensemble de moniteurs distribué dans le réseau, permet d’obtenir une estimation du nombre de voisins dans la topologie logique, d’un routeur du cœur. Nous utilisons cette primitive vers un échantillon aléatoire de cibles, pour obtenir une estimation de la distribution de degré recherchée et établir les limites de cette approche. Notre deuxième cas d’étude est celui de la distribution de degré de la topologie physique, ou L2-L3. Nous utilisons l’outil UDP Ping, dont nous étudions le fonctionnement, pour en déduire une primitive de mesure. Elle est semblable à l’outil utilisé pour la topologie logique, mais repose sur des hypothèses bien plus clairement établies et vérifiées, et validée par des simulations très détaillées. Nous intégrons également au protocole de mesure, des garanties statistiques sur l’uniformité de l’échantillon de cibles, des routeurs du cœur, que nous mesurons. Nous obtenons une évaluation de la distribution de degré recherchée, d’une très grande fiabilité. Nous complétons ce cas d’étude par un travail complémentaire sur les tables de transmission des routeurs du cœur. Enfin, nous dressons un tableau assez large des perspectives qui s’ouvrent en se basant sur cette approche, par exemple en l’appliquant à d’autres types de réseaux (réseaux sociaux, etc.)
This thesis proposes a novel approach to reliably estimate properties of the Internet topology. Unlike historical approaches, based on declarative, hardly reliable data, or on readings from maps measured with diagnostic tools, our approach is to develop very reliable measure primitives, of which the operation, the hypotheses, and the results are well defined. Our first case study is the degree distribution of the logical topology, or L3. We use the traceroute tool, of which we study the operation, to derive a measurement primitive. This measurement primitive, which relies on using a distribution set of monitors over the network, allows us to get an estimation of the number of neighbors in L3 of a target core router. We use this primitive against a random sample of targets and obtain the sought distribution, and establish limits to this method. Our second case study is the degree distribution of the physical topology, or L2-L3. We use the UDP Ping tool, of which we study the operation, to derive a measurement primitive. It is alike the tool we used for the logical topology, but relies on much more clearly established and verified hypotheses, and is validated by very detailed simulations. We also include statistical guarantees of the sampling uniformity of the target core routers to the measurement protocol. We obtain an evaluation of the sought degree distribution, of an unprecedented reliability. We complete this case study by a complimentary study over the forwarding tables of the core routers. Finally, we picture the many perspectives opened by this approach, eg. By applying it to other types of networks (social networks, etc.)
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Albert, Benoit. "Méthodes d'optimisation avancées pour la classification automatique". Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2024. http://www.theses.fr/2024UCFA0005.

Texto completo
Resumen
En partitionnement de données, l'objectif consiste à regrouper des objets en fonction de leur similarité. K-means est un des modèles les plus utilisés, chaque classe est représentée par son centroïde. Les objets sont assignés à la classe la plus proche selon une distance. Le choix de cette distance revêt une grande importance pour prendre en compte la similarité entre les données. En optant pour la distance de Mahalanobis au lieu de la distance euclidienne, le modèle est capable de détecter des classes de forme ellipsoïdale et non plus seulement sphérique. L'utilisation de cette distance offre de nombreuses opportunités, mais elle soulève également de nouveaux défis explorés dansma thèse.L'objectif central concerne l'optimisation des modèles, en particulier FCM-GK (variante floue de k-means) qui est un problème non convexe. L'idée est d'obtenir un partitionnement de meilleure qualité, sans créer un nouveau modèle en appliquant des méthodes d'optimisation plus robustes. À cet égard, nous proposons deux approches :ADMM (Alternating Direction Method of Multipliers) et la méthode du gradient accéléré de Nesterov. Les expériences numériques soulignent l'intérêt particulier de l'optimisation par ADMM, surtout lorsque le nombre d'attributs dans le jeu de données est significativement plus élevé que le nombre de clusters. L'incorporation de la distance de Mahalanobis dans le modèle requiert l'introduction d'une mesure d'évaluation dédiée aux partitions basées sur cette distance. Une extension de la mesure d'évaluation de Xie et Beni est proposée. Cet index apparaît comme un outil pour déterminer la distance optimale à utiliser.Enfin, la gestion des sous-ensembles dans ECM (variante évidentielle) est traitée en abordant la détermination optimale de la zone d'imprécision. Une nouvelle formulation des centroides et des distances des sous-ensembles à partir des clusters est introduite. Les analyses théoriques et les expérimentations numériques mettent en évidence la pertinence de cette nouvelle formulation
In data partitioning, the goal is to group objects based on their similarity. K-means is one of the most commonly used models, where each cluster is represented by its centroid. Objects are assigned to the nearest cluster based on a distance metric. The choice of this distance is crucial to account for the similarity between the data points. Opting for the Mahalanobis distance instead of the Euclidean distance enables the model to detect classes of ellipsoidal shape rather than just spherical ones. The use of this distance metric presents numerous opportunities but also raises new challenges explored in my thesis.The central objective is the optimization of models, particularly FCM-GK (a fuzzy variant of k-means), which is a non-convex problem. The idea is to achieve a higher-quality partitioning without creating a new model by applying more robust optimization methods. In this regard, we propose two approaches: ADMM (Alternating Direction Method of Multipliers) and Nesterov's accelerated gradient method. Numerical experiments highlight the particular effectiveness of ADMM optimization, especially when the number of attributes in the dataset is significantly higher than the number of clusters.Incorporating the Mahalanobis distance into the model requires the introduction of an evaluation measure dedicated to partitions based on this distance. An extension of the Xie and Beni evaluation measure is proposed. This index serves as a tool to determine the optimal distance to use.Finally, the management of subsets in ECM (evidential variant) is addressed by determining the optimal imprecision zone. A new formulation of centroids and distances for subsets from clusters is introduced. Theoretical analyses and numerical experiments underscore the relevance of this new formulation
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Moussou, Julien. "Caractérisation expérimentale du flux thermique transitoire pariétal pour différents modes de combustion". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2019. http://www.theses.fr/2019ESMA0010/document.

Texto completo
Resumen
Pour réduire significativement les émissions de CO2 dans les moteurs à combustion interne, un levier majeur est la réduction des pertes thermiques pariétales lors de la combustion. Ces pertes présentent un pic de plusieurs MW/m2 près du point mort haut, et sont liées à des phénomènes complexes d'interaction flamme-paroi qui dépendent du mode de combustion. Afin de mieux appréhender les phénomènes associés, il est nécessaire de caractériser le flux thermique à des échelles temporelles inférieures à la milliseconde.Dans ces travaux, une machine à compression rapide et une cellule à précombustion à volume constant sont utilisées pour simuler les phénomènes de combustion rencontrés en moteurs. Des thermocouples à jonction fines permettent une mesure de flux thermique instantanée avec une résolution temporelle de 0.1 ms. Ces moyens d'essais permettent de reproduire trois modes de combustion : flamme de propagation, flamme de diffusion et auto-inflammation. Ces travaux permettent également d'évaluer les différentes technologies envisageables de mesure de transfert thermique en combustion (thermocouples, thermorésistances et thermométrie phosphore rapide) au regard des caractéristiques métrologiques requises par la rapidité des phénomènes mis en jeu.Le flux lors du transfert thermique atteint des valeurs de plusieurs MW/m2 avec une forme qui dépend du mode de combustion. Le flux lors de la propagation d'une flamme prémélangée est dominé par un pic lors de l'interaction flamme paroi,d'environ 5 MW/m2 et de durée 0.5 ms. Le flux lors de la combustion d'un jet Diesel est approximativement un plateau pendant la durée de l'injection ; il est dominé par l'effet d'entraînement d'air par le jet qui cause une augmentation du coefficient de transfert convectif jusqu'à des valeurs de 10 kW/m2/K, l'augmentation de température liée à la combustion étant secondaire. Dans le cas d'ondes de pression générées par une auto-inflammation rapides de gaz(cliquetis lors d'un allumage commandé ou HCCI à fort contenu énergétique), une corrélation est observée entre l'intensité du cliquetis et le flux thermique associé, quel que soit le mode de combustion qui génère les oscillations de pression. Le flux lors du cliquetis est 3 à 5 fois plus élevé que lors d'une combustion par flamme de propagation comparable
CO2 emissions in internal combustion engines are linked with inefficiencies due to wall heat losses during combustion.Those losses exhibit a sharp peak of a few MW/m2 close to top dead center and are linked to complex flame/wall interaction phenomena that vary with the combustion mode. A fine understanding of the associated phenomena requires experimental characterization of wall heat flux with a time resolution better than the millisecond. In this PhD work, a rapid compression machine and a precombustion cell are used to reproduce engine combustion phenomena. Thin-junction thermocouples allow an instantaneous measurement of the wall heat flux with a time resolution of 0.1 ms. Three combustion modes are generated: propagation flame, diffusion flame and auto-ignition.Different possible measurement technologies and procedures (thermocouples, thermoresistances and rapid phosphor thermometry) are compared and benchmarked against the features of combustion phenomena. Flux during wall heat transfer reaches values of a few MW/m2 and its shape varies with the combustion mode. During premixed flame propagation, flux is dominated by a peak during flame-wall interaction of about 5 MW/m2 in amplitude and 0.5 ms in duration. During Diesel combustion, heat flux is approximately constant during the injection duration; itsevolution is driven by an increase of the convection coefficient up to 10 kW/m2/K, which is attributed to air entrainment by the spray; the temperature increase from combustion is considered a second-order effect. During combustion presenting a pressure wave propagation (e.g. knock for some spark-ignition cases or HCCI with high energy content), the intensity of pressure oscillations and wall heat flux are shown to be correlated. That correlation is independent of the phenomenon creating the pressure wave; heat flux during knock is 3-5 times higher than for a comparable premixed propagation flame
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Guichard, Éric. "L'internet : mesures des appropriations d'une technique intellectuelle". Paris, EHESS, 2002. http://www.theses.fr/2002EHES0030.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Kaafar, Mohamed Ali. "Securiting Internet coordinates systems". Nice, 2007. http://www.theses.fr/2007NICE4023.

Texto completo
Resumen
Dans ce type de systèmes, l’idée principale est que si les distances réseau entre différents nœuds Internet peuvent être plongées dans un espace approprié, alors les distances non mesurées peuvent être estimées en utilisant une simple opération de calcul de distance géométrique dans cet espace. Récemment, on a pu prouver que ces systèmes `a base de coordonnées étaient précis, avec une faible erreur de prédiction. Cependant, ces systèmes se basent souvent sur une coordination entre les nœuds, et font l’ hypothèse que les informations reportées par les nœuds sont correctes. Dans cette thèse, nous avons identifie plusieurs attaques, exploitant cette hypothèse d’honnêteté des nœuds, et pouvant être lancées contre des systèmes de positionnement Internet `a base de coordonnées. Nous avons en l’occurrence étudié l’impact qu’ avaient de telles attaques sur deux systèmes représentatifs des systèmes de positionnement actuels : NPS et Vivaldi. Nous avons entre autres montre que ces attaques, pouvaient dangereusement mettre en péril le bon fonctionnement de ces systèmes de coordonnées, et par la même les applications se basant sur ce système pour les estimations de distances. `A travers les simulations de plusieurs attaques, menées par des nœuds malhonnêtes, fournissant des coordonnées biaisées ou retardant les mesures, nous avons expérimenté plusieurs stratégies d’attaques qui ont pour objectifs: (i) d’introduire du désordre dans le système, (ii) de tromper les nœuds honnêtes afin qu’ils se positionnent loin de leurs coordonnées correctes et (iii) d’isoler certains nœuds cibles `a travers des collusions. Nos résultats confirment la vulnérabilité de tels systèmes à ces attaques. Notre contribution majeure a été par la suite de proposer un modèle de détection des comportements malicieux au sein de ces systèmes de positionnement durant le calcul des cordonnées. Nous avons montré en premier lieu que la dynamique d’un nœud, dans un système de coordonnées, exempt de comportements anormaux ou malhonnêtes, peut être modélisée par un modèle d’états linéaire, et traqué par un filtre de Kalman. De plus, les paramètres d’un filtre calibre au niveau d’un nœud donne, peuvent être utilises pour modéliser et prédire le comportement dynamique d’un autre nœud, tant que ces deux nœuds sont proches l’un de l’autre dans le réseau. Nous avons d`es lors propose une infrastructure de nœuds experts : des nœuds de confiance, se positionnant dans l’espace des coordonnées, en utilisant exclusivement d’autres nœuds experts. Ils sont alors immunisés contre n’importe quel comportement malicieux dans le système. Pendant le calcul de leurs propres coordonnées, les autres nœuds utilisent les paramètres du filtre d’un nœud expert proche, comme étant une représentation d’un comportement normal, pour détecter et filtrer toute activité malicieuse ou anormale. Une combinaison de simulations et d’expérimentations PlanetLab a été utilisée pour démontrer la validité, la généralité et l’efficacité de l’approche proposée pour chacun des deux systèmes Vivaldi et NPS. Enfin, nous nous sommes penchés sur le problème de la validité des coordonnées Internet telles qu’ annoncées par les nœuds d’un système de coordonnées durant la phase d’estimation des distances. En effet, certains nœuds peuvent délibérément mentir quant `a la valeur exacte de leurs coordonnées afin de lancer diverses attaques contre les applications et les réseaux de couverture. La méthode proposée se divise en deux étapes : 1)établir l’exactitude des coordonnées annoncées en utilisant l’infrastructure des nœuds experts et la méthode de détection des nœuds malicieux, et 2) délivrer un certificat `a validité limitée pour chaque coordonnée vérifiée. Les périodes de validité sont calculées `a partir d’une analyse des temps d’inter changement observés par les nœuds experts. En faisant cela, chaque nœud expert, peut estimer le temps jusqu’au prochain changement de coordonnées, et ainsi, peut limiter le temps de validité du certificat qu’il délivrerait aux nœuds normaux. Notre méthode est illustrée en utilisant une trace recueillie a partir d’un système Vivaldi déployé sur PlanetLab, ou les distributions de temps d’inter changements suivent des distributions longue traîne (distribution log-normale dans la plupart des cas, et distribution Weilbull sinon). Nous montrons l’efficacité de notre méthode en mesurant l’impact de plusieurs attaques sur les estimations de distance, expérimentées sur PlanetLab
Idea is that if network distances between Internet nodes can be embedded in an appropriate space, unmeasured distances can be estimated using a simple distance computation in that space. Recently, these coordinates-based systems have been shown to be accurate, with very low distance prediction error. However, most, if not all, of current proposals for coordinate systems assume that the nodes partaking in the system cooperate fully and honestly with each other – that is that the information reported by probed nodes is correct – this could also make them quite vulnerable to malicious attacks. In particular, insider attacks executed by potentially colluding) legitimate users or nodes infiltrating the system could prove very effective. As the use of overlays and applications relying on coordinates increases, one could imagine the release of worms and other malware, exploiting such cooperation, which could seriously disrupt the operations of these systems and therefore the virtual networks and applications relying on them for distance measurements. In this thesis, we first identify such attacks, and through a simulation study, we observed their impact on two recently proposed positioning systems, namely Vivaldi and NPS. We experimented with attack strategies, carried out by malicious nodes that provide biased coordinates information and delay measurement probes, and that aim to (i) introduce disorder in the system, (ii) fool honest nodes to move far away from their correct positions and (iii) isolate particular target nodes in the system through collusion. Our findings confirm the susceptibility of the coordinate systems to such attacks. Our major contribution is therefore a model for malicious behavior detection during coordinates embedding. We first show that the dynamics of a node, in a coordinate system without abnormal or malicious behavior, can be modeled by a Linear State Space model and tracked by a Kalman filter. Then we show, that the obtained model can be generalized in the sense that the parameters of a filter calibrated at a node can be used effectively to model and predict the dynamic behavior at another node, as long as the two nodes are not too far apart in the network. This leads to the proposal of a Surveyor infrastructure: Surveyor nodes are trusted, honest nodes that use each other exclusively to position themselves in the coordinate space, and are therefore immune to malicious behavior in the system. During their own coordinate embedding, other nodes can then use the filter parameters of a nearby Surveyor as a representation of normal, clean system behavior to detect and filter out abnormal or malicious activity. A combination of simulations and PlanetLab experiments are used to demonstrate the validity, generality, and effectiveness of the proposed approach for both Vivaldi and NPS. Finally, we address the issue of asserting the accuracy of Internet coordinates advertised by nodes of Internet coordinate systems during distance estimations. Indeed, some nodes may even lie deliberately about their coordinates to mount various attacks against applications and overlays. Our proposed method consists in two steps: 1) establish the correctness of a node’s claimed coordinate by using the Surveyor infrastructure and malicious embedding neighbor detection; and 2) issue a time limited validity certificate for each verified coordinate. Validity periods are computed based on an analysis of coordinate inter-shift times observed by Surveyors. By doing this, each surveyor can estimate the time until the next shift and thus, can limit the validity of the certificate it issues to regular nodes for their calculated coordinates. Our method is illustrated using a trace collected from a Vivaldi system deployed on PlanetLab, where intershift times are shown to follow long-tail distribution (log-normal distribution in most cases, or Weibull distribution otherwise). We show the effectiveness of our method by measuring the impact of a variety of attacks, experimented on PlanetLab, on distance estimates
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Ngambo, Domche Grace. "Adaptation à la maladie de Lyme : comparaison des modes de collectes de données par téléphone et web". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/68348.

Texto completo
Resumen
Le mode de collecte web gagne de plus en plus de popularité depuis sa création, ceci notamment en raison des avantages qu’il apporte en termes de coût et de temps. Cependant, les tendances nonprobabilistes des échantillons web font souvent douter de leur capacité à fournir des résultats aussi représentatifs que ceux d’un mode traditionnel typique tel que le téléphone. Le but de ce mémoire est de comparer les modes non-probabiliste web et probabiliste téléphone souvent suggérés par les firmes de sondage au Québec. Nous analysons principalement les éventuelles différences entre les échantillons web et téléphone du point de vue de l’adaptation à la maladie de Lyme. Plus spécifiquement, les trois objectifs de l’étude sont de : (1) comparer la représentativité des deux échantillons avec les données du recensement en termes de caractéristiques sociodémographiques, (2) comparer ces modes d’enquête en ce qui concerne l’estimation des taux d’adoption de comportements préventifs à l’égard de la maladie de Lyme tel que rapportés par les répondants aux deux sondages, et (3) tester l’invariance de la mesure des comportements préventifs des échantillons non probabiliste (panel Web) et probabiliste (téléphone). Les données proviennent d’une étude sur les comportements d’adaptation à la maladie de Lyme. Les échantillons panel Web (n=956) et téléphone (n=1003) sont constitués de résidents québécois de 18 ans et plus habitant les régions de risques faible à significatif. Les résultats montrent premièrement qu’aucun des échantillons n’est représentatif de la population cible au regard des caractéristiques sociodémographiquestelles que rapportées dans le recensement canadien de 2016. Deuxièmement, nos résultats indiquent que le taux de non-réponse aux comportements préventifs d’adaptation à la maladie et autres variables associées est significativement plus élevé dans l’échantillon web. Cependant, la magnitude de cette différence est nulle pour 19 items sur 30, et faible pour les 11 autres. De plus, aucune différence importante n’a été relevée lors de la comparaison des deux échantillons du point de vue de l’estimation de la prévalence desdits comportements et leurs déterminants. Enfin, les analyses d’invariance de l’indice d’adaptation ou de prévention à l’égard de la maladie de Lyme révèle que la structure de l’indice est la même pour les deux échantillons. On en conclut que malgré certaines différences observées entre les modes web et téléphone, les répondants des deux échantillons ont tendance à adopter des comportements similaires d’adaptation à la maladie de Lyme.
The web data collection mode has been increasing in popularity since its creation, primarily due to its cost and time effective benefits. However, its non-probabilistic tendencies often bring doubts concerning the representativity of its results in comparison to a typical mode such as the telephone. This master’s thesis compares the non-probability web and probability telephone modes, often suggested by polling firms in the province of Quebec. It principally analyzes the eventual differences between both samples on their adaptation to the Lyme disease. More specifically, the three main goals of this study are: (1) to compare the representativeness of both samples with the census data in terms of their socio-demographic characteristics, (2) to compare those two survey modes regarding their respondents’ preventive behaviour estimates against the Lyme disease, and (3) to test the measurement invariance of the nonprobability (Web panel) and probability (telephone) samples’ preventive behaviour. The data comes from a study on the adaptation of prevention behaviors against Lyme disease. The web (n=956) and telephone samples (n=1003) are made of individuals, 18 years old and above, from low and significant risk regions. Results firstly reveal that neither survey is representative of the Canadian census of 2016. Secondly, results show that the non-response rate for Lyme disease prevention adaptive behaviors and other associated variables is higher in the web survey. However, the magnitude of this significance is nil for 19 out of 30 the items, and small for the other 11. Moreover, no important dissimilarities were found in comparing both samples’ estimates in terms of the behaviours’ prevalence and their determinants. Finally, the measurement invariance analyses on the index of adaptation to the Lyme disease show a similar structure of the index for both samples. In conclusion, although the web and telephone samples are different in some respects, their respondents tend to have similar behaviors of adaptation to the disease.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Youness, Chebli. "L'e-réputation du point de vue client : modèle intégrateur et échelle de mesure". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAG016.

Texto completo
Resumen
Bien que la réputation en ligne ait attiré une attention particulière parmi les praticiens en marketing, la recherche dans ce domaine est encore limitée. Dans ce travail doctoral, les auteurs examinent les antécédents et les conséquences de l’e-réputation du point de vue client. Une approche selon un modèle d’équations structurelles est utilisée pour tester le modèle basé sur les données d’une enquête auprès de 1097 acheteurs en ligne français. Les résultats montrent l’impact de la confiance, l’héritage et la qualité du site sur l’e-réputation, ainsi que la façon dont l’e-réputation affecte l’engagement du client, le bouche à oreille, le risque perçu et la valeur perçue. Plusieurs implications managériales et théoriques sont ensuite discutées
Although online reputation has attracted significant attention among marketing practitioners, research in this area is still limited. In this research dissertation, the authors examine the antecedents and consequences of online reputation from the customer’s perspective. A structural equation modeling approach is used to test the model based on data from a survey of 1097 French online buyers. The results show the impact of trust, heritage, and website quality on online reputation, as well as how online reputation affects customer commitment, word of mouth, perceived risk, and perceived value. Several implications either in terms of conceptual or managerial insights are then discussed
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Sangare, Yaya. "Etude des défauts électriquement actifs dans les couches minces (150 Å) de SiO2 par photoémission interne". Montpellier 2, 1991. http://www.theses.fr/1991MON20001.

Texto completo
Resumen
Le travail presente porte sur la caracterisation des defauts electriquement actifs dans le volume de l'oxyde et aux interfaces de structures m. O. S. , realisees sur du silicium oxyde thermiquement, avec 150 a d'oxyde. Des couches minces metalliques de chrome ont ete deposees sur l'oxyde sous forme d'electrodes (grilles) semitransparentes afin de pouvoir injecter, par photoemission interne, des porteurs dans l'oxyde et simuler ainsi les phenomenes de vieillissement des dispositifs m. O. S. Nous avons observe des modifications importantes de l'etat de charge de l'oxyde et des interfaces sous l'effet de l'irradiation uv. Ces modifications dependent peu de la polarisation appliquee a la structure et varient en fonction de l'energie h des photons incidents, du dopage et des recuits. L'exploitation des caracteristiques c(v) et photo i(v) au moyen de modeles theoriques, adaptes aux faibles epaisseurs d'oxydes, a montre que l'irradiation par des photons de 4 a 5 ev diminue la charge moyenne dans l'oxyde mais s'accompagne de la creation de defauts d'interface en quantite superieure, pouvant atteindre 10#1#2 pieges/cm#2. Cet effet diminue considerablement la qualite des composants realises sur des oxydes irradies
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Saleh, Hayder. "Une architecture novatrice de sécurité à base de carte à puce Internet". Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERSA009.

Texto completo
Resumen
Le protocole Smart TP, introduit dans ce mémoire, propose une nouvelle architecture de communication d'une carte à puce Internet permettant à la carte d'agir comme un vrai noeud d'Internet. Ainsi, cette carte pourra participer aux protocoles d'Internet les plus répandus de manière plus active et indépendamment du terminal hôte. La sécurité sur Internet est une des préoccupations majeures de notre société, mettant en action différents aspects, notamment économiques et technologiques. Le déploiement de la carte à puce en tant que dispositif hautement protégé au service des protocoles de sécutité sur Internet constitue le coeur du sujet de cette thèse. Les défis technologiques révélés par ce déploiement ont été étudiés et évalués à travers cette recherche. Une implémentation du protocole proposé a été réalisée pour loger un serveur WEB conforme aux normes Internet dans une carte à puce Java. Ceci a permis d'étudier les problèmes de performance et de faisabilité, ainsi que de découvrir les possibilités d'amélioration de ce protocole (SmartTP). Une démonstration à grande échelle a été ensuite conduite pour explorer les débouchés industriels de cette technologie. Une analyse approfondie a été faite sur l'implication d'une carte à puce dans le protocole SSL. Ce dernier, est pris comme un exemple pour extrapoler les points forts et les points faibles de la carte dans un environnement Internet. Les problèmes issus de l'exemple SSL et les recommandations apportées sont largement valables pour les autres protocoles et constituent les fruits de cette recherche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Fadlallah, Ahmad. "Des solutions pour la traçabilité des attaques Internet". Paris, ENST, 2008. http://www.theses.fr/2008ENST0012.

Texto completo
Resumen
Les attaques de déni de service (DoS) constituent un véritable danger menaçant la disponibilité et la stabilité du réseau Internet. Leur danger ascendant et continu fut le principal moteur de motivation pour notre recherche, qui démarre par une analyse approfondie de ces attaques allant de l’analyse des origines du problème jusqu’à l'étude des tendances des attaques DoS. La deuxième étape dans notre recherche était d'étudier les solutions de défense existantes contre le DoS. Notre étude fournit une analyse des solutions les plus connues, leurs avantages et limitations. En particulier, nous nous sommes intéressés par l’étude des solutions de traçabilité des attaques, vu leur rôle considérable dans le cadre de la défense contre le DoS. L'analyse des différentes catégories de solution de traçabilité nous a conduits à établir un nombre d'exigences pour une solution efficace et déployable. Notre première solution part de l'existant et propose d'utiliser deux techniques de marquage et log de paquets, afin de résoudre mutuellement les problèmes de chaque technique. Notre deuxième solution tente de résoudre le problème de l’overhead de stockage de la première solution. Elle est basée sur la signalisation hors-bande, qui permet de tracer un flux IP en générant des messages de signalisation. Nous proposons ensuite une amélioration de cette solution en mixant la signalisation hors-bande avec le marquage de paquets. Cette méthode réduit d'une manière significative l'overhead en bande passante de la solution précédente tout en respectant les autres exigences de performance, sécurité et déploiement
The Denial of Service (DoS) attacks are a real threat for the availability and stability of the Internet. Their continuous growth was the main motivation of our research, which starts with a thorough analysis of these attacks. The second step in our research was to study the existing DoS defense solutions. Our study provides an analysis of the most well known defense schemes, their advantages and limitations. In particular, we were interested in studying attack traceback solutions, given their important role in the framework of DoS defense. The analysis of different categories of traceback schemes led us to establish a number of requirements for an effective and deployable traceback solution. Our first solution proposes to mix two existing traceback techniques: packet marking and packet logging in order to mutually solve their problems. Our second solution tries to solve the storage overhead problem of the first solution. It is based on out-of-band signaling, which allows tracing IP flows through generating signaling messages. We enhance this solution by mixing the out of band signaling with packet marking. This method significantly reduces the bandwidth overhead of the previous solution while respecting the rest of performance, security and deployment requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Viger, Fabien. "Contributions à la mesure et à la modélisation de la topologie de l'internet". Paris 6, 2007. http://www.theses.fr/2007PA066270.

Texto completo
Resumen
Cette thèse s'intéresse à la mesure et à la modélisation de l'Internet, vu comme un graphe où les noeuds représentent les routeurs, et les liens représentent les câbles ou liaisons physiques entre routeurs. Après une introduction rapide situant le contexte, nous présentons un algorithme efficace de génération de graphes aléatoires connexes avec degrés fixés pouvant s'appliquer à la modélisation de l'Internet. Plus loin, nous cherchons à concevoir des méthodes théoriques permettant d'estimer la taille réelle du réseau grâce aux seules images partielles et biaisées de la topologie dont nous disposons. Enfin, nous enquêtons sur la validité des informations topologiques telles que fournies par l'outil traceroute et proposons une amélioration qui s'avère significative. Ces trois axes de recherches sont complémentaires, et leurs contributions ont en commun l'apport d'une certaine rigueur dans la mesure ou la modélisation de la topologie de l'Internet
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía