Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modèle léger.

Thèses sur le sujet « Modèle léger »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 38 meilleures thèses pour votre recherche sur le sujet « Modèle léger ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Miled, Karim. « Effet de taille dans le béton léger de polystyrène expansé ». Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001820.

Texte intégral
Résumé :
Il a été observé expérimentalement, dans la littérature, que la résistance du béton léger de polystyrène, à densité égale, diminue sensiblement lorsqu'on augmente la taille Ø des inclusions légères. L'objectif de cette thèse est l'identification de l'origine physique ainsi que la modélisation de cet effet de taille. Dans la première partie de ce travail, nous avons étudié les mécanismes de rupture et l'effet de taille dans un béton léger modèle 2D où les billes de polystyrène sont remplacées par des trous de même taille distribués dans une matrice cimentaire homogène. Dans la deuxième partie de ce travail, une étude expérimentale a été conduite sur trois types de béton de polystyrène renfermant trois tailles différentes de billes et présentant des densités allant de 1200kg/m3 à 2000kg/m3. En outre, pour s'assurer que la taille du Volume Elémentaire Représentatif (VER) pour la résistance en compression du béton de polystyrène est atteinte, des éprouvettes homothétiques ont été testées. L'effet de la taille des hétérogénéités de la matrice (grains du sable) a été aussi étudié en testant trois types de matrice cimentaire. Les résultats de cette étude ont confirmé la présence d'un effet de taille, mais aussi une interaction antagoniste avec l'effet de la taille maximale lm des hétérogénéités de la matrice. Une démarche phénoménologique, basée sur l'analyse des mécanismes de ruine observés expérimentalement dans le béton de polystyrène a été suivie pour expliquer l'effet de taille et identifier la loi le régissant. Enfin, une étude numérique 2D de cet effet de taille a été conduite sur un réseau de barres, en se basant sur la théorie des équivalences.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Yalcin, Christmann Ipek. « Implication des systèmes sérotonergique et noradrénergique dans les effets du tramadol dans le modèle du stress chronique léger imprédictible ». Tours, 2006. http://www.theses.fr/2006TOUR4013.

Texte intégral
Résumé :
Le tramadol est un analgésique cliniquement efficace qui inhibe la recapture de la noradrénaline (NA) et de la sérotonine (5-HT). Cette étude a été planifiée dans le but d’étudier les effets anti-dépresseurs du tramadol (20mg/kg) dans un modèle de dépression : le stress chronique léger imprédictible (SCLI), chez les souris BALB/c. Nous avons également étudié l’implication des systèmes sérotonergique et noradrénergique dans les effets du tramadol dans ce modéle de SCLI. La désipramine a été utilisée comme contrôle positif lors de cette experience. Le tramadol et la desipramine ont inversé les effets physiques et comportementaux causés par le SCLI. De plus, la lésion du noyau du Raphe dorsal (Dorsal Raphé Nucleus : DRN) avec de la 5,7 dihydroxytryptamine (5,7- DHT) a antagonisé les effets anti-dépresseurs du tramadol et de la desipramine chez les souris stressés mais non chez les souris non stressés. Les résultats obtenus avec la technique de l’HPLC (High Pressure Liquid Chromatography) ont montré que le niveau de 5-HT et de son métabolite, la 5-hydroxyindolactétique acide (5-HIAA) ont été réduit dans certaines parties du cerveau chez les souris portant des lésions à la 5,7 DHT. A l’inverse, le niveau de NA, de Dopamine (DA), d’acide Homovanillique (HVA) et d’acide 3,4 dihydroxyphenylacetique (DOPAC) n’ont pas changés chez les souris porteuses de lésions à la 5,7 DHT. De plus, dans le groupe SCLI, le niveau de 5-HT, de 5-HIAA, de NA et de DA diminue dans certaines parties du cerveau. Nous avons également cherché la contribution des récepteurs 5-HT1A dans les effets anti-dépresseurs du tramadol en utilisant un antagoniste des récepteurs 5-HT1A/1B, le pindolol (10mg/kg) : nous n’avons observé ni une accélération ni une diminution des effets de la desipramine et du tramadol induits par le pindolol. Dans la dernière partie, nous avons mesurés la NA et les niveaux de son métabolite, le 3-methoxy-4-hydroxy-phenylglycol (MHPG) avec l’HPLC chez les souris stressées. Le traitement chronique avec la desipramine et/ou le tramadol fait augmenter de manière significative le niveau de MHPG et/ou le niveau de NA dans le locus ceruleus (LC), l’hypothalamus et l’hippocampe mais pas dans le cervelet. Les effets anti-dépresseurs de la désipramine et du tramadol peuvent être bloqués avec le propranolol (antagoniste non sélectif des récepteurs -adrénergiques, 5mg/kg), l’ICI 118,551 (antagoniste 2- adrénergique, 2mg/kg) et la yohimbine (antagoniste 2- adrénergiques, 2mg/kg). L’ensemble de ces résultats suggère que le tramadol ait un effet anti-dépresseur dans le modéle de SCLI, qui est médié par les systèmes sérotonergiques et noradrénergiques
Tramadol is a centrally acting clinically effective analgesic which inhibits noradrenaline (NA) and serotonin (5-HT) reuptake. This study was planned to investigate the possible antidepressant-like effects of tramadol (20 mg/kg) in the unpredictable chronic mild stress (UCMS) model of depression in BALB/c mice and we also searched the participation of serotonergic and noradrenergic system. Desipramine was used like a positive control. Tramadol and desipramine reversed the physical and behavioural abnormalities induced by the UCMS. Furthermore, the lesion of the dorsal raphe magnus (DRN) by 5, 7-dihydroxytryptamine (5,7- DHT) antagonized the antidepressant-like effects of tramadol and desipramine on the coat state, in the splash test in stressed mice but not non-stressed mice. The results obtained by High Pressure Liquid Chromatography (HPLC) showed that level of the 5-HT and its metabolite 5-hydroxyindolacetic acid (5-HIAA) was reduced by the 5,7- DHT lesion in some brain regions. In contrast, the level of NA, Dopamine (DA), Homovanillic acid (HVA) and 3, 4 dihydroxyphenylacetic acid (DOPAC) did not change by the 5, 7-DHT lesion. Moreover the UCMS regimen diminished the level of 5-HT, 5-HIAA, NA and DA in some brain regions. Furthermore, the contribution of the 5-HT1A receptors to the antidepressant-like effects of tramadol was searched by the 5-HT1A/1B receptor antagonist pindolol (10 mg/kg); we observed neither significant acceleration nor diminution by pindolol on the actions of desipramine and tramadol. In the last part, we measured the NA and its metabolite 3-methoxy-4-hydroxy-phenylglycol (MHPG) levels via HPLC in stressed mice. The chronic treatment with desipramine and/or tramadol significantly augmented MHPG and/or NA level in the locus coeruleus (LC), hypothalamus and hippocampus but not in cerebellum. Moreover, desipramine and tramadol induced antidepressant-like effects in the UCMS model can be blocked by propranolol (non-selective -adrenoreceptor antagonist, 5 mg/kg), ICI 118,551 (selective 2-adrenoreceptor antagonist, 2 mg/kg) and yohimbine (selective 2-adrenoreceptor antagonist, 2 mg/kg). Taken together these results suggest that tramadol has an antidepressant-like effect in the UCMS model, which is mediated by both serotonergic and noradrenergic system
Styles APA, Harvard, Vancouver, ISO, etc.
3

Roussel, Clément. « Expérimentation d’un gravimètre mobile léger et novateur pour la mesure du champ de gravité en fond de mer ». Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1099/document.

Texte intégral
Résumé :
L’un des défis majeurs relevé par la gravimétrie moderne consiste en la détermination de modèles mathématiques et de cartes numériques du champ de gravité de la Terre dont la fiabilité est identique quelle que soit l’échelle spatiale considérée en domaines terrestre, littoral, marin et sous-marin. Aujourd’hui, les harmoniques de haut degré correspondant aux courtes longueurs d’onde du champ de gravité sont encore affectés de grandes incertitudes de par la diversité et les différences de précision et de résolution des techniques gravimétriques permettant de les atteindre. Le principal obstacle à l’amélioration de la résolution et la précision des modèles vient de ce que les systèmes de gravimétrie et gradiométrie mobiles, seuls instruments qui permettent des acquisitions à précision et à résolution spatiale homogènes, demeurent encore encombrants et gros consommateurs d’énergie, ce qui interdit en particulier leur installation sur des drones terrestres, aériens, navals de surface et sous-marins. L’intérêt de ce type de porteur est de pouvoir opérer des acquisitions très proches des sources ce qui accroît considérablement la restitution des variations locales de la gravité. Le développement d’un nouveau type de capteur gravimétrique à faible encombrement et moindre consommation énergétique apparaît donc indispensable pour répondre à la problématique posée par la mesure des courtes longueurs d’onde du champ de gravité.Dans le cadre de ses activités de recherche en gravimétrie, le Laboratoire de Géomatique et Foncier (Cnam/GeF EA 4630), en collaboration avec le Laboratoire de Recherche en Géodésie (LAREG) de l’Institut National de l’information Géographique et forestière (IGN), le Laboratoire Domaines Océaniques (LDO, UMR CNRS 6538, UBO), l’Institut Français de Recherche pour l’Exploitation de la Mer (IFREMER) et le Service Hydrographique et Océanographique de la Marine (SHOM), développe un instrument novateur qui permet la mesure dynamique du champ de gravité terrestre en fond de mer.Le système baptisé GraviMob (système de Gravimétrie Mobile) ne nécessite pas de plateforme stabilisée et se fixe rigidement dans l’habitacle du véhicule porteur, en l’occurrence, un submersible autonome. Le cœur du système est constitué de triades d’accéléromètres, permettant une mesure vectorielle de l’accélération de pesanteur. Un traitement des mesures par filtrage de Kalman, intégrant les données de position et d’orientation du véhicule porteur, réalise la restitution du champ de pesanteur dans un référentiel adapté à son interprétation et son exploitation. Ce prototype instrumental a été expérimenté en Mer Méditerranée au cours de l’année 2016, à l’aplomb de profils gravimétriques de surface acquis antérieurement par le SHOM. La comparaison du signal gravimétrique obtenu en fond de mer avec les données du SHOM indique une répétabilité de la tendance générale du signal gravimétrique à 5 mGal près.Ce manuscrit aborde successivement, l’établissement de l’équation d’observation du système GraviMob, l’étalonnage et l’orientation des accéléromètres du capteur, la stratégie d’estimation du champ de pesanteur par un filtre de Kalman intégrant un modèle d’évolution des composantes du champ de pesanteur et un modèle d’observation tenant compte du bruit de mesure, le traitement et l’analyse des mesures acquises lors de son expérimentation en Mer Méditerranée, puis la comparaison du signal gravimétrique obtenu avec les données de référence
One of the major challenges of modern gravimetry consists in determining mathematical models and digital maps of the Earth’s gravity field, the reliability of which is identical whatever the spatial scale considered in terrestrial, coastal, marine and submarine domains. Today, the harmonics of high degree corresponding to the short wavelengths of the gravity field are still affected by great uncertainties due to the diversity and the differences in precision and resolution of the gravimetric techniques making it possible to reach them. The main obstacle to improve the resolution and accuracy of models is that gravimetry and gradiometry mobile devices, the only instruments that allow homogeneous precision and spatial resolution acquisitions, are still bulky and energy-intensive, which prohibits their installation on terrestrial, aerial, surface and submarine drones. The interest of this type of carrier is to make acquisitions very close to the sources which considerably increases the restitution of the local variations of the gravity. The development of a new type of gravimetric sensor with small size and lower energy consumption appears therefore essential to answer the problematic posed by the measurement of the short wavelenghts of the gravity field.As part of its research in gravimetry, the Laboratoire Géomatique et Foncier (Cnam/GeF EA 4630), in collaboration with the Laboratory for Research Geodesy (LAREG) of the National Institute for Geographic and Forest Information (IGN), the Oceanic Domains Laboratory (LDO, UMR, CNRS 6538, UBO), the French Research Institute for the Exploitation of the Sea (IFREMER) and the Marine Hydrographic and Oceanographic Service (SHOM), develops an innovative instrument which allows the dynamic measurement of the Earth’s gravity field in the subsea domain.The system, called GraviMob (Gravimetry Mobile System), does not require a stabilized platform and is rigidly attached to the carrier vehicule, in this case an Autonomous Underwater Vehicule (AUV). The heart of the system consists of triads of accelerometers, allowing a vector measurement of the gravity. A Kalman filter, integrating the position and orientation data of the carrier vehicle, performs the estimation of the gravity field in a frame adapted to its interpretation. This instrumental prototype has been tested in the Mediterranean Sea during the year 2016. The comparison of the gravimetric signal obtained near the seabed with the surface gravimetric profiles, previously acquired by the SHOM, indicates a repeatability of the general trend of the gravimetric signal to within 5 mGal.This manuscript deals successively with the establishment of the observation equation of the GraviMob system, the calibration and orientation of the accelerometers, the gravity field estimation strategy by a Kalman filter, integrating an evolution model of the gravity field components and an observation model taking the measurement noise into account, the processing and analysis of the measurements acquired during its experimentation in the Mediterranean Sea, then the comparison of the gravimetric signal obtained with the reference data
Styles APA, Harvard, Vancouver, ISO, etc.
4

Samuth, Benjamin. « Ηybrid mοdels cοmbining deep neural representatiοns and nοn-parametric patch-based methοds fοr phοtοrealistic image generatiοn ». Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC249.

Texte intégral
Résumé :
Le domaine de la génération d'images a récemment connu de fortesavancées grâce aux rapides évolutions des modèles neuronaux profonds.Leur succès ayant atteint une portée au-delà de la sphèrescientifique, de multiples inquiétudes et questionnements se sontlégitimement soulevées quant à leur fonctionnement et notammentl'usage de leurs données d'entraînement. En effet, ces modèles sont sivolumineux en paramètres et coûteux en énergie qu'il en devientdifficile d'offrir des garanties et des explications concrètes. Àl'inverse, des modèles légers et explicables seraient souhaitablespour répondre à ces nouvelles problématiques, mais au coût d'unequalité et flexibilité de génération moindre.Cette thèse explore l'idée de construire des « modèles hybrides », quicombineraient intelligemment les qualités des méthodes légères oufrugales avec les performances des réseaux profonds. Nous étudionsd'abord le cas du transfert de style artistique à l'aide d'une méthodecontrainte, multi-échelle, et à patchs. Nous déterminons alorsqualitativement l'intérêt d'une métrique perceptuelle dans cetteopération. Par ailleurs, nous développons deux méthodes hybrides degénération de visages photoréalistes, à l'aide d'un auto-encodeurpré-entraîné. Le premier s'attaque à la génération de visages avecpeu d'échantillons à l'aide de patchs latents, montrant une notablerobustesse et des résultats convaincants avec un simple algorithmeséquentiel à patchs. Le second offre une solution à la généralisationde la tâche à une plus grande variétés de visages grâce à des modèlesde mixtures de gaussiennes. En particulier, nous montrons que cesmodèles offrent des performances similaires à d'autres modèlesneuronaux, tout en s'affranchissant d'une quantité importante deparamètres et d'étapes de calculs
Image generation has encountered great progress thanks to the quickevolution of deep neural models. Their reach went beyond thescientific domain and thus multiple legitimate concerns and questionshave been raised, in particular about how the training data aretreated. On the opposite, lightweight and explainable models wouldbe a fitting answer to these emerging problematics, but their qualityand range of applications are limited.This thesis strives to build “hybrid models”. They would efficientlycombine the qualities of lightweight or frugal methods with theperformance of deep networks. We first study the case of artisticstyle transfer with a multiscale and constrained patch-basedmethod. We qualitatively find out the potential of perceptual metricsin the process. Besides, we develop two hybrid models forphotorealistic face generation, each built around a pretrainedauto-encoder. The first model tackles the problem of few-shot facegeneration with the help of latent patches. Results shows a notablerobustness and convincing synthesis with a simple patch-basedsequential algorithm. The second model uses Gaussian mixtures modelsas a way to generalize the previous method to wider varieties offaces. In particular, we show that these models perform similarly toother neural methods, while removing a non-negligible number ofparameters and computing steps at the same time
Styles APA, Harvard, Vancouver, ISO, etc.
5

Marguet, Bruno. « Enrichissement de modèles de comportement dynamique de véhicules de transport guidés par confrontation modale ». Valenciennes, 1990. https://ged.uphf.fr/nuxeo/site/esupversions/97f5ea66-6d50-48bd-9504-08e62db3d20c.

Texte intégral
Résumé :
De nos jours, la conception de véhicules de transport guides, requiert de plus en plus de méthodes de conception sophistiquées. Hier encore, l'étude nécessitait uniquement une analyse statique pour le modèle de la structure; aujourd'hui, les recommandations du client imposent de valider les hypothèses de la conception dans le domaine dynamique. Les évolutions des moyens de calculs et de mesures permettent, aujourd'hui, d'aborder le problème sous les aspects numérique et expérimental. Cela concerne la comparaison des calculs avec l'expérimentation réalisée par le laboratoire de génie mécanique de l'université de Valenciennes en association avec la cimt (société industrielle de fabrication de véhicules de transport ferroviaire) afin d'optimiser la conception d'un véhicule de transport guide. (Le val: véhicule automatique léger). Les objectifs de l'étude sont de déterminer l'influence des éléments annexes (habillage, équipements de dessous châssis, passagers) sur les propriétés du val, afin de valider par l'expérimentation le modèle analytique de la structure et d'établir par comparaison avec le calcul une stratégie de modélisation qui permet de prendre en compte ces éléments dans la conception dynamique du val. Afin de faciliter l'approche expérimentale, les tests suivant les différentes configurations ont été réalisés sur une sous-structure du val.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Le, Corre Solen. « Higgs boson phenomenology beyond the Standard Model ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1028.

Texte intégral
Résumé :
Suite à la découverte du boson de Higgs en Juin 2012 au Large Hadron Collider, l’accélérateur de particules situé à la frontière franco-suisse, l’étude du secteur scalaire des particules élémentaires a connu un regain d’intérêt. En particulier, le boson de Higgs étant une particule clef au sein du Modèle Standard des particules, les expérimentateurs étudient ses propriétés avec beaucoup de soin.Le Modèle Standard, dont le but est de décrire les interactions entre particules élémentaires, n’est cependant pas une théorie complète. En effet, en plus de quelques problèmes d’ordre théorique, certains phénomènes observés expérimentalement ne peuvent pas être expliqués par ce modèle. Les théoriciens en physique des particules cherchent donc à établir une nouvelle théorie venant le compléter et permettant d’expliquer pleinement les observations expérimentales.Cette thèse est axée sur l’étude du secteur scalaire de modèles au-delà du Modèle Standard des particules. J’ai plus particulièrement travaillé sur un modèle à deux doublets de Higgs – modèle purement effectif mais qui peut être inclus dans d’autres théories plus abouties – ainsi que sur un modèle construit comme une combinaison entre les théories déjà très proches de techicouleur et de Higgs composites, et ce dans le cas particulier d’une brisure de symétrie SU (4) ? Sp(4). J’ai étudié ce dernier modèle d’un point de vue effectif mais la théorie complète est capable depallier un certain nombre des limitations du Modèle Standard.Chacun de ces modèles inclut un secteur scalaire plus riche que celui du Modèle Standard et contient au moins une particule pouvant être assimilée au boson de Higgs découvert au LHC. J’ai réalisé l’étude phénoménologique de chacun de ces modèles et les ai confrontés à des contraintes tant théoriques qu’expérimentales – en particulier celles obtenues grâce aux études les plus récentes, portant sur le boson de Higgs et sur de potentielles particules scalaires additionnelles, réalisées par les équipes du LHC. Cela m’a permis de contraindre les paramètres libres des modèles et en particulier de restreindre les valeurs possibles pour la masse des autres particules scalaires, permettant de mieux cibler les zones où ces nouvelles particules, si elles existent, pourraient être détectées au LHC.Ces deux théories, bien que très contraintes par les données expérimentales, ne sont toujours pas exclues par les contraintes expérimentales les plus récentes
Following the discovery of the Higgs boson in June 2012 at the Large Hadron Collider, the particle collider located beneath the France-Switzerland border, interest in the study of the scalar sector in elementary particle physics significantly increased. In particular, as the Higgs boson plays a very special role in the Standard Model of particle physics, experimentalists study its properties with great care.The goal of the Standard Model is to describe the interactions between elementary particles. However the theory is not quite complete. Indeed, in addition to some purely theoretical problems, a number of experimental observations cannot be explained by the Standard Model. Theorists are therefore looking for a more comprehensive theory able to fully explain the observations.This thesis is based on the study of the scalar sector of two different extensions of the Standard Model of particle physics. I have worked on the Two-Higgs Doublet Model – this model is purely effective but can be included in more comprehensive theories – as well as on a model based on a combination of Technicolor and Composite Higgs theories in the framework of the SU (4) ? Sp(4) symmetry breaking pattern. I studied the latter via an effective approach but the full theory is able to get rid of some of the pitfalls of the Standard Model.These two models include a scalar sector that is richer than the one found in the Standard Model and contain at least one particle which can be assimilated to the Higgs boson discovered at the LHC.I performed a phenomenological study for these two models and tested them against both theoretical and experimental constraints. In particular I used the latest studies on the 125 GeV Higgs boson and on possible additional scalars performed by the ATLAS and CMS collaborations. The application of all these constraints drastically reduced the available parameter space of the two models. In particular it narrowed the possible mass range of the additional scalars, allowing to know more accurately where to search them experimentally in order to prove or rule out their possible existence.As of today the two theories I worked on are still not excluded by the latest experimentaldata
Styles APA, Harvard, Vancouver, ISO, etc.
7

Fagot, Alain. « Réexécution déterministe pour un modèle procédural parallèle basé sur les processus légers ». Phd thesis, Grenoble INPG, 1997. http://tel.archives-ouvertes.fr/tel-00004942.

Texte intégral
Résumé :
Cette thèse définit un modèle d'exécution de programmes parallèles basés sur l'appel de procédures exécutées à distance par des processus légers. L'équivalence de deux exécutions dans le modèle procédural parallèle sert de guide pour la construction d'un mécanisme de réexécution déterministe pour le noyau exécutif Athapascan-0a. Le modèle étudié n'est pas spécifique à Athapascan et peut s'appliquer à d'autres environnements de programmation. Les modèles concernés utilisent des ressources partagées actives. Dans cette famille de modèles se trouvent, entre autres, les modèles d'appels de procédures à distance, les modèles Clients-Serveurs et les modèles à objets actifs. Le modèle exploite des événements abstraits composés d'événements de plus bas niveau. Le nombre d'événements enregistrés est ainsi réduit sans surcoût de calcul lié à cette réduction. Le mécanisme de réexécution déterministe réalisé pour Athapascan-0a est validé expérimentalement. Une méthodologie de mesures systématiques est appliquée pour mesurer le surcoût en temps dû à l'enregistrement des traces nécessaires à la réexécution. Les mesures des temps d'exécution s'effectuent pour des programmes parallèles synthétiques générés à partir de modèles d'algorithmes. Les surcoûts mesurés montrent une faible intrusion du mécanisme d'enregistrement des traces.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Kharbach, Ali. « Etude de systèmes nucléaires légers par le modèle microscopique de la coordonnée génératrice ». Doctoral thesis, Universite Libre de Bruxelles, 2000. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211811.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Pierrot, François. « Robots pleinement parallèles légers : conception, modélisation et commande ». Montpellier 2, 1991. http://www.theses.fr/1991MON20060.

Texte intégral
Résumé :
Dans un premier temps, une synthese critique de l'etat de l'art est presentee. Les robots pleinement paralleles legers etant definis, leurs modelisations geometriques puis dynamique sont developpees. La methodologie utilisee conduit a une faible complexite des calculs, compatibles avec la commande en temps reel a haute vitesse. Des experimentations sur un site reel (robot delta) sont ensuite decrites. Enfin, de nouvelles architectures de robots, adaptees aux mouvements rapides, sont proposees
Styles APA, Harvard, Vancouver, ISO, etc.
10

Coguenanff, Corentin. « Conception robuste aux incertitudes des systèmes légers bois envibro-acoustique linéaire ». Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1166/document.

Texte intégral
Résumé :
La compréhension et la prédiction du comportement vibro-acoustique des systèmes légers bois du bâtiment constitue un enjeu scientifique d'actualité. En 2015 une étude montrait encore que presque la moitié de ces systèmes constructifs n'offrait pas satisfaction. Un modèle prédictif à l'échelle du bâtiment, en cours de normalisation, permet de prendre en compte la performance individuelle des différents systèmes séparatifs pour remonter à un niveau de performance globale. La difficulté scientifique réside alors dans l'évaluation de la performance individuelle associée à chaque conception admissible, dans un vaste ensemble de systèmes techniquement réalisables. Dans cette recherche, une méthodologie est proposée pour la construction de modèles numériques capables de prendre en compte, aux basses fréquences, la complexité et la diversité des systèmes bois constitués de multiples plaques, poutres, cavités acoustiques et matériaux poroélastiques. En accord avec les procédures d'évaluation normalisées, des modèles déterministes pour les excitations mécaniques du système sont construits. Une approche probabiliste est alors développée en réponse à la problématique des incertitudes liées à la construction légère. Ainsi, en résolvant un problème stochastique inverse utilisant des données expérimentales pour identifier les hyperparamètres de modèles probabilistes développés, il est possible de quantifier la propagation des incertitudes du système à la performance prédite en conditions de laboratoire. Par suite, des configurations optimales, robustes aux incertitudes, sont recherchées. Du fait de la nature combinatoire du problème d'optimisation, un algorithme génétique, particulièrement adapté à un espace de recherche discret ainsi qu'à l'optimisation multi-objectif, est mis en oeuvre. Dans les cas traités, les configurations optimales tendent vers une maximisation de la rigidité structurelle
Being able to understand and predict the vibroacoustic behavior of lightweight wood-based building systems contitute a serious scientific concern. In 2015, acoustic comfort investigation claims that unsatisfactions are expressed with respect to around 50% of such constructions. In particular, low frequency discomfort is target of criticism. A methodology was proposed, currently running through standardisation process, which translates the individual performance of the building systems into a global building performance index. The challenge consequently lies in the prediction of the individual performances in regard to the wide spread of wood based designs. In this research, a methodology is introduced for the construction of computational models able to handle the complexity and diversity of the systems, constituted of multiple boards, stiffeners, cavities and poroelastic media. Structural excitations of the system are constructed according to standard evaluation procedures. Then, a probabilistic approach is undertaken in order to take into account the uncertainty problematic, inherent to lightweight wood based constructions. In particular, stochastic inverse problems are constructed to identify, from experimental measurements, hyperparameters associated with ad hoc probabilistic models. Eventually, uncertainty quantification can be performed in regard to predicted performance in laboratory conditions. Following, robust optimal designs are sought in the presence of uncertainties. No continuous mapping from the search space of the configurations to the space of the fitness functions representative of the objective performance exists and derivatives cannot be defined. By way of consequence, the class of the evolutionnary algorithm, suited to discrete search spaces as well as multi-objective optimisation, is chosen. Considered optimisation problems displayed preferential directions of the genetic algorithm towards stiffest admissible designs
Styles APA, Harvard, Vancouver, ISO, etc.
11

Humbert, Laurent. « Modélisation thermique et cinétique du vapocraquage de mélanges gazeux légers ». Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30005.

Texte intégral
Résumé :
Ce mémoire décrit la mise au point et l'utilisation d'un modèle de four de vapocraquage dans le but d'optimiser les conditions de marche industrielle. Le formalisme développé est un modèle de connaissance basé sur les lois de transfert thermique et d'hydrodynamique et sur un schéma cinétique simplifié des réactions de craquage. Il intègre également tous les paramètres liés au cokage des tubes, phénomène subi qui limite la durée des runs et pénalise la sélectivité de l'opération. Le premier chapitre fait le point sur la bibliographie du sujet et les outils actuellement existants. Une première version du modèle avait été mise au point pour un ancien type de four. .
This memo describes the development of a steam-cracking furnace model to optimise furnace operating conditions. The model is a knowledge model using heat transfer laws, pressure drop equation and simplified kinetic reactions scheme. The coking model and its effects on furnace operations are taken into account in model. Coke is the principal constraint which reduces run length and decreases the selectivity of steam cracking operations. The first part of this report describes the literature and the existing tools. It presents also the version developed for Lavera old horizontal gas furnaces cracking. The second part is development, tuning and validation of the model for new vertical furnaces. The kinetic scheme from the previous version has been tuned by little adjustment of the kinetic constants. Heat transfer, pressure drop and coking models are updated with new laws to improve the results of the models and to take into account of the new technology of the furnace. Then, the model has been tuned on a large set of industrial data and validated following a sever procedure before use in simulation. Applications of the model, which are the justification of the work progressed, are described in the third part. The first application is to follow actual runs to check the running conditions of the furnace and to detect as soon as possible any unexpected event. The second application is optimisation of turn operating conditions to improve the benefit of the plant. .
Styles APA, Harvard, Vancouver, ISO, etc.
12

Bennaceur, Karim. « Théorie microscopique des noyaux exotiques légers. Modèles en couches avec couplage au continuum ». Phd thesis, Université Louis Pasteur - Strasbourg I, 1999. http://tel.archives-ouvertes.fr/tel-00817911.

Texte intégral
Résumé :
Les avancées récentes en physique nucléaire expérimentale permettent d'étudier les systèmes nucléaires a la limite de la vallée de stabilité. La découverte de nouveaux phénomènes, comme les halos et les peaux de neutrons, nécessite le développement de nouveaux outils théoriques permettant d'étudier ces systèmes. Le développement et les applications du modèle en couches avec couplages au continuum constituent la première partie de ce travail. Ce formalisme nouveau permet de prendre en compte les corrélations entre les états lies et les états de diffusion des noyaux faiblement liés. Nous l'avons applique a l'étude de la spectroscopie des noyaux miroir 8B- 8Li et 17F- 17O. Il permet également de calculer les sections efficaces de diffusion élastique, de dissociation coulombienne et de capture radiative. Nous présentons notamment les résultats concernant les réactions d'intérêt astrophysique : 16O(p,$\gamma$) 17F et 7Be(p,$\gamma$)8B. Cette dernière réaction est particulièrement importante pour la compréhension des modèles solaires car la désintégration du 8B fournit l'essentiel du flux de neutrinos solaires de haute énergie. La seconde partie de ce travail porte sur l'analyse de l'interaction d'appariement loin de la vallée de stabilité. Nous avons développé une approche, basée sur la méthode de Hartree-Fock-Bogolyubov (HFB), permettant d'étudier les corrélations d'appariement entre états liés et états de diffusion, résonnant ou non. Le potentiel particule-trou est remplacé par un potentiel dont les solutions sont connues analytiquement. Cette méthode permet d'analyser l'effet de l'appariement sur des états de particule liés ou résonnant situes à des énergies arbitraires. Nous avons ainsi pu démontrer que le continuum non résonnant peut jouer un rôle crucial dans les noyaux faiblement lies et que la résolutions des équations de HFB en base position est une des seule méthode permettant de traiter correctement ce problème.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Pothion, Stéphanie. « Déficits comportementaux liés au stress chronique léger imprévisible chez différentes lignées de souris adultes et âgées ». Tours, 2004. http://www.theses.fr/2004TOUR4021.

Texte intégral
Résumé :
Les facteurs environnementaux influencent l'apparition d'un épisode dépressif. Un modèle de dépression consiste à soumettre des souris à des stress chroniques légers et imprévisibles (SCLI), stress censés simuler les événements stressants de la vie de tous les jours. Nous avons montré que le SCLI provoque chez la souris des altérations physiques et comportementales : perte de poids, réduction de la consommation d'eau sucrée, déficits mnésiques, qui rappellent la symptomatologie dépressive de l'homme. Ces altérations ont été différentes selon l'âge des animaux ainsi que selon les lignées, suggérant une différence de sensibilité au stress selon l'âge et appuyant l'hypothèse de l'influence génétique dans la dépression. L'efficacité d'un antidépresseur dans la restauration des comportements normaux des animaux soumis au SCLI a aussi pu être montrée. La mise au point de ce modèle a donc permis l'exploration des troubles dépressifs, cognitifs et du vieillissement liés au stress
Environmental factors influence the development of major depression. The unpredictable chronic mild stress (UCMS) model consists to expose mice to differents stressors that mimic stressful events of life. In our study, UCMS induced physical and behavioural alterations in mice : weight loss, sucrose consumption reduction, memory deficit, similar to the symptomatology of human depression. The alterations were different according to the age of animals and according to the strain of mice, suggesting a difference of sensitivity to stress according to the age and the genetic influence in depression. The efficacity of an antidepressant in the restauration of the normal behaviour has also been shown in mice exposed to UCMS. Therefore, the UCMS model allowed the investigation of stress effects on depressive state, cognitive deficits and aging
Styles APA, Harvard, Vancouver, ISO, etc.
14

Chanut, Stéphane. « Modélisation dynamique macroscopique de l'écoulement d'un trafic routier hétérogène poids lourds et véhicules légers ». Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0040/these.pdf.

Texte intégral
Résumé :
L'hétérogénéité du trafic est l'un des phénomènes à qualifier et à quantifier pour les exploitants. En particulier, se pose la question de l'impact sur l'écoulement de la présence de poids lourds au sein du trafic. Cette thèse propose un modèle d'écoulement du trafic permettant de décrire le comportement d'un trafic hétérogène. Ce modèle est macroscopique à deux classes : le trafic est un flux continu composé de deux classes homogènes : des poids lourds et des véhicules légers, différenciés par leur vitesse et leur longueur. Le modèle fait l'objet d'une résolution analytique complète et une résolution numérique est mise en place par l'utilisation d'un schéma de type Godunov. Une attention particulière est portée aux phases de dépassement et à leurs conséquences sur l'écoulement par la mise en place d'une modélisation spécifique. Les applications dont le modèle pourrait faire l'objet sur le terrain sont nombreuses, notamment quant au test de mesures de régulation d'un trafic hétérogène
The traffic composition is one of the phenomenon that road managers have to address. In particular a question arises: the impact on the flow of trucks. This thesis proposes a traffic flow model making it possible to describe the behavior of a heterogeneous traffic. This proposed model is a macroscopic one, with two classes. The traffic is described like a continuous flow and is assumed to be composed of two homogeneous classes: trucks and passenger cars, which are different from their speeds and their lengths. The model is completely solved and a numerical resolution is built with a Godunov scheme. A particular attention is paid to the passing phenomenon and its effects on the flow by a specific modelling. The applications of the model are numerous, in particular for what concerns the test of regulation strategies for a heterogeneous traffic
Styles APA, Harvard, Vancouver, ISO, etc.
15

Neveu, Jeremy. « Contraintes expérimentales sur des modèles à champ scalaire léger en cosmologie et physique des particules (expériences SNLS et CMS) ». Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066233/document.

Texte intégral
Résumé :
Face à la nature inconnue de l'énergie noire et de la matière noire, des modèles à champ scalaire léger ont été proposés pour expliquer l'accélération tardive de l'expansion de l'Univers et l'apparente abondance de matière non baryonique dans l'Univers. Dans une première partie, cette thèse confronte de la façon la plus précise possible les données de cosmologie les plus récentes au modèle du Galiléon, une théorie de gravité modifiée possédant des propriétés théoriques particulièrement intéressantes. Des contraintes observationnelles sur les paramètres du modèle sont dérivées en utilisant les dernières mesures liées aux distances cosmologiques et à la croissance des grandes structures de l'Univers. Un bon accord est observé entre les données et les prédictions théoriques, faisant du Galiléon un modèle alternatif compétitif avec celui de la constante cosmologique. Dans une seconde partie, la production de Branons, particules scalaires candidates au statut de matière noire venant d'une théorie de dimensions supplémentaires, est recherchée dans les collisions proton-proton enregistrées en 2012 par l'expérience Compact Muon Solenoid auprès du Grand Collisionneur de Hadrons. Des événements présentant un photon et de l'énergie transverse manquante dans l'état final sont sélectionnés dans les données et comparés aux estimations des bruits de fonds attendus. Aucun excès d'événements n'étant observé, des limites expérimentales sur les paramètres de la théorie du Branon sont calculées. Elles sont les plus contraignantes à ce jour. Cette thèse se conclut par des arguments pour une description unifiée des deux modèles étudiés, dans le cadre des théories de dimensions supplémentaires
The nature of dark energy and dark matter is still unknown today. Light scalar field models have been proposed to explain the late-time accelerated expansion of the Universe and the apparent abundance of non-baryonic matter. In the first part of this thesis, the Galileon theory, a well-posed modified gravity theory preserving the local gravitation thanks to the Vainshtein screening effect, is accurately tested against recent cosmological data. Observational constraints are derived on the model parameters using cosmological distance and growth rate of structure measurements. A good agreement is observed between data and theory predictions. The Galileon theory appears therefore as a promising alternative to the cosmological constant scenario. In the second part, the dark matter question is explored through an extra-dimension theory containing massive and stable scalar fields called Branons. Branon production is searched for in the proton-proton collisions that were collected by the Compact Muon Solenoid experiment in 2012 at the Large Hadron Collider. Events with a single photon and transverse missing energy are selected in this data set and compared to the Standard Model and instrumental background estimates. No signature of new physics is observed, so experimental limits on the Branon model parameters are derived. This thesis concludes with some ideas to reach an unified description of both models in the frame of extra-dimension theories
Styles APA, Harvard, Vancouver, ISO, etc.
16

Leloup, Clément. « Contraintes expérimentales sur des modèles avec champ scalaire léger dans le secteur sombre en cosmologie et physique des particules ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS303/document.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse contraignent les paramètres d'un modèle de cosmologie, le modèle du galileon, et d'un modèle de physique des particules, le modèle du branon, qui sont des extensions des modèles standards. Ces modèles, qui supposent l'existence d'un champ scalaire additionnel et peuvent trouver leurs origines dans les théories à dimensions supplémentaires, offrent des explications élégantes aux questions de la nature de l'énergie noire et de la matière noire respectivement. La première partie de cette thèse présente les prédictions du modèle du galileon et les résultats obtenus par leur comparaison aux observations cosmologiques et astrophysiques récentes. Cette étude montre que le modèle du galileon a de sérieuses difficultés à reproduire ces observations, qui regroupent le fond diffus cosmologique, les mesures liées aux distances cosmologiques, et l'observation d'un évènement par ondes gravitationnelles et contrepartie électromagnétique. La seconde partie décrit la recherche de branons dans les collisions proton-proton enregistrées en 2016 par le Solénoïde Compact à Muons au Grand Collisionneur de Hadrons, à une énergie dans le centre de masse de 13 TeV. Des évènements qui présentent un jet de haute énergie, produit par un quark ou gluon ou bien par désintégration hadronique d'un boson vecteur, et de l'énergie transverse manquante dans l'état final sont sélectionnés et comparés aux estimations pour les évènements de bruits de fond. Aucun excès d'évènements n'est observé, ce qui permet de poser des contraintes sur les valeurs possibles des paramètres du modèle du branon
This PhD thesis presents constraints on the parameters of a cosmological model, the galileon model, and a particle physics model, the branon model. Both are extensions of the standard models that include an additional scalar field and that can be built from extra dimensions theories. The galileon model propose an alternative to the cosmological constant as the nature of dark energy, and the branon model give a dark matter particle candidate. The first part of this thesis shows the predictions of the galileon model and the results obtained from their comparison with recent cosmological and astrophysical observations. The set of observations used contains the cosmic microwave background, cosmological distances measurements and the detection of gravitational waves along with their electromagnetic counterpart from the merger of a binary star system. The study shows that the galileon model has serious difficulties to reproduce these observations. The second part describe the search for branons in proton-proton collisions data at 13 TeV collected in 2016 with the Compact Muon Solenoid at the Large Hadron Collider. Events with high energy jets, produced by a quark, a gluon or a vector boson decaying hadronically, and missing transverse energy in the final state are selected and compared to background estimations. No excess of event has been found allowing for experimental constraints to be put in the parameter space of the branon model
Styles APA, Harvard, Vancouver, ISO, etc.
17

Ebnöther, Fabien. « Optimisation d'une structure gaufrée pour la conception de panneaux sandwichs légers ». Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00771256.

Texte intégral
Résumé :
Dans le cadre de cette thèse, on étudie le comportement mécanique de panneaux sandwich métalliques avec une âme à architecture gaufrée. Ces structures fournissent une alternative économiquement avantageuse aux nids d'abeilles hexagonaux car leur production de masse est réalisable par emboutissage progressif de tôles planes. Les différentes géométries possibles de la structure gaufrée sont limitées par des risques de rupture lors de la fabrication. Ainsi, l'étude de l'optimisation de la capacité portante des panneaux sandwich à âme gaufrée est contrainte par la rupture ductile du matériau de base. Le choix d'un modèle de rupture ductile approprié pour prédire le comportement à rupture du matériau de base joue donc un rôle central dans cette recherche. La première partie de cette thèse est entièrement consacrée aux évaluations expérimentale et numérique des capacités prédictives de deux versions du modèle de rupture de Mohr-Coulomb; l'une étant la version originale, l'autre intégrant un indicateur d'endommagement. En limitant notre attention aux contraintes planes induites par la traction uni-axiale et équi-biaxiale dans la tôle d'acier doux, on réalise des essais de rupture sur des éprouvettes entaillées et des essais de poinçonnement à l'aide d'un poinçon circulaire afin d'identifier les paramètres du modèle de rupture. Un test de Hasek et un essai d'emboutissage d'une structure gaufrée sont utilisés afin d'évaluer les capacités prédictives des deux modèles de rupture. Le modèle avec indicateur d'endommagement utilisant une fonction poids dépendant de l'état de contrainte prédit l'apparition de la rupture lors de l'essai d'emboutissage avec la meilleure précision. Dans la deuxième partie de cette thèse, pour l'étude de la fabrication de la structure gaufrée, on utilise le modèle de Mohr-Coulomb avec indicateur d'endommagement pour déterminer la profondeur d'emboutissage maximale en fonction de la géométrie de l'outil de mise en forme. Le comportement en grandes déformations est décrit par un modèle de plasticité quadratique avec écrouissage isotrope et une loi d'écoulement non associée. Des cartes de sensibilité aux principaux paramètres sont développées : rigidité au cisaillement de la partie cœur, résistance au cisaillement, résistance au délaminage et au flambement élastique des peaux en fonction de la géométrie de la structure cœur. Une méthode d'optimisation des performances des panneaux sandwich à âme gaufrée est développée pour les panneaux rectangulaires sur appuis simples soumis à un chargement latéral uniforme. Les résultats des expériences de flexion quatre points montrent que les panneaux sandwichs optimisés offrent des plus grandes résistance et rigidité (pour un moindre poids) que des panneaux avec une partie cœur en mousse de polyéthylène de haute densité. La dernière partie de cette thèse se concentre sur l'étude de la résistance à la perforation des panneaux sandwich métalliques à âme gaufrée. L'effet des paramètres décrivant la géométrie de la structure cœur et le l'influence du matériau constituant les peaux est étudié. On s'intéresse en particulier à un acier doux, un acier " dual-phase " DP780 et un acier martensitique à très haute résistance. Un nouveau modèle utilisant un indicateur d'endommagement avec une fonction poids basée sur le critère de Hosford est utilisé pour modéliser la réponse à la rupture de ces matériaux. Une étude paramétrique de la résistance à la perforation des panneaux sandwich pour différentes tailles de cellule élémentaire de la partie cœur est réalisée à l'aide d'un modèle éléments finis. La résistance à la perforation diminue avec la taille de la cellule et avec la hauteur de la partie cœur. Ainsi, le panneau sandwich le plus mince offre une résistance supérieure à la perforation. Des essais sont réalisés qui confirment ce résultat important.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Shink, Mélanie. « Compatibilité élastique, comportement mécanique et optimisation des bétons de granulats légers ». Thesis, Université Laval, 2003. http://www.theses.ulaval.ca/2003/20771/20771.pdf.

Texte intégral
Résumé :
Le comportement mécanique d'un matériau granulaire est intimement lié à la compatibilité élastique entre ses phases constituantes. La particularité des bétons de granulats légers est la combinaison d'une matrice cimentaire avec des granulats peu rigides. Sous ces conditions, cette thèse porte sur l'étude de la compatibilité élastique et du comportement mécanique des bétons de granulats légers. Le principal objectif est de définir les mécanismes qui contrôlent la résistance de ces bétons afin d'en optimiser les performances. Cet objectif est atteint par un apport combiné de la modélisation et de l'expérimentation. La partie modélisation fait appel à plusieurs concepts de la mécanique des matériaux composites à inclusions sphériques. Un modèle de perturbations est utilisé pour évaluer les contraintes résultantes induites par la présence des granulats légers au sein du béton sous charge. En intégrant la proportion volumique des granulats aux calculs, ce modèle permet d'établir une méthode de prédiction du comportement mécanique des bétons légers en fonction des propriétés de chacune des phases. La partie expérimentale a pour but d'évaluer le comportement mécanique d'une large gamme de bétons légers et sert par conséquent à la validation du modèle. L'étude est dirigée à la fois sur les propriétés mécaniques de la matrice et du béton car les propriétés des granulats ne peuvent être déterminées adéquatement en laboratoire. Les résultats obtenus permettent de constater l'influence de la qualité de la matrice, de la densité des granulats, de l'entraînement d'air et du sable naturel sur la résistance en compression des bétons de granulats légers. On observe que la résistance est directement liée au rapport de module élastique entre les granulats et le béton, Eg=Eb, ainsi qu'à la distribution du squelette granulaire. D'autre part, on remarque que le module élastique des bétons légers varie de façon proportionnelle à la masse volumique du matériau durci. Enfin, la méthode de prédiction établie à l'aide du modèle de perturbations s'avère un outil efficace pour la formulation des bétons de granulats légers. Une étude complémentaire a été réalisée pour évaluer l'efficacité des microfibres et des mésofibres d'acier à contrôler la fissuration des bétons de granulats légers.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Ke, Yang. « Caractérisation du comportement mécanique des bétons de granulats légers : expérience et modélisation ». Cergy-Pontoise, 2008. http://biblioweb.u-cergy.fr/theses/08CERG0395.pdf.

Texte intégral
Résumé :
Ce travail propose une double approche expérimentale et de modélisation micromécanique pour la caractérisation du comportement élastique et à rupture des bétons de granulats légers (BGL). De nombreuses classes de BGL ont été testés à partir de 5 types de granulats légers et 3 natures de matrices (ordinaire, H. P. Et T. H. P. ). Cette base de données permet d’analyser l’influence de différents paramètres comme le type de granulats, leurs proportions, la nature des matrices ou la présence d’interphases. La modélisation repose sur une approche d’homogénéisation et de localisation itérative intégrant la présence d’interphases. Les confrontations aux résultats expérimentaux sont utilisées pour identifier les modules élastiques et résistances à la compression des granulats légers, difficilement accessibles à l’expérience. Alors que les formules empiriques classiques sont mises en défaut, les prédictions des comportements des bétons se révèlent en bon accord avec les mesures expérimentales
An approach combining both experimental techniques and micromechanical modelling is developed in order to characterise elastic and fracture behaviours of lightweight aggregate concretes (LWAC). More than 300 LWAC specimens with various lightweight aggregates types (5) of several volume ratios and 3 different mortar matrices (normal, hp, vhp) were tested. With this experimental data basis, the influences of mix design parameters and of the interfacial transition zone (ITZ) on concretes performances are quantitatively analysed. The modelling is based on iterative homogenisation and localization techniques and includes the ITZ. Confrontations with experimental results allow identifying the elastic moduli and compressive strengths of LWA, which are difficult to obtain by experiments. Whereas the traditional empirical formulas are insufficiently precise, the predictions of LWAC behaviours computed with the micromechanical models appear in good agreement with experimental measurements
Styles APA, Harvard, Vancouver, ISO, etc.
20

François, Patrick. « Nucléosynthèse des métaux légers : observations à haute résolution spectrale et comparaison aux modèles d'évolution galactique ». Observatoire de Paris, 1986. https://hal.archives-ouvertes.fr/tel-02095285.

Texte intégral
Résumé :
Au moyen de spectres stellaires à haute résolution, obtenus aux télescopes CFHT à Hawai et au CAT de l'ESO au Chili, on a étudié comment ont varié au cours du temps, dans notre galaxie, les rapports d'abondance des éléments plus lourds que le bore et en particulier des métaux légers. On a montré que durant le premier milliard d'années ces rapports d'abondance sont restés constants, mais étaient différents des rapports solaires. Les différents objets qui ont pu contribuer à l'enrichissement galactique: supernovæ de type II, de type I et vents stellaires ont été ensuite analysés. On a montré que les rapports obtenus s'expliquent par une prédominance des supernovæ de type II au début de la vie de la galaxie. Ces rapports peuvent être expliqués par le modèle d'évolution chimique de Matteucci et Greggio, mais aussi et de façon plus naturelle par le modèle de R. Cayrel. On souligne l'absence de calculs détaillés des produits de la nucléosynthèse des SN iII sans métaux qui ont eu cependant un rôle fondamental au début de la vie de la galaxie. On montre enfin que ce travail peut être étendu à l'étude des galaxies proches. D'après l'étude d'une première étoile dans un amas globulaire jeune du petit nuage de Magellan, on montre que l'évolution chimique a été beaucoup plus inhomogène dans les nuages de Magellan que dans notre galaxie ; mais à métallicité égale, les rapports d'abondance restent voisins.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Tcheikh, Said Abdou Ben Ali. « Développement d'un simulateur de l'atterrissage d'un avion. Méthode appliquée à un Train d'atterrissage principal d'un avion léger : cas d'un Jet régional (Learjet 45) ». Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30539/30539.pdf.

Texte intégral
Résumé :
Le train d’atterrissage est une structure assurant le mouvement de l’avion en vol-sol et sol-vol pour laquelle beaucoup de travaux restent encore à compléter afin d’avoir une structure performante, durable et qui demande moins de maintenance. Ce travail de recherche est effectué dans le but de contribuer à la modélisation avancée et au développement d’un outil de simulation dynamique d’un train d’atterrissage à amortissement oléopneumatique. Le développement d’un modèle mathématique est réalisé à cet égard, et ce dernier essaie de reproduire le fonctionnement physique d’un système train d’atterrissage en particulier celui de l’amortisseur. L’amortisseur d’un train d’atterrissage est une structure complexe composée de plusieurs sous-ensembles ayant des rôles complémentaires et qui aide l’avion à amortir les chocs pendant l’atterrissage, le roulage et le décollage de l’avion. La structure d’un amortisseur oléopneumatique est constituée des plusieurs chambres contenant du gaz ou un fluide hydraulique. Cependant la structure interne de l’amortisseur demande beaucoup de connaissances physique et technique afin de bien comprendre sa conception interne et externe. Les pneumatiques sont aussi pris en compte dans le modèle et elles sont caractérisées par deux modèles à savoir un basé sur ADAMS/Aircraft et un autre modèle développé en éléments finis sur ABAQUS. Ces aspects sont réunis dans un code numérique développé dans VBA dans un but de caractériser, modéliser et simuler un train d’atterrissage.
Although an aircraft landing gear has a well-known role of allowing the aircraft to complete its movement during landing, taxiing and takeoff, some works are still required today in order to obtain an efficient, more reliable and environmentally friendly landing gear structure. The scope of this project is to develop a numerical simulator of an aircraft landing taking into account the dynamic of the landing gear and the internal design of the shock strut. Landing gear design can be affected by phenomena such as sudden temperature variations as well as extreme temperatures. This can change the behavior of the hydraulic fluid of the shock strut. This work will be conducted by developing a mathematical model computer code in VBA that describes the landing gear physical function. The role of a landing gear shock strut is to absorb the kinetic energy during the landing, taxiing and takeoff phases of the aircraft. The landing gear shock strut is an assembly of different chambers that have a well-defined role. These chambers contain a gas and a hydraulic fluid and work together to provide the force required to maintain the system. These aspects are combined in a numerical code developed with VBA. In this project the effect of the tires was taken into account and characterized using two different models (finite elements and analytical model) using two different numerical tools (Abaqus and Adams). The scope is to compare and see how the two models are able to describe the energy absorption process.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Ruffine, Livio. « Équilibres de phases à basse température de systèmes complexes CO2 - hydrocarbures légers - méthanol - eau : mesures et modélisation ». Lyon 1, 2005. http://www.theses.fr/2005LYO10160.

Texte intégral
Résumé :
Le besoin de développer et d'améliorer les procédés de traitement de gaz est réel. Or la complexité des équilibres mis en jeu a pour conséquence une rareté des données dans la littérature qui limite le développement des modèles thermodynamiques. La première partie de ce travail est consacrée à l'étude expérimentale de systèmes constitués d'hydrocarbures légers, de méthanol, d'eau et de gaz acides. Nous présentons un nouvel appareillage de mesure d'équilibres liquide-vapeur et liquide-liquide-vapeur. Il nous a permis d'une part d'acquérir de nouvelles données compositionnelles du binaire éthane-méthanol et de différents mélanges, et d'autre part de déterminer une partie de l'enveloppe d'équilibre triphasique de ces mêmes systèmes. Dans la deuxième partie de ce travail, nous développons un modèle thermodynamique basé sur l'équation d'état CPA. Grâce à son terme associatif, il prend en compte les associations moléculaires dues à la présence d'eau, du méthanol et du sulfure d'hydrogène. Un tel modèle est nécessaire pour dimensionner correctement les unités de traitement de gaz et pour déterminer les conditions opératoires optimales. Il permet de prédire les équilibres multiphasiques de nombreux systèmes binaires et restitue de façon satisfaisante les équilibres de phase de systèmes complexes
Styles APA, Harvard, Vancouver, ISO, etc.
23

Viot, Hugo. « Modélisation et instrumentation d'un bâtiment et de ses systèmes pour optimiser sa gestion énergétique ». Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0349/document.

Texte intégral
Résumé :
Dans un contexte de raréfaction des énergies à bas coût et de lutte contre le changement climatique, le secteur du bâtiment est contraint à des objectifs de diminution de ses consommations d'énergie. Un contrôle adapté des systèmes énergétiques du bâtiment peut constituer un levier important pour tendre vers cet objectif. Le but premier de ces travaux est la construction de modèles de faibles dimensions afin de pouvoir les embarquer dans un contrôleur pour améliorer la gestion énergétique. Ces modèles doivent être capables de s’enrichir des mesures disponibles sur site. Un bâtiment démonstrateur situé à l'Institut Universitaire de Technologie Génie Civil Construction Durable de Bordeaux sert de support au projet. Ce travail se décline en quatre volets. Le premier concerne la modélisation puisque des modèles légers basés sur l'analogie électrique et la représentation d'état sont proposés afin de décrire la dynamique du bâtiment sur un horizon de contrôle de quelques jours. Le deuxième volet concerne l'instrumentation du bâtiment puisque des campagnes de mesures courtes sont réalisées afin d'identifier les valeurs des paramètres du modèle de façon à minimiser l'écart modèle-mesure. Certains capteurs servent par la suite pour la gestion énergétique du bâtiment ; ces travaux posent donc également la question du jeu minimal de capteurs. Le troisième volet concerne la caractérisation des systèmes servant à piloter l'ambiance puisque dans une logique de contrôle optimal il faut être capable de relier l'effet de la commande sur la grandeur d'intérêt (température de confort). Le bâtiment démonstrateur comprend deux systèmes de chauffage : un plancher chauffant et des ventilo-convecteurs ainsi qu'une centrale de traitement d'air double flux pour le renouvellement d'air. Le dernier volet concerne la gestion énergétique avec l'utilisation d'un contrôleur prédictif embarquant l'un des modèles identifiés. Ainsi l’objectif est de chercher à anticiper le pilotage d'un système capacitif à long temps de réponse, tel que le plancher chauffant, grâce à la connaissance des perturbations futures (occupation, météo) sur un horizon de prédiction de quelques heures. Un contrôle réactif est assuré par les ventilo-convecteurs en appoint. La gestion prédictive est comparée à des stratégies de gestion plus classiques en simulation et in situ avec le bâtiment démonstrateur. L'originalité de ces travaux est de proposer une démarche pour la mise en place d'une boucle de contrôle complète (contrôleur/capteur /actionneurs) et de montrer s'il existe un intérêt à la gestion prédictive de systèmes à long temps de réponse dans le domaine du bâtiment
The building sector is forced to reduce its energy consumption in a context of high energy prices and global warming. Proper control of building energy systems can be an important lever to move towards this goal. The main goal of this work is to obtain small size buildings models in order to use it in a controller to improve energy management. The inputs of these models are fed in real-time with available measurements on site. A demonstration building at the IUT Civil Engineering and Sustainable Construction of Bordeaux serves as experimental support for the project. This work consists of four parts. The first one is to make lightweight models based on the electrical analogy and state-space representation to describe the dynamics of the building on upcoming days. The second part concerns the instrumentation of the building because short measurement campaigns are carried out to identify the model parameter values to minimize the gap between model output and measurement. Some sensors are then used for energy management of the building; thus this work also raise the question of the minimum set of sensors. The third address the characterization of the systems used to control air temperature. For an optimal control logic we must be able to link the effect of the command on the interest variable (air temperature). The demonstration building includes two heating systems : floor heating system (FHS) and fan coil units (FC). A dual flow air handling unit (AHU) is used for air renewal. The last part concerns energy management with the use of a predictive controller boarding one of the identified models. This project intends to anticipate the control of long time response capacitive systems as floor heating through knowledge of future disturbances on a prediction horizon of a few hours (occupation, weather). A reactive control is ensured by the fan coil units. Predictive management is compared to more conventional management strategies in simulation and on-site with the demonstrator building. The originality of this work is to propose a method for the establishment of a full control loop (controller/sensor/actuator) and demonstrate an interest in the predictive management of long response time systems in the building sector
Styles APA, Harvard, Vancouver, ISO, etc.
24

Baiocco, Giorgio. « Vers une reconstruction des propriétés thermiques des noyaux légers par le biais de réactions de fusion-évaporation ». Caen, 2012. http://www.theses.fr/2012CAEN2003.

Texte intégral
Résumé :
Ce travail de thèse se situe dans le cadre d'une campagne expérimentale, proposée par la collaboration NUCL-EX (INFN, 3ème Groupe), dont le but est de progresser dans la compréhension des propriétés statistiques des noyaux légers, à des énergies d'excitation au-dessus du seuil d'émission des particules, par le biais de la mesure de données exclusives pour des réactions de fusion-évaporation. Les objectives de ce travail sont la détermination de la densité des niveaux dans la région de masse A~20, la compréhension du comportement statistique des noyaux légers avec des énergies d'excitation ~ 3A. MeV, et la mise en évidence des effets liés à la présence d'une structure cluster pour certains niveaux nucléaires. En ce qui concerne la partie théorique de cette thèse, nous avons développé un code Monte-Carlo Hauser-Feshbach, pour l'évaporation du noyau composé. La partie expérimentale à consisté dans la participation à l’experience12C(@95 MeV)+12C, mesurée aux Laboratori Nazionali di Legnaro - INFN avec le set-up GARFIELD+Ring Counter(RCo), de la phase de la proposition à la mesure, l'étalonnage des détecteurs et l'analyse des données. Dans ce travail de thèse, plusieurs résultats de l'analyse sont présentés, ainsi qu'une étude théorique du système avec le nouveau code de décroissance. Suite à ce travail, nous pouvons donner des contraintes à la densité des niveaux à haute énergie d'excitation pour les noyaux légers, du C jusqu'au Mg. Des émissions hors équilibre sont mises en évidence, et interprétées comme des effets liés à la structure en cluster des noyaux dans la voie d'entrée de la réaction, ainsi que du système chaud issu de la fusion, avant que la thermalisation soit achevée
This thesis work has been developed in the framework of a new experimental campaign, proposed by the NUCL-EX Collaboration (INFN III Group), in order to progress in the understanding of the statistical properties of light nuclei, at excitation energies above particle emission threshold, by measuring exclusive data from fusion-evaporation reactions. The determination of the nuclear level density in the A~20 region, the understanding of the statistical behavior of light nuclei with excitation energies ~3 A. MeV, and the measurement of observables linked to the presence of cluster structures of nuclear excited levels are the main physics goals of this work. On the theory side, the contribution to this project given by this work lies in the development of a dedicated Monte-Carlo Hauser-Feshbach code for the evaporation of the compound nucleus. The experimental part of this thesis has consisted in the participation to the measurement 12C+12C at 95 MeV beam energy, at Laboratori Nazionali di Legnaro - INFN, using the GARFIELD+Ring Counter(RCo) set-up, from the beam-time request to the data taking, data reduction, detector calibrations and data analysis. Different results of the data analysis are presented in this thesis, together with a theoretical study of the system, performed with the new statistical decay code. As a result of this work, constraints on the nuclear level density at high excitation energy for light systems ranging from C up to Mg are given. Moreover,pre-equilibrium effects, tentatively interpreted as alpha-clustering effects, are put in evidence, both in the entrance channel of the reaction and in the dissipative dynamics on the path towards thermalisation
Styles APA, Harvard, Vancouver, ISO, etc.
25

Duplan, François. « Composites cimentaires à module d'élasticité contrôlé : conception, caractérisation et modélisation micromécanique ». Toulouse 3, 2014. http://www.theses.fr/2014TOU30031.

Texte intégral
Résumé :
Cette thèse, réalisée dans le cadre d'une convention CIFRE (société Ménard), s'inscrit dans la problématique du renforcement de sols par inclusion de renforts (Colonnes à Module Contrôlé ou CMC) selon un procédé qui consiste à réaliser ces colonnes de renforcement par injection d'un matériau cimentaire via une tarière creuse. Le matériau cimentaire utilisé doit respecter un cahier des charges spécifique concernant des propriétés à l'état frais (affaissement) et à l'état durci (résistance en compression et module d'élasticité). Le premier objectif de cette thèse était de formuler des matériaux cimentaires destinés au procédé CMC, présentant des propriétés respectant le cahier des charges tout en étant optimisées par rapport à l'application visée. Une attention particulière a été portée sur la rigidité du matériau, ainsi que sur l'amélioration de son comportement mécanique lorsqu'il était renforcé par des fibres. Des matériaux à base de granulats caoutchouc ou d'argile expansée ont ainsi été développés et caractérisés. Le deuxième objectif de la thèse était d'étudier la pertinence des codes règlementaires étant donné que les formules fournies actuellement par ces codes n'étaient pas utilisables dans le domaine de résistance mécanique des matériaux cimentaires développés dans cette thèse. Si certaines lois peuvent être extrapolées sans problème, d'autres ne s'avèrent pas suffisamment précises ou sécuritaires pour que leur extrapolation soit possible. Le troisième objectif de la thèse était de prédire les propriétés élastiques des matériaux développés grâce à un modèle micromécanique adapté aux besoins spécifiques de ce type d'application (CMC). Le modèle développé permet de remplacer avantageusement les formules règlementaires empiriques défaillantes pour la prédiction des propriétés élastiques (notamment le module d'élasticité)
This PhD was realized thanks to a CIFRE partnership between the company Menard and the university of Toulouse. The purpose of this PhD was to develop and study new cement-based materials destined for the CMC (controlled modulus columns) technique. This technique belongs to a wider family of ground improvement processes called rigid (or semi-rigid) inclusions, which are soil-stiffening techniques. Those cement-based materials shall respect the company specifications regarding fresh and hardened state properties. The first goal was to design mixtures compositions which properties at fresh and hardened state respect the company specifications and are optimized for the application which they are destined for. A specific attention was given to the rigidity of the material, and its brittleness when it is reinforced by fibers. Mortars incorporating expanded clay aggregates, rubber aggregates and metallic fibers were developed. The second goal was to study the efficiency of regulatory building codes formulas with the developed mortars, since most of the developed mortars do not meet with the application scopes of the building codes. A few formulas turned out to be as efficient with the developed mortars as with regular structural concrete, while others turned out to be imprecise and unfavourable to security. The third goal was to predict the elastic properties of the linear elastic properties of the developed mortars thanks to a micromechanical model adapted to the specific needs of those specific materials. This model shall replace the empirical formulas advantageously for predicting the modulus of elasticity of the developed cement-based composites
Styles APA, Harvard, Vancouver, ISO, etc.
26

Bury, Yannick. « Structure de jets légers ou lourds en écoulement externe fortement pulsé : expérimentation modèle du mélange de carburants gazeux dans les moteurs alternatifs ». Toulouse, INPT, 2000. http://www.theses.fr/2000INPT045H.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre de l'étude des écoulements turbulents fortement instationnaires avec larges variations de densité. Elle s'insère dans une action globale de compréhension des mécanismes physiques régissant le mélange air/carburant dans les moteurs à piston du secteur automobile, notamment de carburants gazeux tels que le GNV. La dynamique et le mélange dans un jet à densité variable en écoulement cocourant fortement pulsé sont étudiés. Cette configuration modélise la situation moteur. Une importante base de données sur des jets léger, homogène et lourd est obtenue pour des vitesses de cocourant stationnaire et instationnaire contrastées. Les champs de vitesse sont mesurés par anémométrie Laser Doppler bicomposantes, les champs de fraction massique et de densité moyenne par tomographie laser. Les mesures et l'analyse physique permettent de comprendre ces écoulements. Une partition du jet en régions quasi statique et instationnaire est proposée. Les effets de mémoire observés dans la zone instationnaire peuvent être appréhendés par un modèle hyperbolique. Un front de vitesse de type jet naissant se développe lors de l'accélération et se traduit par un effet important sur le champ turbulent. L'étude phasée de la topologie du jet montre que ce front s'assimile à une boule de fluide concentrée, analogue au vortex des jets naissants ou aux jets pulsés. Le mélange avec le fluide extérieur est réduit à son passage et plus généralement pendant toute l'accélération. Au contraire il semble légèrement accru pendant la décélération. Le rôle des couples baroclines sur le champ moyen et la turbulence est identifié. Des nombres sans dimension sont mis en évidence pour traduire ce régime de convection mixte instationnaire. La confrontation de ces résultats avec des simulations numériques en éprouvera la validité en situation fortement instationnaire.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Couture, Étienne, et Étienne Couture. « Analyse des déterminants du taux de consommation des véhicules légers neufs au Québec, de 2003 à 2008 ». Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25115.

Texte intégral
Résumé :
Les véhicules légers contribuent significativement à la demande de carburant et aux émissions de gaz à effet de serre au Québec. Ainsi, il importe de comprendre comment certains facteurs, en particulier le prix de l’essence, influencent l’efficacité énergétique des nouveaux véhicules. À l'aide d'un modèle statistique et de données de panel québécoises couvrant la période entre 2003 et 2008, nous obtenons une estimation de l'élasticité du taux de consommation moyen des véhicules neufs par rapport au prix du carburant approximativement entre −0.06 et −0.10. Cette estimation, qui tient compte de possibles ajustements de prix des manufacturiers, est robuste à différents types de spécifications. Selon nos observations, ce serait principalement par le choix de véhicules appartenant à une classe différente que les consommateurs réagissent aux changements de prix du carburant.
Les véhicules légers contribuent significativement à la demande de carburant et aux émissions de gaz à effet de serre au Québec. Ainsi, il importe de comprendre comment certains facteurs, en particulier le prix de l’essence, influencent l’efficacité énergétique des nouveaux véhicules. À l'aide d'un modèle statistique et de données de panel québécoises couvrant la période entre 2003 et 2008, nous obtenons une estimation de l'élasticité du taux de consommation moyen des véhicules neufs par rapport au prix du carburant approximativement entre −0.06 et −0.10. Cette estimation, qui tient compte de possibles ajustements de prix des manufacturiers, est robuste à différents types de spécifications. Selon nos observations, ce serait principalement par le choix de véhicules appartenant à une classe différente que les consommateurs réagissent aux changements de prix du carburant.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Lechner, Daniel. « Analyse du comportement dynamique des véhicules routiers légers : développement d'une méthodologie appliquée à la sécurité primaire ». Ecully, Ecole centrale de Lyon, 2002. http://bibli.ec-lyon.fr/exl-doc/TH_T1892_dlechner.pdf.

Texte intégral
Résumé :
Cette thèse a pour objectif de montrer comment la connaissance du comportement dynamique d'un véhicule routier peut contribuer à une amélioration de la sécurité primaire du système conducteur-véhicule-infrastructure. Après avoir présenté les outils de modélisation retenus, notamment le logiciel MORGAN'S, qui utilise le formalisme des Groupes de Lie, on se propose de concevoir une gamme de modèles de comportement dynamique d'un véhicule léger, puis d'établir leurs domaines de validité à travers la confrontation des résultats de simulations avec les données recueillies lors d'essais, réalisés sur piste avec un véhicule instrumenté piloté par un essayeur professionnel, sur un ensemble de manoeuvres très complet. L'intérêt de modèles simples dans leur conception, ne possédant que 3 degrés de liberté, mais paramétrés avec soin, est mis en évidence, notamment pour l'application au domaine de l'accidentologie. Le modèle présentant le meilleur compromis (simplicité du paramétrage / facilité de mise en oeuvre / validité des simulations) est ensuite complété pour émuler l'intervention de systèmes de contrôle de stabilité avec des dispositifs à 4-roues directrices ou un contrôle du moment de lacet par freinage différentiel. Leur potentiel apparaît très prometteur pour permettre une amélioration significative en matière de sécurité primaire. En parallèle, un modèle dynamique spécifique a été développé pour être embarqué sur un véhicule instrumenté et tourner conjointement au système d'acquisition. Ainsi est née l'élaboration d'un "diagnostic de sécurité primaire temps réel", à travers l'établissement de différents points de fonctionnement caractérisant le comportement du couple conducteur-véhicule. Ce dispositif pourrait notamment être développé pour identifier des critères objectifs de déclenchement de systèmes actifs de contrôle de stabilité. Outre les modèles créés, le produit concret de cette thèse est un véhicule démonstrateur de ce concept de diagnostic de sécurité primaire
The aim of this thesis is to show how the knowledge of road vehicle dynamics can contribute to improve the primary safety level for the driver-vehicle-road system. After a presentation of the modeling tools used, mainly the multibody system modeling software MORGAN'S, taking advantage of the Lie Group formalism, the first part of the thesis deals with the development of different dynamic models for passenger cars. Their validity area is than determined by comparing simulation results with data collected on an instrumented car, driven by a professional driver on test tracks on a large panel of manoeuvers. This work clearly put in evidence, and mainly for application to accident analysis, the interest of simple models, with only 3 degrees of freedom for the car body, but for which many care is taken for their parameterization. In the second part of the thesis, the model with the best compromise between parameter simplicity, operating easiness and validity, is developed in order to emulate the intervention of stability control systems : models including 4WS and yaw moment control by differential braking are created. The potential of such devices to enable a significant improvement of primary safety appears really promising. In parallel, a specific model has been developed to be embedded on an instrumented car to run jointly with the acquisition device. The information coming from sensors is combined with the one coming from the model to build what has been called the "real time active safety diagnosis", showing different operating points characterizing the driver-vehicle system behaviour. This device could be further developed to identify objective criteria for the activation of stability control systems. In addition to the different vehicle dynamic models created, the final product of this thesis is thus a demonstrator of this innovating concept of active safety diagnosis, taking advantage of an embedded model
Styles APA, Harvard, Vancouver, ISO, etc.
29

Messé, Arnaud. « Caractérisation de la relation structure-fonction dans le cerveau humain à partir de données d'IRM fonctionnelle et de diffusion : méthodes et applications cognitive et clinique ». Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00845014.

Texte intégral
Résumé :
La compréhension des mécanismes cognitifs est un défi que les prouesses technologiques en imagerie par résonance magnétique fonctionnelle et de diffusion permettent de relever. Les réseaux neuronaux, ensembles de régions interconnectées anatomiquement et fonctionnellement, sont à l'ori- gine des processus cognitifs. Nous nous sommes intéressés à la relation entre la structure anatomique et la fonction de ces réseaux, au travers des deux principes fondamentaux du fonctionnement céré- bral que sont la ségrégation et l'intégration, ainsi que via la notion d'intégrité. En premier lieu, nous nous sommes penchés sur la ségrégation anatomique des noyaux gris centraux et son interprétation fonctionnelle. Puis, nous avons abordé le principe d'intégration, d'un point de vue descriptif par le biais de la théorie des graphes, puis explicatif par l'utilisation du modèle spatial autorégressif. Enfin, nous avons étudié l'intégrité structurelle du cerveau en présence de déficits neurocomportementaux suite à un traumatisme crânien léger. Nous avons ainsi mis en évidence l'existence d'un substrat ana- tomique sous-jacent aux réseaux fonctionnels. Nos résultats suggèrent que la structure anatomique des réseaux cérébraux est un substrat complexe optimisant les processus fonctionnels. De plus, une perte d'intégrité de ce substrat anatomique lors d'un traumatisme crânien léger se répercute sur le comportement et les performances cognitives. Ceci démontre que le fonctionnement cérébral, traduit par les réseaux neuronaux, est intimement lié à la structure anatomique de ces réseaux.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Lamonde, Bernard. « Estimation d'un modèle agrégé du nombre de kilomètres parcourus, du taux de consommation moyen de carburant et du nombre de véhicules légers au Canada ». Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24553/24553.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Biagi, Fabrice. « Production de fragments légers émis à petit angle dans les collisions Ar+noyau avec le détecteur DIOGENE. Comparaison avec divers modèles théoriques ». Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21267.

Texte intégral
Résumé :
Cette these a pour but l'etude de la production de fragments legers emis a petit angle dans les collisions ar+noyau avec le detecteur diogene. Apres avoir rappele quelques donnees essentielles de la physique des ions lourds relativistes et decrit le detecteur diogene, nous etudions les methodes d'analyse experimentale, en particulier la simulation du filtre experimental, puis l'etude des correlations entre les evenements de la chambre centrale et les evenements du mur de plastique, ainsi que les sections efficaces differentielles de production de fragments legers. Ensuite, nous comparons les sections efficaces experimentales de production de fragments de charge 1 mesurees avec diogene avec celles issues de modeles theoriques: le modele thermodynamique, le modele de cascade intranucleaire et le modele de la dynamique moleculaire quantique (qmd). Le modele thermodynamique nous permet de confirmer l'existence de deux sources: le residu du projectile et la region des participants. Nous avons pu extraire des temperatures apparentes confirmant la faible energie d'excitation du residu du projectile. Avec la cascade intranucleaire, nous simulons les reactions ar+(ca, nb) a 200 et 400 mev par nucleon permettant d'obtenir seulement l'accord qualitatif. A partir de qmd, nous considerons les memes reactions a 400 et 600 a. Mev avec differents parametres d'impact et pour deux equations d'etat (douce et dure). La comparaison entre les donnees experimentales et theoriques montrent un bon accord qualitatif. L'accord quantitatif depend de la centralite des evenements, et il apparait une sensibilite a l'equation d'etat pour les collisions asymetriques centrales, favorisant une equation d'etat dure
Styles APA, Harvard, Vancouver, ISO, etc.
32

Stanoiu, Mihai Alexandru. « Spectroscopie gamma en ligne de noyaux légers riches en neutrons produits par fragmentation de faisceau radioactif et mesures de temps de vie des niveaux excités dans les noyaux proches du 68Ni ». Caen, 2003. http://www.theses.fr/2003CAEN2010.

Texte intégral
Résumé :
Cette thèse entre dans le cadre de l'étude des noyaux loin de la vallée de stabilité produits au GANIL par fragmentation du projectile aux énergies intermédiaires. Elle comprend deux parties. La première concerne l'étude des noyaux exotiques très légers ayant des nombres de neutrons proches de 14. C'est la première fois que la méthode spectroscopie en-ligne par fragmentation du projectile est utilisée avec des faisceaux incidents radioactifs au GANIL. Ainsi les performances et les limitations de cette méthode ont pu être établis. 40 noyaux différents ont été produits et étudiés en même temps. Une forte dépendance dans les peuplements des états excités en fonction du type de projectile a été observée. Des informations nouvelles sur la structure ont pu être obtenues pour les isotopes de 14,15B, 17,18,19,20C, 18,19,20,21,22N, 22,23,24O, 24,25,26F, 29Ne. Les schémas de niveaux établis ont été comparés aux prédictions du modèle en couches. En particulier l'énergie de 1588(20) keV trouvée pour le premier état excité 2+ dans 20C ainsi que l'inexistence d'un état lié dans 24O a montré que l'interaction proton-neutron joue un rôle très important dans la structure de ces noyaux. Dans la deuxième partie, une expérience concernant les noyaux isomères riches en neutrons autour de 68Ni produits par le spectromètre LISE est présentée. C'est la première fois que la méthode 'fast timing' est appliquée à l'étude des noyaux produits par la fragmentation du projectile. Des temps de vie entre quelques dizaines de picosecondes et quelques nanosecondes ont été mesurés avec une grande précision pour plusieurs niveaux dans les noyaux 67,69,90Ni et 71,72Cu. Ces résultats ont permis de vérifier les prédictions du modèle en couches pour plusieurs transitions de type E2 et leurs probabilités de transitions B(E2) associées.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Stanoiu, Mihai-Alexandru. « Spectroscopie gamma en ligne de noyaux légers riches en neutrons produits par fragmentation de faisceau radioactif et mesures de temps de vie des niveaux excités dans les noyaux proches de $^(68)$Ni ». Phd thesis, Université de Caen, 2003. http://tel.archives-ouvertes.fr/tel-00002775.

Texte intégral
Résumé :
Cette thèse entre dans le cadre de l'étude des noyaux loin de la vallée de stabilité produits au GANIL par fragmentation du projectile aux énergies intermédiaires. Elle comprend deux parties. La première concerne l'étude des noyaux exotiques très légers ayant des nombres de neutrons proches de 14. C'est la première fois que la méthode spectroscopie gamma en-ligne par fragmentation du projectile est utilisée avec des faisceaux incidents radioactifs au GANIL. Ainsi les performances et les limitations de cette méthode ont pu être établies. 40 noyaux différents ont été produits et étudiés en même temps. Une forte dépendance dans les peuplements des états excités en fonction du type de projectile a été observée. Des informations nouvelles sur la structure ont pu être obtenues pour les isotopes de 14,15B, 17,18,19,20C, 18,19,20,21,22N, 22,23,24O, 24,25,26F, 29Ne. Les schémas de niveaux établis ont été comparés aux prédictions du modèle en couches. En particulier l'énergie de 1588(20) keV trouvée pour le premier état excité 2+ dans 20C ainsi que l'inexistence d'un état lié dans 24O a montré que l'interaction proton-neutron joue un rôle très important dans la structure de ces noyaux.
Dans la deuxième partie, une expérience concernant les noyaux isomères riches en neutrons autour de 68Ni produits par le spectromètre LISE est présentée. C'est la première fois que la méthode "fast timing" est appliquée à l'étude des noyaux produits par la fragmentation du projectile. Des temps de vie entre quelques dizaines de picosecondes et quelques nanosecondes ont été mesurés avec une grande précision pour plusieurs niveaux dans les noyaux 67,69,90Ni et 71,72Cu. Ces résultats ont permis de vérifier les prédictions du modèle en couches pour plusieurs transitions de type E2 et leurs probabilités de transitions B(E2) associées.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Tournadre, Vincent. « Métrologie par photogrammétrie aéroportée légère : application au suivi d'évolution de digues ». Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1131/document.

Texte intégral
Résumé :
En embarquant un appareil photo grand public de bonne qualité sur un drone ou un ULM, il est aujourd'hui possible de réaliser de manière 100% automatique des modélisations 3D visuellement « parfaites » ou en tout cas suffisante tant que ce modèle est utilisé comme support de communication. Par contre, les performances de ces méthodes sont encore mal maîtrisées dans le contexte où l'on veut utiliser le modèle comme outil de mesure. Les géométries d'acquisition linéaires, propices aux dérives de bandes photogrammétriques, en sont un exemple représentatif. Un phénomène de courbure de bande est alors constaté, nécessitant un travail de mesure terrain conséquent pour être corrigé. Ces imprécisions limitent l'intérêt de telles acquisitions, et sont un défi pour la communauté des photogrammètres, le marché naissant du drone, mais aussi de multiples industriel ayant un intérêt fort pour des systèmes capables d'assurer un suivi de mouvement 3D des sols avec une précision de quelques millimètres (par exemple suivi de digues, érosion agraire, surveillance de réseaux ferrés,...). Cette thèse est un projet de recherche issu d'un partenariat entre l'Institut National de l'Information Géographique et Forestière (IGN), et la Compagnie Nationale du Rhône (CNR), concessionnaire chargé d'entretenir et surveiller le réseau de digues de retenue du fleuve. Il s'agit - à partir de moyens aériens légers - d'arriver à un système d'auscultation plus rapide, plus économique et offrant une géométrie plus fine que les systèmes topométriques utilisés actuellement. Nous présentons tout d'abord une étude comparative des moyens aériens légers, montrant l'intérêt et les limitations des drones face aux ULM. Nous proposons des procédures d'acquisition adaptées aux géométries étudiées, permettant de limiter de manière opérationnelle les dérives. Dans un second temps, nous montrons que les phénomènes de courbure sont liés à des modèles d'orientation internes inadaptés, et nous proposons une procédure d'auto-calibration en trois étapes. Nos essais menés sur des chantiers linéaires montrent que le calcul des orientations est sensiblement amélioré (d'écarts métriques à des écarts centimétriques). Dans un troisième temps, nous proposons une optimisation de la compensation sur les points d'appuis, permettant de diminuer le nombre de mesures nécessaires. Enfin, nous présentons des méthodes pour contrôler l'incertitude des modèles 3D générés, et à travers une analyse diachronique, des exemples de suivi d'évolution permettant de suivre finement l'évolution de tels ouvrages
By embarking a good quality consumer grade camera on an Unmanned Aerial Vehicle (UAV) or on an ultralight system, it is possible to create – fully automatically – 3D models that are visually ''perfect'', or at least sufficient for visual or communication purposes. However, the accuracy of these methods is still a concern, especially if the resulting models are to be used as measuring tools. Linear acquisitions – also known as corridor mapping – are a striking example of the uncontrolled error propagation. A bowl effect is often observed, requiring multiple ground measurements to be overcome. These effects restrict the interest of such acquisitions. They are a challenge for the photogrammetrists community, the emerging civil UAV market, as well as many industrials interested in systems able to monitor ground deformations with an accuracy within a few millimeters (railway network surveillance, erosion of agricultural land, embankments monitoring,…).This thesis is an applied research project, led with a river concessionary which has the responsibility to maintain and keep under surveillance its containment dykes network. The purpose is to use light aerial systems as a mean for a monitoring system which is faster, cheaper, and more detailed than the topometric solutions used so far. First of all, we present a comparative study to understand, between UAVs and ultralight system, which tool is the most adapted for a specific need. We propose refined acquisition procedures, than can be used to limit operationally the drifts. In a second phase, we identify the internal camera model as the weak link, and propose a three steps auto-calibration procedure. Our tests led on linear acquisitions demonstrate that the external orientations accuracy are noticeably improved (from decimetric or even metric disparities, reduced to a few centimeters or less). In a third part, we propose an optimization of the adjustment on the ground control points, which is a way to limit the amount of ground measurements necessary. Finally, we present methods to control 3D models uncertainty, and through a diachronic analysis, examples of how such data can be used to monitor such structures through time
Styles APA, Harvard, Vancouver, ISO, etc.
35

Atoui, Mariam. « Semileptonic B decays into charmed D( **) mesons from Lattice QCD ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00933976.

Texte intégral
Résumé :
Les désintégrations semileptoniques du méson $B$ participent à la détermination de certains paramètres fondamentaux du Modèle Standard. Ce travail décrit essentiellement l'étude des deux canaux de désintégrations $B_s \to D_s \ell \bar\nu_\ell$ et $B\to D^{**} \ell \bar\nu_\ell$ (où les $D^{**}$ sont les premières excitations orbitales des mésons $D$ ayant une parité positive). Le cadre théorique est celui de la QCD sur réseau qui, en discrétisant l'espace-temps, permet de calculer non perturbativement les fonctions de Green de la théorie. En utilisant l'action à masse twistée avec deux saveurs dégénérées de quarks dynamiques ($N_f=2$), nous avons commencé par étudier la spectroscopie des états charmés scalaires $D_0^*$ et tenseurs $D_2^*$. Ensuite, nous avons réalisé la détermination du facteur de forme $\mathscr G_s(1)$ décrivant le processus $B_s\to D_s \ell \bar\nu_\ell$ dans le Modèle Standard. Ce paramètre offre un moyen d'extraire l'élément de la matrice CKM $V_{cb}$. Par ailleurs, et pour la première fois en QCD sur réseau, nous avons déterminé les rapports $F_0(q^2)/F_+(q^2)$ et $F_T(q^2)/F_+(q^2)$ dans la région proche du recul nul: ces contributions sont en effet nécessaires afin de discuter ce canal de désintégration dans certains modèles au-delà du Modèle Standard. Enfin, une étude préliminaire du canal de désintégration $B\to D^{**}$ a été abordée où nous avons trouvé une valeur non nulle de l'élément de matrice décrivant la désintégration $B\to D_0^*$ à recul nul contrairement de ce qui est connu à la limite des quarks lourds. Dans le cas du $B \to D_2^*$, nos résultats ont montré un signal indiquant une différence par rapport aux prédictions de masse infinie. Ces calculs sont indispensables afin de tirer une conclusion plus solide concernant le ''puzzle 1/2 vs 3/2''
Styles APA, Harvard, Vancouver, ISO, etc.
36

Atoui, Mariam. « Désintégrations semileptoniques de méson B en D (**) dans le cadre de la QCD sur réseau ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00957822.

Texte intégral
Résumé :
Les désintégrations semileptoniques du méson $B$ participent à la détermination de certains paramètres fondamentaux du Modèle Standard. Ce travail décrit essentiellement l'étude des deux canaux de désintégrations $B_s \to D_s \ell \bar\nu_\ell$ et $B\to D^{**} \ell\bar\nu_\ell$ (où les $D^{**}$ sont les premières excitations orbitales des mésons $D$ ayant une parité positive). Le cadre théorique est celui de la QCD sur réseau qui, en discrétisant l'espace-temps, permet de calculer non perturbativement les fonctions de Green de la théorie. En utilisant l'action à masse twistée avec deux saveurs dégénérées de quarks dynamiques ($N_f=2$), nous avons commencé par étudier la spectroscopie des états charmés scalaires $D_0^*$ et tenseurs $D_2^*$. Ensuite, nous avons réalisé la détermination du facteur de forme $G_s(1)$ décrivant le processus $B_s\to D_s \ell \bar\nu_\ell$ dans le Modèle Standard. Ce paramètre offre un moyen d'extraire l'élément de la matrice CKM $V_{cb}$. Par ailleurs, et pour la première fois en QCD sur réseau, nous avons déterminé les rapports $F_0(q^2)/F_+(q^2)$ et $F_T(q^2)/F_+(q^2)$ dans la région proche du recul nul: ces contributions sont en effet nécessaires afin de discuter ce canal de désintégration dans certains modèles au-delà du Modèle Standard. Enfin, une étude préliminaire du canal de désintégration $B\to D^{**}$ a été abordée où nous avons trouvé une valeur non nulle de l'élément de matrice décrivant la désintégration $B\to D_0^*$ à recul nul contrairement de ce qui est connu à la limite des quarks lourds. Dans le cas du $B \to D_2^*$, nos résultats ont montré un signal indiquant une différence par rapport aux prédictions de masse infinie. Ces calculs sont indispensables afin de tirer une conclusion plus solide concernant le ''puzzle 1/2 vs 3/2''.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Martin, Alexandre. « Calcul de la réponse à la déformation et au champ électrique dans le formalisme "Projector Augmented-Wave". Application au calcul de vitesse du son de matériaux d'intérêt géophysique ». Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL1034/document.

Texte intégral
Résumé :
La composition interne de notre planète est un vaste sujet d’étude auquel participent de nombreuses disciplines scientifiques. Les conditions extrêmes de pression et de température qui règnent à l’intérieur du noyau (constitué principalement de fer et de nickel) et du manteau terrestre (à base de pérovskites) rendent très difficile la détermination de leur compositions exactes. Ce projet de thèse contribue aux études récentes dont l’enjeu est de déterminer plus précisément le chimisme des minéraux présents. Il a pour objet le développement d’un outil de calcul des vitesses de propagation des ondes sismiques a l’aide d’une méthode fondée sur les simulations ab initio. Ces vitesses sont déduites du tenseur élastique complet, incluant la relaxation atomique et les modifications induites du champ cristallin. Nous utilisons l’approche de la théorie de perturbation de la fonctionnelle de la densité (DFPT) qui permet de s'affranchir des incertitudes numériques qu’impliquent les méthodes classiques basées sur des différences finies. Nous combinons cette approche avec le formalisme « Projector Augmented-Wave » (PAW) qui permet, avec un coût de calcul faible, de prendre en compte tous les électrons du système. Nous avons appliqué la méthode sur des matériaux du noyau et du manteau terrestre. Nous avons déterminé les effets de différents éléments légers (Si, S, C, O et H) sur les vitesses de propagation des ondes sismiques dans le fer pur ainsi que celui de l’aluminium dans la pérovskite MgSiO3
The internal composition of our planet is a large topic of study and involves many scientific disciplines. The extreme conditions of pressure and temperature prevailing inside the core (consisting primarily of iron and nickel) and the mantle (consisting mainly of perovskites) make the determination of the exact compositions very difficult. This thesis contributes to recent studies whose aim is to determine more accurately the chemistry of these minerals. Its purpose is the development of a tool for the calculation of seismic wave velocities within methods based on ab-initio simulations. These velocities are calculated from the full elastic tensor, including the atomic relaxation and induced changes in the crystal field. We use the approach of the density functional perturbation theory (DFPT) to eliminate numerical uncertainties induced by conventional methods based on finite differences. We combine this approach with the « Projector Augmented-Wave » (PAW) formalism that takes into account all the electrons of the system with a low computational cost. We apply the method on core and mantle materials and we determine the effects of various lights elements (Si, S, C, O and H) on the seismic wave velocities of pure iron, as well as the effect of aluminum in the perovskite MgSiO3
Styles APA, Harvard, Vancouver, ISO, etc.
38

Sabir, Meriem. « Impact d'un traumatisme crânio-cérébral léger sur l’architecture du sommeil et le transcriptome dans un modèle murin ». Thèse, 2015. http://hdl.handle.net/1866/13132.

Texte intégral
Résumé :
Le traumatisme crânien léger (TCL) est l'un des troubles neurologiques les plus courants affectant la santé publique. Aussi, les troubles du sommeil sont fréquents chez les patients atteints de TCL. Les études chez les rongeurs montrent que certains marqueurs de plasticité synaptique diminuent après le TCL, ce qui pourrait nuire à la plasticité du cerveau. Nous suggérons que la perte de sommeil intensifie l'effet négatif de TCL, qui peut refléter les changements des marqueurs de plasticité synaptique ou des changements des voies physiologiques qui régulent le sommeil. En utilisant un modèle de traumatisme crânien sur crâne fermé (closed head injury), nous avons étudié la relation bidirectionnelle entre le TCL et le sommeil en évaluant les effets de TCL sur l’activité électrique du cerveau par électroencéphalographie (EEG), et ceux de la privation de sommeil (PS) sur l'expression génique post-TCL. Premièrement, l'activité EEG a été enregistrée pour voir si l'architecture du sommeil est altérée suite au TCL. Nous avons ensuite voulu tester si la PS suite TCL induit des changements dans l'expression des gènes : Arc, Homer1a, Hif1a, Bdnf, Fos et éphrines, qui ont été liés à la plasticité synaptique et à la régulation du sommeil. Nous avons également étudié l'effet de la PS post-TCL sur le génome complet dans les régions cibles (cortex et l'hippocampe). Les principaux résultats obtenus dans cette étude confirment que TCL modifie de manière significative l'activité spectrale pendant l'éveil, le sommeil Rapid Eye Movement (REM) et le sommeil non-REM dans le deuxième 24 heures post-TCL. Fait intéressant, la capacité de maintenir de longues périodes d'éveil a été altérée immédiatement après TCL (première 24h post-TCL). La dynamique de l'activité delta pendant l'éveil a été modifié par le TCL. Parallèlement à ces modifications, des changements dans l'expression des gènes ont été observés dans le cortex et l'hippocampe. Seulement Arc et EfnA3 ont montré une interaction TCL / PS et ce dans l’hippocampe, tandis que l'expression de tous les autres gènes semblait être affectée par la PS ou TCL indépendamment. Nos résultats montrent pour la première fois que le TCL induit l'expression de deux chimiokines (Ccl3 et Cxcl5) à la fois dans le cortex cérébral et l'hippocampe 2,5 jours post-TCL. Également, nous avons observé que le TCL induit une diminution de l'expression de Lgals3 et S100A8 dans le cortex, et une augmentation d’Olig2 dans l'hippocampe. Les résultats concernant les effets de la PS sur le génome complet du cortex et de l'hippocampe montrent des changements significatifs dans les gènes impliqués dans diverses fonctions physiologiques, telles que les rythmes circadiens, la réponse inflammatoire, ainsi que de l'activation des cellules gliales. En général, nos résultats précisent les changements dans la qualité de l’éveil ainsi que dans l'expression de divers gènes après TCL.
Mild traumatic brain injury (mTBI) is one of the most common neurological disorders affecting public health. Sleep disorders are common in patients with mTBI. Studies in rodents show that some synaptic plasticity markers decreased after mTBI which could impair brain plasticity. We suggest that sleep loss intensifies the negative effect of mTBI, which may reflect changes of synaptic plasticity markers or changes of different physiological pathway that regulates the sleep process. Using a "closed head injury" model, we have studied the bidirectional relationship between mTBI and sleep by investigating the effects of mTBI on sleep structure, and that of sleep deprivation (SD) on gene expression post-mTBI. First, EEG activity was monitored to investigate if sleep architecture is altered following mTBI. We then tested if SD, following mTBI, induces changes in gene expression of plasticity markers (Arc, Homer1a, Hif1a, Bdnf, Fos, and Ephrins), which have also been linked to sleep regulation. We also investigated the effect of SD post-mTBI on genome wide gene expression in target regions. The main results obtained in this study confirm that mTBI affects wakefulness, and significantly changes spectral activity during wakefulness, rapid eye movement (REM) sleep, and non-REM sleep on the second 24 hours post-TCL. Interestingly, the capacity to sustain long bouts of wakefulness was impaired immediately after mTBI. In addition, delta activity time course was altered by mTBI during wakefulness. In parallel to these alterations, changes in gene expression were observed. Only Arc and EfnA3 showed a mTBI/SD interaction in the hippocampus specifically, whereas expression of all other genes seemed to be affected by SD or mTBI independently. Our results indicate for the first time that the TCL induced the expression of two chemokines (Ccl3 and Cxcl5) in the cerebral cortex and hippocampus 2.5 days post-TCL. Also, we observed that the TCL induces a decrease in the expression of Lgals3 and S100A8 in the cortex, and an increase of Olig2 in the hippocampus.Results of SD effects on genome wide gene expression in the cortex and hippocampus show significant changes in genes involved in various physiological functions, such as circadian rhythms, inflammation, and also glial cell activation. In general, our results precise changes in wakefulness as well as in expression of various genes after mTBI.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie