To see the other types of publications on this topic, follow the link: Estimation de l'énergie libre.

Dissertations / Theses on the topic 'Estimation de l'énergie libre'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Estimation de l'énergie libre.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zhong, Anruo. "Machine learning and adaptive sampling to predict finite-temperature properties in metallic materials at the atomic scale." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP107.

Full text
Abstract:
Les propriétés et le comportement des matériaux dans des conditions extrêmes sont essentiels pour les systèmes énergétiques tels que les réacteurs de fission et de fusion. Cependant, prédire avec précision les propriétés des matériaux à haute température reste un défi. Les mesures directes de ces propriétés sont limitées par les instruments expérimentaux, et les simulations à l'échelle atomique basées sur des champs de force empiriques sont souvent peu fiables en raison d'un manque de précision. Ce problème peut être résolu à l'aide de techniques d'apprentissage statistique, qui ont récemment vu leur utilisation exploser en science des matériaux. Les champs de force construits par apprentissage statistique atteignent le degré de précision des calculs ab initio ; cependant, leur mise en œuvre dans les méthodes d'échantillonnage est limitée par des coûts de calcul élevés, généralement supérieurs de plusieurs ordres de grandeur à ceux des champs de force traditionnels. Pour surmonter cette limitation, deux objectifs sont poursuivis dans cette thèse : (i) développer des champs de force par apprentissage statistique avec un meilleur compromis précision-efficacité et (ii) créer des méthodes accélérées d'échantillonnage de l'énergie libre afin de faciliter l'utilisation de champs de force d'apprentissage statistique coûteux en termes de calcul. Pour le premier objectif, nous améliorons la construction des champs de force d'apprentissage statistique en nous concentrant sur trois facteurs clés : la base de données, le descripteur de l'environnement atomique local et le modèle de régression. Dans le cadre de la régression par processus gaussien, nous proposons et optimisons des descripteurs basés sur des noyaux échantillonnés par la transformée de Fourier ainsi que de nouvelles méthodes de sélection de points épars pour la régression par noyau. Pour le deuxième objectif, nous développons un schéma d'échantillonnage bayésien rapide et robuste pour estimer l'énergie libre anharmonique, qui est cruciale pour comprendre les effets de la température sur les solides cristallins, à l'aide d'une méthode de force de biais adaptative améliorée. Cette méthode effectue une intégration thermodynamique à partir d'un système de référence harmonique, où les instabilités numériques associées aux fréquences nulles sont éliminées. La méthode d'échantillonnage proposée améliore considérablement la vitesse de convergence et la précision globale. Nous démontrons l'efficacité de la méthode améliorée en calculant les dérivées de second ordre de l'énergie libre, telles que les constantes élastiques, avec une rapidité plusieurs centaines de fois supérieure à celle des méthodes standard. Cette approche permet de prédire les propriétés thermodynamiques du tungstène et des alliages à haute entropie Ta-Ti-V-W à des températures qui ne peuvent être étudiées expérimentalement, jusqu'à leur point de fusion, avec une précision ab initio grâce à l'utilisation de champs de force construits par apprentissage statistique. Une extension de cette méthode permet l'échantillonnage d'un état métastable spécifique sans transition entre différents bassins d'énergie, fournissant ainsi l'énergie libre de formation et de liaison d'une configuration défectueuse. Ce développement aide à expliquer le mécanisme derrière l'observation des cavités dans le tungstène, mécanisme qui ne peut pas être expliqué par les calculs ab initio existants. Le profil d'énergie libre des lacunes dans le système Ta-Ti-V-W est également calculé pour la première fois. Enfin, nous validons l'application de cette méthode d'échantillonnage de l'énergie libre aux liquides. La précision et l'efficacité numérique du cadre de calcul proposé, qui combine des champs de force d'apprentissage statistique et des méthodes d'échantillonnage améliorées, ouvrent de nombreuses possibilités pour la prédiction fiable des propriétés des matériaux à température finie
The properties and behaviors of materials under extreme conditions are essential for energy systems such as fission and fusion reactors. However, accurately predicting the properties of materials at high temperatures remains challenging. Direct measurements of these properties are constrained by experimental instrument limitations, and atomic-scale simulations based on empirical force fields are often unreliable due to a lack of accuracy. This problem can be addressed using machine learning techniques, which have recently become widely used in materials research. Machine learning force fields achieve the accuracy of ab initio calculations; however, their implementation in sampling methods is limited by high computational costs, typically several orders of magnitude greater than those of traditional force fields. To overcome this limitation, this thesis has two objectives: (i) developing machine learning force fields with a better accuracy-efficiency trade-off, and (ii) creating accelerated sampling methods to facilitate the use of computationally expensive machine learning force fields and accurately estimate free energy. For the first objective, we enhance the construction of machine learning force fields by focusing on three key factors: the database, the descriptor of local atomic environments, and the regression model. Within the framework of Gaussian process regression, we propose and optimize descriptors based on Fourier-sampled kernels and novel sparse points selection methods for kernel regression. For the second objective, we develop a fast and robust Bayesian sampling scheme for estimating the fully anharmonic free energy, which is crucial for understanding temperature effects in crystalline solids, utilizing an improved adaptive biasing force method. This method performs a thermodynamic integration from a harmonic reference system, where numerical instabilities associated with zero frequencies are screened off. The proposed sampling method significantly improves convergence speed and overall accuracy. We demonstrate the efficiency of the improved method by calculating the second-order derivatives of the free energy, such as the elastic constants, which are computed several hundred times faster than with standard methods. This approach enables the prediction of the thermodynamic properties of tungsten and Ta-Ti-V-W high-entropy alloys at temperatures that cannot be investigated experimentally, up to their melting point, with ab initio accuracy by employing accurate machine learning force fields. An extension of this method allows for the sampling of a specified metastable state without transitions between different energy basins, thereby providing the formation and binding free energies of defective configurations. This development helps to explain the mechanism behind the observation of voids in tungsten, which cannot be explained by existing ab initio calculations. The free energy profile of vacancies in the Ta-Ti-V-W system is also computed for the first time. Finally, we validate the application of this free energy sampling method to liquids. The accuracy and numerical efficiency of the proposed computational framework, which combines machine learning force fields and enhanced sampling methods, opens up numerous possibilities for the reliable prediction of finite-temperature material properties
APA, Harvard, Vancouver, ISO, and other styles
2

Vallée, Alexandre. "Construction dynamique de fragments par minimisation de l'énergie libre lors de collisions d'ions lourds." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26638/26638.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Miclo, Laurent. "Evolution de l'énergie libre, applications à l'étude de la convergence des algorithmes du recuit simulé." Paris 6, 1991. http://www.theses.fr/1991PA066241.

Full text
Abstract:
On considere les processus markoviens a temps continu qui apparaissent dans la theorie du recuit simule. A tout instant, on leur associe une energie libre, qui est le gain d'information de la loi du processus en cet instant par rapport a la probabilite stationnaire instantanee. On prouve, en utilisant des inegalites de sobolev-logarithmiques, que l'energie libre verifie une inegalite differentielle qui, sous certaines evolutions de la temperature, entraine le systeme vers les minima globaux du potentiel. On retrouve ainsi des resultats connus quand l'espace des phase est un ensemble fini, une variete riemannienne compacte et connexe ou un espace euclidien usuel (on utilise alors des estimees de seconde valeur propre). On etend ensuite ces resultats, en utilisant l'energie libre specifique, a des espaces de dimension infinie, munis d'une famille de potentiels d'interactions, invariante par translations et de rang fini
APA, Harvard, Vancouver, ISO, and other styles
4

Sabre, Rachid. "Estimation non paramétrique dans les processus symétriques stables." Rouen, 1993. http://www.theses.fr/1993ROUES046.

Full text
Abstract:
Nous considérons un processus complexe strictement stationnaire symétrique stable à temps discret. Dans la première partie, nous estimons la densité spectrale de ce processus en utilisant un noyau introduit par Hosoya. Dans la seconde partie, nous supposons que cette densité spectrale est le mélange d'une mesure absolument continue et d'une partie discrète comportant un nombre fini d'atomes. A l'aide des noyaux polynomiaux de Jackson et de la méthode du double noyau, nous estimons la densité de la partie continue ainsi que les masses ponctuelles. La troisième partie concerne les processus complexes symétriques stables bidimensionnels (champs aléatoires) à temps discrets. On envisage un cas général en supposant que la mesure spectrale de ce processus est la somme d'une mesure absolument continue, d'une mesure discrète d'ordre fini et d'un nombre fini de mesures continues sur diverses droites. Nous estimons la densité de la mesure absolument continue et les densités des mesures continues sur les droites. Dans la quatrième partie, à partir des observations discrètes, nous estimons la densité spectrale d'un processus complexe symétrique stable strictement stationnaire à temps continu
APA, Harvard, Vancouver, ISO, and other styles
5

Flayac, Serge. "Les géothermomètres du champ géothermique des Antilles : calcul des équilibres géochimiques par minimisation de l'énergie libre." Poitiers, 1990. http://www.theses.fr/1990POIT2281.

Full text
Abstract:
Le systeme hydrothermal de st martin (antilles francaises) a permis de degager des assemblages de mineraux secondaires (epidote+chlorite), (epidote+amphibole) et meme (epidote+chlorite+amphibole) qui se positionnent dans le profil d'alteration suivant un gradient de temperature. Les associations minerales precedentes vont servir de support a une etude thermodynamique des equilibres chimiques par minimisation d'energie libre. Un programme informatique appele minus a ete developpe et permet d'obtenir une exploitation multicritere des donnees (temperature, pression, fraction de phase et modele thermodynamique). Afin de realiser des echanges cationiques pour des cations de valence differente (mg, fe, al), le concept de poles fictifs de solutions solides a ete pris en compte. Les valeurs thermodynamiques des poles purs ferreux et ferriques ont ete calculees a l'aide d'un developpement de la methode d'estimation proposee par sverjensky en 1985. En utilisant ces donnees, une equation generale incluant la temperature, la pression et la fraction de phase est determinee pour les couples de solutions solides chlorite-epidote et epidote-amphibole. Elle fait intervenir un modele thermodynamique subregulier. La determination de la temperature d'equilibre d'autres echantillons contenant les memes solutions solides est alors realisee avec une precision de sept degres. Dans le cas du systeme triphase chlorite-epidote-amphibole, la repartition des cations dans les sites de mineraux est realisee a l'aide de deux modeles thermodynamiques differents selon que la fraction de la phase est en forte ou faible proportion. Le modele thermodynamique actuel n'est utilisable que dans le cas d'un equilibre entre les differentes phases
APA, Harvard, Vancouver, ISO, and other styles
6

Caldeira, Nabo Adelphe. "Contribution à l'estimation et à l'amélioration de la production de l'énergie photovoltaïque." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4058/document.

Full text
Abstract:
Ces travaux de thèse consistent à proposer des outils matériels et logiciels pour estimer et améliorer le rendement énergétique de la chaine de conversion d’énergie photovoltaïque pour les applications de l’habitat. Nous avons dans un premier temps proposé une nouvelle architecture mixte d’onduleur à 5 niveaux. Ce type de structure, fondé sur un couplage d’un onduleur en pont complet et d’une architecture NPC, permet de diminuer le THD de la tension de sortie du convertisseur tout en limitant les niveaux de courant de fuite induits par les modules photovoltaïques. Ce type d’architecture est constitué d’un nombre limité de dispositifs à semi-conducteurs par rapport à une structure NPC et permet d’améliorer la robustesse de l’onduleur. Ces premiers résultats de test à puissances réduite permettent de valider le concept proposé. On s’intéresse ensuite à l’étude des paramètres environnant du système pouvant impacter la production d’énergie. Il est mis en évidence l’influence de la variation du coefficient d’échange convectif avec la vitesse du vent. Pour cela, un outil flexible d’estimation de production a été développé. Il est alors possible de quantifier et de qualifier l’impact des conditions météorologiques sur la production d’énergie photovoltaïque
This study deals with the development of hardware and software tools to estimate and improve the efficiency of the PV energy conversion chain for household photovoltaic applications. We firstly proposed a new mixed 5-level inverter. This type of structure, based on the mixture of a full bridge inverter and NPC architecture, reduces the converter output voltage THD while reducing levels of leakage current induced by the PV modules. This architecture consists of a limited number of semiconductor devices with respect to a NPC structure and improves the robustness of the inverter. Several test results in reduced power validate the concept proposed. Finally, we focus on some parameters that could perturb the system and impact the energy production. It is highlighted that the impact of the convective heat transfer coefficient variation with wind speed is important. For this purpose, a flexible tool was developed to estimate the PV production. It is then possible to quantify and qualify the impact of wind speed on the photovoltaic energy production
APA, Harvard, Vancouver, ISO, and other styles
7

Brunet, Éric. "Influence des effets de taille finie sur la propagation d'un front & Distribution de l'énergie libre d'un polymère dirigé en milieu aléatoire." Phd thesis, Université Paris-Diderot - Paris VII, 2000. http://tel.archives-ouvertes.fr/tel-00000922.

Full text
Abstract:
Dans la première partie, nous avons étudié l'effet du bruit sur la vitesse d'un front décrit par une équation de type Fisher-Kolmogorov. Ces équations interviennent souvent comme la limite d'un modèle aléatoire faisant intervenir N particules quand N devient grand. Elles ont beaucoup de solutions, mais c'est la vitesse marginalement stable v^* qui est sélectionnée pour une condition initiale localisée. Nous avons montré que si l'on prend en compte l'aspect discret du modèle microscopique en ajoutant un cut-off d'ordre 1/N dans la queue du front, alors, quelles que soient les conditions initiales, la vitesse de propagation v_N est proche de v^* et la différence v^* - v_N est d'ordre (log N)^(-2). Ces résultats peuvent s'appliquer au modèle aléatoire: grâce à des simulations faisant intervenir jusqu'à 10^14 particules, nous avons observé une correction de la vitesse compatible avec celle obtenue dans le modèle avec \textit{cut-off}. La méthode que nous avons employée permet également de retrouver les résultats de Bramson sur l'influence des conditions initiales sur la vitesse d'un front. La seconde partie est consacrée aux polymères dirigés dans un milieu aléatoire de largeur finie. La méthode des répliques permet de ramener le calcul des fluctuations de l'énergie libre d'un tel polymère à un problème de mécanique quantique avec n particules en interaction. Ce modèle peut être résolu grâce à l'Ansatz de Bethe, mais il faut extrapoler les solutions à des n non-entiers pour faire le lien avec l'énergie libre d'un polymère. Nous avons présenté une méthode qui nous a permis de calculer exactement les premiers cumulants de cette énergie libre. De plus, pour une dimension transversale périodique, on peut calculer tous ces cumulants dans la limite où la largeur du système devient grande et déterminer ainsi la distribution de l'énergie libre. Cette distribution est la même que celle obtenue dans le modèle ASEP et semble donc être une propriété universelle de l'équation KPZ.
APA, Harvard, Vancouver, ISO, and other styles
8

Drouilhet, Rémy. "Dérivée de mouvement brownien fractionnaire et estimation de densité spectrale." Pau, 1993. http://www.theses.fr/1993PAUU3024.

Full text
Abstract:
Les processus à densité spectrale du type L/F sont largement utilisés pour représenter des phénomènes dits à longue mémoire. Mandelbrot et Van Ness ont propose une définition de ces processus, appelés bruits gaussiens fractionnaires, à partir des taux d'accroissements du mouvement brownien fractionnaire. Cependant, leur approche reste peu satisfaisante. Dans cette thèse, nous montrons que le bruit gaussien fractionnaire peut être rigoureusement défini comme la dérivée du mouvement brownien fractionnaire au sens des distributions vectorielles de Schwartz. De plus, notre approche permet notamment de mettre en évidence l'équivalence entre le concept de bruit gaussien fractionnaire et l'intégrale stochastique relative au mouvement brownien fractionnaire. La seconde partie de ce travail est consacrée à l'estimation de densité spectrale non nécessairement bornée à l'origine (ce qui est le cas pour les taux d'accroissements du mouvement brownien fractionnaire). Auparavant, de nombreux auteurs (Parzen, Anderson,. . . ) avaient montré que, sous certaines conditions dont l'absolue sommabilité de la fonction d'autocorrélation, certains estimateurs de la densité spectrale, obtenus par lissage de périodogramme, étaient consistants. Dans un but de généralisation, nous montrons que parmi ces estimateurs certains d'entre eux restent consistants lorsque la densité spectrale à estimer n'est pas bornée à l'origine
APA, Harvard, Vancouver, ISO, and other styles
9

Néron, Alex. "Développement d'une plateforme de calcul d'équilibres chimiques complexes et adaptation aux problèmes électrochimiques et d'équilibres contraints." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5502.

Full text
Abstract:
Avec l'arrivée de l'environnement comme enjeu mondial, le secteur de l'efficacité énergétique prend une place de plus en plus importante pour les entreprises autant au niveau économique que pour l'image de la compagnie. Par le fait même, le domaine des technologies de l'énergie est un créneau de recherche dont les projets en cours se multiplient. D'ailleurs, un des problèmes qui peut survenir fréquemment dans certaines entreprises est d'aller mesurer la composition des matériaux dans des conditions difficiles d'accès. C'est le cas par exemple de l'électrolyse de l'aluminium qui se réalise à des températures très élevées. Pour pallier à ce problème, il faut créer et valider des modèles mathématiques qui vont calculer la composition et les propriétés à l'équilibre du système chimique. Ainsi, l'objectif global du projet de recherche est de développer un outil de calcul d'équilibres chimiques complexes (plusieurs réactions et plusieurs phases) et l'adapter aux problèmes électrochimiques et d'équilibres contraints. Plus spécifiquement, la plateforme de calcul doit tenir compte de la variation de température due à un gain ou une perte en énergie du système. Elle doit aussi considérer la limitation de l'équilibre due à un taux de réaction et enfin, résoudre les problèmes d'équilibres électrochimiques. Pour y parvenir, les propriétés thermodynamiques telles que l'énergie libre de Gibbs, la fugacité et l'activité sont tout d'abord étudiées pour mieux comprendre les interactions moléculaires qui régissent les équilibres chimiques. Ensuite, un bilan énergétique est inséré à la plateforme de calcul, ce qui permet de calculer la température à laquelle le système est le plus stable en fonction d'une température initiale et d'une quantité d'énergie échangée. Puis, une contrainte cinétique est ajoutée au système afin de calculer les équilibres pseudo-stationnaires en évolution dans le temps. De plus, la contrainte d'un champ de potentiel électrique est considérée pour l'évaluation des équilibres électrochimiques par des techniques classiques de résolution et fera l'objet de travaux futurs via une technique d'optimisation. Enfin, les résultats obtenus sont comparés avec ceux présents dans la littérature scientifique pour valider le modèle. À terme, le modèle développé devient un bon moyen de prédire des résultats en éliminant beaucoup de coût en recherche et développement. Les résultats ainsi obtenus sont applicables dans une grande variété de domaines tels que la chimie et l'électrochimie industrielle ainsi que la métallurgie et les matériaux. Ces applications permettraient de réduire la production de gaz à effet de serre en optimisant les procédés et en ayant une meilleure efficacité énergétique.
APA, Harvard, Vancouver, ISO, and other styles
10

Petcu, Madalina. "Régularité et asymptotique pour les équations primitives." Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00011982.

Full text
Abstract:
Ce mémoire composé de quatre chapitres, réunit des résultats sur l'existence, l'unicité et la régularité des solutions des Equations Primitives (EPs) des océans et de l'atmosphère, en dimension deux et trois d'espace (Chapitres 1--3), ainsi qu'une étude sur le comportement asymptotique des EPs quand le nombre de Rossby tend vers zero (Chapitre 4) ; les conditions aux limites sont de type périodique dans tous les cas. Dans le premier chapitre, on considère les EPs de l'océan en dimension deux d'espace (écoulement tridimensionnel indépendant de la variable y). On montre d'abord l'existence globale en temps d'une solution faible ainsi que l'existence et l'unicité d'une solution forte. Puis, on prouve l'existence d'une solution plus régulière (jusqu' à la régularité C-infini). Dans le deuxième chapitre on montre, pour un modèle semblable à celui du premier chapitre que, pour une force analytique en temps à valeurs dans un espace du type de Gevrey, et une donnée initiale dans un espace de Sobolev convenable, les solutions des EPs appartiennent, sur un certain intervalle de temps, à un espace de Gevrey. Le troisième chapitre est dans la continuité naturelle des deux premiers chapitres. On considère ici les EPs en dimension trois d'espace et on étudie la régularité du type de Sobolev et du type de Gevrey pour les solutions. Le dernier chapitre de la thèse est dédié à l'étude du comportement asymptotique des EPs (sous la forme introduite au premier chapitre), quand le nombre de Rossby tend vers zero. On arrive ici a "moyenner" la solution exacte très oscillante quand le nombre de Rossby est petit, en utilisant une méthode de renormalisation
This thesis, containing four chapters, studies the existence, uniqueness and regularity of the solutions of the Primitive Equations (PEs) of the oceans and the atmosphere in space dimensions 2 and 3 (Chapters 1--3), and also the asymptotic behavior of the PEs when the Rossby number goes to zero (Chapter 4); the boundary conditions considered here are periodical. In the first chapter, we consider the PEs of the ocean in a two-dimensional space (three dimensional motion independent of the y variable). We prove the existence, globally in time, of a weak solution and the existence and uniqueness of strong solutions. Moreover, we prove the existence of more regular solutions, up to C-infinity regularity. In the second chapter, for a model similar to the previous one, we prove that, for a forcing term which is analytical in time with values in a Gevrey space, the solutions of the PEs starting with the initial data in a certain Sobolev space become, for some positive time, elements of a certain Gevrey class. As a natural continuation of the work from the first two chapters, in the third chapter we consider the PEs in a 3D domain and we study the Sobolev and Gevrey regularity for the solutions. The last chapter of the thesis is devoted to the study of the asymptotic behavior when the Rossby number goes to zero, for the PEs in the form considered in the first chapter. The aim of this work is to average, using the renormalization group method, the oscillations of the exact solution when the Rossby number goes to zero, and to prove that the averaged solution is a good approximation of the exact oscillating solution
APA, Harvard, Vancouver, ISO, and other styles
11

Baba, Harra M'hammed. "Estimation de densités spectrales d'ordre élevé." Rouen, 1996. http://www.theses.fr/1996ROUES023.

Full text
Abstract:
Dans cette thèse nous construisons des estimateurs de la densité spectrale du cumulant, pour un processus strictement homogène et centré, l'espace des temps étant l'espace multidimensionnel, euclidien réel ou l'espace multidimensionnel des nombres p-adiques. Dans cette construction nous avons utilisé la méthode de lissage de la trajectoire et un déplacement dans le temps ou la méthode de fenêtres spectrales. Sous certaines conditions de régularité, les estimateurs proposés sont asymptotiquement sans biais et convergents. Les procédures d'estimation exposées peuvent trouver des applications dans de nombreux domaines scientifiques et peuvent aussi fournir des éléments de réponse aux questions relatives à certaines propriétés statistiques des processus aléatoires.
APA, Harvard, Vancouver, ISO, and other styles
12

Soueid, Salwa. "Micromagnétismes des films minces." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1037/document.

Full text
Abstract:
Les matériaux ferromagnétiques possèdent la propriété de devenir magnétiques, c’est à dire de s'aimanter, lorsqu'ils sont en présence d'un champ magnétique et de conserver une partie de leur magnétisation lorsque le champ est supprimé. C’est pour cette raison, ces matériaux sont devenus d'usage dans de nombreuses applications industrielles. Le modèle mathématique du micromagnétisme a été introduit par W.F. Brown (voir [11]) pour d'écrire le comportement de l'aimantation dans les matériaux ferromagnétiques depuis les années 40.Pour étudier ce phénomène, on le transforme en un système l'étude de ces équations donnent les informations physiques attendus dans des espaces appropriés. Dans cette thèse on s’est intéressé à des structures minces de films ferromagnétiques. En pratique, une structure mince est un objet tridimensionnel ayant une ou deux directions prépondérantes comme par exemple une plaque, une barre ou un fil. Nous étudions le comportement de l'énergie quand l'épaisseur du film tend vers zéro. Dans le premier travail, nous généralisons un résultat dû à Gioia et James à des dimensions supérieures à 4. Plus précisément, on considère un domaine mince borné ferromagnétique dans R^n, le but est d'étudier les comportements asymptotiques de l'énergie libre du domaine mince ferromagnétique. Dans le deuxième travail, on s'intéresse à une approche dynamique de problème micromagnétisme . On étudie le comportement asymptotique des solutions des équations Landau Lifshitz dans un multi-structure mince ferromagnétique composée de deux films minces orthogonaux d'épaisseur respectif h^a et h^b. On distingue différents régimes: lorsque lim h^a_n/h^b_n in ]0;infty[. On identifie le problème limite et on montre que ce dernier est couplé par une condition de jonction sur l'axe vertical x2, pour tout x2 in] -1/2,1/2[.La troisième partie est liée à ce dernier travail, nous complétons l'étude précédente lorsque lim h^a_n/h^b_n = 0 et +infty (voir [2]). En suite dans la quatrième chapitre, on a étudié des phénomènes de micromagnétisme dans un multi-structure mince: il s'agit d'un ouvert connexe de R3 composé de deux parties ayant un angle etha in ]0; pi[, le but est d'étudier les comportements asymptotiques de l'énergie libre dans ce domaine lorsque l'épaisseur tend vers zéro. Il s'agit d'un problème non convexe et non local (…)
The ferromagnetic materials possess the magnetic property of future, that is to magnetize, when they are in the presence of a magnetic field and to keep a part of their magnetizing when the field is deleted. It is for that reason, these materials became of use in numerous industrial applications (...)
APA, Harvard, Vancouver, ISO, and other styles
13

Yelou, Clément. "Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transport." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23803/23803.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Yélou, Clément. "Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transport." Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18285.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Abril, Garcia Ana Belen. "Estimation et optimisation de la consommation dans les descriptions architecturales des systèmes intégrés complexes." Paris 6, 2005. http://www.theses.fr/2005PA066115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Kponsou, Messan. "Estimation spectrale dans les processus à n-accroissement stationnaires." Rouen, 1997. http://www.theses.fr/1997ROUES071.

Full text
Abstract:
Nous considérons un processus à accroissements aléatoires stationnaires d'ordre n. Tout d'abord nous donnons quelques propriétés de ce processus. Dans la première partie, le processus est à temps discret et nous estimons sa densité spectrale d'ordre n à partir d'un échantillon en temps discret. Nous donnons une condition suffisante de convergence uniforme presque complète de l'estimateur vers la densité spectrale. Dans la seconde partie, le processus est à temps continu et nous estimons sa densité spectrale d'ordre n à partir d'un échantillon en temps continu. Nous donnons également une condition suffisante de convergence uniforme presque complète de l'estimateur vers la densité spectrale. Dans la troisième partie, nous estimons la densité spectrale d'ordre n du processus à temps continu à partir d'un échantillonnage alias-free de taille aléatoire. La quatrième partie concerne la comparaison de deux méthodes échantillonnage : échantillonnage poissonnien et non poissonnien. Dans la dernière partie, nous calculons les estimateurs du chapitre 3 à partir de données simulées.
APA, Harvard, Vancouver, ISO, and other styles
17

Monsan, Vincent. "Estimation spectrale dans les processus périodiquement corréles." Rouen, 1994. http://www.theses.fr/1994ROUES030.

Full text
Abstract:
Nous considérons un processus périodiquement corrélé. Dans la première partie, nous donnons quelques propriétés de ce processus. Dans la seconde partie, nous estimons les densités spectrales de ce processus à partir d'un échantillonnage poissonnien avec des hypothèses sur les coefficients de Fourier de la fonction de covariance du processus. La troisième partie reprend les estimateurs de la deuxième partie, mais avec des hypothèses sur la fonction de covariance. Dans la quatrième partie, nous estimons les densités spectrales à partir d'un échantillonnage poissonnien de taille aléatoire. Dans la cinquième partie, nous supposons que chaque mesure spectrale est la somme d'une mesure absolument continue par rapport à la mesure de Lebesgue et d'une mesure discrète comportant un nombre fini d'atomes. Nous estimons d'abord les atomes et les sauts, ensuite par la méthode du double noyau, nous estimons la partie absolument continue. La sixième partie concerne l'influence des zéros des densités spectrales sur le comportement des estimateurs de la moyenne. Dans la dernière partie, nous calculons les estimateurs des parties 2, 3 et 4 à partir de données simulées
APA, Harvard, Vancouver, ISO, and other styles
18

Degroot, Anne. "Contribution à l'estimation de la vitesse acoustique par Vélocimétrie Laser Doppler & Application à l'étalonnage de microphones en champ libre." Phd thesis, Université du Maine, 2007. http://tel.archives-ouvertes.fr/tel-00193066.

Full text
Abstract:
La Vélocimétrie Laser à effet Doppler (VLD) est un outil de mesure de vitesse particulaire non-invasif couramment utilisé en mécanique des fluides qui reste cependant encore marginal en acoustique. L'accès à l'information de vitesse particulaire acoustique permet de caractériser les champs acoustiques complexes, autorisant l'étude de phénomènes acoustiques au voisinage de parois vibrantes ou de discontinuités gémométriques par exemple.
L'application de la VLD à l'acoustique de l'audible pour des niveaux allant de 60 à 120 dBSPL en présence de faibles écoulements (quelques mm/s) constitue le domaine d'investigation du Laboratoire d'Acoustique de l'Université du Maine depuis le milieu des années 90. Les méthodes de traitement du signal aujourd'hui implémentées sur le banc de mesure appartiennent à la famille des méthodes temps-fréquence donnant accès à la loi de fréquence instantanée (proportionnelle à la vitesse) de la particule lors de son passage dans le volume de mesure. Ces méthodes ont été développées et validées expérimentalement sur une seule bouffée Doppler en présence de très faible écoulement conduisant à une loi de variation de la vitesse de plusieurs périodes acoustiques.
L'objectif de cette thèse est double. Dans un premier temps, il vise à développer un traitement de signal qui permette d'estimer la vitesse acoustique à partir de l'analyse de plusieurs bouffées. Dans un deuxième temps, il vise à utiliser la VLD pour estimer une pression acoustique à partir des vitesses acoustiques mesurées au voisinage d'un structure (d'un microphone).
La première partie du travail consiste à développer et valider une méthode de traitement du signal, basée sur l'utilisation de la transformée en ondelette, capable de détecter, localiser, classifier (simple ou multiple) les bouffées contenues dans un signal bruité et propose une méthode d'estimation des paramètres acoustiques et de vitesse d'écoulement par utilisation d'une méthode des moindres carrés appliquée au signal de fréquence instantanée estimé suite à la détection des bouffées.
La deuxième partie de cette thèse permet d'initialiser des travaux, en collaboration avec le laboratoire d'acoustique d'Edimbourg, sur l'étalonnage de microphone en champ libre par mesures de vitesses acoustiques VLD.
Une première étude de faisabilité d'estimation de la pression à partir de mesures de vitesses à une dimension est menée, permettant d'envisager un étalonnage des microphones à réponse en pression. Puis, dans un second temps, une approche analytique basée sur la formulation intégrale de Green propose de développer un modèle à deux dimensions du champ de pression en fonction de la vitesse au voisinage très proche du microphone dans le but d'étalonner les microphones en champ libre.
APA, Harvard, Vancouver, ISO, and other styles
19

Degroot, Anne. "Contribution à l'estimation de la vitesse acoustique par vélocimétrie laser Doppler et application à l'étalonnage de microphones en champ libre." Le Mans, 2007. http://cyberdoc.univ-lemans.fr/theses/2007/2007LEMA1005.pdf.

Full text
Abstract:
La Vélocimétrie Laser à effet Doppler (VLD) est un outil de mesure de vitesse particulaire non-invasif couramment utilisé en mécanique des fluides qui reste cependant encore marginal en acoustique. L'accès à l'information de vitesse particulaire acoustique permet de caractériser les champs acoustiques complexes, autorisant l'étude de phénomènes acoustiques au voisinage de parois vibrantes ou de discontinuités gémométriques par exemple. L'application de la VLD à l'acoustique de l'audible pour des niveaux allant de 60 à 120 dBsPL en présence de faibles écoulements (quelques mm/s) constitue le domaine d'investigation du Laboratoire d'Acoustique de l'Université du Maine depuis le milieu des années 90. Les méthodes de traitement du signal aujourd'hui implémentées sur le banc de mesure appartiennent à la famille des méthodes temps-fréquence donnant accès à la loi de fréquence instantanée (proportionnelle à la vitesse) de la particule lors de son passage dans le volume de mesure. Ces méthodes ont été développées et validées expérimentalement sur une seule bouffée Doppler en présence de très faible écoulement conduisant à une loi de variation de la vitesse de plusieurs périodes acoustiques. L'objectif de cette thèse est double. Dans un premier temps, il vise à développer un traitement de signal qui permette d'estimer la vitesse acoustique à partir de l'analyse de plusieurs bouffées. Dans un deuxième temps, il vise à utiliser la VLD pour estimer une pression acoustique à partir des vitesses acoustiques mesurées au voisinage d'un structure (d'un microphone). La première partie du travail consiste à développer et valider une méthode de traitement du signal, basée sur l'utilisation de la transformée en ondelette, capable de détecter, localiser, classifier (simple ou multiple) les bouffées contenues dans un signal bruité et propose une méthode d'estimation des paramètres acoustiques et de vitesse d'écoulement par utilisation d'une méthode des moindres carrés appliquée au signal de fréquence instantanée estimé suite à la détection des bouffées. La deuxième partie de cette thèse permet d'initialiser des travaux, en collaboration avec le laboratoire d'acoustique d'Edimbourg, sur l'étalonnage de microphone en champ libre par mesures de vitesses acoustiques VLD. Une première étude de faisabilité d'estimation de la pression à partir de mesures de vitesses à une dimension est menée, permettant d'envisager un étalonnage des microphones à réponse en pression. Puis, dans un second temps, une approche analytique basée sur la formulation intégrale de Green propose de développer un modèle à deux dimensions du champ de pression en fonction de la vitesse au voisinage très proche du microphone dans le but d'étalonner les microphones en champ libre
Laser Doppler Velocimetry (LDV) is a non intrusive technique widely used in fluid mechanics, but still marginal in acoustics, for measuring the particle velocimetry. Accessing to the acoustic particle velocity allows to characterize complex acoustics fields to study phenomena close to vibrating surfaces or around geometrical discontinuities for example. Research works of LDV applications to audible acoustics levels going from 60 to 120 dBsPL in presence of weak flows (a few mm/s) has been investigated by the Laboratoire d'Acoustique de l'Université du Maine for the middle of the nineteens. Signal processing methods nowadays implement on the measurement bench belong to time-frequency methods allowing to get the instantaneous frequency (proportional to the velocity) of the particle during its crossing of the measuring probe. These methods have been developed and validated experimentally on one single burst for weak flow leading to a velocity variation of several acoustics periods. The objective of this Ph. D thesis is dual. In a first time, this thesis develops a new signal processing to get an estimation of the acoustic velocity parameters thanks to a large number of bursts. In a second time, this works presents the use the LDV sensor to estimate the acoustic pressure thanks to the measurement of the acoustic velocities. The first part of this study consists in developing and validating a signal parametric method, based on the use of a wavelet transform, able to detect, localize, classify (single or overlap) bursts present on the noisy Doppler signal and in processing an estimation method of acoustics parameters and flow velocities estimation with the help of a least mean square method on the instantaneous frequency after the detection process of bursts. The second part of this thesis allows to initiate new works, in collaboration with the Acoustics and Fluid dynamics group of Edinburgh, on free field microphone calibration thanks to acoustic velocities measurements by LDV. A first study investigates the possibility of getting an accurate pressure estimation thanks to acoustic velocities measurement to calibrate at first pressure microphones. Then, in a second time, an analytic approach based on the Green integral formulation proposes a two dimensional model of the acoustic pressure field function of the velocity close to the microphone membrane to hope a future calibration of free-field microphone
APA, Harvard, Vancouver, ISO, and other styles
20

Degroot, Anne Simon Laurent. "Contribution à l'estimation de la vitesse acoustique par vélocimétrie laser Doppler et application à l'étalonnage de microphones en champ libre." [S.l.] : [s.n.], 2007. http://cyberdoc.univ-lemans.fr/theses/2007/2007LEMA1005.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Bellouin, Nicolas. "Estimation de l'effet direct des aérosols à partir de la modélisation et de la télédétection passive." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-183-184.pdf.

Full text
Abstract:
Les aérosols atmosphériques influent sur le bilan radiatif terrestre en diffusant et absorbant le rayonnement incident (effet direct) et en modifiant le cycle de vie et les propriétés radiatives des nuages (effet indirect). Les interactions aérosols anthropiques - nuages - rayonnement constituent un forçage du système dont le signe et l'ordre de grandeur sont mal connus. Cette thèse étudie l'effet direct à partir d'observations satellitaires et de photométrie au sol. Elle aborde également plusieurs aspects de la modélisation des aérosols et de la surface dans les codes de transfert radiatif. Après avoir présenté les aérosols atmosphériques et leur impact climatique, on définit la perturbation des flux radiatifs due à l'effet direct des aérosols. Les outils utilisés par cette thèse sont le code de transfert radiatif Streamer qui, associé à une technique de reconstitution du signal, permet de simuler flux et réflectances, l'instrument satellitaire Polder, qui est multidirectionnel et effectue des mesures polarisées, et le réseau de photomètres Aeronet-Photons. On étudie tout d'abord l'impact sur la perturbation radiative directe des aérosols de deux simplifications souvent utilisées dans les calculs de transfert radiatif. Il est montré, à partir de mesures de la fonction de phase, que négliger la non-sphéricité des aérosols entraîne des erreurs importantes sur la perturbation radiative directe et sur l'inversion de l'épaisseur optique. La prise en compte de la surface océanique par son albédo entraîne également des erreurs par rapport à la prise en compte rigoureuse utilisant la fonction de distribution de la réflectance bidirectionnelle. Pour estimer l'absorption par les aérosols, nous avons associé les inversions de Polder à un jeu d'albédos de diffusion simple issu de l'analyse de mesures Aeronet-Photons. L'algorithme utilisé permet d'identifier l'aérosol présent dans l'atmosphère en se basant sur les propriétés optiques déduites des mesures de Polder et sur la localisation géographique de la scène. Notre estimation de l'absorption en ciel clair est 2,5 Wm-2en moyenne globale sur les huit mois de données Polder. Nous présentons ensuite une méthode originale d'estimation de la perturbation radiative au-dessus des océans et en ciel clair à partir des réflectances de Polder. Grâce à l'utilisation de nombreux modèles d'aérosols, notre algorithme permet de défmir une incertitude. L'application sur les huit mois de mesures de Polder permet d'évaluer la perturbation radiative entre -6,8 et -7,8 Wm-2 en moyenne globale et sur huit mois. Une modification sera apportée à l'algorithme afm de mieux prendre en compte l'effet du vent sur la surface marine. La thèse se termine par une discussion sur l'estimation de la perturbation radiative directe au-dessus des continents, où la prise en compte de la surface est difficile.
APA, Harvard, Vancouver, ISO, and other styles
22

Gmira, Ahmed. "Etude structurale et thermodynamique d'hydrates modèle du ciment." Phd thesis, Université d'Orléans, 2003. http://tel.archives-ouvertes.fr/tel-00006001.

Full text
Abstract:
Les hydrates de ciment (C-S-H) obtenus par dissolution/précipitation du ciment anhydre, constituent la matrice donnant au matériau ses propriétés mécaniques et sont structurellement analogues de la tobermorite, un calcio-silicate lamellaire naturel. La compréhension de la cohésion du ciment passe donc par la compréhension de la cohésion entre feuillets tobermoritiques. La structure lamellaire de différents échantillons de CSH tobermoritiques synthétisés par "chimie douce" a été mise en évidence ; les échantillons avec un rapport Ca/Si égal à 0.9 étant particulièrement bien cristallisés. L'étude du processus de déshydratation pour ces échantillons a permis d'identifier 3 phases et de montrer la similarité de comportement vis à vis du "vrai" ciment. Nous montrons que la transition 14-11 Å est irréversible. Se pose alors la question du rôle de l'eau interfoliaire dans la cohésion du matériau en relation avec les deux structures possibles décrites dans la littérature pour la tobermorite naturelle 11 Å : la proposition d'Hamid (1981) décrivant un ensemble de feuillets indépendants et celle de Merlino et al (1999) décrivant des feuillets chimiquement liés. La confrontation entre résultats expérimentaux (29Si-RMN et spectroscopie infra-rouge) et numériques (calculs ab-initio et minimisation d'énergie) indique que la structure d'Hamid est un modèle acceptable pour les C-S-H tobermoritiques. La nature des liaisons inter-feuillets est d'origine coulombienne au sens de l'énergie de réseau des solides ioniques.
APA, Harvard, Vancouver, ISO, and other styles
23

Marzouki, Abdelwaheb. "Segmentation statistique d'images radar." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-304.pdf.

Full text
Abstract:
Cette thèse est consacrée a la segmentation statistique non supervisée des images radar. L'originalité de notre étude réside dans l'adoption du système de distributions de Pearson pour modéliser les scènes naturelles homogènes. Nous généralisons les méthodes d'estimation employées pour un mélange de distributions de même loi a un mélange de distributions de lois différentes et appartenant au système de Pearson. Des algorithmes d'estimation bases sur la maximisation de la vraisemblance et sur la notion de l’Esperance conditionnelle ont été développes afin d'accomplir cette tâche. Les méthodes d'estimation développées pour les images radar mono spectrales ont été généralisées pour le cas des images radar multi spectrales. Nous étudions la robustesse des algorithmes proposes à travers la segmentation d'images de synthèse et d'images radar de natures différentes.
APA, Harvard, Vancouver, ISO, and other styles
24

Messaci, Fatiha. "Estimation de la densité spectrale d'un processus en temps continu par échantillonage poissonnien." Rouen, 1986. http://www.theses.fr/1986ROUES036.

Full text
Abstract:
Ce travail est consacré à l'estimation de la densité spectrale d'un processus réel, par échantillonnage poissonnien. Après l'étude théorique, le calcul des estimateurs a été effectué sur des données simulées d'un processus de Gauss Markov, puis d'un processus gaussien non markovien
APA, Harvard, Vancouver, ISO, and other styles
25

GUITTON, Patricia. "Estimation et Optimisation de la Consommation lors de la conception globale des systèmes autonomes." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00007496.

Full text
Abstract:
Les systèmes embarqués représentent une part de plus en plus importante du marché semiconducteurs. Les systèmes embarqués visent des applications plus gourmandes en capacité de calcul, augmentant du même coup la surface de silicium et l'énergie dissipée. Un des problèmes de la conception système est le patitionnement d'applications qui requiert l'utilisation de méthodes complexes. En effet, le partitionnement sous contraintes de temps, basé sur un algorithme d'ordonnancement avec un objectif de minimisation de la surface de silicium ou de la consommation est un problème NP-difficile. Ce travail de thèse étudie la prise en compte de la consommation (énergie et pic de puissance) lors de la conception globale de systèmes autonomes.
Une première étude consiste à estimer la consommation des divers composants d'une architecture SoC. Puis, nous nous sommes intéressés aux deux étapes principales des méthodes de partitionnement : l'allocation et l'ordonnancement. En particulier,
la technique d'ajustement conjoint de la tension et de la fréquence est considérée dans l'ordonnancement pour minimiser l'énergie. A la suite de ces optimisations, une gestion des modes basse consommation est réalisée, ayant pour objectif de mettre les processeurs en état de repos ou repos profond dès que la possibilité se présente, ce changement de mode permettant de gagner en consommation. Ce travail a été testé sur divers exemples, comme une application de détection de mouvement sur fond d'images
fixes pour caméra embarquée.
APA, Harvard, Vancouver, ISO, and other styles
26

Rachdi, Mustapha. "Choix de la largeur de fenêtre spectrale par validation croisée. Analyse spectrale p-adique." Rouen, 1998. http://www.theses.fr/1998ROUES002.

Full text
Abstract:
Dans ce travail, nous nous intéressons aux aspects théorique et pratique de l'estimation d'une densité spectrale par la méthode du noyau. Ce travail est constitué de deux parties. Dans la première partie, nous considérons les propriétés asymptotiques de l'estimateur à noyau. Ces propriétés dépendent essentiellement du paramètre de lissage et de la régularité de la densité spectrale. Nous montrons que, comme dans la plupart des problèmes d'estimation fonctionnelle, le choix du paramètre de lissage joue un rôle crucial dans le comportement asymptotique de l'estimateur. Dans un second temps, nous abordons, dans le cadre d'un processus à temps discret (avec ou sans hypothèse de mélangeance), le problème de la sélection du paramètre de lissage. Ensuite nous étendons les résultats obtenus au cas des processus a temps continu (toujours avec ou sans hypothèse de mélangeance). Plus précisément, nous proposons (dans chaque cas) un critère de sélection de la largeur de fenêtre basé sur la validation croisée. Des résultats d'optimalité de la fenêtre sélectionnée sont établis. Les résultats théoriques obtenus concernant le choix de la fenêtre sont illustrés par des simulations. Dans la seconde partie, nous établissons et étudions le comportement asymptotique d'un estimateur à noyau de la densité spectrale p-adique à partir d'observations certaines. Ensuite, nous établissons et étudions le comportement asymptotique d'un estimateur de la densité spectrale p-adique à partir d'un échantillonnage aléatoire. Enfin, nous estimons et étudions le comportement asymptotique d'un estimateur de la densité de la mesure spectrale mixte p-adique par la méthode du double noyau.
APA, Harvard, Vancouver, ISO, and other styles
27

Kouakou, Kouadio Simplice. "Echantillonnage aléatoire et estimation spectrale de processus et de champs stationnaires." Thesis, Rennes 2, 2012. http://www.theses.fr/2012REN20019.

Full text
Abstract:
Dans ce travail nous nous intéressons à l'estimation de la densité spectrale par la méthode du noyau pour des processus à temps continu et des champs aléatoires observés selon des schémas d'échantillonnage (ou plan d'expériences) discrets aléatoires. Deux types d'échantillonnage aléatoire sont ici considérés : schémas aléatoires dilatés, et schémas aléatoires poissonniens. Aucune condition de gaussiannité n'est imposée aux processus et champs étudiés, les hypothèses concerneront leurs cumulants.En premier nous examinons un échantillonnage aléatoire dilaté utilisé par Hall et Patil (1994) et plus récemment par Matsuda et Yajima (2009) pour l'estimation de la densité spectrale d'un champ gaussien. Nous établissons la convergence en moyenne quadratique dans un cadre plus large, ainsi que la vitesse de convergence de l'estimateur.Ensuite nous appliquons l'échantillonnage aléatoire poissonnien dans deux situations différentes : estimation spectrale d'un processus soumis à un changement de temps aléatoire (variation d'horloge ou gigue), et estimation spectrale d'un champ aléatoire sur R2. Le problème de l'estimation de la densité spectrale d'un processus soumis à un changement de temps est résolu par projection sur la base des vecteurs propres d'opérateurs intégraux définis à partir de la fonction caractéristique de l'accroissement du changement de temps aléatoire. Nous établissons la convergence en moyenne quadratique et le normalité asymptotique de deux estimateurs construits l'un à partir d'une observation continue, et l'autre à partir d'un échantillonnage poissonnien du processus résultant du changement de temps.La dernière partie de ce travail est consacrée au cas d'un champ aléatoire sur R2 observé selon un schéma basé sur deux processus de Poissons indépendants, un pour chaque axe de R2. Les résultats de convergence sont illustrés par des simulations
In this work, we are dealing in the kernel estimation of the spectral density for a continuous time process or random eld observed along random discrete sampling schemes. Here we consider two kind of sampling schemes : random dilated sampling schemes, and Poissonian sampling schemes. There is no gaussian condition for the process or the random eld, the hypotheses apply to their cumulants.First, we consider a dilated sampling scheme introduced by Hall and Patil (1994) and used more recently by Matsuda and Yajima (2009) for the estimation of the spectral density of a Gaussian random eld.We establish the quadratic mean convergence in our more general context, as well as the rate of convergence of the estimator.Next we apply the Poissonian sampling scheme to two different frameworks : to the spectral estimation for a process disturbed by a random clock change (or time jitter), and to the spectral estimation of a random field on R2.The problem of the estimatin of the spectral density of a process disturbed by a clock change is solved with projection on the basis of eigen-vectors of kernel integral operators defined from the characteristic function of the increment of the random clock change. We establish the convergence and the asymptotic normality of two estimators contructed, from a continuous time observation, and the other from a Poissonian sampling scheme observation of the clock changed process.The last part of this work is devoted to random fields on R2 observed along a sampling scheme based on two Poisson processes (one for each axis of R2). The convergence results are illustrated by some simulations
APA, Harvard, Vancouver, ISO, and other styles
28

Renaudineau, Hugues. "Hybrid Renewable Energy Sourced System : Energy Management & Self-Diagnosis." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0336/document.

Full text
Abstract:
Cette thèse a pour but le développement d'une source photovoltaïque autonome ayant des capacités d'auto-diagnostic. Un structure d'hybridation spécifique est proposée consistant en une hybridation DC de sources photovoltaïques, d'une batterie au lithium et de supercondensateurs. Des modèles dynamiques des convertisseurs boost conventionnels et de leur variante avec isolation galvanique sont proposés. Un observateur d'état est ensuite présenté pour estimer en ligne les différents paramètres représentant les pertes des convertisseurs. On montre qu'il est possible d'utiliser ces paramètres estimés pour la gestion de l'énergie dans le système, avec en particulier l'optimisation du rendement de structures parallèles. L'optimisation des sources photovoltaïques est aussi étudiée avec une attention particulière accordée aux phénomènes d'ombrage partiel et le design d'un algorithme de maximisation de la puissance produite (MPPT) dans le cas d'une architecture distribuée série. De part une architecture de puissance spécifique, on propose aussi une méthode d'estimation de l'état de santé (SOH) de la batterie qui est validée sur des cellules de batterie Li - ion et LiFePO4. On montre que le convertisseur Cuk isolé avec inductances couplées est parfaitement adapté pour faire du diagnostic en ligne sur les batteries par injection de courant. Enfin, un schéma de gestion de l'énergie global est proposé, et on vérifie le bon fonctionnement de l'ensemble de la source hybride proposée
This thesis interested on developing a stand-alone photovoltaic system with self-diagnosis possibility. A specific structure has been proposed consisting in a DC hybridization of photovoltaic sources, a Lithium-based battery and supercapacitors. Dynamics models of the boost converter and the current-fed dual-bridge DC-DC converter are proposed and an efficient state observer is proposed to estimate the models equivalent losses' parameters online. It is shown that the estimated parameters can be used in the energy management scheme, with in particular optimisation of the efficiency of paralleled structures. The photovoltaic source optimization is also studied with special attention on shading phenomenon and design of MPPT technique especially on the case of distributed series architecture. Through a specific hybridization structure, State-Of-Health estimation is tested on Li-ion and LiFePO4 batteries. It is shown that the isolated coupled-inductors Cuk converter is very efficient for battery estimation through current injection. Finally, a global energy management scheme is proposed, and the developed stand-alone photovoltaic system is validated to operate as supposed
APA, Harvard, Vancouver, ISO, and other styles
29

Acem, Zoubir. "Nouveaux composites graphite/sel destinés au stockage de l'énergie thermique a haute température : de l'élaboration au développement de méthodes de caractérisation thermique de matériaux conducteurs orthotropes." Phd thesis, Bordeaux 1, 2007. http://www.theses.fr/2007BOR13441.

Full text
Abstract:
Cette thèse a été effectuée dans le cadre des projets DISTOR (Européen) et HTPSTOCK (Français) qui visent à concevoir et étudier de nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température (>200°C). Elle est scindée en deux parties distinctes. La première partie détaille les travaux relatifs à l'élaboration et la caractérisation thermique de ces nouveaux composites. On y présente les différentes voies d'élaboration des composites (dispersion, compression uniaxiale, isostatique) associées aux différents types de graphite (graphite naturel expansé (GNE), graphite synthétique) investigués au cours de cette thèse. On y retrouve également les résultats liés à la campagne de caractérisation thermique de ces composites permettant de mettre en exergue l'impact du graphite sur les propriétés conductrices des matériaux étudiés. A partir de ces résultats, des études de modélisation de l'évolution de la conductivité thermique ont pu être entrepris afin d'approfondir la compréhension de l'effet du graphite (quantité, taille de particules) sur la conductivité effective des composites. La deuxième partie présente essentiellement les dispositifs de caractérisation thermique et les modèles thermocinétiques associés qui ont du être développés et adaptés aux spécificités des matériaux nouvellement élaborés. Cela concerne principalement les matériaux élaborés par compression, matériaux difficilement reproductible et possédant des propriétés orthotropes. La caractérisation de ce type de matériaux s'avère très délicate et pour le moins fastidieuse. C'est pourquoi nous nous sommes attachés à développer et adapter les moyens de caractérisation existants afin de permettre la caractérisation thermique complète d'un matériau conducteur orthotrope à partir d'une seule mesure sur un seul échantillon.
APA, Harvard, Vancouver, ISO, and other styles
30

Acem, Zoubir. "Nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température : De l'élaboration au développement de méthodes de caractérisation thermique de matériaux conducteurs orthotropes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00263601.

Full text
Abstract:
Cette thèse a été effectuée dans le cadre des projets DISTOR (Européen) et HTPSTOCK (Français) qui visent à concevoir et étudier de nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température (>200°C). Elle est scindée en deux parties distinctes.
La première partie détaille les travaux relatifs à l'élaboration et la caractérisation thermique de ces nouveaux composites. On y présente les différentes voies d'élaboration des composites (dispersion, compression uniaxiale, isostatique) associées aux différents types de graphite (graphite naturel expansé (GNE), graphite synthétique) investigués au cours de cette thèse. On y retrouve également les résultats liés à la campagne de caractérisation thermique de ces composites permettant de mettre en exergue l'impact du graphite sur les propriétés conductrices des matériaux étudiés. A partir de ces résultats, des études de modélisation de l'évolution de la conductivité thermique ont pu être entrepris afin d'approfondir la compréhension de l'effet du graphite (quantité, taille de particules) sur la conductivité effective des composites.
La deuxième partie présente essentiellement les dispositifs de caractérisation thermique et les modèles thermocinétiques associés qui ont du être développés et adaptés aux spécificités des matériaux nouvellement élaborés. Cela concerne principalement les matériaux élaborés par compression, matériaux difficilement reproductible et possédant des propriétés orthotropes. La caractérisation de ce type de matériaux s'avère très délicate et pour le moins fastidieuse. C'est pourquoi nous nous sommes attachés à développer et adapter les moyens de caractérisation existants afin de permettre la caractérisation thermique complète d'un matériau conducteur orthotrope à partir d'une seule mesure sur un seul échantillon
APA, Harvard, Vancouver, ISO, and other styles
31

Marjolin, Aude. "Modélisation statique et dynamique de cations lanthanides et actinides en solution." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00833263.

Full text
Abstract:
Dans cette thèse nous proposons une stratégie de modélisation intégrée, basée sur des approches quantiques d'analyse et des approches classiques de simulations de dynamique moléculaire pour l'étude de complexes d'éléments-f. Dans une première partie, nous introduisons les différentes méthodes de chimie quantique adaptées à l'étude des éléments-f et les utilisons pour le calcul de géométrie et d'énergie d'interaction de systèmes [M-(OH2)]m+. Nous utilisons ensuite des techniques d'analyse de décomposition de l'énergie d'interaction afin de quantifier la nature physique de l'interaction métal-ligand en fonction des différentes contributions énergétiques. Ces contributions seront utilisées pour la paramétrisation des champs de forces polarisables AMOEBA et SIBFA. Dans un deuxième temps, nous établirons des courbes de dissociation diabatique de référence qui seront utilisées pour la paramétrisation du champ de forces AMOEBA. Nous proposons ensuite un protocole de validation des paramètres en trois étapes ainsi qu'une première application qui est le calcul de l'énergie libre d'hydratation de Gibbs des cations d'éléments-f. Nous apportons de plus une extension du potentiel SIBFA à des cations trivalents et tétravalents lanthanides et actinides. Enfin dans une dernière partie, nous utilisons des outils d'analyse topologique de la liaison chimique covalente (ELF) et non covalente (NCI) afin d'investiguer la nature des interactions en jeu, d'une part dans des systèmes modèles et d'autre part sur un complexe réel de Gadolinium(III). Le but de cette thèse est de développer et d'employer différentes approches théoriques afin de pouvoir discriminer entre eux les différents cations
APA, Harvard, Vancouver, ISO, and other styles
32

Ovigneur, Bertrand. "Description des propriétés macrophysiques et microphysiques des nuages par télédétection active et passive : application à la campagne aéroportée FRENCH/DIRAC." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Ovigneur.pdf.

Full text
Abstract:
Les nuages sont l'une des principales sources d'incertitudes de la prévision du climat futur de la Terre. L'étude présentée vise à développer des méthodes affinant la description tant macrophysique que microphysique des nuages à partir de mesures aéroportées. Ces méthodes peuvent être à terme appliquées à des mesures spatiales du type de celles du train de l'espace, l'A -train. A cet effet, les mesures de deux radiomètres (POLDER et MiniMIR) et d'un lidar (LEANDRE) acquises pendant la campagne aéroportée FRENCH/DIRAC sont exploitées. Une méthode d'absorption différentielle est développée et utilisée pour corriger les mesures des deux radiomètres POLDER et MiniMIR de l'absorption par les gaz atmosphériques. POLDER, avec son large champ de vue, effectue une mesure radiométrique multidirectionnelle. La luminance multidirectionnelle d'une scène nuageuse est obtenue en la suivant sur plusieurs acquisitions successives de l'instrument. POLDER et LEANDRE permettent une évaluation de l'altitude des nuages. Le lidar fournit l'information la plus précise et peut permettre de discriminer les sommets et les bases de plusieurs couches nuageuses
Par des méthodes stéréoscopiques ou basées sur l'absorption par le dioxygène, POLDER fournit une information sur l'altitude des nuages. Celle-ci est moins précise mais présente l'avantage de rendre compte du large champ spatial couvert par l'instrument. Les mesures polarisées de POLDER ou de LEANDRE permettent une estimation de la phase thermodynamique des nuages, mais par commodité, une méthode simple basée sur le rapport des luminances mesurées dans le visible et le moyen infrarouge par MiniMIR est développée et privilégiée dans cette étude. Finalement, une méthode d'estimation optimale est développée et mise en œuvre pour déterminer l'épaisseur optique des nuages et la dimension des particules qui les constituent à partir de mesures passives dans le visible et dans le moyen infrarouge. Comparée aux méthodes précédemment développées au laboratoire, cette méthode permet d'obtenir des précisions similaires sur les paramètres nuageux déterminés. Toutefois, elle offre l'avantage d'exploiter naturellement les mesures multidirectionnelles de POLDER ainsi que d'autres informations ou données auxiliaires. De part sa modularité, cette méthode pourrait permettre d'exploiter en synergie les mesures de l'A-train
APA, Harvard, Vancouver, ISO, and other styles
33

Ghannudi, Hamza El. "Interférences d'accès multiples et performances d'un système impulsionnel à bande ultra large transposé à 60 GHz en réseau ad hoc." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-177.pdf.

Full text
Abstract:
L'objectif de ce travail est d'étudier les performances d'un système radio impulsionnel à bande ultra large transposé dans la bande millimétrique pour des réseaux ad hoc. Les contraintes imposées sont la simplicité des architectures, la souplesse d'utilisation et l'asynchronisme des utilisateurs. Dans un premier temps, nous procédons à une modélisation statistique du canal à partir de mesures effectuées à l'IEMN dans la bande 57-59 GHz. L'étude du canal se décompose en deux parties. La première concerne l'étude de la puissance reçue en environnement ad hoc. La deuxième se focalise sur l'effet des trajets réfléchis. Nous proposons ensuite un algorithme de simulation du canal et du système UWB choisi afin de déterminer les performances du système en terme de taux d'erreurs binaires et de probabilité d'erreur par paquet. Un des facteurs limitant les performances est l'interférence d'accès multiples (MAI). Nous effectuons une étude sur la nature de ces interférences. Trois techniques d'estimation sont proposées pour modéliser leur densité de probabilité. La première est une estimation non paramétrique par la méthode du noyau. La seconde est la distribution gaussienne généralisée et la dernière est la distribution a-stable. Les performances des trois approches ainsi que l'impact des conditions matérielles et réseaux sur le MAI sont présentées. Ensuite, en utilisant une démonstration analytique, nous montrons que la modélisation du MAI par la distribution a-stable dans le cas des réseaux ad hoc est tout à fait adaptée. Enfin, nous concluons que le récepteur gaussien n'est pas optimal. S'il est difficile d'envisager la mise en œuvre d'un récepteur optimal car nous n'avons pas d'expression analytique exacte pour la densité de probabilité du MAI, un récepteur Cauchy s'avère nettement plus performant que le récepteur gaussien.
APA, Harvard, Vancouver, ISO, and other styles
34

Burtscher, Annegret Yvonne. "Analytic and geometric aspects of spacetimes of low regularity." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066345.

Full text
Abstract:
La théorie de la relativité générale décrit l'effet de la gravitation en termes de géométrie des espaces-temps. La courbure des variétés lorentzienne est liée à l'énergie et l'évolution de la matière (ou du vide) par les équations d'Einstein, un système d'équations différentielles non-linéaires. Dans les années 1950, l'existence locale de solutions des équations d'Einstein a été établie. Motivé par ce résultat, j'étudie l'évolution ainsi que la régularité des espaces-temps. Il est démontré que certaines estimations d'énergie peuvent être contrôlées par des limites unilatérales portant uniquement sur la géométrie. Les estimations de l'énergie Bel-Robinson, par exemple, sont indispensables pour le calcul des critères d'effondrement pour les solutions des équations d'Einstein. Comme un important espace-temps, des modèles astrophysiques avec des sources de fluides parfaits sont considérés. Une théorie d'existence de solutions à symétrie sphérique pour l'équations Einstein-Euler est présenté et on identifie une classe de données initiales non-piégées qui conduit à la formation dynamique de surfaces piégées. Pour permettre des ondes de choc, des solutions à variation bornée sont considérées. Dans ce cadre de là et dans d'autres domaines de la relativité générale, il est crucial de comprendre si et comment la régularité des métriques influe sur la géométrie des espaces-temps. Je propose aussi quelques résultats généraux sur les métriques riemanniennes continues et sur l'algèbre des fonctions généralisées. Cette thèse montre donc que l'espace-temps de faible régularité présentent un large éventail de phénomènes intéressants au cours de leur évolution
The general theory of relativity describes the effect of gravitation in terms of the geometry of spacetimes. The curvature of Lorentzian manifolds is related to the energy and momentum of matter (or vacuum) by the Einstein equations, a system of nonlinear partial differential equations. In the 1950s the initial value formulation and local existence of solutions to the Einstein equations were established. As of yet the global structure of spacetimes is much less understood. Motivated by this I investigate the evolution as well as the regularity of spacetimes. I show that certain energy estimates can be controlled by one-sided bounds on the geometry only. Estimates of the Bel-Robinson energy, for example, play a crucial role in the derivation of breakdown criteria for solutions of the vacuum Einstein equations. As an important astrophysical model spacetimes with perfect fluid sources are considered. An existence theory for spherically symmetric solutions to the Einstein-Euler equations is presented, and, above all, I identify for the first time a class of untrapped initial data that leads to the dynamical formation of trapped surfaces. To allow for shock waves, solutions are regarded to be of bounded variation. The distributional framework is essential here and in other areas of general relativity, and it is crucial to understand if and how the regularity of metrics influences the geometry of spacetimes. I account for this by deriving some general results on continuous Riemannian metrics and algebras of generalized functions. This thesis thus illustrates that spacetimes of low regularity exhibit a wide range of interesting phenomena during their evolution
APA, Harvard, Vancouver, ISO, and other styles
35

Zheng, Huicheng. "Modèles de maximum d'entropie pour la détection de la peau : application au filtrage de l'internet." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Zheng.pdf.

Full text
Abstract:
La détection de la peau dans les images en couleur joue un rôle très important pour de nombreux problèmes de reconnaissance de formes. Citons la détection de visages ou encore la détection de corps humain dans une image. La résolution partielle de ces problèmes permet de faire des progrès dans les applications suivantes : le filtrage de l'internet, afin, par exemple, de signaler les images pornographiques, l'indexation par le contenu de catalogues d'images, ou encore la visioconférence, en permettant le suivi des visages dans des séquences d'images. Nous disposons d'une large collection d'images qui ont été étiquetées manuellement. Ainsi, chaque pixel de chaque image de cette collection admet un label binaire : "peau" ou "non-peau". Nous considérons successivement trois modèles probabilistes de complexité croissante pour la détection de la peau. Chaque modèle est un modèle de maximum d'entropie sur la moyenne. Tout d'abord, les contraintes ne portent que sur les lois marginales des couleurs pour chaque pixels. Puis, nous ajoutons des contraintes sur les lois jointes des labels binaires - "peau" ou "non-peau" - des pixels voisins. Le modèle obtenu est alors un champs de Markov
Dans un troisième temps, nous ajoutons des contraintes sur les couleurs des pixels voisins. Le modèle obtenu est à nouveau un champs de Markov mais contenant un très grand nombre de paramètres. Afin, aussi bien d'estimer les paramètres de ces modèles que d'effectuer de l'inférence, c'est à dire, étant donné une image couleur, calculer la probabilité pour chaque pixel qu'il corresponde à de la peau, nous proposons d'approximer, localement, le graphe associé aux pixels par un arbre. On dispose alors de l'algorithme "iterative scaling" pour l'estimation des paramètres et de l'algorithme "belief propagation" pour l'inférence. Nous avons effectué de nombreuses études expérimentales afin d'évaluer les performances respectives des différents modèles, en particulier en modifiant la taille et la géométrie des arbres. Dans le cas du projet européen Poesia, nous avons utilisé notre détecteur de peau en entrée d'un système de classification utlisant la méthode des réseaux neuronaux pour bloquer les pages webs indésirable pour les enfants. Nous avons obtenu des résultats extrèmement encourageants
APA, Harvard, Vancouver, ISO, and other styles
36

Renaudineau, Hugues. "Hybrid Renewable Energy Sourced System : Energy Management & Self-Diagnosis." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0336.

Full text
Abstract:
Cette thèse a pour but le développement d'une source photovoltaïque autonome ayant des capacités d'auto-diagnostic. Un structure d'hybridation spécifique est proposée consistant en une hybridation DC de sources photovoltaïques, d'une batterie au lithium et de supercondensateurs. Des modèles dynamiques des convertisseurs boost conventionnels et de leur variante avec isolation galvanique sont proposés. Un observateur d'état est ensuite présenté pour estimer en ligne les différents paramètres représentant les pertes des convertisseurs. On montre qu'il est possible d'utiliser ces paramètres estimés pour la gestion de l'énergie dans le système, avec en particulier l'optimisation du rendement de structures parallèles. L'optimisation des sources photovoltaïques est aussi étudiée avec une attention particulière accordée aux phénomènes d'ombrage partiel et le design d'un algorithme de maximisation de la puissance produite (MPPT) dans le cas d'une architecture distribuée série. De part une architecture de puissance spécifique, on propose aussi une méthode d'estimation de l'état de santé (SOH) de la batterie qui est validée sur des cellules de batterie Li - ion et LiFePO4. On montre que le convertisseur Cuk isolé avec inductances couplées est parfaitement adapté pour faire du diagnostic en ligne sur les batteries par injection de courant. Enfin, un schéma de gestion de l'énergie global est proposé, et on vérifie le bon fonctionnement de l'ensemble de la source hybride proposée
This thesis interested on developing a stand-alone photovoltaic system with self-diagnosis possibility. A specific structure has been proposed consisting in a DC hybridization of photovoltaic sources, a Lithium-based battery and supercapacitors. Dynamics models of the boost converter and the current-fed dual-bridge DC-DC converter are proposed and an efficient state observer is proposed to estimate the models equivalent losses' parameters online. It is shown that the estimated parameters can be used in the energy management scheme, with in particular optimisation of the efficiency of paralleled structures. The photovoltaic source optimization is also studied with special attention on shading phenomenon and design of MPPT technique especially on the case of distributed series architecture. Through a specific hybridization structure, State-Of-Health estimation is tested on Li-ion and LiFePO4 batteries. It is shown that the isolated coupled-inductors Cuk converter is very efficient for battery estimation through current injection. Finally, a global energy management scheme is proposed, and the developed stand-alone photovoltaic system is validated to operate as supposed
APA, Harvard, Vancouver, ISO, and other styles
37

Roland, Christophe. "Méthodes d'accélération de convergence en analyse numérique et en statistique." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Roland.pdf.

Full text
Abstract:
En premier lieu (chap. 1), je me suis intéressé à deux méthodes différentes proposées par Altman (1960) pour résoudre un système linéaire. Ces méthodes peuvent être considérées cornme des méthodes de sous-espaces de Krylov pour résoudre un système projeté du système initial. Le lien avec les méthodes classiques de sous-espaces de Krylov est précisé et des résultats théoriques et numériques sur le comportement de la:convergence sont donnés. Ensuite (chap. 2), en utilisant des techniques d'extrapolation introduites par Brezinski (1999); j'ai obtenu diverses estimations du vecteur erreur. Cette nouvelle approche permet de retrouver plusieurs méthodes connues de projection et de donner de nouvelles procédures d'accélération. Puis (chap. 3), j'ai introduit une nouvelle méthode itérative pour résoudre des problèmes non linéaires de point fixe. Cette méthode inspirée par la méthode de Cauchy-Barzilai-Borwein (Raydan et al (2002)) peut être considérée comme une modification des méthodes Delta k introduites par Brezinski et Chehab (1998). Des résultats numériques concernant la solution d'un problème de réaction-diffusion avec bifurcations illustrent l'efficacité de cette nouvelle méthode. Un résultat théorique de convergence est donné. Finalement, je me suis intéréssé à l'accélération de la convergence de l'algorithme E. M. (chap. 4) qui est utilisé pour calculer des estimateurs du maximum de vraisemblance dans des problèmes de données incomplètes. J'ai présenté une nouvelle stratégie appelée Squaring (chap. 5) qui permet d'obtenir une classe de schémas itératifs afin d'accélérer la convergence de cet algorithme. Des résultats de convergence et des expériences numériques variées dont une application en tomographie (chap. 6) montrent l'intérêt de ces schémas. D'autre part (chap. 7), dans le cadre du Cemracs 2003, je me suis intéressé à un problème issu de la physique des plasmas concernant la résolution d'une équation de Vlasov-Poisson. Le but était d'améliorer l'efficacité des codes Particles ln Cell (PIC) à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes. Des résultats numériques en une dimension concernant le problème de l'amortissement Landau ont été obtenus pour valider la méthode.
APA, Harvard, Vancouver, ISO, and other styles
38

Moine, Edouard. "Estimation d’énergies de GIBBS de solvatation pour les modèles cinétiques d’auto-oxydation : développement d’une banque de données étendue et recherche d’équations d’état cubiques et SAFT adaptées à leur prédiction." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0295.

Full text
Abstract:
Les réactions d’oxydation d’hydrocarbures en phase liquide (aussi appelées auto-oxydation) jouent un rôle essentiel dans un grand nombre de procédés de l’industrie pétrochimique car elles assurent la conversion du pétrole en composés chimiques organiques valorisables. Elles régissent également la stabilité à l’oxydation des carburants (vieillissement) et des produits chimiques dérivés du pétrole. Ces réactions d’oxydation en phase liquide relèvent de mécanismes radicalaires en chaîne impliquant des milliers d’espèces et de réactions élémentaires. La modélisation cinétique de tels systèmes reste actuellement un défi car elle nécessite de disposer de données thermodynamiques et cinétiques précises, qui sont rares dans la littérature. Le logiciel EXGAS, développé au LRGP, permet de générer automatiquement des modèles cinétiques détaillés pour des réactions d’oxydation d’hydrocarbures en phase gazeuse. Qu’il s’agisse d’une phase gazeuse ou liquide, les réactions élémentaires mises en jeu sont de même nature et la méthodologie de génération du mécanisme est la même. Pour passer d’un mécanisme en phase gaz à un mécanisme en phase liquide il convient d’adapter les valeurs des constantes d’équilibre et de vitesse (appelées constantes thermocinétiques) des réactions du mécanisme. L’objectif de cette thèse est de proposer une méthode pour corriger les constantes thermocinétiques de la phase gaz pour qu’elles deviennent applicables à la phase liquide. Cette correction fait intervenir une grandeur appelée énergie de GIBBS de solvatation molaire partielle. Une analyse de la définition précise de cette quantité nous a permis de montrer qu’elle s’exprime simplement en fonction d’un coefficient de fugacité et d’une densité molaire. Nous avons ensuite relié cette grandeur à des quantités thermodynamiques mesurables (coefficients d’activité, constantes de HENRY …) et nous nous sommes appuyés sur toutes les données qu’il nous a été possible de trouver dans la littérature pour créer la banque de données expérimentales d’énergies de GIBBS de solvatation molaires partielles la plus complète (intitulée CompSol). Cette banque de données a ensuite servi à valider l’utilisation de l’équation d’état UMR-PRU pour prédire ces énergies. Les bases d’une équation d’état de type SAFT, au paramétrage original, développé dans le cadre de cette thèse, ont été posées. Notre objectif était de simplifier l’estimation des paramètres corps purs de cette équation d’état en proposant une méthode de paramétrage ne nécessitant aucune procédure d’optimisation, claire et reproductible, à partir de données très facilement accessibles dans la littérature. Cette équation a été utilisée pour estimer les énergies de GIBBS de solvatation molaires des corps purs et les énergies de GIBBS de solvatation molaires partielles de systèmes {soluté+solvant}. Enfin, ces méthodes d’estimation des énergies de GIBBS de solvatation molaires partielles ont été combinées au logiciel EXGAS afin de modéliser l’oxydation du n-butane en phase liquide
Liquid phase oxidation of hydrocarbons (also called autoxidation) is central to a large number of processes in the petrochemical industry as it plays a key role in the conversion of petroleum feedstock into valuable organic chemicals. This phenomenon is also crucial in oxidation-stability studies of fuels and its derivatives (aging). These liquid-phase oxidation reactions entail radical mechanisms involving more than thousands of compounds and elementary reactions. Kinetic modelling of these kinds of reactions remains a significant challenge because it requires thermodynamic and kinetic parameters, which are not abundant in literature. The EXGAS software, developed at LRGP, is able to generate these kinds of models but only for oxidation reactions taking place in a gaseous phase. It is assumed that the nature of elementary reactions in the liquid and gaseous phases is the same. The unique need to transfer a kinetic mechanism from a gas phase to a liquid phase is to update kinetic rate constant values and equilibrium constant values (called thermokinetic constants) of mechanism reactions. Therefore, in the framework of this PhD thesis, a new method aimed at applying a correction term to thermokinetic constants of gaseous phases is proposed in order to obtain constants usable to describe liquid-phase mechanisms. This correction involves a quantity called partial molar solvation GIBBS energy. An analysis of the precise definition of this property led us to conclude that it can be simply expressed as a function of fugacity coefficients and liquid molar density. As a result, this property could also be expressed with respect to measurable thermodynamic quantities as activity coefficients or HENRY’s law constants. By combining all the experimental data related to these measurable properties that can be found in the literature, it was possible to develop a comprehensive databank of partial molar solvation GIBBS energies (called the CompSol database). This database was used to validate the use of the UMR-PRU equation of state to predict solvation quantities. Moreover, the bases of a new parameterization for SAFT-type equations of state were laid. It consists in estimating pure-component parameters of SAFT-like equation using a very simple, reproducible and transparent path for non-associating pure components. This equation was used to calculate partial molar GIBBS energy of solvation of pure and mixed solutes. Last, equations of state were combined with EXGAS software to model the oxidation of n-butane in the liquid phase
APA, Harvard, Vancouver, ISO, and other styles
39

Moine, Edouard. "Estimation d’énergies de GIBBS de solvatation pour les modèles cinétiques d’auto-oxydation : développement d’une banque de données étendue et recherche d’équations d’état cubiques et SAFT adaptées à leur prédiction." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0295/document.

Full text
Abstract:
Les réactions d’oxydation d’hydrocarbures en phase liquide (aussi appelées auto-oxydation) jouent un rôle essentiel dans un grand nombre de procédés de l’industrie pétrochimique car elles assurent la conversion du pétrole en composés chimiques organiques valorisables. Elles régissent également la stabilité à l’oxydation des carburants (vieillissement) et des produits chimiques dérivés du pétrole. Ces réactions d’oxydation en phase liquide relèvent de mécanismes radicalaires en chaîne impliquant des milliers d’espèces et de réactions élémentaires. La modélisation cinétique de tels systèmes reste actuellement un défi car elle nécessite de disposer de données thermodynamiques et cinétiques précises, qui sont rares dans la littérature. Le logiciel EXGAS, développé au LRGP, permet de générer automatiquement des modèles cinétiques détaillés pour des réactions d’oxydation d’hydrocarbures en phase gazeuse. Qu’il s’agisse d’une phase gazeuse ou liquide, les réactions élémentaires mises en jeu sont de même nature et la méthodologie de génération du mécanisme est la même. Pour passer d’un mécanisme en phase gaz à un mécanisme en phase liquide il convient d’adapter les valeurs des constantes d’équilibre et de vitesse (appelées constantes thermocinétiques) des réactions du mécanisme. L’objectif de cette thèse est de proposer une méthode pour corriger les constantes thermocinétiques de la phase gaz pour qu’elles deviennent applicables à la phase liquide. Cette correction fait intervenir une grandeur appelée énergie de GIBBS de solvatation molaire partielle. Une analyse de la définition précise de cette quantité nous a permis de montrer qu’elle s’exprime simplement en fonction d’un coefficient de fugacité et d’une densité molaire. Nous avons ensuite relié cette grandeur à des quantités thermodynamiques mesurables (coefficients d’activité, constantes de HENRY …) et nous nous sommes appuyés sur toutes les données qu’il nous a été possible de trouver dans la littérature pour créer la banque de données expérimentales d’énergies de GIBBS de solvatation molaires partielles la plus complète (intitulée CompSol). Cette banque de données a ensuite servi à valider l’utilisation de l’équation d’état UMR-PRU pour prédire ces énergies. Les bases d’une équation d’état de type SAFT, au paramétrage original, développé dans le cadre de cette thèse, ont été posées. Notre objectif était de simplifier l’estimation des paramètres corps purs de cette équation d’état en proposant une méthode de paramétrage ne nécessitant aucune procédure d’optimisation, claire et reproductible, à partir de données très facilement accessibles dans la littérature. Cette équation a été utilisée pour estimer les énergies de GIBBS de solvatation molaires des corps purs et les énergies de GIBBS de solvatation molaires partielles de systèmes {soluté+solvant}. Enfin, ces méthodes d’estimation des énergies de GIBBS de solvatation molaires partielles ont été combinées au logiciel EXGAS afin de modéliser l’oxydation du n-butane en phase liquide
Liquid phase oxidation of hydrocarbons (also called autoxidation) is central to a large number of processes in the petrochemical industry as it plays a key role in the conversion of petroleum feedstock into valuable organic chemicals. This phenomenon is also crucial in oxidation-stability studies of fuels and its derivatives (aging). These liquid-phase oxidation reactions entail radical mechanisms involving more than thousands of compounds and elementary reactions. Kinetic modelling of these kinds of reactions remains a significant challenge because it requires thermodynamic and kinetic parameters, which are not abundant in literature. The EXGAS software, developed at LRGP, is able to generate these kinds of models but only for oxidation reactions taking place in a gaseous phase. It is assumed that the nature of elementary reactions in the liquid and gaseous phases is the same. The unique need to transfer a kinetic mechanism from a gas phase to a liquid phase is to update kinetic rate constant values and equilibrium constant values (called thermokinetic constants) of mechanism reactions. Therefore, in the framework of this PhD thesis, a new method aimed at applying a correction term to thermokinetic constants of gaseous phases is proposed in order to obtain constants usable to describe liquid-phase mechanisms. This correction involves a quantity called partial molar solvation GIBBS energy. An analysis of the precise definition of this property led us to conclude that it can be simply expressed as a function of fugacity coefficients and liquid molar density. As a result, this property could also be expressed with respect to measurable thermodynamic quantities as activity coefficients or HENRY’s law constants. By combining all the experimental data related to these measurable properties that can be found in the literature, it was possible to develop a comprehensive databank of partial molar solvation GIBBS energies (called the CompSol database). This database was used to validate the use of the UMR-PRU equation of state to predict solvation quantities. Moreover, the bases of a new parameterization for SAFT-type equations of state were laid. It consists in estimating pure-component parameters of SAFT-like equation using a very simple, reproducible and transparent path for non-associating pure components. This equation was used to calculate partial molar GIBBS energy of solvation of pure and mixed solutes. Last, equations of state were combined with EXGAS software to model the oxidation of n-butane in the liquid phase
APA, Harvard, Vancouver, ISO, and other styles
40

Rodiet, Christophe. "Mesure de Température par Méthodes Multi-Spectrales et Caractérisation Thermique de Matériaux Anisotropes par Transformations Intégrales : « Aspects Théoriques et Expérimentaux »." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0283/document.

Full text
Abstract:
Ce mémoire est constitué de deux parties relativement indépendantes, dont la première partie porte sur les méthodes de mesure de température par méthodes Multi-Spectrales (pyrométrie optique passive), et la seconde sur la Caractérisation Thermique à haute température par transformations intégrales de matériaux orthotropes. Dans chacune de ces deux parties, les méthodes/modèles développés ont été traités du point de vue théorique, numérique, et expérimental. Dans la partie multi-spectrale, une méthode de mesure de température permettant de prendre en compte les variations spectrales de la chaine de mesure globale (incluant l’émissivité) a été présentée. De plus, une méthode de détermination des longueurs d’ondes optimales au sens de la minimisation de l’écart-type sur la température, a été développée. Enfin, il a également été montré que les longueurs d’ondes optimales pour les mesures mono-spectrales et bi-spectrales pouvaient être déterminées à l’aide de lois analogues à la loi de déplacement de Wien. Dans la partie Caractérisation Thermique, différentes méthodes et modèles ont été développés. Les méthodes proposées effectuent l’estimation des diffusivités longitudinales et transversales sur l’ensemble des harmoniques simultanément. De plus, ces méthodes permettent de s’affranchir du couplage thermique dû à la présence d’un porte-échantillon, et/ou d’effectuer des mesures de diffusivités pseudo-locales, en injectant comme conditions aux limites les informations expérimentales obtenues par caméra infrarouge. Enfin, les notions de corrélation entre les paramètres et de durée d’exploitabilité des harmoniques ont également été abordées
This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed.This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Bars Solène. "Action-effect prediction in intention-based and stimulus-driven actions : an exploration of the ideomotor theory and of the brain free-energy principle." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB235.

Full text
Abstract:
Les actions motrices humaines peuvent être envisagées comme étant soit volontaires, c'est-à-dire intérieurement déclenchées afin d’atteindre un certain but, soit réactives, c'est-à-dire extérieurement déclenchées par des stimuli environnementaux. Cette dissociation a notamment été proposée au sein de la théorie idéomotrice suggérant que la réalisation d'actions volontaires repose sur notre capacité à prédire les conséquences sensorielles de nos actions, grâce aux associations action-effet qui sont acquises avec l'expérience. Selon les modèles computationnels tels que le principe de minimisation de l’énergie libre, la prédiction sensorielle est également considérée comme un processus majeur de la perception et du contrôle moteur, indépendamment du type d’action. Dès lors, les études visant à explorer la prédiction sensorielle liée au contrôle moteur ont systématiquement minimisé la distinction potentielle entre deux types d'actions plus ou moins indépendantes. Dans la présente thèse, nous nous sommes principalement attelés à tester la théorie idéomotrice originale qui suggère une implication supérieure de la prédiction sensorielle dans les actions intentionnelles par rapport à des actions plus réactives. Nous avons réalisé ce travail selon trois axes : (1) À travers des expériences comportementales, nous avons cherché à préciser à quel(s) stade(s) moteur(s) la prédiction de l'effet de l'action pouvait être associée, dans les actions intentionnelles d’une part et dans les actions davantage réactives d’autre part, afin de pouvoir dissocier la dynamique temporelle de la prédiction sensorielle au sein de ces deux catégories d'actions. (2) En tirant parti des postulats dérivés des approches computationnelles, nous avons utilisé l'EEG pour explorer d'abord le niveau d'erreur de prédiction liée aux effets sensoriels imprévisibles ou mal-prédits afin de dissocier ces deux types d'événements non prédits au niveau neural. Par la suite, nous avons étudié si les marqueurs EEG de la prédiction sensorielle (c'est-à-dire l'erreur de prédiction et l'atténuation sensorielle) étaient modulés par le type d'action déclenchant l'effet sensoriel. (3) Enfin, nous avons examiné si des variations dans le processus de prédiction des effets de l'action pouvaient être associés à certains déficits moteurs dans la maladie de Parkinson et à des tendances impulsives mesurées chez des participants sains, pour éventuellement conférer une dimension clinique au processus de prédiction sensorielle. Nos résultats ont démontré (1) que la dynamique temporelle de la prédiction des effets de l'action semble effectivement dépendre du type d'action, en étant liée aux étapes précoces et tardives de la préparation motrice des actions intentionnelles, mais seulement aux étapes tardives de la préparation motrice des actions réactives. Nous avons également montré que (2) les événements mal prédits généraient une erreur de prédiction plus importante comparativement à des événements imprévisibles. Par ailleurs, les marqueurs EEG de la prédiction sensorielle étaient plus prononcés pour les effets auditifs déclenchés par des actions intentionnelles par rapport aux effets auditifs déclenchés par des actions réactives. Enfin, nos résultats ont permis de démontrer que (3) le processus de prédiction sensorielle semble être altéré lors de la réalisation d’actions intentionnelles chez des patients atteints de la maladie de Parkinson, et que les marqueurs EEG de la prédiction d’effets auditifs déclenchés par des actions intentionnelles sont modulés par les tendances impulsives d’individus sains. Dans l'ensemble, nos résultats soutiennent l’existence d’une dissociation fonctionnelle entre actions intentionnelle et réactive, et sont également cohérents avec la version originale de la théorie idéomotrice étant donné que la prédiction sensorielle semble être impliquée plus tôt et plus fortement dans les actions intentionnelles que dans les actions réactives. (…)
Motor actions can be classified as being either intention-based, i.e. internally triggered in order to reach a certain goal, or either stimulus-driven, i.e. externally triggered in order to accommodate to environmental events. This elementary dissociation was notably theorized within the original ideomotor theory stating that performing intention-based actions relies on our capacity to predict the sensory consequences of our actions, due to action-effect associations learnt through experience. In recent neurocomputational models such as the brain free-energy principle, this sensory prediction is considered as a key process of overall sensorium and motor control, regardless the action type. Henceforth, experiments studying sensory prediction related to motor control have systematically minimized the potential distinction between two more or less independent action types. In the current thesis, we mainly attempted to address this issue by testing the original ideomotor viewpoint, suggesting a superior involvement of action-effect prediction in intention-based actions compared to more reactive actions. We achieved this work according to three axes: (1) Through behavioural experiments, we aimed at clarifying which motor stage(s) action-effect prediction is related to, within intention-based actions and within stimulus-driven actions, in order to potentially dissociate the temporal dynamics of action-effect prediction in these two categories of actions. (2) Taking advantage from assumptions derived from neurocomputational approaches, we used EEG to first explore the level of prediction error related to unpredicted vs. mispredicted auditory events in order to dissociate these two types of nonpredicted events at a neural level. Then, we investigated whether EEG markers of sensory prediction (i.e., prediction error and sensory attenuation) were modulated by the kind of action triggering the sensory effect. (3) Finally, we intended to examine whether action-effect prediction variations could be linked to motor deficits in Parkinson's disease on the one hand, and to impulsivity tendencies in healthy participants on the other hand, for possibly yielding a clinical dimension to the sensory prediction process. Our findings demonstrated (1) the temporal dynamics of action-effect prediction seems to depend on the action kind, being linked to both early and late stages of motor preparation of intention-based actions and only to late stages of motor preparation of stimulus-driven actions. We also showed that (2) mispredicted events were linked to enhanced prediction error compared to unpredicted events, and that EEG markers of sensory prediction were more pronounced for auditory effects triggered by intention-based actions compared to auditory effects triggered by stimulus-driven actions. Then, our results sustained that (3) the action-effect prediction process seems to be impaired for intention-based actions in Parkinson's disease, and that EEG markers of sensory prediction for effects triggered by intention-based actions are modulated by impulsiveness tendencies in healthy participants. Altogether, our findings are consistent with the original version of the ideomotor theory given the action-effect prediction appeared to be earlier and stronger involved in intention-based actions compared to stimulus-driven actions. Our EEG data also modernized the ideomotor principle, reconciling it with neurocomputational approaches of sensory prediction. Finally, the clinical exploration of the action-effect prediction process in pathologies affecting motor control appeared promising to understand intermediate neurocognitive processes which are involved in motor symptoms or characteristics
APA, Harvard, Vancouver, ISO, and other styles
42

Chalard, Rémi. "Robustesse à la variabilité du comportement mécanique du point d'insertion en chirurgie mini-invasive robotisée. Application à la biopsie de prostate." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS591.

Full text
Abstract:
La chirurgie mini-invasive (MIS) permet au chirurgien d'opérer un patient sans avoir à l'inciser entièrement. Cette chirurgie consiste à insérer des instruments chirurgicaux à travers des orifices artificiels ou naturels. Bien que très avantageux pour le patient, elle entraîne de nombreuses contraintes pour le chirurgien. Afin d'améliorer les conditions de chirurgie pour le praticien, des systèmes robotisés ont été développés. Ces solutions permettent de comanipuler ou télémanipuler l'outil chirurgical en se basant sur le modèle du bras de levier pour traduire le problème de contrôle d'un instrument à travers un orifice. Ces travaux montrent qu'une petite erreur de calibration dans le modèle de la littérature peut entraîner une grande erreur statique et une divergence lors de déplacements automatiques en MIS. Pour assurer une minimisation des efforts appliqués sur la zone d'insertion, la thèse se concentre sur les robots anthropomorphiques à poignet libre. Pour réaliser des déplacements automatiques précis, il faut pouvoir connaître à tout instant et le plus précisément possible l'interaction entre le poignet du robot et la pointe de l'instrument. Pour cela, deux estimateurs sont implémentés dans une commande sur un robot à poignet libre et testés sur un set-up expérimental simulant l'insertion d'un instrument chirurgical à travers un orifice. Après avoir démontré la nécessité de prendre en compte les déformations des tissus pour des opérations telles que la biopsie de la prostate, la commande est utilisée dans une boucle d'asservissement visuel. Cet asservissement visuel permet de contrôler le positionnement d'une sonde échographique pour des biopsies de prostate
Minimally Invasive Surgery (MIS) allows the surgeon to operate without cutting open the patient. This kind of surgery, which consists in the insertion of surgical tools through artificial or natural orifices, is spreading rapidly. Even though this technique presents numerous advantages for the patient, it presents many constraints for the surgeon. Many robotic devices have been developed to improve the working conditions of the surgeons. These solutions are based on a teleoperation or a co-manipulation of the surgical tool. The lever arm model has been used in the control of the instrument through an orifice. In this thesis, it is shown that a small calibration error in the lever arm problem can lead to a big static error and even to a divergence during automatic displacements in a Minimally Invasive Surgery context. To minimize the efforts applied to the insertion area, this thesis focuses on a free-wrist anthropomorphic robot. To automatically move with accuracy, the interaction between the robot wrist and the tool point needs to be known at every time step. Two estimators have been developed and implemented in a control law for a wrist free anthropomorphic robot. This control law has been tested on a experimental setup simulating the insertion of a surgical tool through an orifice. The need to take the tissues deformations into account once demonstrated for surgeries such as prostate or uterine biopsy, the control law has been used in a visual servoing loop based on ultrasound images. This visual servoing can be used to control the position of an ultrasound probe for prostate biopsies
APA, Harvard, Vancouver, ISO, and other styles
43

Bloch-Michel, Valérie. "Logiciel d'estimation de paramètres cinétiques de processus élémentaires en phase gazeuse." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL010N.

Full text
Abstract:
Un logiciel d'estimation de paramètres cinétiques de réactions élémentaires en phase gazeuse, par les méthodes de la cinétique thermochimique de BENSON, a été mis au point. Ce logiciel permet de calculer le facteur préexponentiel et l'énergie d'activation des amorçages unimoléculaires et bimoléculaires, des combinaisons et dismutations de radicaux libres et des isomérisations radicalaires, et le facteur préexponentiel des réactions de métathèses, d'addition d'un radical libre sur une molécule insaturée, et de décomposition unimoléculaire d'un radical libre. Le calcul des données cinétiques des amorçages et des terminaisons est effectué à l'aide de la théorie des collisions, alors que les paramètres cinétiques des autres réactions sont calculés à partir de la théorie du complexe active. Le logiciel a été mis en œuvre pour des réactions élémentaires de pyrolyse et d'oxydation d'hydrocarbures. La comparaison des résultats calculés avec des valeurs d'origine expérimentale montre un accord satisfaisant. Le logiciel a été incorporé dans un code plus vaste de création de modèles cinétiques de combustion dans les moteurs
APA, Harvard, Vancouver, ISO, and other styles
44

David, Noemi. "Incompressible limit and well-posedness of PDE models of tissue growth." Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS235.pdf.

Full text
Abstract:
Les modèles de milieux poreux, en régime compressible ou incompressible, sont utilisés dans la littérature pour décrire les propriétés mécaniques des tissus vivants et en particulier de la croissance tumorale. Il est possible de construire un lien entre ces deux différentes représentations en utilisant une loi de pression raide. Dans la limite incompressible, les modèles compressibles conduisent à des problèmes de frontières libres de type Hele-Shaw. Nos travaux visent à étudier la limite de pression raide des équations de type milieu poreux motivées par le développement tumoral. Notre première étude concerne l’analyse et la simulation numérique d’un modèle incluant l’effet des nutriments. Ensuite, un système d’équations, dont le couplage est délicat, décrit la densité cellulaire et la concentration en nutriments. Pour cette raison, la dérivation de l’équation de pression dans la limite incompressible était un problème ouvert qui nécessite la compacité forte du gradient de pression. Pour l’établir, nous utilisons deux nouvelles idées : une version L3 de la célèbre estimation d’Aronson-Bénilan, également utilisée récemment pour des problèmes connexes, et une estimation L4 sur le gradient de pression (où l’exposant 4 est optimal). Nous étudions en outre l’optimalité de cette estimation par un schéma numérique upwind aux différences finies, que nous montrons être stable et asymptotic preserving. Notre deuxième étude est centrée sur l’équation de milieux poreux avec effets convectifs. Nous étendons les techniques développées pour le cas avec nutriments, trouvant ainsi la relation de complémentarité sur la pression limite. De plus, nous fournissons une estimation du taux de convergence à la limite incompressible. Enfin, nous étudions un système multi-espèces. En particulier, en tenant compte de l’hétérogénéité phénotypique, nous incluons une variable structurée dans le problème. Par conséquent, un système de diffusion croisée et dégénérée décrit l’évolution des distributions phénotypiques. En adaptant des méthodes récemment développées pour des systèmes à deux équations, nous prouvons l’existence de solutions faibles et nous passons à la limite incompressible. En outre, nous prouvons de nouveaux résultats de régularité sur la pression totale, qui est liée à la densité totale par une loi de puissance
Both compressible and incompressible porous medium models have been used in the literature to describe the mechanical aspects of living tissues, and in particular of tumor growth. Using a stiff pressure law, it is possible to build a link between these two different representations. In the incompressible limit, compressible models generate free boundary problems of Hele-Shaw type where saturation holds in the moving domain. Our work aims at investigating the stiff pressure limit of reaction-advection-porous medium equations motivated by tumor development. Our first study concerns the analysis and numerical simulation of a model including the effect of nutrients. Then, a coupled system of equations describes the cell density and the nutrient concentration. For this reason, the derivation of the pressure equation in the stiff limit was an open problem for which the strong compactness of the pressure gradient is needed. To establish it, we use two new ideas: an L3-version of the celebrated Aronson-Bénilan estimate, also recently applied to related problems, and a sharp uniform L4-bound on the pressure gradient. We further investigate the sharpness of this bound through a finite difference upwind scheme, which we prove to be stable and asymptotic preserving. Our second study is centered around porous medium equations including convective effects. We are able to extend the techniques developed for the nutrient case, hence finding the complementarity relation on the limit pressure. Moreover, we provide an estimate of the convergence rate at the incompressible limit. Finally, we study a multi-species system. In particular, we account for phenotypic heterogeneity, including a structured variable into the problem. In this case, a cross-(degenerate)-diffusion system describes the evolution of the phenotypic distributions. Adapting methods recently developed in the context of two-species systems, we prove existence of weak solutions and we pass to the incompressible limit. Furthermore, we prove new regularity results on the total pressure, which is related to the total density by a power law of state
APA, Harvard, Vancouver, ISO, and other styles
45

Chaput, Ludovic. "Compréhension de l'énantiosélectivité de la lipase B de Candida antarctica : étude par modélisation moléculaire et expérimentation." Phd thesis, Université de La Rochelle, 2012. http://tel.archives-ouvertes.fr/tel-00825876.

Full text
Abstract:
La lipase B de Candida antarctica (CALB) est un enzyme présentant des propriétés énantiosélectives très intéressantes pour l'obtention de molécules énantio pures par dédoublement cinétique de mélanges racémiques,molécules utilisées comme synthons dans l'industrie pharmaceutique. En effet, le principe actif de nombreux médicaments est efficace sous une forme énantio pure, l'autre forme chirale pouvant se révéler délétère pour l'organisme.Les travaux de la thèse s'intéressent à mieux comprendre l'origine de l'énantiosélectivité de la lipase B de Candida antarctica, en particulier pour la résolution d'alcools secondaires par des réactions de transestérification.Nous utilisons pour la première fois la méthode de la perturbation de l'énergie libre pour estimer la différence d'énergie libre entre les intermédiaires tétraédriques obtenus avec les formes R et S d'alcools énantiomères pour une série d'alcools secondaires, dans le but de prédire in silico l'énantiosélectivité de la CALB. Les paramètres cinétiques apparents d'une réaction avec deux alcools substrats énantiopurs sont expérimentalement déterminés et permettent de définir la contribution respective du Km et du kcat de chaque énantiomère pour la définition de l'énantiosélectivité. L'étude expérimentale de l'effet d'empreinte par des molécules co-substrats est réalisée,ainsi qu'une étude par modélisation moléculaire de l'effet d'empreinte par le premier ester substrat de la réaction qui pourrait modifier la conformation du site actif de la CALB. La troisième partie porte sur l'étude de la CALB et de trois variants (T42V, S47A et T42V/S47A) chez lesquels les acides aminés dans la poche stéréospécifiques ont mutés. T42V et S47A permettent d'obtenir une augmentation de l'énantiosélectivité. L'étude propose une étude détaillée de la conformation du site actif à partir de simulations de trajectoires de dynamique moléculaire
APA, Harvard, Vancouver, ISO, and other styles
46

Feuardent, Valérie. "Amélioration des modèles par recalage : application aux structures spatiales." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0019.

Full text
Abstract:
Les modèles de calcul doivent permettre de prédire le comportement de structure complexe de façon précise. Il s'agit de minimiser la distance séparant les résultats de calcul (modèles éléments-finis) des données expérimentales (vibrations libres). Pour cela, la technique itérative de localisation-correction basée sur la notion de mesure d'erreur en relation de comportement (incluant une mesure d'erreur dynamique) est utilisée. Une base réduite de projection est proposée pour le recalage concernant les modélisations à grand nombre de degrés de liberté. Cette base construite à l'aide d'une méthode de sous-structuration a la particularité d'être associée aux tests expérimentaux. La robustesse au bruit de la méthode est considérée. Au niveau des résultats, l'étape de localisation des erreurs de modélisation est particulièrement performante et le problème inverse de détermination des paramètres dans le processus de correction ne rencontre pas de difficulté de résolution. Les erreurs faites lors de la modélisation des masses et des raideurs sont corrigées en quelques itérations.
APA, Harvard, Vancouver, ISO, and other styles
47

Lang, Humblot Karine. "Etude et réalisation d'un magnétomètre à résonance magnétique nucléaire à polarisation dynamique pour les applications en forage pétrolier." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10023.

Full text
Abstract:
Les magnetometres a resonance magnetique nucleaire bases sur le phenomene de polarisation dynamique sont des instruments tres adaptes a la mesure du champ magnetique terrestre dans les puits de forage petrolier, ce qui permet une datation assez precise des couches geologiques concernees. Le magnetometre contient un solvant protone avec des radicaux libres en solution afin de realiser la polarisation dynamique qui amplifie le signal nucleaire des protons inobservable sans ce dispositif. Le but de ce travail est d'ameliorer les performances du magnetometre en presence de gradients de champs magnetiques importants et de permettre son fonctionnement jusqu'a des temperatures relativement elevees. Le choix de la solution radicalaire est crucial. Les criteres preponderants sont l'obtention d'un radical stable presentant une structure hyperfine interne importante et une largeur de raie rpe fine. Nous avons developpe un modele plus performant de cette largeur de raie qui nous a permis de definir precisement les caracteristiques requises pour le radical et le solvant. Nous avons montre que la tenue en gradient de la solution est conditionnee par des temps de relaxation nucleaires courts et la correlation entre ces deux effets a ete formulee a l'aide d'un modele theorique en accord avec les resultats experimentaux. L'ensemble de ces criteres a conduit au choix de la solution de triglyme contenant le radical nitroxyde tmio. Cette solution stable et relativement resistante aux gradients de champ magnetiques est la plus performante pour notre application. Un nouvel oscillateur base sur cette solution a ete concu et caracterise. Une etude fondamentale complementaire et originale sur la relaxation intermoleculaire entre les protons du solvant et les spins electroniques des radicaux a structure hyperfine interne a ete developpee. Le comportement des densites spectrales selon une loi proportionnelle a la racine de la frequence de resonance nucleaire a ete observe dans divers domaines de frequence, ce qui a permis une determination precise de la constante de diffusion relative du couple radical-solvant
APA, Harvard, Vancouver, ISO, and other styles
48

Andriaminahy, Nofinidy Ho Fanilo. "Estimation optimisée de l'utilisation de l'énergie sur un véhicule électrique." Thèse, 2021. http://depot-e.uqtr.ca/id/eprint/9677/1/eprint9677.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

"Tests exacts de stabilité structurelle et estimation ensembliste des élasticités dans les systèmes de demande avec applications en économie de l'énergie et du transport." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23803/23803.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography